Système dialectique au travers duquel les agents argumentatifs jouent ...

sons un ACL muni d'une sémantique objective, tous les agents confèrent le même sens aux messages. (3) Nous utilisons des dialogues qui sont des processus ...
151KB taille 2 téléchargements 128 vues
Système dialectique au travers duquel les agents argumentatifs jouent et arbitrent Vers une prise de décision collective et débattue Maxime Morge Équipe SMAC Laboratoire d’Informatique Fondamentale de Lille Bat M3 - F-59655 VILLENEUVE D’ASCQ Cedex FRANCE [email protected] RÉSUMÉ. Nous proposons dans cet article DIAL (DIAL Is an Argumentative Labour), un modèle de dialogue entre agents, qui permet de formaliser un processus de prise de décision collective et débattue. Ce modèle circonscrit un dispositif formel au travers duquel les agents jouent et arbitrent pour atteindre un accord. À cette intention, nous proposons un modèle de raisonnement argumentatif qui permet de gérer les conflits entre des arguments ayant des forces différentes selon l’agent qui les évalue. Nous proposons également un modèle d’agents argumentatifs qui justifient les hypothèses sur lesquelles ils s’engagent et prennent en compte les engagements de leurs interlocuteurs. Ainsi, dans le dispositif que nous avons circonscrit, la décision finale est du ressort d’un agent tiers. Celui-ci résout les conflits entre deux joueurs en fonction de leur compétence respective et des arguments avancés. ABSTRACT. We propose in this paper DIAL, a framework for inter-agents dialogue, which formalize a deliberative process. This framework bounds a dialectics system in which argumentative agents arbitrate and play to reach an agreement. For this purpose, we propose an argumentation-based reasoning to manage the conflicts between arguments having different strengths for different agents. Moreover, we propose a model of argumentative agents which justify the hypothesis to which they commit and take into account the commitments of their interlocutors. In the scope of our dialectics system, a third agent is responsible of the final decision outcome which is taken by resolving the conflict between two players according to their competence and the advanced arguments.

MOTS-CLÉS :

Système Multi-Agents, Modèle formel pour l’interaction, Dialogue, Argumentation

KEYWORDS:

Multi-Agent Systems, Formal framework for interaction, Dialogue, Argumentation

1re soumission à JFSMA05, le 25 septembre 2005.

2

1re soumission à JFSMA05.

1. Introduction Dans le domaine de la gestion territoriale, l’adhésion d’un large panel d’acteurs est nécessaire pour garantir le succès des décisions. Le processus doit donner aux acteurs la conviction que la décision est équitable. Ce constat est à l’origine d’un changement de perspective dans l’élaboration des procédures démocratiques. Alors que la démocratie représentative consiste en un processus d’agrégation des préférences individuelles, la démocratie dialogique est un processus participatif de composition des perspectives et des intérêts [CAL 01]. Notre objectif consiste à formaliser ce type de processus à l’aide d’un modèle d’interaction directe entre agents. La plupart des cadres d’interaction entre agents s’appuient sur la théorie des actes de langage [SEA 69]. L’approche mentalistique, adoptée notamment par FIPA-ACL, ne convient pas à notre objectif. (1) Les concepts mentaux ne sont pas adaptés à la gestion de conflits. (2) La communication n’a pas de sémantique publique pour être jugée dans une perspective objective. (3) Alors que des actes de communication isolés ne suffisent pas à atteindre un but commun, les protocoles existants sont trop rigides. À l’inverse, des travaux récents [AMG 02, BEN 02, KAK 02, MCB 02, AMG 01, PRA 00] s’inspirent de la dialectique [PER 58, HAM 70, WAL 95]. Cet article montre comment combiner ces techniques argumentatives pour formaliser la démocratie dialogique. Nous présentons ici DIAL (DIAL Is an Argumentative Labour), notre modèle formel de dialogue entre agents. Celui-ci circonscrit un système dialectique, i.e. un dispositif formel au travers duquel les agents communiquent pour prendre collectivement une décision. (1) Nous proposons un modèle de raisonnement argumentatif pour gérer les interactions entre des arguments conflictuels. (2) Puisque nous définissons un ACL muni d’une sémantique objective, tous les agents confèrent le même sens aux messages. (3) Nous utilisons des dialogues qui sont des processus flexibles et suffisamment raffinés pour garantir qu’un accord est atteint. Dans la section 2, nous montrons pourquoi les techniques argumentatives existantes ne permettent pas de formaliser la démocratie dialogique. La section 3 présente le cadre d’argumentation, i.e. le mécanisme de raisonnement des agents. Nous décrivons dans la section 4 le modèle d’agents utilisé. Dans la section 5, nous définissons le dispositif au travers duquel les agents collaborent pour atteindre un accord. La section 6 présente le protocole de dialogue utilisé pour résoudre les conflits.

2. Motivation Dans cette section, nous présentons pourquoi et comment le cadre d’argumentation ainsi que le modèle de dialogue proposés ici diffèrent de l’existant. Un cadre d’argumentation est un ensemble d’arguments reliés les uns aux autres selon une relation de contradiction qui permet de déterminer leur acceptabilité. Comme l’illustre le tableau 1, ce cadre [DUN 95] a été étendu. D’une part, lorsqu’il s’appuie sur un langage logique, les arguments ne sont plus de simples entités abstraites mais

Système dialectique multi-agents

3

des schémas logiques constitués d’une prémisse qui permet de déduire une conclusion. D’autre part, lorsque de tels cadres sont munis d’une (ou plusieurs) relation(s) de priorité, les arguments ont alors une (ou plusieurs) force(s). Puisque nous souhaitons représenter explicitement les connaissances des agents, nous devons disposer d’une logique argumentative. Puisque chaque agent possède ses propres priorités, nous souhaitons fournir d’un cadre d’argumentation à base de valeurs. Nous proposons dans la section 3 une logique argumentative à base de valeurs. XX X

XXXLangage non X XX Priorité X aucune Système d’argumentation [DUN 95] une Système d’argumentation à base de préférences [AMG 02] plusieurs Système d’argumentation à base de valeurs [BEN 02]

oui Logique argumentative [SCH 02] Logique argumentative à base de préférences [AMG 02, KAK 02] Logique argumentative à base de valeurs [MOR 05]

Tableau 1: Cadres d’argumentation existants Un modèle de dialogue entre agents est un modèle d’interaction directe qui s’inspire de la dialectique [HAM 70, WAL 95, MAU 01]. Comme l’illustre le tableau 2, nous distinguons parmi les modèles existants d’une part ceux qui circonscrivent un dispositif dans lequel le dialogue se déroule et d’autre part ceux qui proposent un modèle d’agent. Puisque nous souhaitons construire un SMA, nous proposons un modèle d’agent (cf section 4). Afin de garantir qu’un accord est atteint au terme des dialogues, nous proposons un dispositif formel (cf section 5). C’est l’objet du modèle DIAL. Dans la section suivante, nous présentons le cadre d’argumentation sur lequel s’appuie DIAL. hhhh

hhhh Modèle d’agent hh hh non hhhh Dispositif formel non DIAGAL [LAB 03] oui Discussion [PRA 00]

oui AMP [AMG 01] DIAL [MOR 05]

Tableau 2: Modèle de dialogue entre agents

3. Cadre d’argumentation Un SMA est un ensemble d’agents autonomes et sociaux (ag1 , . . . , agn ∈ ℧A ). Ils partagent des connaissances, i.e. un ensemble de formules d’un langage commun de représentation des connaissances, noté L℧ . De plus, les agents emploient le même mécanisme d’inférence, noté ⊢℧ . Comme dans [KAK 02], les formules du langage sous-jacent sont des règles de la forme r : L0 ← L1 , ..., Ln où L0 . . . Ln sont des littéraux. Pour des raisons computationnelles évidentes, nous considérons ici que l’ensemble des variables du langage ont des domaines de définition finis. Les agents partagent une théorie argumentative, i.e. un ensemble de règles qui prônent des valeurs :

4

1re soumission à JFSMA05.

Définition 1 La théorie argumentative à base de valeurs AT℧A = hT , V, promotei est un triplet où : – T est une théorie, i.e. un ensemble fini de règles de L℧ ; – V est un ensemble fini non-vide de valeurs {v1 , . . . , vt } ; – promote : T → V est une fonction qui met en relation les règles et les valeurs. On dit que la règle r prône la valeur v ssi promote(r) = v. Pour tous r ∈ T , promote(r) ∈ V . Pour que les agents diffèrent par l’échelle de valeurs à laquelle ils se réfèrent [PER 58], nous associons à chacun une relation de priorité qui lui est propre : Définition 2 La théorie argumentative à base de valeurs de l’agent agi est un quadruplet ATi = hT , V, promote, ≪i i où : – AT℧A = hT , V, promotei est une théorie argumentative à base de valeurs ; – ≪i est la relation de priorité de l’agent agi , i.e. une relation d’ordre strict et complet sur V . La relation de priorité d’un agent stratifie la théorie en couches finies disjointes comme dans [AMG 02]. Selon l’agent agi , le niveau de priorité d’une théorie nonvide T ⊆ T (noté leveli (T )) correspond à la valeur la moins prioritaire prônée par l’un des éléments de T . On définit un argument comme un couple constitué d’une conclusion et d’une prémisse, i.e. un ensemble de règles à partir desquelles la conclusion est inférée : Définition 3 Soit T une théorie de L℧ . Un argument est un couple A = hP, ci où c est une règle et P ⊆ T un ensemble non-vide de règles qui est consistant et minimal pour l’inclusion ensembliste tq P ⊢℧ c. P est la prémisse de A, notée P = premise(A). c est la conclusion de A, notée c = conclusion(A). A′ est un sous-argument de A si la prémisse de A′ est contenue dans la prémisse de A. A′ est un argument trivial si la prémisse de A′ est un singleton. Puisque la théorie T peut être inconsistante, l’argumentaire ainsi construit (noté A(T )) peut être conflictuel. La relation d’attaque entre arguments, que nous instancions ici, s’appuie sur les conflits possibles entre les littéraux et leur négation. Définition 4 Soient T une théorie dans L℧ et A = hP, ci, B = hP ′ , c′ i ∈ A(T ) deux arguments. A attaque B ssi :

Système dialectique multi-agents

5

∃P1 ⊆ P, P2 ⊆ P ′ tq P1 ⊢℧ L et P2 ⊢℧ ¬L. De même, on dit qu’un ensemble S d’arguments attaque B si B est attaqué par l’un des arguments de S. Puisque chaque agent dispose de sa propre relation de priorité, il peut ignorer l’attaque d’un argument sur un autre argument. L’agent ag i évalue individuellement la force d’un argument (strength i (A) = leveli (premise(A)). Selon un agent, un argument défait un autre argument s’ils s’attaquent mutuellement et si le second est plus fort que le premier : Définition 5 Soient ATi = hT , V, promote, ≪i i la théorie argumentative à base de valeurs de l’agent agi et A = hP, ci, B = hP ′ , c′ i ∈ A(T ) deux arguments. A défait B pour ATi (noté defeatsi (A, B)) ssi ∃P1 ⊆ P, P2 ⊆ P ′ tq : 1) P1 ⊢℧ L et P2 ⊢℧ ¬L ; 2) ¬(leveli (P1 ) ≪i leveli (P2 )). De même, on dit qu’un ensemble S d’arguments défait B si B est défait par l’un des arguments de S. Contrairement à la relation d’attaque, qui est symétrique et objective, la relation de défaite est asymétrique et subjective. Considérer le point de vue individuel de chaque agent, nous amène à nous focaliser sur la notion d’acceptabilité suivante : Définition 6 Soit ATi = hT , V, promote, ≪i i la théorie argumentative à base de valeurs de l’agent agi . Soient A ∈ A(T ) un argument et S ⊆ A(T ) un ensemble d’arguments. A est subjectivement acceptable pour ATi vis à vis de S ssi ∀B ∈ A(T ) defeatsi (B, A) ⇒ defeatsi (S, B). Ainsi l’ensemble des arguments subjectivement acceptables constitue une position consistante d’un agent, appelée extension préférée, qui peut se défendre par elle-même de toute attaque et qui ne peut pas être étendue sans introduire de conflit. Puisque la relation de priorité est une relation d’ordre, cette extension préférée est unique et nonvide [BEN 02]. L’exemple suivant permet d’illustrer ces définitions. Exemple 1 Considérons deux citoyens état-uniens qui débattent à propos de leur nouveau président. La théorie argumentative à base de valeurs de l’agent ag1 (respectivement ag2 ) est représentée dans la partie gauche (respectivement droite) de la figure 1. Ces deux agents partagent une théorie, i.e. un ensemble de règles (r11 , . . . , r6 ) et un ensemble de valeurs (v1 , . . . , v6 ). Les règles qui correspondent au but prônent la valeur v1 . Les règles de sens commun prônent la valeur v2 . Les autres règles, qui correspondent à des opinions particulières, prônent les valeurs v3 , . . . , v6 . Selon un

1re soumission à JFSMA05.

6 ≪1

V v1 v2 v6 v5 v4 v3

T r11 : pres(bush) ← ¬(pres(kerry)) r21 : pres(kerry) ← ¬(pres(bush)) r12 (x) : weak(x) ← silly(x) r22 (x) : ¬pres(x) ← weak(x) r6 : current_pres(bush) ← r5 : weak(kerry) ← r4 : silly(bush) ← r3 (x) : pres(x) ← current_pres(x)

≪2

V v1 v2

A2 B A1

v3 v4 v5 v6

T r11 : pres(bush) ← ¬(pres(kerry)) r21 : pres(kerry) ← ¬(pres(bush)) r12 (x) : weak(x) ← silly(x) r22 (x) : ¬pres(x) ← weak(x) r3 (x) : pres(x) ← current_pres(x) r4 : silly(bush) ← r5 : weak(kerry) ← r6 : current_pres(bush) ←

B A2 A1

Figure 1: Les théories argumentatives à base de valeurs des agents.

agent, une valeur au-dessus d’une autre valeur est prioritaire. Puisque la théorie est inconsistante, les cinq arguments suivants sont conflictuels : A1 = ({r6 , r3 (bush)}, pres(bush) ←) A2 = ({r5 , r22 (kerry), r11 }, pres(bush) ←) A′2 = ({r5 , r22 (kerry)}, ¬pres(kerry) ←) B = ({r4 , r12 (bush), r22 (bush), r21 }, pres(kerry) ←) B ′ = ({r4 , r12 (bush), r22 (bush)}, ¬pres(bush) ←) A′2 est un sous-argument de A2 et B ′ est un sous-argument de B. Considérons la théorie argumentative à base de valeurs de l’agent ag1 . La force de A1 est v3 et la force de B ′ est v4 . Ainsi, B défait A1 . La force de A′2 est v5 et la force de B est v4 . Ainsi, A2 défait B. L’ensemble {A1 A2 } est subjectivement acceptable vis à vis de A(T ). Considérons la théorie argumentative à base de valeurs de l’agent ag2 . Elle diffère de la précédente par la hiérarchie entre les opinions. La force de A1 est v6 et la force de B ′ est v4 . Ainsi, B défait A1 . La force de A2 est v5 et la force de B ′ est v4 . Ainsi, B défait A2 . L’ensemble {B} est subjectivement acceptable vis à vis de A(T ). Nous avons défini ici le mécanisme de raisonnement des agents. Nous allons présenter dans la section suivante un modèle d’agents qui prennent en considération les arguments de leurs interlocuteurs.

4. Modèle d’agents Dans un SMA, les croyances peuvent être communes, complémentaires voire contradictoires. Nos agents échangent des hypothèses et débattent. Pour cette raison, le modèle d’agents argumentatifs proposé dans cette section est similaire au modèle AMP1 [MCB 02, AMG 01]. De plus, contrairement au modèle AMP, les agents évaluent individuellement les engagements perçus sur la base de la compétence estimée de l’agent qui a transmis l’information. Les agents argumentatifs, munis de leurs propres croyances, enregistrent les engagements de leurs interlocuteurs. De plus, chacun d’eux évalue individuellement la 1. du nom des auteurs Amgoud, Maudet et Parsons.

Système dialectique multi-agents

7

réputation de ses interlocuteurs. Ainsi, chaque agent argumentatif est conforme à la définition suivante : Définition 7 Un agent argumentatif agi ∈ ℧A est un sextuplet agi = hTi , Vi , ≪i , promotei , ∪j6=i CSji , ≺i i où : – Ti est une théorie personnelle, i.e. un ensemble de règles personnelles de L℧ ; – Vi est un ensemble de valeurs personnelles ; – promotei : Ti → Vi est une fonction qui met en relation les règles personnelles et les valeurs personnelles ; – ≪i est la relation de priorité, i.e. un ordre strict et complet sur Vi ; – CSji est un tableau d’engagement, i.e. un ensemble de règles de L℧ . CSji (t) contient les engagements pris avant ou à l’instant t, où l’agent agj est le débiteur et l’agent agi le créditeur ; – ≺i est une relation de réputation, i.e. une relation d’ordre complet et strict sur ℧A . Les règles personnelles prônent des valeurs personnelles. Pour tous r ∈ Ti , promotei (r) = v ∈ Vi . Les théories personnelles ne sont pas nécessairement disjointes. On appelle théorie commune l’ensemble des règles explicitement partagées par les agents : TΩA ⊆ ∩agi ∈℧A Ti . De même, les ensembles de valeurs personnelles ne sont pas nécessairement disjoints. On appelle valeurs communes les valeurs explicitement partagées par les agents : VΩA ⊆ ∩agi ∈℧A Vi . Les règles communes prônent des valeurs communes. Pour tous r ∈ TΩA , promoteΩA (r) = v ∈ VΩA . Les théories personnelles peuvent être complémentaires ou contradictoires. On appelle théorie conjointe l’ensemble des règles distribuées dans le système : T℧A = ∪agi ∈℧A Ti . Les règles propres à l’agent prônent des valeurs propres à l’agent. Pour tous r ∈ Ti − TΩA , promotei (r) = v ∈ Vi − VΩA . La réputation est une relation hiérarchique et un concept social qui lie un agent à ses interlocuteurs [CAS 98]. agj ≺i agk signifie que l’agent agi a plus confiance en l’agent agk qu’en l’agent agj . Afin de prendre en compte les règles notifiées dans les tableaux d’engagement, nous associons à chaque agent une théorie argumentative étendue définie comme suit :

Définition 8 La théorie argumentative étendue de l’agent agi est la théorie argumentative à base de valeurs AT∗i = hTi∗ , Vi∗ , promote∗i , ≪∗i i où : S – Ti∗ = Ti ∪ [ j6=i CSji ] est la théorie personnelle étendue de l’agent qui comprend la théorie personnelle de cet agent et l’ensemble des engagements perçus ; S – Vi∗ = Vi ∪ [ j6=i {vji }] est l’ensemble étendu des valeurs personnelles de l’agent qui comprend l’ensemble des valeurs personnelles de cet agent et les valeurs de répu-

8

1re soumission à JFSMA05.

tation de ses interlocuteurs ; – promote∗i : Ti∗ → Vi∗ est l’extension de la fonction promotei qui met en relation la théorie personnelle étendue avec l’ensemble étendu des valeurs personnelles. D’une part, les règles personnelles prônent des valeurs personnelles. D’autre part, les règles dans le tableau d’engagement CSji prônent la valeur de réputation vji ; – ≪∗i est la relation de priorité étendue de l’agent, i.e. une relation binaire sur ∗ Vi . Pour débattre, les agents doivent partager un ensemble de règles communes (but, sens commun, . . . ) qu’ils considèrent primordiales. Ainsi, les valeurs communes sont prioritaires. De même, pour débattre, les agents doivent considérer leurs propres croyances plus crédibles que celles de leurs interlocuteurs. Ainsi, les valeurs personnelles sont prioritaires sur les valeurs de réputation. En d’autres termes, la relation de priorité étendue est conforme à la formule suivante : ∀agj ∈ ℧A ∀vω ∈ VΩA ∀v ∈ Vi − VΩA (vji ≪∗i v ≪∗i vω ) On peut alors facilement démontrer que la relation de priorité étendue est une relation d’ordre strict et complet. Un argument est acceptable par l’agent argumentatif agi s’il est subjectivement acceptable par AT∗i vis à vis de l’argumentaire A(Ti∗ ). Cet agent est convaincu par une règle r si c’est la conclusion d’un argument acceptable. Afin que les agents échangent des croyances, nous définissons un langage de communication, CL℧ . Un message Mk = hSk , Hk , Ak i ∈ CL℧ est émis par un locuteur (Sk = speaker(Mk )) et adressé à un allocutaire (Hk = hearer(Mk )), i.e. l’un des agents de l’audience. Ak = act(Mk ) est l’acte de langage du message. Il est composé d’une locution et d’un contenu. La locution est l’une des suivantes : question, assert, unknow, concede, challenge, withdraw. Le contenu, également appelé hypothèse, est une règle ou un ensemble de règles de L℧ . On munit ce langage de communication d’une sémantique argumentative et sociale [BEN 04]. Puisqu’un engagement enrichit la théorie personnelle étendue du créditeur, le langage a une sémantique sociale. Puisqu’un engagement peut être justifié via l’argumentaire du débiteur, le langage a une sémantique argumentative. Par exemple, la figure 2 présente la sémantique associée à la concession d’une hypothèse. On remarque qu’un agent ne concède pas toutes les hypothèses qu’il perçoit bien qu’elles soient toutes les conclusions d’un argument trivial issu de sa théorie argumentative étendue. Les hypothèses reçues doivent être valuées. À cette intention, les engagements sont considérés en fonction de la compétence estimée de l’agent qui a transmis l’information. L’exemple suivant illustre ce principe.

Exemple 2 Considérons que l’agent argumentatif ag1 émet le message suivant : M1 = hag1 , ag2 , assert(pres(bush) ←)i

Système dialectique multi-agents

9

• M ESSAGE : Ml = hagi , agj , concede(h)i – S ÉMANTIQUE ARGUMENTATIVE : ∃A ∈ A(Ti∗ ) conclusion(A) = h avec (premise(A) 6= {h} ∧ premise(A)6⊆ ∪j6=i CSji ) – S ÉMANTIQUE SOCIALE : Pour tout agk de l’audience CSik (t) = CSik (t − 1) ∪ {h} Figure 2: Sémantique de la concession d’une hypothèse h à l’instant t La théorie argumentative étendue de l’agent ag2 est représentée dans la figure 3. La ≪∗2 V2∗ v1 v2 v3 v4 v5 v6 v12

T2∗ r11 : pres(bush) ← ¬(pres(kerry)) r21 : pres(kerry) ← ¬(pres(bush)) r12 (x) : weak(x) ← silly(x) r22 (x) : ¬pres(x) ← weak(x) r3 (x) : pres(x) ← current_pres(x) r4 : silly(bush) ← r5 : weak(kerry) ← r6 : current_pres(bush) ← {pres(bush) ←} = CS21

B A2 A1 A′

Tableau 3: Théorie argumentative étendue du second agent théorie personnelle étendue est constituée de la théorie personnelle de cet agent et de l’hypothèse avancée par l’agent ag1 : pres(bush) ←. L’ensemble étendu des valeurs personnelles est constitué de l’ensemble des valeurs personnelles et de la valeur de réputation de l’agent ag2 . Les règles, qui correspondent au but et au sens commun, constitue la théorie commune qui prône les valeurs communes : v1 et v2 . Les arguments A1 , A2 , et A′ sont en faveur de bush, l’argument B en faveur de kerry. A′ est un argument trivial fondé sur le tableau d’engagement en faveur de bush. Ainsi, l’hypothèse pres(bush) ← ne peut être concédé par l’agent ag2 étant donné cet argument mais étant donné A1 ou A2 . Nous avons proposé ici un modèle d’arguments argumentatifs qui échangent des hypothèses et qui raisonnent ensemble. Dans la section suivante, on circonscrit le disposif formel dans lequel ces agents jouent et arbitrent.

5. Dispositif formel Lorsque des agents débattent, ils se répondent les uns aux autres afin d’atteindre le but de l’interaction. Dans cette section, nous présentons le dispositif formel au travers duquel les agents dialoguent. Le système dialectique proposé ici est similaire à [PRA 00]. Nous y avons adjoint un agent tiers qui arbitre le dialogue en fonction de la compétence estimée de chacun des joueurs et des arguments avancés.

10

1re soumission à JFSMA05.

Au cours des échanges, les actes de langage ne sont pas isolés mais se répondent les uns aux autres. Un coup dialogique movek = hMk , Rk , Pk i ∈ ML℧ contient un message Mk . Rk = reply(movek ) est l’identifiant du coup auquel movek répond. Un coup (movek ) est soit un coup d’initialisation (reply(movek ) = nil) soit un coup de réponse (reply(movek ) 6= nil). Pk = protocol(movek ) est le nom du protocole utilisé. Un système dialectique met en jeu trois agents. Deux joueurs dialoguent, en présence d’un témoin, à propos de la véracité d’une hypothèse, i.e. le thème. Définition 9 Soit ATΩA = hTΩA , VΩA , promoteΩA i une théorie argumentative à base de valeurs et r0 une règle de L℧ . Le système dialectique qui porte sur r0 est le septuplet DSΩM (r0 , ATΩA ) = hN, wit, H, T, convention, Z, (up )p∈N i où : – N = {init, part} ⊂ ℧A est un ensemble de deux agents argumentatifs appelés joueurs : l’initiateur et le partenaire ; – wit ∈ ℧A est un troisième agent argumentatif, appelé témoin, dont la théorie personnelle se limite à la théorie commune (Twit = TΩA ) ; – ΩM ⊆ ML℧ est un ensemble de coups bien formés ; – H est l’ensemble des historiques, i.e. les séquences de coups bien formés tq le locuteur d’un coup est déterminé par une fonction de tour de parole et tq les coups soient conformes à une convention ; – T : H → N est la fonction de tour de parole. Si la longueur d’un historique est nulle ou paire alors T (h) = init sinon T (h) = part ; – convention : H → ΩM est la fonction qui détermine les coups autorisés ou non ; – Z est l’ensemble des dialogues, i.e. les historiques de tailles maximales ; – uinit , upart : H → {−1, 1} i.e. les gains sont des fonctions qui déterminent si un joueur est un vainqueur de l’historique. Un coup d’initialisation est bien formé si c’est une question sur le thème, proférée par l’initiateur, à l’intention du partenaire. Un coup de réponse émis par un joueur est bien formé s’il répond à un des coups précédents émis par l’autre joueur. Évidemment, le même protocole doit être conservé au cours des échanges. Pour un historique h, le témoin est associé à la théorie argumentative étendue ∗ ∗ (h), Vwit , promote∗wit , ≪∗wit i où : AT∗wit (h) = hTwit – la théorie personnelle étendue est constituée de la théorie commune et des engawit wit ∗ (h) ; (h) ∪ CSpart gements de chacun des joueurs : Twit (h) = TΩA ∪ CSinit – l’ensemble étendu des valeurs personnelles est constitué de l’ensemble des vawit wit ∗ , vpart }. leurs communes et des valeurs de réputation des joueurs : Vwit = VΩA ∪ {vinit Pour le témoin, l’acceptabilité des arguments dépend de l’historique considéré. On dit qu’un dialogue est correct si le témoin est, à son terme, soit convaincu par le thème soit convaincu par sa négation. Il est alors en mesure de déclarer vainqueur

Système dialectique multi-agents

11

(ou non) un joueur p qui l’a convaincu (ou non) : up (h) = 1 (ou up (h) = 0). On peut remarquer qu’au terme d’un dialogue, il est probable que certains arguments n’aient pas été avancés. Le témoin ne dispose alors que d’une partie de l’argumentaire de chacun des joueurs. L’arbitrage du témoin, qui est responsable de l’accord final, dépend de son estimation de la compétence des joueurs et des arguments échangés. Nous avons ici circonscrit le dispositif formel au travers duquel les dialogues se déroulent. Le système dialectique ainsi défini permet notamment de jouer des persuasions [WAL 95].

6. Persuasion Lorsque des agents débattent, ils collaborent afin de confronter leurs convictions. Dans cette section nous illustrons le système dialectique présenté précédemment à l’aide du protocole de persuasion proposé dans [MCB 02]. Toutefois, contrairement à [MCB 02], nous formalisons ici ce protocole afin de démontrer qu’il permet de résoudre verbalement leur conflit. Le protocole de persuasion est un protocole à réponses uniques : les joueurs ne peuvent apporter qu’une seule réponse à chacun des coups de leur interlocuteur. Afin d’éviter la présence de boucles, la redondance d’hypothèses est interdite dans les affirmations. La convention est constituée par les règles de séquence représentées dans le tableau 6. Chaque règle spécifie les réponses autorisées à un coup. Contrairement aux réponses qui résistent, les actes qui abdiquent mettent fin au dialogue. Considérons la règle d’"Affirmation/Réfutation" (noté srA/R ). Elle précise les coups autorisés pour répondre à une précédente affirmation (assert(H)). Une concession (concede(H)) abdique. Une mise en doute (challenge(h)) ou une réfutation (assert(¬h)) résistent à la précédente affirmation. Règles srQ/A

Actes question(r0 )

srA/R

assert(H)

srC/A srT

challenge(h) unknow(H) concede(H) withdraw(H)

Résistances assert(r0 ) assert(¬r0 ) challenge(h), h ∈ H assert(¬h), h ∈ H assert(H), H ⊢℧ h ∅ ∅ ∅

Abdiquations unknow(r0 ) concede(H) withdraw(h) ∅ ∅ ∅

Tableau 4: Actes de langage et leurs réponses potentielles. Nous avons démontré dans [MOR 05] qu’une persuasion se termine et qu’elle est correcte. L’exemple suivant décrit un tel dialogue. Exemple 3 Considérons la persuasion à propos du candidat kerry. Les théories argumentatives étendues des joueurs sont représentées dans la figure 3. La théorie argumentative étendue du témoin est située dans la partie supérieure de la figure. Les ta-

12

1re soumission à JFSMA05.

bleaux d’engagements sont le résultat de la séquence de coups. L’arbitrage du témoin ≪∗wit

∗ Vwit v1

v2 wit vinit

Témoin wit vpart

≪∗init

∗ Vinit v1

v2 Initiateur

v5 init vpart

∗ Twit r11 : pres(bush) ← ¬(pres(kerry)) r21 : pres(kerry) ← ¬(pres(bush)) r12 (x) : weak(x) ← silly(x) r22 (x) : ¬pres(x) ← weak(x) ¬pres(kerry) ← weak(kerry) ← pres(kerry) ←

∗ Tinit r11 : pres(bush) ← ¬(pres(kerry)) r21 : pres(kerry) ← ¬(pres(bush)) r12 (x) : weak(x) ← silly(x) r22 (x) : ¬pres(x) ← weak(x) r5 (x) : weak(kerry) ← pres(kerry) ←

A2

B B′

A′ A2

A′ A2 B′

∗ Tpart r11 : pres(bush) ← ¬(pres(kerry)) r21 : pres(kerry) ← ¬(pres(bush)) r12 (x) : weak(x) ← silly(x) r22 (x) : ¬pres(x) ← weak(x) r4 : silly(bush) ← ¬pres(kerry) ← weak(kerry) ←

∗ Vpart v1

≪∗part

v2 v4 part vinit

Partenaire

question "pres(kerry) ←" assert "pres(kerry) ←" assert "¬pres(kerry) ←" challenge "¬pres(kerry) ←" assert "r5 , r22 (kerry)" challenge "weak(kerry) ←" withdraw "weak(kerry) ←" Figure 3: Exemple de persuasion dépend de la compétence estimée des joueurs. Si le partenaire est considéré comme plus compétent que l’initiateur, alors le témoin est convaincu par pres(kerry) ←. L’initiateur est alors le vainqueur. Nous avons proposé ici un protocole de dialogue qui permet de résoudre les conflicts.

7. Conclusions Dans cet article, nous avons proposé DIAL, un modèle de dialogue entre agents, qui permet de formaliser un processus de prise de décision collective et débattue. Ce modèle circonscrit un dispositif formel au travers duquel les agents jouent et arbitrent pour atteindre un accord. À cette intention, nous avons proposé un modèle de raisonnement argumentatif qui permet de gérer les conflits entre des arguments ayant des forces différentes selon l’agent qui les évalue. Nous avons également présenté un modèle d’agents argumentatifs qui justifient les hypothèses sur lesquelles ils s’engagent et prennent en compte les engagements de leurs interlocuteurs. Dans le dispositif que nous avons circonscrit, un agent tiers est responsable de la décision finale. Celui-ci résout les conflits entre deux joueurs en fonction de leur compétence respective et des arguments avancés. Nous proposons dans [MOR 05] un outil d’aide à la concertation qui s’appuie sur le modèle DIAL. L’objectif d’un tel système consiste à fournir une véritable assistance aux acteurs dans un processus de prise de décision collective et débattue.

Système dialectique multi-agents

13

8. Bibliographie [AMG 01] A MGOUD L., PARSONS S., « Agent dialogues with conflicting preferences », Proc. of the International Workshop on Agent Theories, Architectures and Languages, 2001. [AMG 02] A MGOUD L., C AYROL C., « A Reasoning Model Based on the Production of Acceptable Arguments », Annals of Maths and AI, vol. 34, no 1-3, 2002, p. 197-215. [BEN 02] B ENCH -C APON T., « Value Based Argumentation Frameworks. », Proc. of Non Monotonic Reasoning, 2002, p. 444-453. [BEN 04] B ENTAHAR J., M OULIN B., C HAIB - DRAA B., « Specifying and Implementing a Persuasion Dialogue Game Using Commitments and Arguments », Proc. of the workshop ArgMAS in AAMAS, 2004, p. 130-148. [CAL 01] C ALLON M., L ASCOUMES P., BARTHE Y., Agir dans un monde incertain, Seuil, 2001. [CAS 98] C ASTELFRANCHI C., FALCONE R., « Principles of Trust in MAS : Cognitive Anatomy, Social Importance, and Quantification », Proceedings of ICMAS’98, 1998, p. 72-79. [DUN 95] D UNG P. M., « On the acceptability of arguments and its fundamental role in nonmonotonic reasoning, logic programming and n-person games », Artif. Intell., vol. 77, no 2, 1995, p. 321–357, Elsevier Science Publishers Ltd. [HAM 70] H AMBLIN C. L., Fallacies, Methuen, 1970. [KAK 02] KAKAS A. C., M ORAÏTIS P., « Argumentative Agent Deliberation, Roles and Context », Electronic Notes in Theoretical Computer Science, vol. 70, Elsevier, 2002. [LAB 03] L ABRIE M.-A., C HAIB - DRAA B., M AUDET N., « DIAGAL : A Tool for Analyzing and Modelling Commitment-Based Dialogues between Agents », Proc. of the 16th Canadian Conference on Artificial Intelligence, vol. 2671 de LNAI, Springer-Verlag, juin 2003, p. 353-369. [MAU 01] M AUDET N., « Modéliser les conventions des interactions langagières : la contribution des jeux de dialogues », PhD thesis, Université Paul Sabatier, Toulouse, May 2001. [MCB 02] M C B URNEY P., PARSONS S., « Games That Agents Play : A Formal Framework for Dialogues between Autonomous Agents », Journal of Logic, Language and Information, vol. 11, no 3, 2002, p. 315-334. [MOR 05] M ORGE M., « Système dialectique multi-agents pour l’aide à la concertation », PhD thesis, École Nationale Supérieure des Mines, juin 2005. [PER 58] P ERELMAN C., O LBRECHTS -T YTECA L., Traité de l’Argumentation - La Nouvelle Rhétorique, Presses Universitaires de France, 1958. [PRA 00] P RAKKEN H., « On dialogue systems with speech acts, arguments, and counterarguments. », Proc. of the 7th European Workshop on Logic for Artificial Intelligence (JELIA’2000), no 1919 LNAI, Springer Verlag, 2000, p. 224-238. [SCH 02] S CHWEIMEIER R., S CHROEDER M., « Notions of Attack and Justified Arguments for Extended Logic Programs », Proc. of the 15th European Conference on Artificial Intelligence, IOS Press, 2002, p. 536-540. [SEA 69] S EARLE J., Speech Acts : An Essay in the Philosophy of Language, Cambridge University Press, 1969. [WAL 95] WALTON D., K RABBE E., Commitment in Dialogue, SUNY Press, 1995.