Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence...

90
Les fondements IA: Agents Intelligents et Systèmes Multi-Agents L’agent et son environnement Types d’environnement Architecture des agents Agents cognitifs Systèmes multi-agents Méthodes et outils

Transcript of Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence...

Page 1: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Les fondements IA: Agents Intelligents etSystèmes Multi-Agents

✓ L’agent et son environnement✓ Types d’environnement✓ Architecture des agents✓ Agents cognitifs✓ Systèmes multi-agents✓ Méthodes et outils

Page 2: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Introduction à la notion d’agent

Comment formaliser le problème de construction d’un agent ?

◼ Dichotomie entre la notion d’agent et de son environnement

◼ Plus simple à traiter

Un agent est une entité qui perçoit et agit

◼ Un agent est une fonction d’une perception (ou séquence de percepts) à des actions

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 3: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Agent

Percept (P) : unité élémentaire de perception (via des capteurs)

Actions (A) : Ensemble d’actions (via des effecteurs)

L’agent possède une fonction f : P* → A

En pratique le processus est implémenté par un programmesur une architecture matérielle et logicielle particulière.

Agent = Architecture + Programme (une implémentation de f )

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 4: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Cycle fonctionnel de base…

4INF4230 - Intelligence artificielle

Page 5: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Exemples d’agents

• Agent humain :

– C: yeux, oreilles, nez, etc.;

– E: Mains, jambe, bouche, autres parties du corps

• Agent robot :

– C: cameras and capteurs infrarouges;

– E: moteurs comme effecteurs

• Agent logiciel:

– C: Saisies de données, lecture d'un fichier, paquets réseau reçus comme des capteurs

– E: Affichage à l'écran, écriture de fichiers, paquets envoyés sur le réseau

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 6: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Exemples d’agents intelligents

(1) Système d’aide à la décision; (2) Azimut-3; (3) Rover de la NASA; (4) Radarsat-II de l’ASC; (5) Mario de Nintendo.

Page 7: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Capteurs et effecteurs d’un robot

Sonars

Caméra optique

«laser»(capteurs balayage

infrarouge)

Interfacegraphique

« Bumpers »

Capteur inertiel

Encodeurs de roues (odomètre)

Page 8: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Environnement de l’agent aspirateur

2 localisations: A et B

Perceptions: localisation et contenu, ex:[A;Dirty]

Actions: Left, Right, Suck, NoOp

Une fonction possible :◦ Si la localisation courante est sale, alors aspirer, sinon aller à l’autre

localisation

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 9: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Concept de rationalité

Un agent est rationnel s’il effectue toujours l’action appropriée étant donnée sa perception et ses actions possibles.

Qu’est-ce qu’une action appropriée?

◼ Définie par une mesure de performance.

La rationalité de l’agent dépend de 4 facteurs:

◼ La mesure de performance

Un agent est rationnel si pour toute séquence de percepts, il sélectionne l’action qui maximise la mesure de performance =» rationnel = réussi

◼ La clairvoyance

Entretien une séquence percepts=» rationnel = clairvoyant

◼ L’omniscience

Sait tout sur son environnement =» rationnel = omniscient ?

◼ Les actions possibles

Ce que l’agent sait faire =» rationnel = capacité d’action pertinente

Cela peut impliquer que l’agent dispose des capacités d’ :

exploration, apprentissage, autonomie

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 10: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Aspirateur: exemple d’agent rationnel

L’agent aspirateur est rationnel si:

◼ La mesure de performance accorde un point par case nettoyée

◼ L’environnement de l’agent est connu mais pas l’emplacement initial de l’agent ni la distribution de la poussière

◼ L’agent perçoit correctement la case où il se trouve et sa propreté (ou pas)

◼ Actions: Droite, Gauche, Aspirer, NRF

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 11: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Aspirateur : ex d’agent non rationnel

• L’agent aspirateur n’est pas rationnel si:

– S’il continue des déplacements dans un environnement propre (actions non optimale);

– S’il a une pénalité pour chaque déplacement : un agent rationnel devrait minimiser les déplacements dans ce cas!

– Si l’environnement peut changer: un agent rationnel devrait le vérifier périodiquement (révision des croyances);

– Si l’environnement est inconnu: un agent rationnel devrait l’explorer.

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 12: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Exemple de situation rationnelle

Situation: se munir d’un parapluie

Est-ce rationnel ?

Cela dépend de la météo, et de ma connaissance de la météo.

Si j’ai entendu le bulletin météo, que je le crois et que je pense qu’il va pleuvoir, alors il est rationnel de se munir d’un parapluie.

Une action est considérée comme rationnelle si elle conduit à bien faire ce que l’agent essaie de faire!

Cela n’indique pas par exemple que ce que l’agent essaie de faire est intelligent ou stupide.

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 13: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Agent rationnel et environnement

Pour modéliser un agent rationnel, on doit spécifier l’environnement où doit se dérouler la tâche de l’agent

L’environnement représente le problème à résoudre

L’agent représente la solution

On doit définir les propriétés de cet environnement

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 14: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Modèle PEAS

PEAS = Performance, Environnement, Actuateurs et Senseurs

Etape d’élaboration:

✓ Définir la mesure de performance

✓ Notion de compromis en cas de conflits dans les objectifs à atteindre

✓ Définir l’environnement

✓ Définir les capteurs

✓ Définir les effecteurs

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 15: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Exemple de modèle PEAS: Agent taxi automatique

Mesure de performance? Sécurité, arrivée à destination, minimisation du temps,

maximisation du profit, minimisation de la consommation de carburant, légalité, maximisation du confort des passagers….

Environnement? rues/autoroutes, trafic, piétons, météo

Effecteurs? Contrôle de la direction, accélérateur, freins, klaxon, boite de

vitesse,..◦

Capteurs? Cameras Vidéo, accéléromètres, jauges, capteurs du moteur,

clavier, GPS,

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 16: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Exemple de modèle PEAS: Robot Classeur dans une usine

➢ Mesure de performance?

➢ taux (pourcentage) de pièces correctement classées.

➢ Environnement?

➢ pièces, compartiments, etc.

➢ Actuateurs?

➢ Bras robot

➢ Capteurs?

➢ Caméra, joints du bras robot.

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 17: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Exemple de modèle PEAS: Agent Tuteur

➢ Mesure de performance?

➢ Qualité de l’aide, impact de la rétroaction, courbe d’apprentissage

➢ Environnement?

➢ Environnement d’apprentissage, modèle de l’apprenant, modèle du domaine

➢ Actuateurs?

➢ Fenêtre de dialogue, fonctions de communication avec l’apprenant, fonctions d’action sur les éléments de l’environnement d’apprentissage

➢ Capteurs?

➢ Fonctions d’accès à la performance de l’apprenant, au domaine et aux éléments de l’environnement d’apprentissage

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 18: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Propriétés de l’environnement

Entièrement observable (vs. partiellement observable) ◼ l’agent a accès en tout temps à toute l’information pertinente sur

l’environnement (on parle aussi d’état)◼ Ex: Taxi automatique: Partiellement accessible; Echecs: accessible

Déterministe (vs. Non-Déterministe ou stochastique) ◼ l’environnement est entièrement déterminé par l’état courant et l’action

effectuée par l’agent. ◼ Ex: Taxi aut.: stochastique (aléatoire); Echecs: déterministe

Episodique (vs séquentiel)◼ Les opérations/comportements de l’agent sont divisés en épisodes◼ Chaque épisode consistant à observer l’environnement et effectuer une

seule action◼ Le choix de chaque action dans un épisode ne dépendant que de cet

épisode.◼ Dans les environnements séquentiels, la décision courante peut affecter

les décisions futures◼ Agent Classeur (épisodique); Echecs et taxi automatique (séquentiels)

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 19: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Propriétés de l’environnementStatique (vs. dynamique)◼ L’environnement ne change pas lorsque l’agent n’agit pas. ◼ Par exemple, est-ce que le monde peut changer pendant la délibération

de l’agent ?◼ Exemples: Mots-croisés (statique); Taxi automatique (dynamique)◼ Lorsque l’environnement ne change pas mais que la performance de

l’agent change au fur et à mesure que le temps s’écoule, on parle d’environnement semi-dynamique. Exemple: échecs chronométrés.

Discret (vs. continu)◼ Un nombre limité et clairement distincts de données sensoriels et

d’actions◼ Exemples: Les échecs ont un nombre fini d’états discrets et disposent

d’un ensemble discret de perceptions et d’actions; Le taxi automatique possède des états et des actions continus.

Agent mono-agent (vs. multi-agent)◼ L’agent opérant seul dans son environnement ◼ L’agent n’opère pas seul dans son environnement = SMA => Plusieurs

conséquences: organisation, coordination (coopératif, concurrentiel), communication, etc. Ex:

Taxi automatique: multi-agent coopératif.Systèmes Tutoriels Intelligents (STI)

Page 20: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Propriétés de l’environnement: Remarques

9/19/2018 Systèmes Tutoriels Intelligents (STI)

➢ Le type d’environnement détermine largement la modélisation de l’agent

➢ Le monde réel est généralement✓ partiellement observable,✓ non déterministe, ✓ séquentiel, ✓ dynamique, ✓ Continu✓ multi-agent

Page 21: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Propriétés de l’environnement: Remarques

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 22: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Propriétés de l’environnement: Synthèse

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 23: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Structures d’agents

• 4 types de base:

– Les agents réflexes simples

– Les agents réflexes fondés sur des modèles

– Les agents fondés sur les buts

– Les agents fondés sur l’utilité

• Agents évolués: les agents capables d’apprentissage

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 24: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Les agents réflexes simples

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Sélectionner des actions en fonction de la perception courante et sans tenir compte de l’historique des perceptions

Règles condition-action

Page 25: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Implémentation d’un agent reflexe aspirateur

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 26: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Exemple de cycle de contrôle…

• implémenté sous forme d’un ensemble de règles de type condition/action

condition-action rules

set of percepts

do { percepts := see();

state := interpret_input(percepts);

rule := match(state,rules); execute(rule[action]);

} while (1);

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 27: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Inconvénients des agents reflexes

• Les agents reflexes sont simples, mais leur intelligence est très limitée!

• L’agent ne peut fonctionner que si une décision correcte peut être prise en fonction de la perception courante

• L’environnement doit être complètement observable

• Problème des boucles infinies : souvent rencontrées, on peut tenter d’y remédier par un mécanisme de randomisation

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 28: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Les agents réflexes fondés sur des modèles

L’agent doit connaître son environnement (ex : mémorisation de la topologie de l’environnement)

L’agent doit maintenir un état interne qui dépend de l’historique des perceptions

La mise à jour de cet état interne nécessite deux types de connaissances à encoder dans l’agent:◦ Une information sur la manière dont le monde évolue

indépendamment de l’agent

◦ Une information sur la manière dont les actions de l’agent affectent l’environnement

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 29: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Agent possédant un modèle

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 30: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Les agents fondés sur les buts

Connaitre l’état courant de l’environnement n’est pas toujours suffisant pour décider de l’action à accomplir (ex. décision à une jonction de route)

L’agent a besoin d’une information sur le but qui décrit les situations désirables

L’agent peut alors combiner cette information avec l’information sur les résultats des actions possibles afin de choisir l’action qui satisfait le but

Un tel agent nécessite des capacités de recherche et de planification

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 31: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Les agents fondés sur les buts

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 32: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Comparaison

• Les agents basés sur les buts sont flexibles car la connaissance qui supporte leurs décisions est représentée explicitement et peut être modifiée

• Pour l’agent reflexe, les règles condition-action doivent être modifiées et réécrites dans toute nouvelle situation

• Il est facile de modifier le comportement d’un agent basé sur les buts

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 33: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Les agents fondés sur l’utilité Les buts seuls ne sont pas suffisants pour générer un

comportement intéressant dans beaucoup d’environnements. Ils permettent seulement de faire une distinction binaire entre les états « satisfait » et « non satisfait »

Une mesure de performance plus générale doit permettre une comparaison entre les différents états du monde en fonction de la satisfaction exacte de l’agent s’ils sont atteints.

Une fonction d’utilité associe un nombre réel à un état. Ce nombre décrit le degré de satisfaction associé à l’état.

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 34: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Les agents fondés sur l’utilité

Systèmes Tutoriels Intelligents (STI)

Page 35: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Les agents capables d’apprentissage

Turing – Plutôt que de programmer des machines “intelligentes” à la main, ce qui n’est pas vraiment réalisable, il faut construire des agents apprenants et les instruire de la tache à accomplir

L’apprentissage permet à l’agent d’opérer dans des environnements inconnus et de devenir plus compétents qu’initialement.

Systèmes Tutoriels Intelligents (STI)

Page 36: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Qu’est-ce que l’apprentissage?

L’apprentissage est la capacité pour un agent intelligent de tirer profit son expérience passée et de ses observationsdans l’environnement pour améliorer ses performances dans le futur.

Rappel : modèle PEAS

◼ Performance measure, Environment, Actuators, Sensors.

◼ On mesure l’«intelligence» d’un agent intelligent à l’aide d’une mesure de performance.

Rappel : le test de Turing requiert des capacités d’apprentissage.

36

Page 37: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Learning agents

37

Page 38: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Pourquoi un agent intelligent devrait-il pouvoir apprendre?

✓ Impossible de prévoir toutes les situations possibles (ex: un robot qui navigue dans des labyrinthes doit apprendre la configuration de chaque labyrinthe).

✓ Impossible d’anticiper les changements au fil du temps (ex: systèmes de détection de fraudes, de polluriels, prédiction du cours boursier, etc.).

✓ Nous ne savons pas trop comment résoudre certains problèmes (ex: reconnaissance de visage).

38

Page 39: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Que peut-on apprendre?

➢ Association : état courant → action.

➢ Extraction de caractéristiques des données sensorielles perçues.

➢ Résultats de nos actions.

➢ Désirabilité (fonction d’utilité) des états de monde.

➢ Désirabilité (fonction d’utilité) des actions.

➢ Buts représentant des classes d’états qui maximise notre utilité.

➢ …

39

Page 40: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Formes d’apprentissage

Apprentissage non supervisée :◼ Clustering (≈regroupements), classification.

◼ Le système ne dispose que d’entrées.

◼ Ne dispose pas d’informations explicites sur des sorties attachées aux entrées.

◼ Applications populaires: Regroupement automatique de

Nouvelles par thème dans les médias électronique;

Tweets dans les médias sociaux;

Génomes, etc.

◼ Applications aux STI 40

Page 41: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Formes d’apprentissage

Apprentissage supervisée :

◼ Jeu de données d’exemples entrées et sorties.

◼ But : apprendre relation entre entrées et sorties.

◼ Applications populaires: reconnaissance optique de caractères (OCR);

reconnaissance vocale;

vision par ordinateur;

détection de polluriel (SPAM)

etc.

◼ Applications aux STI

◼ C’est sur cette forme d’apprentissage que nous nous attarderons.

41

Page 42: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Formes d’apprentissage

Apprentissage par renforcement :

◼ Reinforcement learning.

◼ L’agent apprend en recevant un série de renforcements (feedbacks)

Exemples : récompenses ou pénalités.

◼ Applications aux STI

2016H 42

Page 43: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

En résumé

Les agents interagissent avec leur environnement à travers des effecteurs et des capteurs

La fonction de l’agent décrit ce que l’agent fait dans toute circonstance

La mesure de performance évalue le comportement de l’agent dans son environnement

Un agent parfaitement rationnel maximise la performance attendue

L’agent peut disposer des capacités d’apprentissage

9/19/2018 Systèmes Tutoriels Intelligents (STI)

Page 44: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Exemple : Le Monde des Wumpus

Mesure de performance

◼ or +1000, mort -1000

◼ -1 par un pas, -10 pour une flèche

Environnement

◼ Puanteur dans les chambres adjacent au wumpus.

◼ Brise dans les chambres adjacentes à une fosse

◼ Scintillement si l’or est dans la chambre

◼ Le wumpus meurt si on lui tire une flèche de face

◼ On a une seule flèche

◼ On peut ramasser l’or dans la même chambre

◼ On peut lâcher l’or dans une chambre

Senseurs: stench (puanteur), breeze (brise), glitter (scintillement), bumper (choc), scream (cri).

Actuateurs: Left turn, Right turn, Forward, Grab, Release, Shoot

Systèmes Tutoriels Intelligents (STI)

Page 45: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Caractérisation du monde des wumpus

Complètement observable? Non – seulement perception locale.

Déterministe? Oui – l’effet de chaque action est prévisible.

Épisodique? Non – séquentiel au niveau des actions.

Statique? Oui – le wumpus et les fosses ne bougent pas.

Discret? Oui.

Agent unique? Oui – La seule action du wumpus est de nous « bouffer » si on atteint sa chambre.

Systèmes Tutoriels Intelligents (STI)

Page 46: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Exploration du monde des wumpus

Systèmes Tutoriels Intelligents (STI)

Page 47: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Exploration du monde des wumpus

Systèmes Tutoriels Intelligents (STI)

Page 48: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Exploration du monde des wumpus

Systèmes Tutoriels Intelligents (STI)

Page 49: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Exploration du monde des wumpus

Systèmes Tutoriels Intelligents (STI)

Page 50: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Exploration du monde des wumpus

Systèmes Tutoriels Intelligents (STI)

Page 51: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Exploration du monde des wumpus

Systèmes Tutoriels Intelligents (STI)

Page 52: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Exploration du monde des wumpus

Systèmes Tutoriels Intelligents (STI)

Page 53: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Exploration du monde des wumpus

Systèmes Tutoriels Intelligents (STI)

Page 54: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Exemple d’architecture d’agent cognitif: agent BDI (Définition)

Basée sur le modèle BDI (Croyance-Désir –Intention)BDI = Belief, Desire and Intention◼ Croyances

informations que l'agent possède sur l'environnement et sur d'autres agents qui existent dans le mêmeenvironnement.

Les croyances peuvent être incorrectes, incomplètes ouincertaines et sont donc différentes des connaissances de l'agent, qui sont des informations toujours vraies.

Les croyances peuvent changer au fur et à mesure que l'agent, par sa capacité de perception ou par l'interactionavec d'autres agents, recueille plus d'information.

Page 55: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Agent BDI (Définition)

BDI (suite)◼ Les désirs

représentent les états de l'environnement, et parfois de lui-même, que l'agent aimerait voir réalisés.

Un agent peut avoir des désirs contradictoires ; dans ce cas, il doit choisir parmi ses désirs un sous-ensemble qui soit consistant.

◼ Les intentions sont les désirs que l'agent a décidé d'accomplir ou les

actions qu'il a décidé de faire pour accomplir ses désirs.

Même si tous les désirs d'un agent sont consistants, l'agent peut ne pas être capable de les accomplir tous.

Page 56: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Architecture BDI (Fondement)

La théorie de l’action rationnelle (proposée par Michael Bratman) est à la base du modèle BDI. Cette théorie s’inspire sur la façon don’t les gens raisonnent dans la vie de tous les jours, en décidant, à chaque moment, ce qu'ils ont à faire. Cette théorie montre que les intentions jouent un rôle fondamental dans le raisonnement pratique, car elles limitent les choix possibles qu'un humain(ou un agent artificiel) peut faire à un certain moment.

Illustration:L'agent Pierre a la croyance que, si quelqu'un passe son temps à étudier, cettepersonne peut faire une thèse de doctorat. En plus, Pierre a le désir de voyager beaucoup, de faire une thèse de doctorat et d'obtenir un poste d'assistant à l'université. Le désir de voyager beaucoup n'est pas consistant avec les deux autres et Pierre, après réflexion, décide de choisir, parmi ces désirs inconsistants, les deux derniers. Comme il se rend compte qu'il ne peut pas réaliser ses deux désirs à la fois, il décide de faire d'abord une thèse de doctorat. En ce moment Pierre a l'intention de faire une thèse et, normalement, il va utiliser tous ses moyens pour y parvenir. Il serait irrationnel de la part de Pierre, une fois sa décision prise, d'utiliser son temps et son énergie, notamment ses moyens, pour voyager autour du monde. En fixant cesintentions, Pierre a moins de choix à considérer car il a renoncé à faire le tour des agences de voyage pour trouver l'offre de voyage qui le satisferait au mieux.

Page 57: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Architecture BDI (Composantes)revc : B x P ->B est la fonction de révision des croyances de l'agent lorsqu'il reçoit de nouvellesperceptions sur l'environnement, où P représentel'ensemble des perceptions de l'agent ; elle est réaliséepar la composante Révision des croyances ;

options : D x I->I est la fonction qui représente le processus de décision de l'agent prenant en compteses désirs et ses intentions courantes ; cette fonctionest réalisée par la composante Processus de décision ;

des : B x D x I->D est la fonction qui peut changer les désirs d'un agent si ses croyances ou intentions changent, pour maintenir la consistance des désirs de l'agent (on suppose dans notre modèle que l'agent a toujours des désirs consistants) ; cette fonction estégalement réalisée par la composante Processus de décision ; ¸filtre :B x D x I->I est la fonction la plus importantecar elle décide des intentions à poursuivre ; elle estréalisée par la composante Filtre

plan : B x I-> PE est la fonction qui transforme les plans partiels en plans exécutables, PE étantl'ensemble de ces plans ; elle peut utiliser, par exemple, une bibliothèque de plans (LibP).

Page 58: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Architecture BDI (Algorithme de contrôle)

Soient B0, D0 et I0 les croyances, désirs et intentions initiales de l'agent.

Algorithme de contrôle d'agent BDI (par Woodridge)

1 B =B02 D =D03 I = I04 répéter

4.1 obtenir nouvellesperceptions p

4.2 B = revc(B, p)4.3 I = options(D, I)4.4 D = des(B, D ,I)4.5 I = filtre(B, D, I)4.6 PE = plan(B, I)4.7 exécuter(PE)

jusqu'à ce que l'agent soit arrêtéfin

Reprenons l'exemple de Pierre introduitplus haut. Si Pierre a décidé que sonintention est de faire une thèse dedoctorat, il s'est alors obligé à cetteintention. Pierre commence à travailleret faire sa recherche. Entre temps, ildécouvre qu'il n'aime pas trop travailleret qu'il préfère passer son temps avecses amis dans les bistros. Pierre se rendcompte que son intention est impossibleà accomplir, ce qui le conduit àabandonner son intention de faire unethèse. Dans un autre cas, comme Pierreveut aussi gagner un peu d'argent, ilprend un job dans une compagnie.Comme il est très éloquent et persuasif,on lui offre un poste dans la compagniequi lui demande de voyager beaucouppour représenter les intérêts de lacompagnie. Pierre constate alors qu'uneautre de ses intentions devientopportune, il abandonne sonengagement de faire une thèse etaccepte le poste qu'on lui a offert.

La question est: Combien de temps l’agent reste-t-il obligé par une intention ?

Page 59: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Architecture BDI (Algorithme de contrôle et stratégies d’obligation)3 principales stratégies d'obligation :

Obligation aveugle (ou obligation fanatique). Un agent suivantcette stratégie va maintenir ses intentions jusqu'à ce qu'ellessoient réalisées, plus précisément jusqu'à ce qu'il croie qu'ellesont réalisées. ◼ Pas bone pas efficace l'environnement change entre le moment où

l'agent a choisi (filtré) ses intentions, et le moment où ces intentions doivent être accomplies.

Obligation limitée. L'agent va maintenir ses intentions, ou bien jusqu'à ce qu'elles soient réalisées, ou bien jusqu'à ce qu'il croiequ'elles ne sont plus réalisables.

Obligation ouverte. L’agent maintient ses intentions tant que ces intentions sont aussi ses désirs. Cela implique aussi que, unefois que l'agent a conclu que ses intentions ne sont plus réalisables, il ne les considère plus parmi ses désirs.

Page 60: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Arch. BDI (Algo de contrôle et stratégies d’obligation)

Algorithme de contrôle d'agent BDI avec obligation limitée1 B = B02 D = D03 I = I04 répéter

4.1 obtenir nouvelles perceptions p

4.2 B = revc(B, p)4.3 I = options(D, I)4.4 D = des(B, D ,I)4.5 I = filtre(B, D, I)4.6 PE = plan(B, I)4.7 tant que (PE<>{} et

nonaccompli(I, B) et possible(I, B)) répéter

- x =première(PE); exécuter(x); PE = reste(PE)

- obtenir nouvelles perceptions p

- B = revc(B, p)fin tant que

jusqu'à ce que l'agent soit arrêtéfin

Algorithme de contrôle d'agent BDI avec obligation ouverte1 B = B02 D = D03 I = I04 répéter

4.1 obtenir nouvelles perceptions p4.2 B = revc(B, p)4.3 I = options(D, I)4.4 D = des(B, D ,I)4.5 I = filtre(B, D, I)4.6 PE =plan(B, I)4.7 tant que (PE<>{} et nonaccompli(I, B)

et possible(I, B)) répéter- x = première(PE); exécuter(x);- PE = reste(PE)- obtenir nouvelles perceptions p- B = revc(B, p)- D = des(B, D ,I)- I = filtre(B, D, I)- PE = plan(B, I)

fin tant quejusqu'à ce que l'agent soit arrêté

fin

possible(I, B) est la fonction qui vérifie si, après avoir obtenu la perception p sur l'environnement et révisé ses croyances, les intentions choisies sont encore réalisables ; nonaccompli(I, B) est la fonction qui vérifie si, par hasard, les intentions de l'agent sont déjà accomplies avant même que l'exécution de son plan soit terminée.

Page 61: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

BDI et architecture d’agents réactifs

Une excellente architecture pour agent intelligent ou cognitif intégrant une grande capacité à raisonner.

Toutefois, les agents réactifs peuvent aussi donnés des résultants intéressants même dans des tâches complexes (Ex: Exploration de Mars) pouvant nécessité l’intelligence.

L’intelligence dans ces agents réactifs n’en est pas une au sens IA du terme, mais une qui émerge de l’interaction entre les composants simples ou entres les agents réactifs dans l’environnement.

Nécessité d’avoir des architectures hybride combinant les vertus de la réactivité et du raisonnement.

Page 62: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

PADE (Python Agent DEvelopment framework): https://pade-docs-en.readthedocs.io/en/latest/

JADE (Java Agent DEvelopment Framework) Pour l’implémentation de SMA à travers un middle-ware compatible FIPA (http://jade.tilab.com/)

JESS (Java Expert System Shell) : c'est du CLIPS en Java. Il permet la construction d'agents selon les techniques des systèmes à base de règles

(http://herzberg.ca.sandia.gov/docs/70/embedding.html)

Agent Factory Pour le prototypage rapide d’agents intelligents (https://sourceforge.net/projects/agentfactory/).

Cougaar Agent Architecture logiciel libre Java pour la construction d’agent cognitifs (https://sourceforge.net/p/cougaar/wiki/Home/)

Jadex BDI Agent System (JADE extension) Extension de JADE Pour les agents BDI (https://sourceforge.net/projects/jadex/)

Quelques exemples d’outil pour Agents et SMA

Page 63: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

➢ Interactions

➢ Organisation et Coordination

➢ Négociation

➢ Communication entre agents

➢ Méthode de conception de SMA

Interaction et coopération entre agents: Systèmes multi-agents

Page 64: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Topologie des interactions (Ferber)

✓ Agents indépendants

✓ Collaboration simple entre agents

✓ Encombrement

✓ Collaboration coordonnée

✓ Compétition individuelle pure

✓ Compétition collective pure

✓ Conflit individuel pour des ressources

✓ Conflit collectif pour des ressources

Page 65: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Buts compatibles

Ressources suffisantes

Capacités suffisantes

Agents indépendant (pas d’interaction) OUI OUI OUI

Collaboration simple=> partage de tâches=> partage des informations

Ex: résolution collaborative de problèmes complexes (expertises complémentaires)

OUI OUI NON

Encombrement=> conflit d’accès aux ressources => les agents peuvent se gêner

Ex: Trafic aérien

OUI NON OUI

Compétition individuelle pure=> ils doivent négocier (« lutter ») pour atteindre

leurs buts;=> il n’y a pas d’interaction en vue d’une

coordination des efforts Ex: Compétition sportive individuelle

NON OUI OUI

Conflit individuel = Compétition individuel + encombrementEx: occupation d’un poste dans une entreprise; concurrence (marché)

NON NON OUI

Compétition (ou Conflit) collectif Formation de coalitions pour atteindre les buts Coalitions et groupes s’affrontent entre eux. Négo pour l’accès aux ressources s’il y a lieu

- Ex : Robocup, Relai sportif

NON OUI (ou NON) NON

Page 66: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Étendues de la coopération

La coopération s'étend de la coopération totale àl'antagonisme total.

Les agents optant pour la coopération totale peuvent délaisser leurs buts pour répondre aux besoins des autres agents afin d'assurer une meilleure coordination.◼ Cela risque de donner lieu a plus de communications

Les agents antagonistes ne vont pas coopérer et dans ce cas leurs buts respectifs vont se trouver bloqués.◼ Dans de tels systèmes les communications sont minimaux.

Les systèmes réels se situent entre les deux extrêmes; coopération totale et antagonisme total.

La coopération totale est généralement mise en œuvre dans la résolution distribuée de problèmes

Page 67: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Décomposition du problème en sous-problèmes

Attribution des sous-problèmes aux agents

Résolution des sous-problèmes

Intégration (Synthèse)

Solution globale

Les agents coopèrent pour résoudre des problèmes qu'ils ne peuvent pas résoudre individuellement.

Chaque agent utilise ses connaissances et ses ressources pour résoudre localement un ou plusieurs sous problèmes.

Les solutions partielles à tous les sous-problèmes sont par la suite intégrées.

Exemples : traitement de la parole, évaluation d'une situation distribuée, etc.

Coopération totale et résolution distribuée de problèmes

Page 68: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

On se doit de tenir compte des contraintes que les actions des autres agents placent sur le choix des actions de chaque agent.

Approche classique à la coordination : les agents doivent être en mesure de reconnaître les interactions entre les différents sous-buts pour pouvoir, soit les ignorer, soit les résoudre.

Coordination dynamique : dans le PGP (partial global planning), les agents interagissent en se communiquant leurs plans (partiels) et leurs buts selon un niveau d'abstraction approprié.◼ Ces communications vont permettre à chacun d'anticiper quelles

seront les actions futures des uns et des autres, augmentant ainsi la cohérence de l'ensemble.

◼ Comme les agents coopèrent, le receveur d'un message peut utiliser les informations reçues afin d'ajuster sa propre planification.

Conditions d’interactions entre agents coopérants

Page 69: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Exemple: AGR (Agent Group Role)◼ Principes:

◼ Métamodèle

Modèles d’organisation

Page 70: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Communication entre agents (ACL)

➢ La communication inter-agent est fondamentale à la réalisation du

paradigme agent, tout comme le développement du langage humain

était la clé du développement de l’intelligence humaine et des sociétés.

➢ Pour échanger les informations et les connaissances, les agents

utilisent des ACL (Agent Communication Language).

➢ Que peuvent échanger les agents:

✓ Partage des objets, des appels de procédure et de SDD (CORBA, RPC, RMI, …)

✓ Partage des connaissances (faits, règles, contraintes, procédures…): KIF, OWL,

KQML, FIPA, Aglets….

✓ Partage des intentions (croyances, plans, buts, intentions) => Niveau

intentionnel, Théorie BDI

✓ Que peut-on partager d’autre ? Des expériences, des stratégies…

Page 71: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Le niveau intentionnel: BDI, Acte de langage et

ACL➢ Les actes du langage = Description de niveau intentionnel d’un agent

✓ croyances, désires, intentions et autres.

✓ une description intentionnelle

➢ Le modèle BDI permet de décrire le comportement d’un agent, y

compris le comportement communicatif en tenant compte des états

mentaux (B, D , et I).

➢ Les agents ont des « attitudes propositionnelles » qui sont des

relations tertiaires impliquant:

✓ Un agent

✓ Un contenu

✓ Un ensemble fini d’attitudes: croire, avoir peur, espérer, se

demander, accepter, …

✓ Exemple : <a, fear, raining (Tnow)>

Page 72: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Le modèle BDI et la communication

B + D => I

I => A (action)

➢ Communiquer

1) Revéler à l’autre l’état de nos croyances, désires et intentions

2) Essayer d’influencer l’état des croyances, désires et

intentions de l’autre.

➢ Un agent a des croyances sur le monde (son environnment), sur les

croyances des autres agents, sur les croyances qu’ont les autres

agents sur lui ou sur ses croyances …

Page 73: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Théorie des actes de langage

➢ Théorie relative à l’usage du langage pour les actions de

communication (Austin 1962)

➢ Toute communication est faite avec l’objectif de satisfaire un but

ou une intention.

➢ Ex: « il pleut! », « ferme la porte, s’il te plait .»

➢ 3 types d’actes:

✓ Locutoire: action du locuteur

✓ Illocutoire: intention du locuteur (ordre, conseille, requête…)

✓ Perlocutoire: effet de l’allocution (résultat de l’acte illocutoire)

➢ Exemple: « Ferme la porte »▪ locution : qui parle ? à qui? quelle porte ?

▪ illocution: le locuteur veut que l’allocutaire ferme la porte

▪ perlocution: L’allocutaire ferme la porte

Page 74: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Actes illocutoires

Acte de langage = Force illocutoire (composante intentionnelle) + contenu propositionnel.

Actes illocutoires = Performatives

5 classes de Performatives:◼ Assertives

◼ Directives

◼ Commissives

◼ Déclaratives

◼ Expressives.

Page 75: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Mise en œuvre dans les SMA

➢ Le partage de connaissances nécessite une communication qui requiert

un langage commun

➢ Rappel: Langage => Syntaxe + Sémantique + Pragmatique

➢ Comment assurer une syntaxe, une sémantique et une pragmatique

commune pour la communication entre agents hétérogènes ?

➢ DARPA - KIF (Knowledge Interchange Format) =>

Syntaxe

➢ W3C – OWL: ontologies partageables =>

Sémantique

➢ KQML (Knowledge Query and Manipulation

Language) ou FIPA-ACL: Un langage pour la

communication de haut-niveau => Pragmatique

Page 76: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Syntaxe commune avec KIF

KIF permet de mettre en relation des systèmes hétérogènes (du point de vue base de connaissance)

Il s’agit d’une version préfixée du calcul des prédicats du premier ordre avec quelques extensions:◼ Codage de tuples

◼ Codage de procédures

◼ …

Exemple de code KIF:(forall ?x (=> (P ?x) (Q ?x)))

(exists ?person (mother mary ?person))

(=> (apple ?x) (red ?x))

(<<= (father ?x ?y) (and (child ?x ?y) (male ?x))

Page 77: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Système 1

KB en lang 1

KIF <-> traducteur lang 1

Système 3

KB en lang 3

KIF <-> traducteur lang 3

Système 2

KB en lang 2

KIF <-> traducteur lang 2

KB en KIF

BIBLIOTHÈQUE

KIF

Page 78: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Utilisations de KIF

Plusieurs systèmes de raisonnement KIF en LIPS disponibles à Stanford (Ex: EPILOG)

Le moteur de raisonnement de ABE (Agent Building Environment de IBM) utilise KIF commelangage externe

Des traducteurs existent pour plusieurslangages: Prolog, CLIPS, RDF …

Il existe des interpreteurs et des analyseurs qui acceptent des chaînes KIF dans les objets C++ ou Java.

Page 79: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Sémantique commune et partageable avec OWL

Les systèmes qui communiquent doivent partager une ontologie

Ontologie = Spécification des objets, des concepts et des relations dans un domaine particulier.

Analogue à un schéma conceptuel de BD, Taxinomie de classe-sous-classe, …

OWL est un langage (à expressivité variable) pour la construction, la publication et le partage d’ontologies.◼ OWL est fondé sur les logiques de descriptions

◼ Le langage offre des primitives pour la combinaison d’ontologies.

Page 80: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

<owl:Class rdf:ID="WineDescriptor" />

<owl:Class rdf:ID="WineColor">

<rdfs:subClassOf rdf:resource="#WineDescriptor" />

</owl:Class>

<owl:ObjectProperty rdf:ID="hasWineDescriptor">

<rdfs:domain rdf:resource="#Wine" />

<rdfs:range rdf:resource="#WineDescriptor" />

</owl:ObjectProperty>

<owl:ObjectProperty rdf:ID="hasColor">

<rdfs:subPropertyOf rdf:resource="#hasWineDescriptor"/>

<rdfs:range rdf:resource="#WineColor" />

</owl:ObjectProperty>

Sémantique commune et partageable avec OWL

Page 81: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Pragmatique commune avec FIPA-ACL

Chaque message FIPA-ACL représente un seul acte de langage (acte illocutoire) - Ex: propose, inform… - auquel sont associés une une sémantique (sémantique de la performative) et un protocole.

3 niveaux dans un message FIPA-ACL◼ La performative

◼ Des informations utiles pour l’interprétation de message (:ontology, :langage) et celles utiles pour le routage du message (:sender, :receiver, :reply-with …)

◼ Le contenu du message (:content).

Page 82: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Caractéristiques essentielles de FIPA ACL

Des primitives peuvent être définies par composition de primitives de base.

Utilise un langage puissant pour définir les étatsdes agents (le langage SL (Semantique Language))

La sémantique est basée sur les attitudes mentales(croyance, intention etc.)

Le sens des primitives est donné en terme de préconditions de faisabilité (Feasibility Preconditions (FP)) et d’effet rationnel (Rational Effect (RE)).

Page 83: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Catégorie de performatives FIPA

Information (contenu: proposition)

◼ Query_if, query_ref, sunscribe, inform, inform_if, inform_ref, confirm, disconfirm, not_understood

Distribution de tâches (contenu: action)

◼ Request, request_when, request_whenever, cancel, agree, refuse, failure

Négociation (contenu: action et proposition)

◼ Cfp (Call for proposal), propose, accept_proposal, reject_proposal

Page 84: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

FIPA-ACL: Les 20 performatives

Page 85: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Sémantique et FIPA ACLExemple: Performative Inform

<i, inform( j, f)>

FP: B i f B i ( Bif j f Uif j f) (i croit que fet i ne croit pas que j croit f ou il en a des doutes)

RE: B j f (j croit que f)

Exemple: L’agent i informe l’agent j qu’il (est vrai que) il va pleuvoiraujourd’hui:

(inform

:sender i

:receiver j

:content "weather(today,raining)"

:language Prolog

:ontology weather42).

Page 86: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Sémantique et FIPA ACLL’agent i demande à j de l’informer si Lannion est en Normandie.

(request

:sender i

:receiver j

:content(inform-if

:sender j

:receiver i

:content "in( lannion, normandie)"

:language Prolog)

:language FIPA-SL)

A l’agent j de répondre que non: (inform

:sender j

:receiver i

:content"\+ in( lannion, normandie )"

:language Prolog)

Page 87: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Sémantique et FIPA ACLUne requête de l’agent ‘facilator1’ a l’agent ‘database-agent1’.

(query-ref

:sender

(agent-identifier

:name facilitator1)

:receiver

(agent-identifier

:name database-agent1)

:language FIPA-KIF

:ontology ec-ontology

:content

(kappa (?make ?door ?price)

(and (car ?car) (make ?car ?make)

(doors ?car ?doors) (price ?car ?price))))

Réponse de ‘database-agent1’.

(inform:sender

(agent-identifier:name database-agent1)

:receiver(agent-identifier:name facilitator1)

:language FIPA-KIF:ontology ec-ontology:content

(= (kappa (?make ?door ?price)(and (car ?car) (make ?car ?make)

(doors ?car ?doors) (price ?car ?price)))'((Mercedes 4 100,000) (Honda 2 20,000) (Toyota 4 25,000))))

Page 88: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Services de renseignement dans FIPA

Les agents de renseignement ◼ Contiennent des méta-connaissances sur les autres

agents

◼ Fournissent des services de communication tels que: La diffusion des messages et le « faire-suivre »

L’appariement des demandes et des offres de service …

Des performatives dédiés à ces agents:◼ Advertise, broker, recruit, recommend, forward,

broadcast …

Les agents de renseignement peuvent être intelligents ou non◼ Ceux qui sont intelligents utiliseront les

connaissances du domaine pour l’appariement des offres et des demandes de service

Page 89: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

Exemple de performatives de renseignement

A F B

A F B

A F B

Broker (Le fac. soumet la req. à l’agent approprié et transmet la rép. à A)

Recruit (Le fac. recruite un agent qui répond directement à A)

Recommend

A ne sait pas que X est dans B : Il faut passer par un facilitateur

Broker(ask(X))

Inform(X)

Advertise(ask(X))

Ask(X)

Advertise(ask(X))

Ask(X)Recruit(Ask(X))

Inform(X)

Recommand(ask(X))

Reply(B)

Advertise(ask(X))

Ask(X)

Inform(X)

(le facilitateur recommande un agent approprié à A)

Page 90: Les fondements IA: Agents Intelligents et Systèmes Multi ... · INF4230 - Intelligence artificielle 4. Exemples d‘agents ... et aux éléments de l‘environnement d‘apprentissage

INF7470 – Roger Nkambou / Daniel Dubois

Méthodologie de développement

4 phases pour le développement de SMA:◼ Collecter et construire les ontologies nécessaires

Utiliser les standards, les ontotologies publiées si possible

Développer et publier de nouvelles composantes au besoin

Utiliser les outils communs (Ex: Protégé)

◼ Choisir un langage de représentation commun Exemple: KIF, OWL-Dl, etc.

◼ Utiliser un ACL (ex: FIPA-ACL) comme langage de communication Au besoin, l’étendre avec de nouvelles performatives et de

nouveaux protocols

◼ Identifier et définir des protocoles de haut-niveau Ex: pour la négociation.