Title: 1' Prsentation du cours 2' IA Fondement des STI 1: Introduction
1 1. Présentation du cours2. IA Fondement des
STI (1) Introduction
INF7470 Systèmes Tutoriels Intelligents
- Roger Nkambou / Daniel Dubois
2Motivation du cours pourquoi des STIs?
- QUESTION POUR VOUS
- Quelles sont vos motivations pour ce cours?
- Qu'est-ce qu'enseigner?
- Manière multiples
- instruction, questions, démonstration,
supervision, interactions de groupe, etc. - Pourquoi des systèmes artificiels?
- contraintes physiques, temporelles, humaines
3Quelques éclaircissements
- Multiples appellations
- STI Système Tutoriel Intelligent --- ITS
- SABC Système dApprentissage à Base de
Connaissances - EIAH Environnement Intelligent/Interactif
d'Apprentissage Humain - Différents des systèmes "non intelligents"
- CBT Computer-Based Training
- ILE Interactive Learning Environment
4Description du cours
- Utilisation de l'intelligence artificielle dans
la création de systèmes d'aide à l'apprentissage
humain. -
- Représentation du domaine d'apprentissage,
théories d'apprentissage et d'instruction,
modélisation du tutorat, modélisation de
l'usager-apprenant. - Planification du contenu et des activités
d'apprentissage, stratégies tutorielles,
production de systèmes tutoriels intelligents
(outils auteurs). - Standardisation et apport du Web sémantique,
distribution de ressources d'apprentissage,
apprentissage social. Études de cas.
5Objectifs spécifiques
- À la fin de la session, l'étudiant(e) devrait
être capable de - comprendre et de décrire les composants dun
système tutoriel intelligent (STI) - comprendre le rôle joué par lintelligence
artificielle (IA) dans la conception de STIs - comprendre lenjeu des recherches dans le domaine
de lAIED (Artificial Intelligence in EDucation)
ainsi que les défis actuels et grandes questions
de recherche dans ce domaine. - concevoir, implémenter et déployer, à laide
doutils appropriés, un petit système tutoriel
intelligent.
6Contenu planification
7Méthode pédagogique et évaluation
- Méthode
- Séance typique
- Cours magistral
- Présentations des étudiants discussion globale
- Évaluation
- Quiz IA 10
- Projet 1 (individuel) État de l'art sur un
thème lié aux STI 45 - Participation 5
- Projet 2 (équipe de 2 ou 3) Implémentation dun
STI 40
8Ressources
- http//gdac.dinfo.uqam.ca/inf7470
9Introduction à lintelligence artificielle
10Lintelligence
- selon A. Turing
- ce qui rend difficile la distinction entre une
tâche réalisée par un être humain ou par une
machine, - selon C. Darwin
- ce qui permet la survie de l'individu le plus
apte, parfaitement adapté à son environnement, - selon T. Edison
- tout ce qui fait que cela fonctionne et produit
le plus de revenus pour l'entreprise. - selon Yam (1998)
- Une définition exacte de lintelligence est
probablement impossible la plus vraisemblable
la capacité de gérer la complexité et à résoudre
des problèmes dans un contexte utile. - selon Voss (2004)
- La capacité dune entité à atteindre des buts.
Une intelligence plus grande permet de gérer des
situations plus complexes et imprévues.
11Lintelligence artificielle
- Lintelligence artificielle produit des machines
imitant les humains - Simule les processus intelligents de lhumain
- Reproduit les méthodes ou les résultats du
raisonnement ou de lintuition humaine
12IA Quelques définitions
- Selon Marvin Minsky
- ... the science of making machines do things
that would require intelligence if done by
humans - Selon E. Feigenbaum
- AI is the part of computer science concerned
with designing intelligent computer systems
13IA Définitions selon quatre orientations
- L'IA est une discipline qui systématise et
automatise les tâches intellectuelles pour créer
des machines capables de
Source Russell et Norvig, 2003
14Agir comme un humain
- IA est l'art de créer des machines qui réalisent
des fonctions exigeant de l'intelligence
lorsqu'elles sont effectuées par des humains - Méthodologie Identifier une tâche intellectuelle
dans laquelle l'homme est bon et la faire
réaliser par un ordinateur - prouver un théorème
- enseigner
- jouer aux échecs
- planifier une opération chirurgicale
- diagnostiquer une maladie
- se déplacer dans un bâtiment
15Test de Turing une définition opérationnelle
- En 1950 Alan Turing publie son papier "Computing
Machinery and Intelligence" dans lequel il décrit
une méthode pour tester un système d'intelligence
artificielle - prédit qu'avant l'an 2000, une machine aurait 30
de chance de tromper une personne non avertie
pendant 5 minutes - principales composantes d'un système d'IA
- connaissances, raisonnement, compréhension du
langage naturel, apprentissage - Test de Turing un individu communique à l'aide
d'un terminal d'ordinateur avec un interlocuteur
invisible. Il doit décider si l'interlocuteur est
un être humain ou un système d'IA imitant un être
humain. - http//www.turing.org.uk/turing/
interrogateur
humain
machine
16Test de Turing requis pour la machine
- TLN (NLP)
- pour communiquer avec les humains
- Représentation de la connaissance
- pour conserver ce quelle sait et entend
- Raisonnement automatique
- utiliser le savoir enregistré pour tirer des
conclusions et répondre aux questions - Apprentissage (apprentissage machine)
- pour détecter des patrons, extrapoler des patrons
latents, et tirer de nouvelles conclusions. - avons-nous besoin de reproduire l'humain?
17Test de Turing étendu
- En supplément, il faudra à la machine
- sens artificiels
- pour percevoir
- capacités robotiques
- pour manipuler les objets et se déplacer
18PENSER comme un humain
- Nous devons ici entrer dans l'esprit humain
- introspection
- études psychologiques
- Reproduire les agissements et le synchronisme
observé - selon les mécanismes qu'on croit probables
- Allen Newell et Herbert Simon GPS
- "General Problem Solver"
- faire plus que juste résoudre des problèmes le
faire comme les humains. - comparer les étapes suivies à celles observées
chez les humains
19Penser RATIONNELLEMENT
- Fondée sur la tradition des logiciens.
- 19e siècle création d'une notation précise pour
la logique - But machines qui prennent des décisions sans
faille, explicables - Difficultés
- difficile de traduire le savoir informel ou
implicite - difficile de suivre la trace d'un savoir
incertain - QUESTION POUR VOUS À quel genre de monde cela
peut-il convenir?
20AGIR rationnellement
- L'approche agent
- du latin agere, faire
- vise des agents rationnels
- QUESTION POUR VOUS
- Qu'est-ce qu'agir rationnellement?
- agir pour atteindre le meilleur résultat
- Dans l'incertain agir pour atteindre le meilleur
résultat espéré
21Fondements de lIA
- Philosophie
- logique, méthodes de raisonnement, esprit comme
système physique - fondements apprentissage, langage, rationalité
- Mathématiques
- représentations formelles et preuves,
incomplétude - algorithmes (PGCD d'Euclide), (in)décidabilité,
explosion combinatoire, probabilité - Psychologie
- William James psychologie cognitive le cerveau
est un organe de traitement de l'info. - agents à base de connaissances (stimulus ?
représ. internes ? traitement ? action) - adaptation phénomènes de perception et de
contrôle moteur techniques expérimentales - Helmholtz il y a des inférences inconscientes
- Économie
- utilité
- théorie de la décision (probabilité utilité vs.
incertitude) les groupes vs. l'individu) - Linguistique
- représentation des connaissances
- grammaire
- Neurosciences
- substrat physique et biologique de l'activité
mentale comment le cerveau traite l'info?
22Les grands inspirateurs
- Mc Culloch et Pitts (1943) réseaux neuronaux
artificiels (approche physiologique) - Shannon théorie de linformation
- Von Neumann architecture dun calculateur
- Turing théorisation des fonctions calculables
par machine
23Une histoire en train de sécrire1956
Fondations
- Genèse autour de la notion de machines à
penser - Comparaison du cerveau avec les premiers
ordinateurs - IA ne peut s'inclure sous une autre science
spécifique - Acte de naissance 1956, Darmouth College (New
Hampshire, USA) - John McCarthy (tenant de la logique)
l'expression Artificial Intelligence - Marvin Minsky (tenant dune approche par
schémas) apprendre à penser sur des micro-mondes - 1952-1969 enthousiasme et espoirs sans borne
(premiers programmes dIA) - 1952 programmes pour jouer aux Dames et
apprendre à jouer (A. Samuel) - 1958 McCarthy
- LISP pour représenter des connaissances
générales sur le monde - "Programs with common sense (Advice Taker 1ere
description d'un pgm IA complet) - 1959 Geometry Theorem Prover (Samuel) meilleur
que les étudiants! - suivi du General Problem Solver
- qui progresse dans la résolution en évaluant la
différence entre la situation du solveur et le
but à atteindre. - 1962 amélioration de l'apprentissage de Hebb
dans Adaline Perceptron - 1963 représentation en multiples éléments
simples (? robustesse parallélisme)
24Premiers défis
- Programmes capables de jouer' aux échecs
(premières idées en 1950 par Shannon!) -gt
première victoire sur un maître en 1997 Deep Blue
bat Kasparov (loin des prévisions de Simon en
1957 qui donnait 10 ans pour que cela se
produise) - Test dintelligence (Evans 1963) trouver la
suite dune série de figures. - Dialogue en langage naturel
- ELIZA, Weizenbaum 1966 (voir page suivante)
- SHRDLU, Winograd 1971
25ELIZA Un programme qui simule l'intelligence
- a conversation between eliza and a young woman
- young woman Men are all alike.
- eliza In what way?
- young woman They're always bugging us about
something specific or other. - eliza Can you think of a specific example?
- young woman Well, my boyfriend made me come
here. - eliza Your boyfriend made you come here?
- young woman He says I'm depressed much of the
time. - eliza I am sorry to hear you are depressed.
- young woman It's true. I'm unhappy.
- eliza Do you think coming here will help you
not to be unhappy? - young woman I need some help, that much seems
certain. - eliza What would it mean to you if you got some
help? - young woman Perhaps I could learn to get along
with my mother. - eliza Tell me more about your family.
- young woman My mother takes care of me.
- eliza Who else in your family takes care of
you? - young woman My father.
- eliza Your father.
26Une histoire en train de sécrire1966-1973 Une
dose de réalisme
- 1957, Simon Un ordinateur vaincra l'humain aux
échecs d'ici 10 ans - il fallut plutôt 40 ans (1997 Deep Blue vs.
Kasparov) - Expérimentations en "évolution des machines"
(algorithmes génétiques) solution par
recombinaison - Écueils
- explosion combinatoire.
- insuffisant tester les multiples combinaisons
syntaxiques - Les succès à petite échelle (sur micromondes) ne
peuvent simplement grossir et affronter le "vrai"
monde et sa complexité (explosion combinatoire) - Leçon il faut une connaissance du monde.
- 1969, Minsky Papert livre Perceptron Les RN
sont super-bons pour faire presque rien (trop
faible capacité de représentation) - 1973 Rapport Lighthill IA ne mérite pas des
fonds de recherche
27Une histoire en train de sécrire1969-1979
Systèmes à base de connaissances
- Les années 70 et 80 virent un véritable
engouement pour les systèmes experts - DENDRAL
- Le premier système à base de connaissances une
vaste collection de règles spécifiques - a mené au projet Heuristic Programming Project
- pour confronter l'idée de systèmes experts à des
domaines autres que les molécules. - MYCIN (infections sanguines) 450 règles dans une
domaine où n'existait aucun modèle théorique
général - La nouveauté interviews pour extraire le savoir
implicite.
28Lère des systèmes experts
- Les années 70 et 80 virent un véritable
engouement pour les systèmes experts - DENDRAL (en chimie)
- MYCIN (en médecine)
- Hersay II (en compréhension de la parole)
- Prospector (en géologie emplacement et contenu
probables d'un dépôt) - Générateurs de systèmes experts
- GURU
- CLIPS
29MYCIN (1976)
- Heuristiques pistes pour orienter vers la
solution, et élaguer les candidats peu
intéressants.
30Systèmes expertsLeurs limites (source
http//www.cs.unm.edu/7Eluger/ai-final/chapter1.h
tml)
- Il est difficile d'y transférer
- les connaissances du quotidien (common sense)
- Par exemple, MYCIN, poursuivant son diagnostic,
posa la question au sujet d'un patient Le
patient porte-il un bébé?, même s'il savait déjà
que le patient était un homme - les connaissances fondamentales sous-jacentes
- MYCIN, par exemple, n'incorpore ni le rôle du
sang, ni la fonction de la colonne vertébrale
dans ses raisonnements diagnostiques. - Ils ne s'appuient pas sur des connaissances
premières (fondamentales) - auxquelles ils pourraient retourner en cas de
cul-de-sac, afin d'ouvrir de nouvelles avenues de
recherche. - Ne peuvent fournir une explication fondamentale.
Les experts fournissent habituellement les étapes
de leur diagnostic, sans nécessairement pouvoir
fournir la raison profonde justifiant la justesse
de ce diagnotic. - Les systèmes experts sont souvent dénués d'une
capacité d'apprendre - Ils opèrent à partir d'un savoir reçu et
statique.
31heuristiques
- Heuristiques pistes pour orienter vers la
solution, et élaguer les candidats peu
intéressants. - Ne garantit pas une solution, mais réduit le
nombre de solutions potentielles à examiner. - Herbert Simon
- if you take a heuristic conclusion as certain,
you may be fooled and disappointed but if you
neglect heuristic conclusions altogether you will
make no progress at all. - The use of heuristic programming by Dendral
allowed it to replicate the human problem solving
behavior in machines, and designated itself as
the first expert system.
32Une histoire en train de sécrire1986-aujourd'hu
i réseaux neuronaux. Le retour
- Des domaines autres que l'IA ont continué
d'explorer les réseaux neuronaux - En physique John Hopfield (1982)
- propriétés des réseaux (d'atomes) pour
l'enregistrement et l'optimisation - Psychologie Rumelhart
- r.n. comme modèles de la mémoire
- 1986 rétro-propagation gros succès
- La tendance actuelle il n'y a pas un seul
paradigme vers le succès.
33Une histoire en train de sécrire2000-aujourd'hu
i Les problèmes concrets sont grands
- Besoin de nouvelles méthodes et techniques pour
- la vérification, lestimation, le diagnostic,
lextraction des connaissances etc. - Émergence de la nouvelle IA
- Fouille de Données, Intégration de Données,
Traitement de Corpus, - Interaction Homme-Machine, Systèmes Multi-Agents
et Distribués -
Systèmes Tutoriels Intelligents (STI)
34Langages de programmation pour lIA ?
- LISP (origine américaine)
- PROLOG (France ! Alain Colmerauer
(http//alain.colmerauer.free.fr/)) - SmallTalk (Langage objet)
- Les langages de Frame
- YAFOOL (Yet Another Frame based Object Oriented
Language) - KL-ONE (Knowledge Language)
- Langage de logique de description
35Dautres grandes réalisations
- Aujourd'hui quelques industries (automobile,
électronique) sont très robotisées et on trouve
de plus en plus de robots domestiques - Des robots ont exploré Mars
- Des robots humanoïdes sont opérationnels et
disponibles à la location
36DEEP BLUE
Saying Deep Blue doesnt really think about chess
is like saying an airplane doesnt really fly
because it doesnt flap its wings. Drew
McDermott
I could feel I could smell a new kind of
intelligence across the table -Gary Kasparov
37Guide-Robot pour musée
Minerva, 1998
Rhino, 1997
Parle, sapproche des visiteurs, Senseurs
(cameras, ultrason) pour la perception de son
env. Avant de décider de ces actions. Chante
lorsquelle est contente Se frustre lorsquelle
est bloquée!
38RoboCup, une compétition annuelle de soccer pour
robots !
39Reconnaissance de la parole
40Débuté Janvier 1996 Lancée Octobre 1998
A rencontré la comète Borrelly et retourné les
images de cette dernière quelques données
scientifiques.
41Quelques expressions du robot Kismet (expression
facial)
42Pour voir plus de robots
43Les grandes questions de lIA
- Représenter, acquérir des connaissances
- Algorithmes généraux de résolution de problème
- Intelligence artificielle collective
- Formaliser, mécaniser types de raisonnement
- Evaluer des situations, décider, planifier
- Raisonner sur le temps et lespace
- Résumer, apprendre, découvrir
- Langue et IA
- Indexation et IA
- Réalité virtuelle et IA
44Nouvelles questions de lIA
- Sadapter à des situations changeantes
- Assister lapprentissage humain !
- Gérer des dialogues entre agents hétérogènes
- Voir la cognition comme une émergence dans
linteraction avec lenvironnement - Concevoir une nouvelle génération de systèmes
informatiques - Imaginer des systèmes qui sont conçus dans la
continuité sur la base des usages - Cognition située, distribuée, émergente
45Multiples facettes de lIA
- Facette des mathématiques
- formalisation du raisonnement mathématique
(logique) - Contribution à de nouveaux champs (logiques
modales -gt logique possibiliste) - Facette informatique
- Nouveau paradigmes de programmation
- Programmation logique
- Programmation objet
- Programmation fonctionnelle
- Nouvelles façons de voir les systèmes
dinformation - Gestion de la connaissance
- Indexation WEB (semantic web)
- Description des documents numériques
- Applications nombreuses
- Aide à la décision
- Aide au diagnostic
- Aide à la planification
- Aide au traitement automatique de la langue
- Aide à la conception
-
46Multiples facettes de lIA
- Sciences de la cognition et IA
- Cest le même projet au départ
- Vision symbolique (la pensée est un calcul sur
des symboles avec processeur et mémoires) - Vision sub-symbolique (la vision symbolique
fonctionne mais est virtuelle, les mécanismes
sont biologiques mais produisent le même effet au
niveau macroscopique) Réseaux neuronaux,
automates cellulaires. - Vision sociale la connaissance émerge de
comportements distribués dans un environnement
(approche multiagents). Réseaux neuronaux
dynamiques, colonies dinsectes, etc.
47Alors, que faut-il apprendre ?
- Les bases de lIA sont les bases historiques
- Modèle symbolique
- Raisonnement logique
- Résolution automatique de problèmes
- Programmation logique
- Alors nous allons commencer par
48Introduction à la notion dagent
- Comment formaliser le problème de construction
dun agent ? - Dichotomie entre la notion dagent et de son
environnement - Plus simple à traiter
- Un agent est une entité qui perçoit et agit
- Un agent est une fonction dune perception (ou
séquence de percepts) à des actions
49Agent
- Percept unité élémentaire de perception (via
des capteurs) - A un ensemble dactions (via des effecteurs)
- Lagent possède une fonction f Pgt A
- Agent architecture programme (implantation de
f )
50Exemples dagents
- Agent humain
- C yeux, oreilles, nez, etc.
- E Mains, jambe, bouche, autres parties du corps
- Agent robot
- C cameras and capteurs infrarouges
- E moteurs comme effecteurs
- Agent logiciel
- C Saisies de données, lecture d'un fichier,
paquets réseau reçus comme des capteurs - E Affichage à l'écran, écriture de fichiers,
paquets envoyés sur le réseau
51Environnement de lagent aspirateur
- 2 localisations A et B
- Perceptions localisation et contenu,
exADirty - Actions Left, Right, Suck, NoOp
- Une fonction possible
- Si la localisation courante est sale, alors
aspirer, sinon aller à lautre localisation
52Concept de rationalité
- Un agent est rationnel sil effectue toujours
laction appropriée étant donnée sa perception
et ses actions possibles. - Quest-ce quune action appropriée?
- Définie par une mesure de performance.
- La rationalité de lagent dépend de 4 facteurs
- La mesure de performance
- Un agent est rationnel si pour toute séquence de
percepts, il sélectionne laction qui maximise la
mesure de performance rationnel réussi - La clairvoyance
- Entretien une séquence percepts rationnel
clairvoyant - Lomniscience
- Sait tout sur son environnement rationnel
omniscient ? - Les actions possibles
- Ce que lagent sait faire rationnel capacité
daction pertinente - Cela peut impliquer que dispose des capacités d
- exploration, apprentissage, autonomie
53Aspirateur exemple dagent rationnel
- Lagent aspirateur est rationnel si
- La mesure de performance accorde un point par
case nettoyée - Lenvironnement de lagent est connu mais pas
lemplacement initial de lagent ni la
distribution de la poussière - Lagent perçoit correctement la case où il se
trouve et sa propreté (ou pas) - Actions Droite, Gauche, Aspirer, NRF
54Aspirateur ex dagent non rationnel
- Lagent aspirateur nest pas rationnel si
- Sil continue des déplacements dans un
environnement propre (actions non optimale) - Sil a une pénalité pour chaque déplacement un
agent rationnel devrait minimiser les
déplacements dans ce cas! - Si lenvironnement peut changer un agent
rationnel devrait le vérifier périodiquement
(révision des croyances) - Si lenvironnement est inconnu un agent
rationnel devrait lexplorer.
55Exemple de situation rationnelle
- Situation se munir dun parapluie
- Est-ce rationnel ?
- Cela dépend de la météo, et de ma connaissance de
la météo. - Si jai entendu le bulletin météo, que je le
crois et que je pense quil va pleuvoir, alors il
est rationnel de se munir dun parapluie. - Une action est considérée comme rationnelle si
elle conduit à bien faire ce que lagent essaie
de faire! - Cela nindique pas par exemple que ce que lagent
essaie de faire est intelligent ou stupide.
56Agent rationnel et environnement
- Pour modéliser un agent rationnel, on doit
spécifier lenvironnement où doit se dérouler la
tâche de lagent - Lenvironnement représente le problème à résoudre
- Lagent représente la solution
- On doit définir les propriétés de cet
environnement
57Environnement dune tâche
- PEAS (Performance, Environment, Actuators,
Sensors) - Définir la mesure de performance
- Notion de compromis en cas de conflits dans les
objectifs à atteindre - Définir lenvironnement
- Définir les capteurs
- Définir les effecteurs
58Ex Un agent taxi automatique
- Mesure de performance?
- Sécurité, arrivée à destination, minimisation du
temps, maximisation du profit, minimisation de
la consommation de carburant, légalité,
maximisation du confort des passagers. - Environnement?
- rues/autoroutes, trafic, piétons, météo
- Effecteurs?
- Contrôle de la direction, accélérateur, freins,
klaxon, boite de vitesse,.. - Capteurs?
- Cameras Vidéo, accéléromètres, jauges, capteurs
du moteur, clavier, GPS,
59Ex Agent de shopping sur internet
- Mesure de performance?
- prix, qualité, pertinence, efficacité
- Environnement?
- Sites web, vendeurs, expéditeurs
- Actuateurs?
- Afficher à l'utilisateur, ouvrir lURL, remplir
le formulaire - Capteurs?
- pages HTML (textes, graphiques, scripts)
60Propriétés de lenvironnement
- Entièrement observable(vs. Partiellement
observable) - Déterministe (vs. Non-Déterministe ou
stochastique) - Episodique (vs séquentiel)
- Statique (vs. Dynamique)
- Discret (vs. Continu)
- Mono-agent vs multi-agent
61Entièrement observable(vs. Partiellement
observable)
- Peut-on voir l état du monde directement?
- Entièrement observable (vs. partiellement
observable) lagent a accès en tout temps à
toute linformation pertinente sur
lenvironnement (on parle aussi détat) - Taxi automatique Partiellement accessible
- Echecs accessible
62Déterministe (vs. Non-Déterministe ou
stochastique)
- Est-ce quune action conduit dun état à un seul
autre état ? - Ex un agent qui conduit sur une route évolue
dans un environnement stochastique (aléatoire) - Environnement déterministe échecs
63Episodique (vs. Non-épisodique ou séquentiel)
- Dans les environnements épisodiques,
lexpérience de lagent est divisée en épisodes
atomiques - Chaque épisode consiste en une perception de
lagent et une action en réponse à cette
perception - Le choix de laction dans chaque épisode dépend
seulement de lépisode lui-même. - Exemple Tâche de classification
- Dans les environnements séquentiels, la décision
courante peut affecter les décisions futures - Exemples Echecs et taxi automatique
64Statique (vs. Dynamique)
- Est-ce que le monde peut changer pendant la
délibération de lagent ? - Environnement statique mots-croisés
- Environnement dynamique taxi automatique
- Lorsque lenvironnement ne change pas mais que la
performance de lagent change au fur et à mesure
que le temps sécoule, on parle denvironnement
semi-dynamique - Ex échecs chronométrés
65Discret (vs. Continu)
- Est-ce que les perceptions et les actions sont
discrètes (comme des entiers) ou continues (comme
les nombres réels)? - un nombre fini de perceptions et dactions
différentes? - Exemple Les échecs ont un nombre fini détats
discrets et disposent dun ensemble discret de
perceptions et dactions - Le taxi automatique possède des états et des
actions continus.
66Mono-agent vs Multi-agent
- Environnement mono-agent
- Environnement multi-agent concurrentiel les
échecs - Environnement multi-agent partiellement
coopératif évitement de collisions par
différents taxis automatiques - Environnement multi-agent partiellement
concurrentiel trouver un stationnement - Communication entre les agents
- Comportement stochastique souvent nécessaire!
67Types denvironnement
Le type denvironnement détermine largement la
modélisation de lagent Le monde réel est
partiellement observable, non déterministe,
séquentiel, dynamique, continu, multi-agent
68Structures dagents
- 4 types de base
- Les agents réflexes simples
- Les agents réflexes fondés sur des modèles
- Les agents fondés sur les buts
- Les agents fondés sur lutilité
- Agents évolués les agents capables
dapprentissage
69Les agents réflexes simples
Sélectionner des actions en fonction de la
perception courante et sans tenir compte de
lhistorique des perceptions
Règles condition-action
70Implantation dun agent reflexe aspirateur
71Inconvénients des agents reflexes
- Les agents reflexes sont simples, mais leur
intelligence est très limitée! - Lagent ne peut fonctionner que si une décision
correcte peut être prise en fonction de la
perception courante. - Lenvironnement doit être complètement observable
- Pb des boucles infinies souvent rencontrées, on
peut tenter dy remédier par un mécanisme de
randomisation
72Les agents réflexes fondés sur des modèles
- Lagent doit connaître son environnement (ex
mémorisation de la topologie de lenvironnement) - Lagent doit maintenir un état interne qui dépend
de lhistorique des perceptions - La mise à jour de cet état interne nécessite deux
types de connaissances à encoder dans lagent - Une information sur la manière dont le monde
évolue indépendamment de lagent - Une information sur la manière dont les actions
de lagent affectent lenvironnement
73Agent possédant un modèle
74Les agents fondés sur les buts
- Connaitre létat courant de lenvironnement nest
pas toujours suffisant pour décider de laction à
accomplir (ex. décision à une jonction de route) - Lagent a besoin dune information sur le but qui
décrit les situations désirables - Lagent peut alors combiner cette information
avec linformation sur les résultats des actions
possibles afin de choisir laction qui satisfait
le but - Un tel agent nécessite des capacités de recherche
et de planification
75Les agents fondés sur les buts
76Comparaison
- Les agents basés sur les buts sont flexibles car
la connaissance qui supporte leurs décisions est
représentée explicitement et peut être modifiée - Pour lagent reflexe, les règles condition-action
doivent être modifiées et réécrites dans toute
nouvelle situation - Il est facile de modifier le comportement dun
agent basé sur les buts
77Les agents fondés sur lutilité
- Les buts seuls ne sont pas suffisants pour
générer un comportement intéressant dans beaucoup
denvironnements. Ils permettent seulement de
faire une distinction binaire entre les états
satisfait et non satisfait - Une mesure de performance plus générale doit
permettre une comparaison entre les différents
états du monde en fonction de la satisfaction
exacte de lagent sils sont atteints. - Une fonction dutilité associe un nombre réel à
un état. Ce nombre décrit le degré de
satisfaction associé à létat.
78Les agents fondés sur lutilité
79Les agents capables dapprentissage
- Turing Plutôt que de programmer des machines
intelligentes à la main, ce qui nest pas
vraiment réalisable, il faut construire des
agents apprenants et les instruire de la tache à
accomplir - Lapprentissage permet à lagent dopérer dans
des environnements inconnus et de devenir plus
compétents quinitialement.
80En résumé
- Les agents interagissent avec leur environnement
à travers des effecteurs et des capteurs - La fonction de lagent décrit ce que lagent fait
dans toute circonstance - La mesure de performance évalue le comportement
de lagent dans son environnement - Un agent parfaitement rationnel maximise la
performance attendue
81Exemple darchitecture dagent agent BDI
(Définition)
- Basée sur le modèle BDI (Croyance-Désir
Intention) - BDI Belief, Desire and Intention
- Croyances
- informations que l'agent possède sur
l'environnement et sur d'autres agents qui
existent dans le même environnement. - Les croyances peuvent être incorrectes,
incomplètes ou incertaines et sont donc
différentes des connaissances de l'agent, qui
sont des informations toujours vraies. - Les croyances peuvent changer au fur et à mesure
que l'agent, par sa capacité de perception ou par
l'interaction avec d'autres agents, recueille
plus d'information.
82Agent BDI (Définition)
- BDI (suite)
- Les désirs
- représentent les états de l'environnement, et
parfois de lui-même, que l'agent aimerait voir
réalisés. - Un agent peut avoir des désirs contradictoires
dans ce cas, il doit choisir parmi ses désirs un
sous-ensemble qui soit consistant. - Les intentions
- sont les désirs que l'agent a décidé d'accomplir
ou les actions qu'il a décidé de faire pour
accomplir ses désirs. - Même si tous les désirs d'un agent sont
consistants, l'agent peut ne pas être capable de
les accomplir tous.
83Architecture BDI (Fondement)
- La théorie de laction rationnelle (proposée par
Michael Bratman) est à la base du modèle BDI. - Cette théorie sinspire sur la façon dont les
gens raisonnent dans la vie de tous les jours, en
décidant, à chaque moment, ce qu'ils ont à faire.
- Cette théorie montre que les intentions jouent un
rôle fondamental dans le raisonnement pratique,
car elles limitent les choix possibles qu'un
humain (ou un agent artificiel) peut faire à un
certain moment. - Illustration
- L'agent Pierre a la croyance que, si quelqu'un
passe son temps à étudier, cette personne peut
faire une thèse de doctorat. En plus, Pierre a le
désir de voyager beaucoup, de faire une thèse de
doctorat et d'obtenir un poste d'assistant à
l'université. Le désir de voyager beaucoup n'est
pas consistant avec les deux autres et Pierre,
après réflexion, décide de choisir, parmi ces
désirs inconsistants, les deux derniers. Comme il
se rend compte qu'il ne peut pas réaliser ses
deux désirs à la fois, il décide de faire d'abord
une thèse de doctorat. En ce moment Pierre a
l'intention de faire une thèse et, normalement,
il va utiliser tous ses moyens pour y parvenir.
Il serait irrationnel de la part de Pierre, une
fois sa décision prise, d'utiliser son temps et
son énergie, notamment ses moyens, pour voyager
autour du monde. En fixant ces intentions, Pierre
a moins de choix à considérer car il a renoncé à
faire le tour des agences de voyage pour trouver
l'offre de voyage qui le satisferait au mieux.
84Architecture BDI (Composantes)
revc B x P -gtB est la fonction de révision des
croyances de l'agent lorsqu'il reçoit de
nouvelles perceptions sur l'environnement, où P
représente l'ensemble des perceptions de
l'agent elle est réalisée par la composante
Révision des croyances options D x I-gtI est
la fonction qui représente le processus de
décision de l'agent prenant en compte ses désirs
et ses intentions courantes cette fonction est
réalisée par la composante Processus de
décision des B x D x I-gtD est la fonction
qui peut changer les désirs d'un agent si ses
croyances ou intentions changent, pour maintenir
la consistance des désirs de l'agent (on suppose
dans notre modèle que l'agent a toujours des
désirs consistants) cette fonction est
également réalisée par la composante Processus de
décision filtre B x D x I-gtI est la
fonction la plus importante car elle décide des
intentions à poursuivre elle est réalisée par
la composante Filtre plan B x I-gt PE est la
fonction qui transforme les plans partiels en
plans exécutables, PE étant l'ensemble de ces
plans elle peut utiliser, par exemple, une
bibliothèque de plans (LibP).
85Architecture BDI (Algorithme de contrôle)
- Reprenons l'exemple de Pierre introduit plus
haut. Si Pierre a décidé que son intention est de
faire une thèse de doctorat, il s'est alors
obligé à cette intention. Pierre commence à
travailler et faire sa recherche. Entre temps, il
découvre qu'il n'aime pas trop travailler et
qu'il préfère passer son temps avec ses amis dans
les bistros. Pierre se rend compte que son
intention est impossible à accomplir, ce qui le
conduit à abandonner son intention de faire une
thèse. Dans un autre cas, comme Pierre veut aussi
gagner un peu d'argent, il prend un job dans une
compagnie. Comme il est très éloquent et
persuasif, on lui offre un poste dans la
compagnie qui lui demande de voyager beaucoup
pour représenter les intérêts de la compagnie.
Pierre constate alors qu'une autre de ses
intentions devient opportune, il abandonne son
engagement de faire une thèse et accepte le poste
qu'on lui a offert.
- Soient B0, D0 et I0 les croyances, désirs et
intentions initiales de l'agent. - Algorithme de contrôle d'agent BDI (par
Woodridge) - 1 B B02 D D03 I I04
répéter 4.1 obtenir nouvelles
perceptions p 4.2 B revc(B,
p) 4.3 I options(D,
I) 4.4 D des(B, D
,I) 4.5 I filtre(B, D,
I) 4.6 PE plan(B, I)
4.7 exécuter(PE) jusqu'à ce que
l'agent soit arrêtéfin
La question est Combien de temps lagent
reste-t-il obligé par une intention ?
86Architecture BDI (Algorithme de contrôle et
stratégies dobligation)
- 3 principales stratégies d'obligation
- Obligation aveugle (ou obligation fanatique). Un
agent suivant cette stratégie va maintenir ses
intentions jusqu'à ce qu'elles soient réalisées,
plus précisément jusqu'à ce qu'il croie qu'elle
sont réalisées. - Pas bone pas efficace l'environnement change
entre le moment où l'agent a choisi (filtré) ses
intentions, et le moment où ces intentions
doivent être accomplies. - Obligation limitée. L'agent va maintenir ses
intentions, ou bien jusqu'à ce qu'elles soient
réalisées, ou bien jusqu'à ce qu'il croie
qu'elles ne sont plus réalisables. - Obligation ouverte. Lagent maintient ses
intentions tant que ces intentions sont aussi ses
désirs. Cela implique aussi que, une fois que
l'agent a conclu que ses intentions ne sont plus
réalisables, il ne les considère plus parmi ses
désirs.
87Arch. BDI (Algo de contrôle et stratégies
dobligation)
Algorithme de contrôle d'agent BDI avec
obligation ouverte 1 B B02 D
D03 I I04 répéter
4.1 obtenir nouvelles perceptions
p 4.2 B revc(B, p)
4.3 I options(D, I) 4.4 D
des(B, D ,I) 4.5 I filtre(B, D,
I) 4.6 PE plan(B, I)
4.7 tant que (PEltgt et nonaccompli(I, B)
et possible(I, B))
répéter - x première(PE)
exécuter(x) - PE reste(PE)
- obtenir nouvelles perceptions
p - B revc(B,
p) - D des(B, D
,I) - I filtre(B, D,
I) - PE plan(B,
I) fin tant que jusqu'à ce
que l'agent soit arrêtéfin
- Algorithme de contrôle d'agent BDI avec
obligation limitée - 1 B B02 D D03 I I04
répéter 4.1 obtenir nouvelles
perceptions p 4.2 B revc(B,
p) 4.3 I options(D,
I) 4.4 D des(B, D
,I) 4.5 I filtre(B, D,
I) 4.6 PE plan(B, I)
4.7 tant que (PEltgt et nonaccompli(I, B) et
possible(I, B)) répéter - x
première(PE) exécuter(x) PE
reste(PE) - obtenir
nouvelles perceptions p - B
revc(B, p) fin tant que
jusqu'à ce que l'agent soit arrêtéfin
possible(I, B) est la fonction qui vérifie si,
après avoir obtenu la perception p sur
l'environnement et révisé ses croyances, les
intentions choisies sont encore réalisables
nonaccompli(I, B) est la fonction qui vérifie
si, par hasard, les intentions de l'agent sont
déjà accomplies avant même que l'exécution de son
plan soit terminée.
88BDI et architecture dagents réatifs
- Une excellente architecture pour agent
intelligent ou cognitif intégrant une grande
capacité à raisonner. - Toutefois, les agents réactifs peuvent aussi
donnés des résultants intéressants même dans des
tâches complexes (Ex Exploration de Mars)
pouvant nécessité lintelligence. - Lintelligence dans ces agents réactifs nen est
pas une au sens IA du terme, mais une qui émerge
de linteraction entre les composants simples ou
entres les agents réactifs dans lenvironnement. - Nécessité davoir des architectures hybride
combinant les vertus de la réactivité et du
raisonnement. - Cest le cas de larchitecture InteRRaP
(("Integration of Reactive Behavior and Rational
Planning" Intégration du comportement réactif
et planification rationnelle).
89En résumé
- Les programmes dagent implantent des fonctions
- Les environnements sont catégorisés selon de
multiples dimensions - observable? déterministe? épisodique? statique?
discret? multi-agent? - Plusieurs architectures de base reflexes,
reflexes avec modèle, basée sur les buts, basée
sur la notion dutilité - Agent évolué agent capable dapprentissage