1' Prsentation du cours 2' IA Fondement des STI 1: Introduction - PowerPoint PPT Presentation

Loading...

PPT – 1' Prsentation du cours 2' IA Fondement des STI 1: Introduction PowerPoint presentation | free to view - id: 2a893f-ZDc1Z



Loading


The Adobe Flash plugin is needed to view this content

Get the plugin now

View by Category
About This Presentation
Title:

1' Prsentation du cours 2' IA Fondement des STI 1: Introduction

Description:

Acte de naissance : 1956, Darmouth College (New Hampshire, USA) John McCarthy (tenant de la logique): l'expression 'Artificial Intelligence' ... – PowerPoint PPT presentation

Number of Views:273
Avg rating:3.0/5.0
Slides: 85
Provided by: rogernkamb
Category:

less

Write a Comment
User Comments (0)
Transcript and Presenter's Notes

Title: 1' Prsentation du cours 2' IA Fondement des STI 1: Introduction


1
1. Présentation du cours2. IA Fondement des
STI (1) Introduction
INF7470 Systèmes Tutoriels Intelligents
  • Roger Nkambou / Daniel Dubois

2
Motivation du cours pourquoi des STIs?
  • QUESTION POUR VOUS
  • Quelles sont vos motivations pour ce cours?
  • Qu'est-ce qu'enseigner?
  • Manière multiples
  • instruction, questions, démonstration,
    supervision, interactions de groupe, etc.
  • Pourquoi des systèmes artificiels?
  • contraintes physiques, temporelles, humaines

3
Quelques éclaircissements
  • Multiples appellations
  • STI Système Tutoriel Intelligent --- ITS
  • SABC Système dApprentissage à Base de
    Connaissances
  • EIAH Environnement Intelligent/Interactif
    d'Apprentissage Humain
  • Différents des systèmes "non intelligents"
  • CBT Computer-Based Training
  • ILE Interactive Learning Environment

4
Description du cours
  • Utilisation de l'intelligence artificielle dans
    la création de systèmes d'aide à l'apprentissage
    humain.
  • Représentation du domaine d'apprentissage,
    théories d'apprentissage et d'instruction,
    modélisation du tutorat, modélisation de
    l'usager-apprenant.
  • Planification du contenu et des activités
    d'apprentissage, stratégies tutorielles,
    production de systèmes tutoriels intelligents
    (outils auteurs).
  • Standardisation et apport du Web sémantique,
    distribution de ressources d'apprentissage,
    apprentissage social. Études de cas.

5
Objectifs spécifiques
  • À la fin de la session, l'étudiant(e) devrait
    être capable de 
  • comprendre et de décrire les composants dun
    système tutoriel intelligent (STI)
  • comprendre le rôle joué par lintelligence
    artificielle (IA) dans la conception de STIs
  • comprendre lenjeu des recherches dans le domaine
    de lAIED (Artificial Intelligence in EDucation)
    ainsi que les défis actuels et grandes questions
    de recherche dans ce domaine.
  • concevoir, implémenter et déployer, à laide
    doutils appropriés, un petit système tutoriel
    intelligent.

6
Contenu planification
7
Méthode pédagogique et évaluation
  • Méthode
  • Séance typique
  • Cours magistral
  • Présentations des étudiants discussion globale
  • Évaluation
  • Quiz IA 10
  • Projet 1 (individuel) État de l'art sur un
    thème lié aux STI 45
  • Participation 5
  • Projet 2 (équipe de 2 ou 3) Implémentation dun
    STI 40

8
Ressources
  • http//gdac.dinfo.uqam.ca/inf7470

9
Introduction à lintelligence artificielle
  • Partie 1
  • - Histoire

10
Lintelligence
  • selon A. Turing
  • ce qui rend difficile la distinction entre une
    tâche réalisée par un être humain ou par une
    machine,
  • selon C. Darwin
  • ce qui permet la survie de l'individu le plus
    apte, parfaitement adapté à son environnement,
  • selon T. Edison
  • tout ce qui fait que cela fonctionne et produit
    le plus de revenus pour l'entreprise.
  • selon Yam (1998)
  • Une définition exacte de lintelligence est
    probablement impossible la plus vraisemblable
    la capacité de gérer la complexité et à résoudre
    des problèmes dans un contexte utile.
  • selon Voss (2004)
  • La capacité dune entité à atteindre des buts.
    Une intelligence plus grande permet de gérer des
    situations plus complexes et imprévues.

11
Lintelligence artificielle
  • Lintelligence artificielle produit des machines
    imitant les humains
  • Simule les processus intelligents de lhumain
  • Reproduit les méthodes ou les résultats du
    raisonnement ou de lintuition humaine

12
IA Quelques définitions
  • Selon Marvin Minsky
  • ... the science of making machines do things
    that would require intelligence if done by
    humans
  • Selon E. Feigenbaum
  • AI is the part of computer science concerned
    with designing intelligent computer systems

13
IA Définitions selon quatre orientations
  • L'IA est une discipline qui systématise et
    automatise les tâches intellectuelles pour créer
    des machines capables de

Source Russell et Norvig, 2003
14
Agir comme un humain
  • IA est l'art de créer des machines qui réalisent
    des fonctions exigeant de l'intelligence
    lorsqu'elles sont effectuées par des humains
  • Méthodologie Identifier une tâche intellectuelle
    dans laquelle l'homme est bon et la faire
    réaliser par un ordinateur
  • prouver un théorème
  • enseigner
  • jouer aux échecs
  • planifier une opération chirurgicale
  • diagnostiquer une maladie
  • se déplacer dans un bâtiment

15
Test de Turing une définition opérationnelle
  • En 1950 Alan Turing publie son papier "Computing
    Machinery and Intelligence" dans lequel il décrit
    une méthode pour tester un système d'intelligence
    artificielle
  • prédit qu'avant l'an 2000, une machine aurait 30
    de chance de tromper une personne non avertie
    pendant 5 minutes
  • principales composantes d'un système d'IA
  • connaissances, raisonnement, compréhension du
    langage naturel, apprentissage
  • Test de Turing un individu communique à l'aide
    d'un terminal d'ordinateur avec un interlocuteur
    invisible. Il doit décider si l'interlocuteur est
    un être humain ou un système d'IA imitant un être
    humain.
  • http//www.turing.org.uk/turing/

interrogateur
humain
machine
16
Test de Turing requis pour la machine
  • TLN (NLP)
  • pour communiquer avec les humains
  • Représentation de la connaissance
  • pour conserver ce quelle sait et entend
  • Raisonnement automatique
  • utiliser le savoir enregistré pour tirer des
    conclusions et répondre aux questions
  • Apprentissage (apprentissage machine)
  • pour détecter des patrons, extrapoler des patrons
    latents, et tirer de nouvelles conclusions.
  • avons-nous besoin de reproduire l'humain?

17
Test de Turing étendu
  • En supplément, il faudra à la machine
  • sens artificiels
  • pour percevoir
  • capacités robotiques
  • pour manipuler les objets et se déplacer

18
PENSER comme un humain
  • Nous devons ici entrer dans l'esprit humain
  • introspection
  • études psychologiques
  • Reproduire les agissements et le synchronisme
    observé
  • selon les mécanismes qu'on croit probables
  • Allen Newell et Herbert Simon GPS
  • "General Problem Solver"
  • faire plus que juste résoudre des problèmes le
    faire comme les humains.
  • comparer les étapes suivies à celles observées
    chez les humains

19
Penser RATIONNELLEMENT
  • Fondée sur la tradition des logiciens.
  • 19e siècle création d'une notation précise pour
    la logique
  • But machines qui prennent des décisions sans
    faille, explicables
  • Difficultés
  • difficile de traduire le savoir informel ou
    implicite
  • difficile de suivre la trace d'un savoir
    incertain
  • QUESTION POUR VOUS À quel genre de monde cela
    peut-il convenir?

20
AGIR rationnellement
  • L'approche agent
  • du latin agere, faire
  • vise des agents rationnels
  • QUESTION POUR VOUS
  • Qu'est-ce qu'agir rationnellement?
  • agir pour atteindre le meilleur résultat
  • Dans l'incertain agir pour atteindre le meilleur
    résultat espéré

21
Fondements de lIA
  • Philosophie
  • logique, méthodes de raisonnement, esprit comme
    système physique
  • fondements apprentissage, langage, rationalité
  • Mathématiques
  • représentations formelles et preuves,
    incomplétude
  • algorithmes (PGCD d'Euclide), (in)décidabilité,
    explosion combinatoire, probabilité
  • Psychologie
  • William James psychologie cognitive le cerveau
    est un organe de traitement de l'info.
  • agents à base de connaissances (stimulus ?
    représ. internes ? traitement ? action)
  • adaptation phénomènes de perception et de
    contrôle moteur techniques expérimentales
  • Helmholtz il y a des inférences inconscientes
  • Économie
  • utilité
  • théorie de la décision (probabilité utilité vs.
    incertitude) les groupes vs. l'individu)
  • Linguistique
  • représentation des connaissances
  • grammaire
  • Neurosciences
  • substrat physique et biologique de l'activité
    mentale comment le cerveau traite l'info?

22
Les grands inspirateurs
  • Mc Culloch et Pitts (1943) réseaux neuronaux
    artificiels (approche physiologique)
  • Shannon théorie de linformation
  • Von Neumann architecture dun calculateur
  • Turing théorisation des fonctions calculables
    par machine

23
Une histoire en train de sécrire1956
Fondations
  • Genèse autour de la notion de  machines à
    penser 
  • Comparaison du cerveau avec les premiers
    ordinateurs
  • IA ne peut s'inclure sous une autre science
    spécifique
  • Acte de naissance 1956, Darmouth College (New
    Hampshire, USA)
  • John McCarthy (tenant de la logique)
    l'expression Artificial Intelligence
  • Marvin Minsky (tenant dune approche par
    schémas) apprendre à penser sur des micro-mondes
  • 1952-1969 enthousiasme et espoirs sans borne
    (premiers programmes dIA)
  • 1952 programmes pour jouer aux Dames et
    apprendre à jouer (A. Samuel)
  • 1958 McCarthy
  • LISP pour représenter des connaissances
    générales sur le monde
  • "Programs with common sense (Advice Taker 1ere
    description d'un pgm IA complet)
  • 1959 Geometry Theorem Prover (Samuel) meilleur
    que les étudiants!
  • suivi du General Problem Solver
  • qui progresse dans la résolution en évaluant la
    différence entre la situation du solveur et le
    but à atteindre.
  • 1962 amélioration de l'apprentissage de Hebb
    dans Adaline Perceptron
  • 1963 représentation en multiples éléments
    simples (? robustesse parallélisme)

24
Premiers défis
  • Programmes capables de jouer' aux échecs
    (premières idées en 1950 par Shannon!) -gt
    première victoire sur un maître en 1997 Deep Blue
    bat Kasparov (loin des prévisions de Simon en
    1957 qui donnait 10 ans pour que cela se
    produise)
  • Test  dintelligence  (Evans 1963) trouver la
    suite dune série de figures.
  • Dialogue en  langage naturel 
  • ELIZA, Weizenbaum 1966 (voir page suivante)
  • SHRDLU, Winograd 1971

25
ELIZA Un programme qui simule l'intelligence
  • a conversation between eliza and a young woman
  • young woman Men are all alike.
  • eliza In what way?
  • young woman They're always bugging us about
    something specific or other.
  • eliza Can you think of a specific example?
  • young woman Well, my boyfriend made me come
    here.
  • eliza Your boyfriend made you come here?
  • young woman He says I'm depressed much of the
    time.
  • eliza I am sorry to hear you are depressed.
  • young woman It's true. I'm unhappy.
  • eliza Do you think coming here will help you
    not to be unhappy?
  • young woman I need some help, that much seems
    certain.
  • eliza What would it mean to you if you got some
    help?
  • young woman Perhaps I could learn to get along
    with my mother.
  • eliza Tell me more about your family.
  • young woman My mother takes care of me.
  • eliza Who else in your family takes care of
    you?
  • young woman My father.
  • eliza Your father.

26
Une histoire en train de sécrire1966-1973 Une
dose de réalisme
  • 1957, Simon Un ordinateur vaincra l'humain aux
    échecs d'ici 10 ans
  • il fallut plutôt 40 ans (1997 Deep Blue vs.
    Kasparov)
  • Expérimentations en "évolution des machines"
    (algorithmes génétiques) solution par
    recombinaison
  • Écueils
  • explosion combinatoire.
  • insuffisant tester les multiples combinaisons
    syntaxiques
  • Les succès à petite échelle (sur micromondes) ne
    peuvent simplement grossir et affronter le "vrai"
    monde et sa complexité (explosion combinatoire)
  • Leçon il faut une connaissance du monde.
  • 1969, Minsky Papert livre Perceptron Les RN
    sont super-bons pour faire presque rien (trop
    faible capacité de représentation)
  • 1973 Rapport Lighthill IA ne mérite pas des
    fonds de recherche

27
Une histoire en train de sécrire1969-1979
Systèmes à base de connaissances
  • Les années 70 et 80 virent un véritable
    engouement pour les systèmes experts
  • DENDRAL
  • Le premier système à base de connaissances une
    vaste collection de règles spécifiques
  • a mené au projet Heuristic Programming Project
  • pour confronter l'idée de systèmes experts à des
    domaines autres que les molécules.
  • MYCIN (infections sanguines) 450 règles dans une
    domaine où n'existait aucun modèle théorique
    général
  • La nouveauté interviews pour extraire le savoir
    implicite.

28
Lère des  systèmes experts 
  • Les années 70 et 80 virent un véritable
    engouement pour les systèmes experts
  • DENDRAL (en chimie)
  • MYCIN (en médecine)
  • Hersay II (en compréhension de la parole)
  • Prospector (en géologie emplacement et contenu
    probables d'un dépôt)
  • Générateurs de systèmes experts
  • GURU
  • CLIPS

29
MYCIN (1976)
  • Heuristiques pistes pour orienter vers la
    solution, et élaguer les candidats peu
    intéressants.

30
Systèmes expertsLeurs limites (source
http//www.cs.unm.edu/7Eluger/ai-final/chapter1.h
tml)
  • Il est difficile d'y transférer
  • les connaissances du quotidien (common sense)
  • Par exemple, MYCIN, poursuivant son diagnostic,
    posa la question au sujet d'un patient Le
    patient porte-il un bébé?, même s'il savait déjà
    que le patient était un homme
  • les connaissances fondamentales sous-jacentes
  • MYCIN, par exemple, n'incorpore ni le rôle du
    sang, ni la fonction de la colonne vertébrale
    dans ses raisonnements diagnostiques.
  • Ils ne s'appuient pas sur des connaissances
    premières (fondamentales)
  • auxquelles ils pourraient retourner en cas de
    cul-de-sac, afin d'ouvrir de nouvelles avenues de
    recherche.
  • Ne peuvent fournir une explication fondamentale.
    Les experts fournissent habituellement les étapes
    de leur diagnostic, sans nécessairement pouvoir
    fournir la raison profonde justifiant la justesse
    de ce diagnotic.
  • Les systèmes experts sont souvent dénués d'une
    capacité d'apprendre
  • Ils opèrent à partir d'un savoir reçu et
    statique.

31
heuristiques
  • Heuristiques pistes pour orienter vers la
    solution, et élaguer les candidats peu
    intéressants.
  • Ne garantit pas une solution, mais réduit le
    nombre de solutions potentielles à examiner.
  • Herbert Simon
  • if you take a heuristic conclusion as certain,
    you may be fooled and disappointed but if you
    neglect heuristic conclusions altogether you will
    make no progress at all.
  • The use of heuristic programming by Dendral
    allowed it to replicate the human problem solving
    behavior in machines, and designated itself as
    the first expert system.

32
Une histoire en train de sécrire1986-aujourd'hu
i réseaux neuronaux. Le retour
  • Des domaines autres que l'IA ont continué
    d'explorer les réseaux neuronaux
  • En physique John Hopfield (1982)
  • propriétés des réseaux (d'atomes) pour
    l'enregistrement et l'optimisation
  • Psychologie Rumelhart
  • r.n. comme modèles de la mémoire
  • 1986 rétro-propagation gros succès
  • La tendance actuelle il n'y a pas un seul
    paradigme vers le succès.

33
Une histoire en train de sécrire2000-aujourd'hu
i Les problèmes concrets sont grands 
  • Besoin de nouvelles méthodes et techniques pour
  • la vérification, lestimation, le diagnostic,
    lextraction des connaissances etc.
  • Émergence de la nouvelle IA
  • Fouille de Données, Intégration de Données,
    Traitement de Corpus,
  • Interaction Homme-Machine, Systèmes Multi-Agents
    et Distribués

Systèmes Tutoriels Intelligents (STI)
34
Langages de programmation pour lIA ?
  • LISP (origine américaine)
  • PROLOG (France ! Alain Colmerauer
    (http//alain.colmerauer.free.fr/))
  • SmallTalk (Langage objet)
  • Les langages de Frame
  • YAFOOL (Yet Another Frame based Object Oriented
    Language)
  • KL-ONE (Knowledge Language)
  • Langage de logique de description

35
Dautres grandes réalisations
  • Aujourd'hui quelques industries (automobile,
    électronique) sont très robotisées et on trouve
    de plus en plus de robots domestiques
  • Des robots ont exploré Mars
  • Des robots humanoïdes sont opérationnels et
    disponibles à la location

36
DEEP BLUE
Saying Deep Blue doesnt really think about chess
is like saying an airplane doesnt really fly
because it doesnt flap its wings. Drew
McDermott
I could feel I could smell a new kind of
intelligence across the table -Gary Kasparov

37
Guide-Robot pour musée
Minerva, 1998
Rhino, 1997
Parle, sapproche des visiteurs, Senseurs
(cameras, ultrason) pour la perception de son
env. Avant de décider de ces actions. Chante
lorsquelle est contente Se frustre lorsquelle
est bloquée!
38
RoboCup, une compétition annuelle de soccer pour
robots !
39
Reconnaissance de la parole
40
Débuté Janvier 1996 Lancée Octobre 1998
A rencontré la comète Borrelly et retourné les
images de cette dernière quelques données
scientifiques.
41
Quelques expressions du robot Kismet (expression
facial)
42
Pour voir plus de robots
  • http//www.robopolis.com/

43
Les grandes questions de lIA
  • Représenter, acquérir des connaissances
  • Algorithmes généraux de résolution de problème
  • Intelligence artificielle  collective 
  • Formaliser, mécaniser types de raisonnement
  • Evaluer des situations, décider, planifier
  • Raisonner sur le temps et lespace
  • Résumer, apprendre, découvrir
  • Langue et IA
  • Indexation et IA
  • Réalité virtuelle et IA

44
Nouvelles questions de lIA
  • Sadapter à des situations changeantes
  • Assister lapprentissage humain !
  • Gérer des dialogues entre agents hétérogènes
  • Voir la cognition comme une émergence dans
    linteraction avec lenvironnement
  • Concevoir une nouvelle génération de systèmes
    informatiques
  • Imaginer des systèmes qui sont conçus dans la
    continuité sur la base des usages
  • Cognition située, distribuée, émergente

45
Multiples facettes de lIA
  • Facette des mathématiques
  • formalisation du raisonnement mathématique
    (logique)
  • Contribution à de nouveaux champs (logiques
    modales -gt logique possibiliste)
  • Facette informatique
  • Nouveau  paradigmes  de programmation
  • Programmation logique
  • Programmation objet
  • Programmation fonctionnelle
  • Nouvelles façons de voir les systèmes
    dinformation
  • Gestion de la connaissance
  • Indexation WEB (semantic web)
  • Description des documents numériques
  • Applications nombreuses
  • Aide à la décision
  • Aide au diagnostic
  • Aide à la planification
  • Aide au traitement automatique de la langue
  • Aide à la conception

46
Multiples facettes de lIA
  • Sciences de la cognition et IA
  • Cest le même projet au départ
  • Vision symbolique (la pensée est un calcul sur
    des symboles avec processeur et mémoires)
  • Vision sub-symbolique (la vision symbolique
    fonctionne mais est virtuelle, les mécanismes
    sont biologiques mais produisent le même effet au
    niveau macroscopique) Réseaux neuronaux,
    automates cellulaires.
  • Vision  sociale  la connaissance émerge de
    comportements distribués dans un environnement
    (approche multiagents). Réseaux neuronaux
    dynamiques, colonies dinsectes, etc.

47
Alors, que faut-il apprendre ?
  • Les bases de lIA sont les bases historiques
  • Modèle symbolique
  • Raisonnement logique
  • Résolution automatique de problèmes
  • Programmation logique
  • Alors nous allons commencer par

48
Introduction à la notion dagent
  • Comment formaliser le problème de construction
    dun agent ?
  • Dichotomie entre la notion dagent et de son
    environnement
  • Plus simple à traiter
  • Un agent est une entité qui perçoit et agit
  • Un agent est une fonction dune perception (ou
    séquence de percepts) à des actions

49
Agent
  • Percept unité élémentaire de perception (via
    des capteurs)
  • A un ensemble dactions (via des effecteurs)
  • Lagent possède une fonction f Pgt A
  • Agent architecture programme (implantation de
    f )

50
Exemples dagents
  • Agent humain
  • C yeux, oreilles, nez, etc.
  • E Mains, jambe, bouche, autres parties du corps
  • Agent robot
  • C cameras and capteurs infrarouges
  • E moteurs comme effecteurs
  • Agent logiciel
  • C Saisies de données, lecture d'un fichier,
    paquets réseau reçus comme des capteurs
  • E Affichage à l'écran, écriture de fichiers,
    paquets envoyés sur le réseau

51
Environnement de lagent aspirateur
  • 2 localisations A et B
  • Perceptions localisation et contenu,
    exADirty
  • Actions Left, Right, Suck, NoOp
  • Une fonction possible
  • Si la localisation courante est sale, alors
    aspirer, sinon aller à lautre localisation

52
Concept de rationalité
  • Un agent est rationnel sil effectue toujours
    laction appropriée étant donnée sa perception
    et ses actions possibles.
  • Quest-ce quune action appropriée?
  • Définie par une mesure de performance.
  • La rationalité de lagent dépend de 4 facteurs
  • La mesure de performance
  • Un agent est rationnel si pour toute séquence de
    percepts, il sélectionne laction qui maximise la
    mesure de performance rationnel réussi
  • La clairvoyance
  • Entretien une séquence percepts rationnel
    clairvoyant
  • Lomniscience
  • Sait tout sur son environnement rationnel
    omniscient ?
  • Les actions possibles
  • Ce que lagent sait faire rationnel capacité
    daction pertinente
  • Cela peut impliquer que dispose des capacités d
  • exploration, apprentissage, autonomie

53
Aspirateur exemple dagent rationnel
  • Lagent aspirateur est rationnel si
  • La mesure de performance accorde un point par
    case nettoyée
  • Lenvironnement de lagent est connu mais pas
    lemplacement initial de lagent ni la
    distribution de la poussière
  • Lagent perçoit correctement la case où il se
    trouve et sa propreté (ou pas)
  • Actions Droite, Gauche, Aspirer, NRF

54
Aspirateur  ex dagent non rationnel
  • Lagent aspirateur nest pas rationnel si
  • Sil continue des déplacements dans un
    environnement propre (actions non optimale)
  • Sil a une pénalité pour chaque déplacement un
    agent rationnel devrait minimiser les
    déplacements dans ce cas!
  • Si lenvironnement peut changer un agent
    rationnel devrait le vérifier périodiquement
    (révision des croyances)
  • Si lenvironnement est inconnu un agent
    rationnel devrait lexplorer.

55
Exemple de situation rationnelle
  • Situation se munir dun parapluie
  • Est-ce rationnel ?
  • Cela dépend de la météo, et de ma connaissance de
    la météo.
  • Si jai entendu le bulletin météo, que je le
    crois et que je pense quil va pleuvoir, alors il
    est rationnel de se munir dun parapluie.
  • Une action est considérée comme rationnelle si
    elle conduit à bien faire ce que lagent essaie
    de faire!
  • Cela nindique pas par exemple que ce que lagent
    essaie de faire est intelligent ou stupide.

56
Agent rationnel et environnement
  • Pour modéliser un agent rationnel, on doit
    spécifier lenvironnement où doit se dérouler la
    tâche de lagent
  • Lenvironnement représente le problème à résoudre
  • Lagent représente la solution
  • On doit définir les propriétés de cet
    environnement

57
Environnement dune tâche
  • PEAS (Performance, Environment, Actuators,
    Sensors)
  • Définir la mesure de performance
  • Notion de compromis en cas de conflits dans les
    objectifs à atteindre
  • Définir lenvironnement
  • Définir les capteurs
  • Définir les effecteurs

58
Ex Un agent taxi automatique
  • Mesure de performance?
  • Sécurité, arrivée à destination, minimisation du
    temps, maximisation du profit, minimisation de
    la consommation de carburant, légalité,
    maximisation du confort des passagers.
  • Environnement?
  • rues/autoroutes, trafic, piétons, météo
  • Effecteurs?
  • Contrôle de la direction, accélérateur, freins,
    klaxon, boite de vitesse,..
  • Capteurs?
  • Cameras Vidéo, accéléromètres, jauges, capteurs
    du moteur, clavier, GPS,

59
Ex Agent de shopping sur internet
  • Mesure de performance?
  • prix, qualité, pertinence, efficacité
  • Environnement?
  • Sites web, vendeurs, expéditeurs
  • Actuateurs?
  • Afficher à l'utilisateur, ouvrir lURL, remplir
    le formulaire
  • Capteurs?
  • pages HTML (textes, graphiques, scripts)

60
Propriétés de lenvironnement
  • Entièrement observable(vs. Partiellement
    observable)
  • Déterministe (vs. Non-Déterministe ou
    stochastique)
  • Episodique (vs séquentiel)
  • Statique (vs. Dynamique)
  • Discret (vs. Continu)
  • Mono-agent vs multi-agent

61
Entièrement observable(vs. Partiellement
observable)
  • Peut-on voir l état du monde directement?
  • Entièrement observable (vs. partiellement
    observable) lagent a accès en tout temps à
    toute linformation pertinente sur
    lenvironnement (on parle aussi détat)
  • Taxi automatique Partiellement accessible
  • Echecs accessible

62
Déterministe (vs. Non-Déterministe ou
stochastique)
  • Est-ce quune action conduit dun état à un seul
    autre état ?
  • Ex un agent qui conduit sur une route évolue
    dans un environnement stochastique (aléatoire)
  • Environnement déterministe échecs

63
Episodique (vs. Non-épisodique ou séquentiel)
  • Dans les environnements épisodiques,
    lexpérience de lagent est divisée en épisodes
    atomiques
  • Chaque épisode consiste en une perception de
    lagent et une action en réponse à cette
    perception
  • Le choix de laction dans chaque épisode dépend
    seulement de lépisode lui-même.
  • Exemple Tâche de classification
  • Dans les environnements séquentiels, la décision
    courante peut affecter les décisions futures
  • Exemples Echecs et taxi automatique

64
Statique (vs. Dynamique)
  • Est-ce que le monde peut changer pendant la
    délibération de lagent ?
  • Environnement statique mots-croisés
  • Environnement dynamique taxi automatique
  • Lorsque lenvironnement ne change pas mais que la
    performance de lagent change au fur et à mesure
    que le temps sécoule, on parle denvironnement
    semi-dynamique
  • Ex échecs chronométrés

65
Discret (vs. Continu)
  • Est-ce que les perceptions et les actions sont
    discrètes (comme des entiers) ou continues (comme
    les nombres réels)?
  • un nombre fini de perceptions et dactions
    différentes?
  • Exemple Les échecs ont un nombre fini détats
    discrets et disposent dun ensemble discret de
    perceptions et dactions
  • Le taxi automatique possède des états et des
    actions continus.

66
Mono-agent vs Multi-agent
  • Environnement mono-agent
  • Environnement multi-agent concurrentiel les
    échecs
  • Environnement multi-agent partiellement
    coopératif évitement de collisions par
    différents taxis automatiques
  • Environnement multi-agent partiellement
    concurrentiel trouver un stationnement
  • Communication entre les agents
  • Comportement stochastique souvent nécessaire!

67
Types denvironnement
Le type denvironnement détermine largement la
modélisation de lagent Le monde réel est
partiellement observable, non déterministe,
séquentiel, dynamique, continu, multi-agent
68
Structures dagents
  • 4 types de base
  • Les agents réflexes simples
  • Les agents réflexes fondés sur des modèles
  • Les agents fondés sur les buts
  • Les agents fondés sur lutilité
  • Agents évolués les agents capables
    dapprentissage

69
Les agents réflexes simples
Sélectionner des actions en fonction de la
perception courante et sans tenir compte de
lhistorique des perceptions
Règles condition-action
70
Implantation dun agent reflexe aspirateur
71
Inconvénients des agents reflexes
  • Les agents reflexes sont simples, mais leur
    intelligence est très limitée!
  • Lagent ne peut fonctionner que si une décision
    correcte peut être prise en fonction de la
    perception courante.
  • Lenvironnement doit être complètement observable
  • Pb des boucles infinies souvent rencontrées, on
    peut tenter dy remédier par un mécanisme de
    randomisation

72
Les agents réflexes fondés sur des modèles
  • Lagent doit connaître son environnement (ex
    mémorisation de la topologie de lenvironnement)
  • Lagent doit maintenir un état interne qui dépend
    de lhistorique des perceptions
  • La mise à jour de cet état interne nécessite deux
    types de connaissances à encoder dans lagent
  • Une information sur la manière dont le monde
    évolue indépendamment de lagent
  • Une information sur la manière dont les actions
    de lagent affectent lenvironnement

73
Agent possédant un modèle
74
Les agents fondés sur les buts
  • Connaitre létat courant de lenvironnement nest
    pas toujours suffisant pour décider de laction à
    accomplir (ex. décision à une jonction de route)
  • Lagent a besoin dune information sur le but qui
    décrit les situations désirables
  • Lagent peut alors combiner cette information
    avec linformation sur les résultats des actions
    possibles afin de choisir laction qui satisfait
    le but
  • Un tel agent nécessite des capacités de recherche
    et de planification

75
Les agents fondés sur les buts
76
Comparaison
  • Les agents basés sur les buts sont flexibles car
    la connaissance qui supporte leurs décisions est
    représentée explicitement et peut être modifiée
  • Pour lagent reflexe, les règles condition-action
    doivent être modifiées et réécrites dans toute
    nouvelle situation
  • Il est facile de modifier le comportement dun
    agent basé sur les buts

77
Les agents fondés sur lutilité
  • Les buts seuls ne sont pas suffisants pour
    générer un comportement intéressant dans beaucoup
    denvironnements. Ils permettent seulement de
    faire une distinction binaire entre les états
     satisfait  et  non satisfait 
  • Une mesure de performance plus générale doit
    permettre une comparaison entre les différents
    états du monde en fonction de la satisfaction
    exacte de lagent sils sont atteints.
  • Une fonction dutilité associe un nombre réel à
    un état. Ce nombre décrit le degré de
    satisfaction associé à létat.

78
Les agents fondés sur lutilité
79
Les agents capables dapprentissage
  • Turing Plutôt que de programmer des machines
    intelligentes à la main, ce qui nest pas
    vraiment réalisable, il faut construire des
    agents apprenants et les instruire de la tache à
    accomplir
  • Lapprentissage permet à lagent dopérer dans
    des environnements inconnus et de devenir plus
    compétents quinitialement.

80
En résumé
  • Les agents interagissent avec leur environnement
    à travers des effecteurs et des capteurs
  • La fonction de lagent décrit ce que lagent fait
    dans toute circonstance
  • La mesure de performance évalue le comportement
    de lagent dans son environnement
  • Un agent parfaitement rationnel maximise la
    performance attendue

81
Exemple darchitecture dagent agent BDI
(Définition)
  • Basée sur le modèle BDI (Croyance-Désir
    Intention)
  • BDI Belief, Desire and Intention
  • Croyances
  • informations que l'agent possède sur
    l'environnement et sur d'autres agents qui
    existent dans le même environnement.
  • Les croyances peuvent être incorrectes,
    incomplètes ou incertaines et sont donc
    différentes des connaissances de l'agent, qui
    sont des informations toujours vraies.
  • Les croyances peuvent changer au fur et à mesure
    que l'agent, par sa capacité de perception ou par
    l'interaction avec d'autres agents, recueille
    plus d'information.

82
Agent BDI (Définition)
  • BDI (suite)
  • Les désirs
  • représentent les états de l'environnement, et
    parfois de lui-même, que l'agent aimerait voir
    réalisés.
  • Un agent peut avoir des désirs contradictoires 
    dans ce cas, il doit choisir parmi ses désirs un
    sous-ensemble qui soit consistant.
  • Les intentions
  • sont les désirs que l'agent a décidé d'accomplir
    ou les actions qu'il a décidé de faire pour
    accomplir ses désirs.
  • Même si tous les désirs d'un agent sont
    consistants, l'agent peut ne pas être capable de
    les accomplir tous.

83
Architecture BDI (Fondement)
  • La théorie de laction rationnelle (proposée par
    Michael Bratman) est à la base du modèle BDI.
  • Cette théorie sinspire sur la façon dont les
    gens raisonnent dans la vie de tous les jours, en
    décidant, à chaque moment, ce qu'ils ont à faire.
  • Cette théorie montre que les intentions jouent un
    rôle fondamental dans le raisonnement pratique,
    car elles limitent les choix possibles qu'un
    humain (ou un agent artificiel) peut faire à un
    certain moment.
  • Illustration
  • L'agent Pierre a la croyance que, si quelqu'un
    passe son temps à étudier, cette personne peut
    faire une thèse de doctorat. En plus, Pierre a le
    désir de voyager beaucoup, de faire une thèse de
    doctorat et d'obtenir un poste d'assistant à
    l'université. Le désir de voyager beaucoup n'est
    pas consistant avec les deux autres et Pierre,
    après réflexion, décide de choisir, parmi ces
    désirs inconsistants, les deux derniers. Comme il
    se rend compte qu'il ne peut pas réaliser ses
    deux désirs à la fois, il décide de faire d'abord
    une thèse de doctorat. En ce moment Pierre a
    l'intention de faire une thèse et, normalement,
    il va utiliser tous ses moyens pour y parvenir.
    Il serait irrationnel de la part de Pierre, une
    fois sa décision prise, d'utiliser son temps et
    son énergie, notamment ses moyens, pour voyager
    autour du monde. En fixant ces intentions, Pierre
    a moins de choix à considérer car il a renoncé à
    faire le tour des agences de voyage pour trouver
    l'offre de voyage qui le satisferait au mieux.

84
Architecture BDI (Composantes)
revc B x P -gtB est la fonction de révision des
croyances de l'agent lorsqu'il reçoit de
nouvelles perceptions sur l'environnement, où P
représente l'ensemble des perceptions de
l'agent  elle est réalisée par la composante
Révision des croyances  options D x I-gtI est
la fonction qui représente le processus de
décision de l'agent prenant en compte ses désirs
et ses intentions courantes  cette fonction est
réalisée par la composante Processus de
décision  des B x D x I-gtD est la fonction
qui peut changer les désirs d'un agent si ses
croyances ou intentions changent, pour maintenir
la consistance des désirs de l'agent (on suppose
dans notre modèle que l'agent a toujours des
désirs consistants)  cette fonction est
également réalisée par la composante Processus de
décision  filtre B x D x I-gtI est la
fonction la plus importante car elle décide des
intentions à poursuivre  elle est réalisée par
la composante Filtre plan B x I-gt PE est la
fonction qui transforme les plans partiels en
plans exécutables, PE étant l'ensemble de ces
plans  elle peut utiliser, par exemple, une
bibliothèque de plans (LibP).
85
Architecture BDI (Algorithme de contrôle)
  • Reprenons l'exemple de Pierre introduit plus
    haut. Si Pierre a décidé que son intention est de
    faire une thèse de doctorat, il s'est alors
    obligé à cette intention. Pierre commence à
    travailler et faire sa recherche. Entre temps, il
    découvre qu'il n'aime pas trop travailler et
    qu'il préfère passer son temps avec ses amis dans
    les bistros. Pierre se rend compte que son
    intention est impossible à accomplir, ce qui le
    conduit à abandonner son intention de faire une
    thèse. Dans un autre cas, comme Pierre veut aussi
    gagner un peu d'argent, il prend un job dans une
    compagnie. Comme il est très éloquent et
    persuasif, on lui offre un poste dans la
    compagnie qui lui demande de voyager beaucoup
    pour représenter les intérêts de la compagnie.
    Pierre constate alors qu'une autre de ses
    intentions devient opportune, il abandonne son
    engagement de faire une thèse et accepte le poste
    qu'on lui a offert.
  • Soient B0, D0 et I0 les croyances, désirs et
    intentions initiales de l'agent.
  • Algorithme de contrôle d'agent BDI (par
    Woodridge)
  • 1      B B02      D D03      I I04     
    répéter            4.1    obtenir nouvelles
    perceptions p            4.2    B revc(B,
    p)            4.3    I options(D,
    I)            4.4    D des(B, D
    ,I)            4.5    I filtre(B, D,
    I)            4.6    PE plan(B, I)           
    4.7    exécuter(PE)        jusqu'à ce que
    l'agent soit arrêtéfin

La question est Combien de temps lagent
reste-t-il obligé par une intention ?
86
Architecture BDI (Algorithme de contrôle et
stratégies dobligation)
  • 3 principales stratégies d'obligation 
  • Obligation aveugle (ou obligation fanatique). Un
    agent suivant cette stratégie va maintenir ses
    intentions jusqu'à ce qu'elles soient réalisées,
    plus précisément jusqu'à ce qu'il croie qu'elle
    sont réalisées.
  • Pas bone pas efficace l'environnement change
    entre le moment où l'agent a choisi (filtré) ses
    intentions, et le moment où ces intentions
    doivent être accomplies.
  • Obligation limitée. L'agent va maintenir ses
    intentions, ou bien jusqu'à ce qu'elles soient
    réalisées, ou bien jusqu'à ce qu'il croie
    qu'elles ne sont plus réalisables.
  • Obligation ouverte. Lagent maintient ses
    intentions tant que ces intentions sont aussi ses
    désirs. Cela implique aussi que, une fois que
    l'agent a conclu que ses intentions ne sont plus
    réalisables, il ne les considère plus parmi ses
    désirs.

87
Arch. BDI (Algo de contrôle et stratégies
dobligation)
Algorithme de contrôle d'agent BDI avec
obligation ouverte 1      B B02      D
D03      I I04      répéter           
4.1    obtenir nouvelles perceptions
p            4.2    B revc(B, p)           
4.3    I options(D, I)            4.4    D
des(B, D ,I)            4.5    I filtre(B, D,
I)            4.6    PE plan(B, I)           
4.7 tant que (PEltgt et nonaccompli(I, B)
et possible(I, B))
répéter                     - x première(PE) 
exécuter(x)  - PE reste(PE)            
         - obtenir nouvelles perceptions
p                     - B revc(B,
p)                     - D des(B, D
,I)                     - I filtre(B, D,
I)                     - PE plan(B,
I)            fin tant que        jusqu'à ce
que l'agent soit arrêtéfin
  • Algorithme de contrôle d'agent BDI avec
    obligation limitée
  • 1      B B02      D D03      I I04     
    répéter            4.1    obtenir nouvelles
    perceptions p            4.2    B revc(B,
    p)            4.3    I options(D,
    I)            4.4    D des(B, D
    ,I)            4.5    I filtre(B, D,
    I)            4.6    PE plan(B, I)           
    4.7 tant que (PEltgt et nonaccompli(I, B) et
    possible(I, B)) répéter                     - x
    première(PE)  exécuter(x)  PE
    reste(PE)                     - obtenir
    nouvelles perceptions p                     - B
    revc(B, p)            fin tant que       
    jusqu'à ce que l'agent soit arrêtéfin

possible(I, B) est la fonction qui vérifie si,
après avoir obtenu la perception p sur
l'environnement et révisé ses croyances, les
intentions choisies sont encore réalisables 
nonaccompli(I, B) est la fonction qui vérifie
si, par hasard, les intentions de l'agent sont
déjà accomplies avant même que l'exécution de son
plan soit terminée.
88
BDI et architecture dagents réatifs
  • Une excellente architecture pour agent
    intelligent ou cognitif intégrant une grande
    capacité à raisonner.
  • Toutefois, les agents réactifs peuvent aussi
    donnés des résultants intéressants même dans des
    tâches complexes (Ex Exploration de Mars)
    pouvant nécessité lintelligence.
  • Lintelligence dans ces agents réactifs nen est
    pas une au sens IA du terme, mais une qui émerge
    de linteraction entre les composants simples ou
    entres les agents réactifs dans lenvironnement.
  • Nécessité davoir des architectures hybride
    combinant les vertus de la réactivité et du
    raisonnement.
  • Cest le cas de larchitecture InteRRaP
    (("Integration of Reactive Behavior and Rational
    Planning" Intégration du comportement réactif
    et planification rationnelle).

89
En résumé
  • Les programmes dagent implantent des fonctions
  • Les environnements sont catégorisés selon de
    multiples dimensions
  • observable? déterministe? épisodique? statique?
    discret? multi-agent?
  • Plusieurs architectures de base reflexes,
    reflexes avec modèle, basée sur les buts, basée
    sur la notion dutilité
  • Agent évolué agent capable dapprentissage
About PowerShow.com