Apprendre à partir des observations

24
Apprendre à partir des observations Chap. 18 Section 1 – 3

description

Apprendre à partir des observations. Chap. 18 Section 1 – 3. Plan. Apprentissage Inductif Apprentissage par arbre de décision. Apprendre. La capacité d ’ apprendre est essentielle pour des environnements inconnus, i.e., quand le concepteur manque de l ’ omniscience - PowerPoint PPT Presentation

Transcript of Apprendre à partir des observations

Page 1: Apprendre à partir des observations

Apprendre à partir des observations

Chap. 18

Section 1 – 3

Page 2: Apprendre à partir des observations

Plan

•Apprentissage Inductif

•Apprentissage par arbre de décision

Page 3: Apprendre à partir des observations

Apprendre• La capacité d’apprendre est essentielle pour des

environnements inconnus,– i.e., quand le concepteur manque de l’omniscience

• L’apprentissage est utile comme méthode de construction de système,– i.e., exposer l’agent à la réalité plutôt que d’essayer

d’écrire tout

• L’apprentissage modifie les mécanismes d’agent pour prendre des décisions afin d’améliorer la performance

Page 4: Apprendre à partir des observations

Apprentissage inductif• Forme la plus simple: apprendre une fonction des

exemples

f est la fonction cible

Un exemple est une paire (x, f(x))

Problème: trouver une hypothèse htelle que h ≈ fÉtant donné un ensemble d’entraînement d’exemples

(C’est un modèle très simplifié par rapport à l’apprentissage réel:– Ignore les connaissances a priori – Suppose que les exemples sont donnés)

Page 5: Apprendre à partir des observations

Méthode d’apprentissage inductif• Construire/ajuster h afin de conformer à l’ensemble

d’entraînement• (h est consistante si elle est conforme à toutes les

données)• E.g., fiter une courbe:

••

Page 6: Apprendre à partir des observations

Inductive learning method• Construire/ajuster h afin de conformer à l’ensemble

d’entraînement• (h est consistante si elle est conforme à toutes les

données)• E.g., fiter une courbe:

Page 7: Apprendre à partir des observations

Inductive learning method• Construire/ajuster h afin de conformer à l’ensemble

d’entraînement• (h est consistante si elle est conforme à toutes les

données)• E.g., fiter une courbe:

Page 8: Apprendre à partir des observations

Inductive learning method• Construire/ajuster h afin de conformer à l’ensemble

d’entraînement• (h est consistante si elle est conforme à toutes les

données)• E.g., fiter une courbe:

Page 9: Apprendre à partir des observations

Inductive learning method• Construire/ajuster h afin de conformer à l’ensemble

d’entraînement• (h est consistante si elle est conforme à toutes les

données)• E.g., fiter une courbe:

Page 10: Apprendre à partir des observations

Apprendre des arbres de décision

Problème: décider si on doit attendre pour une table à un restaurant, basé sur les attributs suivants1. Alternate: Est-ce qu’il y a des restaurants alternatifs proches?2. Bar: Est-ce qu’il y a un bar confortable pour attendre?3. Fri/Sat: Est-ce qu’on est vendredi ou samedi?4. Hungry: Avons nous faim?5. Patrons: nombre de personnes dans le restaurant (None,

Some, Full)6. Price: zone de prix ($, $$, $$$)7. Raining: est-ce qu’il pleut dehors?8. Reservation: Avons nous une réservation?9. Type: Type de restaurant (French, Italian, Thai, Burger)10. WaitEstimate: Temps d’attente estimé (0-10, 10-30, 30-60,

>60)

Page 11: Apprendre à partir des observations

Représentations basées sur des attributs

• Exemples décrits par des valeurs d’attribut (booléen, discret, continu)

• E.g., pour l’attente d’une table:

• Classification des exemples (des décisions) en positif (T) ou négatif (F)

Page 12: Apprendre à partir des observations

Arbre de décision

• Une représentation possible des hypothèses• E.g., un arbre pour décider si on attend:

Page 13: Apprendre à partir des observations

Capacité d’expression• Un arbre de décision peut exprimer toute expression des attributs en entrée• E.g., pour des fonctions booléennes, ligne de table de vérité → chemin vers

feuille:

• On peut “stocker” tous les exemples, en créant un chemin pour chaque exemple. Mais cette représentation n’est pas compact et ne généralise pas.

• Préfère trouver un arbre plus compact

Page 14: Apprendre à partir des observations

Espace d’hypothèses

Combien d’arbres distincts avec n variables booléenne?

= nombre de fonctions booléennes

= nombre de tables de vérités distinctes avec 2n lignes = 22n

• E.g., avec 6 attributs booléens, il y a 18,446,744,073,709,551,616 arbres

Page 15: Apprendre à partir des observations

Espace d’hypothèses

Combien d’arbres distincts avec n variables booléenne?

= nombre de fonctions booléennes

= nombre de tables de vérités distinctes avec 2n lignes = 22n

• E.g., avec 6 attributs booléens, il y a 18,446,744,073,709,551,616 arbres

Combien d’hypothèses purement conjunctives (e.g., Hungry Rain)?• Chaque attribut peut être dedans (positive), dedans (negative), or dehors

3n hypothèses conjonctives distinctes• Espace d’hypothèses plus expressif

– Augmenter la chance que la fonction cible soit exprimée– Augmenter le nombre d’hypothèses consistantes à l’ensemble d’entraînement

Peut faire des prédictions moins bonnes

Page 16: Apprendre à partir des observations

Apprendre un arbre de décision• But: trouver un arbre de décision petit, et consistant avec tous les

exemples d’entraînement• Idée: choisir (récursivement) l’attribut ”le plus significatif" comme

racine de (sous) arbre

Page 17: Apprendre à partir des observations

Choisir un attribut• Idée: un bon attribut peut diviser les exemples en sous

ensembles plus consistants, idéalement seulement des “positives” et seulement des “négatives”

• Patrons? est-il un meilleur choix?

Page 18: Apprendre à partir des observations

Utilier la théorie d’information• Contenu d’information (entropie):

I(P(v1), … , P(vn)) = Σi=1 -P(vi) log2 P(vi)

• Pour un ensemble d’entraînement contenant p exemples positifs et n exemples négatifs:

• E.g.

I(1/2, 1/2) = -1/2 log1/2 -1/2 log1/2 = 1 (bit)

I(2/8, 3/8, 3/8) = -2/8 log2/8 - 3/8 log3/8 - 3/8 log3/8

np

n

np

n

np

p

np

p

np

n

np

pI

22 loglog),(

Page 19: Apprendre à partir des observations

Gain d’information

• Un attribut choisi A divise l’ensemble d’entraînement E en sous ensembles E1, … , Ev selon leur valeur de A, où A av valeurs distinctes.

• Gain d’information (IG) ou réduction d’entropie due à l’attribut en question:

• Choisir l’attribut dont le IG est le plus grand

v

i ii

i

ii

iii

np

n

np

pI

np

npAremainder

1

),()(

)(),()( Aremaindernp

n

np

pIAIG

Page 20: Apprendre à partir des observations

Gain d’information

Pour un ensemble d’entraînement, p = n = 6, I(6/12, 6/12) = 1 bit

Considérer les attributs Patrons et Type (et les autres aussi):

Patrons a le plus grand IG parmi tous les attributs. Il est donc choisi comme la racine (par l’algorithme DTL)

bits 0)]4

2,

4

2(

12

4)

4

2,

4

2(

12

4)

2

1,

2

1(

12

2)

2

1,

2

1(

12

2[1)(

bits 0541.)]6

4,

6

2(

12

6)0,1(

12

4)1,0(

12

2[1)(

IIIITypeIG

IIIPatronsIG

Page 21: Apprendre à partir des observations

Exemple contd.

• Arbre de décision appris des 12 exemples:

• Beaucoup plus simple que des arbres réels– Une hypothèse plus complexe n’est pas vraiment justifié par le

petit nombre de données

Page 22: Apprendre à partir des observations

Mesure de performance• Comment peut-on savoir si h ≈ f ?

1. Utiliser des théorèmes de théories d’apprentissage computationnelles/statistiques

2. Essayer h sur un autre ensemble de test

Courbe d’apprentisage = % cas corrects dans l’ensemble de test en fonction de taille d’entraînement

Page 23: Apprendre à partir des observations

Mesure de performance• La courbe dépend de

– Réalisable (peut exprimer la fonction cible) ou non • Non réalisabilité peut être due aux attributs manquants ou à la

classe d’hypothèse restreinte (e.g. fonction linéaire avec seuil)

– Expresions redondantes (surcharge d’attributs non pertinents)

Page 24: Apprendre à partir des observations

Sommaire

• Apprendre pour les environnements inconnus, concepteurs “paresseux”

• Pour apprentissage supervisé. Le but est de trouver une hypothèse simple consistante approximativement aux exemples d’entraînement

• Arbre de décision: utiliser le gain d’information• Performance d’apprentissage = précision de

prédiction mesurée sur un ensemble de test