Chapitre I E.I.A.H - INSA de Lyondocinsa.insa-lyon.fr/these/2004/benadi/4_chapitre_1.pdf ·...
Transcript of Chapitre I E.I.A.H - INSA de Lyondocinsa.insa-lyon.fr/these/2004/benadi/4_chapitre_1.pdf ·...
9
Chapitre I
E.I.A.H : Evolution, révolution et remise en
question
10
11
Chapitre I
E.I.A.H : Evolution, révolution et remise en question
1 Introduction ...................................................................................................................... 13 2 Quelques mots sur la pédagogie....................................................................................... 13
2.1 Eduquer, enseigner, apprendre ................................................................................. 13 2.2 Les modèles de l’informatique pédagogique ........................................................... 16
2.2.1 Le constructivisme ............................................................................................... 16 2.2.2 Le béhaviorisme ................................................................................................... 16 2.2.3 Le cognitivisme .................................................................................................... 18
3 Evolution de l’Enseignement Assisté par Ordinateur ...................................................... 18 3.1 Didacticiels............................................................................................................... 19 3.2 Systèmes Tutoriels Intelligents (STI)....................................................................... 19 3.3 Environnements Interactifs d’Apprentissage, jeux d’entreprise et micro-monde.... 22 3.4 Organisation de la formation : LMS et Hypermédias pédagogiques ....................... 25
4 Vers une ingénierie pédagogique ..................................................................................... 28 4.1 Médiatisation de l'enseignement .............................................................................. 28 4.2 Numériser les activités pédagogiques ...................................................................... 29 4.3 Numériser les enseignants ? ..................................................................................... 30 4.4 Numériser les relations pédagogiques...................................................................... 32
5 La normalisation de l’enseignement à distance................................................................ 34 5.1 Des enjeux majeurs .................................................................................................. 34 5.2 Brève histoire des normes ........................................................................................ 36
5.2.1 SCORM................................................................................................................ 36 5.2.2 DCMI ................................................................................................................... 36 5.2.3 ARIADNE............................................................................................................ 37 5.2.4 LOM ..................................................................................................................... 38 5.2.5 EduML ................................................................................................................. 40 5.2.6 Standardisation ISO.............................................................................................. 41 5.2.7 EML ..................................................................................................................... 42
6 Bilan ................................................................................................................................. 43 6.1 Notre avis sur la situation actuelle ........................................................................... 43 6.2 Propositions d’évolutions......................................................................................... 47
6.2.1 Niveau physique : gestion des services et des supports ....................................... 47 6.2.2 Niveau structure : la forme................................................................................... 47 6.2.3 Niveau sémantique : Le fond ............................................................................... 48
7 Conclusion........................................................................................................................ 50
12
Chapitre I E.I.A.H : évolution, révolution et remise en question
E.I.A.H : Evolution, révolution et remise en question
1 Introduction
Avec l’expansion des nouvelles technologies d'information et de communication, le télé-
enseignement (ou enseignement à distance), longtemps considéré comme moins performant
que la formation en face-à-face, apparaît comme une alternative de plus en plus crédible à
l'enseignement traditionnel (The Institute for Higher Education Policy) [IHEP, 1999]. Les
modèles et les solutions pour ce type d'enseignement s’accroissent grâce, en particulier, aux
possibilités offertes par Internet. On trouve sur le Web des livres électroniques, des
générateurs de tests et des services (messagerie électronique, ftp, etc.) nécessaires pour
l’enseignement en ligne.
Mais l’invasion de l’enseignement par les TIC est-il synonyme d'une véritable valeur ajoutée
pédagogique ? Les nouveaux comportements qu’elles semblent induire sont-ils les signes
d'une amélioration de l’enseignement ? Cette question prend toute sa pertinence lorsque nous
abordons le domaine de l’EIAH.
Nous n’avons pas voulu dresser un nième état de l’art sur "l’enseignement assisté par
ordinateur" puisqu'il en existe d’excellents dans la littérature récente [Bruillard, 1997]
[Keegan, 1996]. Néanmoins, afin de situer les apports de notre travail, il nous semble
nécessaire de présenter brièvement dans ce chapitre, les bases actuelles de l’informatique
pédagogique, les réflexions qu’elles nous inspirent et les outils (existants) qui ont influencés
notre démarche. Nous nous sommes efforcés de respecter autant que nous le pouvions, les
normes qui sont en train d’être élaborées pour l’enseignement à distance.
Le chapitre se termine par un bilan sur les points remarquables et sur les lacunes du E-
learning. Ceci constituera une première justification de nos recherches.
2 Quelques mots sur la pédagogie
2.1 Eduquer, enseigner, apprendre
La pédagogie est la science de l'éducation, sa problématique est l'étude des principes
permettant l'acquisition de connaissances (au sens large du terme) par les individus. La
connaissance étant liée à la pensée, la pédagogie a été historiquement étudiée par les
13
Chapitre I E.I.A.H : évolution, révolution et remise en question
philosophes [Chalvin, 1996] [Fappani et al., 2001]. Les sophistes en ont une vision utilitariste
et rationnelle fondée sur les bienfaits du savoir. Socrate voit le savoir comme un
questionnement permettant d'accéder à la connaissance de soi (maïeutique), puis Platon
comme une recherche de la vertu. Ils placent l'élève, responsable de son apprentissage, au
coeur de l'éducation. Le Moyen Age tranche avec cette vision et la diffusion de la
connaissance, à la charge du clergé, devient subordonnée à la diffusion de la foi. La
Renaissance, par le retour aux sources classiques, s'oppose à la toute puissance des universités
qui maintiennent un savoir contrôlé.
Ensuite, L'émergence des sciences cognitives [Dortier, 1999] au début du XXème siècle,
notamment à travers le travail de Piaget et le courant constructiviste, a fait considérablement
évoluer le modèle maître/élève encore dominant de la pédagogie. Ces sciences cognitives
introduisent deux notions, plus que jamais d'actualité aujourd'hui, avec l'intégration
grandissante de l'informatique dans la pédagogie : l'activité de l'apprenant et la
démocratisation de l'enseignement.
Le terme éducation se rapporte également au processus par lequel un groupe assimile une
culture parfois différente de la sienne, dans un contexte soit informel / familier soit
institutionnel / scolaire. Il s'agit d'une définition classique de l'éducation donnée par
[Durkheim, 1922]. Cependant, l'accélération des processus sociaux, technologiques et des
changements culturels imposent des adaptations et des innovations fréquentes pour répondre
aux besoins éducatifs [Alfred, 1980]. Ainsi, l'éducation et la formation cessent d'être des
synonymes de construction cognitive et comportementale exclusivement réservées aux jeunes
générations mais devant participer à un renouvellement constant tout au long de la vie
(formation professionnelle continue). Il est admis, aujourd'hui, que l'éducation commence dès
la naissance et cesse seulement avec la mort. Ceci mène à une plus grande identification de
l'importance de l'éducation dite maternelle d'une part, et de l'enseignement pour adultes
d'autre part. Cette distinction mène aux concepts d'éducation permanente (ou continue),
l'éducation récurrente et auto-apprentissage [Holmberg, 1985] [Ross, 1988]. Les désignations
telles que enseignement ouvert, télé-enseignement, auto-apprentissage sont souvent utilisées
alternativement. Ce n'est pas une situation désirée, du fait que les concepts associés diffèrent
largement dans la sémantique et les contenus techniques. Ceci peut mener à des malentendus
en formulant les objectifs éducatifs qui pourraient être distincts ou même contradictoires. La
désignation enseignement à distance doit être utilisée lorsque le processus d'enseignement -
apprentissage se produit avec une séparation physique entre les enseignants et apprenants ou
14
Chapitre I E.I.A.H : évolution, révolution et remise en question
et entre apprenants eux-mêmes. Ces derniers peuvent mener des activités d'apprentissage
d'une manière autonome et indépendante, en dehors de la surveillance directe de tuteur,
enseignants ou autres agents éducatifs. C'est dans ce sens, que [Holmberg, 1985] le définit
comme une forme d'éducation qui est typiquement fondée sur le travail personnel de
l'apprenant indépendamment des conseils directs des tuteurs.
Dans un système d'enseignement à distance les matériaux d’apprentissage, les médias, les
programmes et le contenu doivent être conçus et produits, en tenant compte dès le début, de la
réalité de cette distance entre l'apprenant et l'enseignant; par conséquent, un cours
d'enseignement à distance devrait avoir des caractéristiques intrinsèques qui lui permettent
d'être auto-instructionnel, signifiant qu'il devrait être accessible pour l'apprentissage
individuel sans appui d'un enseignant.
Rowntree [Rowntree, 1992] cite une différence significative entre l'auto-apprentissage et
l’enseignement conventionnel (cours, TD, TP) : pour le premier, les matériaux d'apprentissage
sont particulièrement conçus et produits comme les sources principales d'apprentissage pour
des individus définis en tant que population cible, tandis que pour le dernier, il y a d
préexistants es matériaux employés par les enseignants et les apprenants.
La formation d'adultes, ayant déjà été confrontés au monde du travail, introduit une
modification des dispositifs pédagogiques afin de les rendre plus centrés sur l'action et la mise
en situation que sur la théorisation. Ce débat est loin d'être nouveau puisqu'il opposait déjà au
XVIème siècle Rabelais, partisan de l'acquisition des connaissances pures à Montaigne,
partisan de "mieux vaut une tête bien faite qu'une tête bien pleine". Ainsi, la formation
professionnelle mobilise des pédagogies orientées vers les compétences plutôt que vers les
connaissances, c'est-à-dire, vers des connaissances opérationnelles plutôt que générales.
L'évolution de la formation professionnelle a mené au développement de nouveaux dispositifs
d'apprentissage, répondant au besoin d'une formation sur le lieu de travail. C'est ainsi, que
s'est développé, parmi d'autres dispositifs tels que les stages courts ou les cours du soir, la E-
formation, offrant un avantage notable en terme de flexibilité.
Les progrès techniques de ces dernières années ont ouvert la porte de l’éducation à
l'informatique, aux nouvelles technologies de la communication et, en particulier, à Internet
qui permet, de plus en plus, aux ordinateurs d'être des instruments de communication. Ceux-ci
permettent au gens de se connaître, de parler, de partager des informations, d'échanger des
idées. De ce fait, l’usage de l’ordinateur dans l’apprentissage a totalement bouleversé
15
Chapitre I E.I.A.H : évolution, révolution et remise en question
l’éducation et a créé un nouveau modèle de pédagogie basé sur l’informatique.
2.2 Les modèles de l’informatique pédagogique
L'usage de l'ordinateur à des fins pédagogiques a pris naissance à la fin des années 1960 avec
les travaux de Seymour Papert. Son orientation initiale a été inspirée par les modèles
pédagogiques issus des sciences cognitives qui s'inscrivent dans le prolongement des courants
de la philosophie qui ont progressivement conduit à formuler une pédagogie centrée sur
l'apprenant et étendue au plus grand nombre. Les enjeux actuels de l'informatique
pédagogique, qui hérite de cette histoire, sont toujours fortement teintés des problématiques
de démultiplication, d'une part, et de maintien d'un apprentissage de qualité pour l'individu
malgré cette démultiplication, d'autre part. Un bref retour historique, des différents courants
ayant servis à justifier les mises en place de systèmes informatisés, est utile afin de
comprendre leur évolution et leur pertinence dans le contexte présent.
2.2.1 Le constructivisme
Née en 1889 en Angleterre, l'éducation nouvelle s'inscrit dans une perspective selon laquelle
l'être humain construit sa façon de comprendre et d'apprendre. Piaget, psychologue du
développement, propose une théorie fondée sur la maturation biologique et la construction
progressive de l'individu par l'expérience, par opposition à l'intelligence innée [Piaget, 1967].
Cette théorie induit une pédagogie basée sur l'interaction entre l'élève et son environnement,
versus la transmission d'un savoir pré-construit d'un maître à un élève. Freinet [Freinet, 1964],
dans le même courant de pensée, s'inscrit pour une pédagogie attrayante et empirique, et
contre la passivité de l'élève.
On peut voir le constructivisme comme une épistémologie qui fait de la connaissance le
résultat d’une construction active par un sujet grâce à l’expérimentation. Le constructivisme
donnera naissance à diverses formes de pédagogie, telles que la pédagogie non directive
(liberté de l'élève) ou la pédagogie par objectifs (pratique versus savoir abstrait). Cette
approche est à la base de la conception de la plupart des systèmes pédagogiques informatisés,
notamment, parce que le support numérique, de par son caractère dynamique, offre des
possibilités intéressantes pour l'application de ces concepts.
2.2.2 Le béhaviorisme
Watson fonde le béhaviorisme en 1913 [Watson, 1913], une pédagogie centrée sur le
comportement, issue des découvertes d'Ivan Pavlov en 1902 sur le conditionnement. Son 16
Chapitre I E.I.A.H : évolution, révolution et remise en question
approche est fondée sur le modelage d'un réceptacle vierge qui serait l'élève. Enseigner équivaut
alors à créer de nouveaux conditionnements. Le béhaviorisme a donné naissance à de nombreuses
formes d'enseignements expérimentale. Thorndike [Thorndike, 1913] propose un apprentissage,
par essais et erreurs ou pédagogie par découverte, dans lequel l'erreur est vécue comme une
expérience utile. Plus récemment, Skinner [Skinner, 1979] a développé l’enseignement
programmé, dans lequel l'enseignant doit avoir prévu les réactions de l'apprenant pour procéder à
un renforcement négatif ou positif [Percival et al., 1988]. Skinner débouche sur l'idée de
machines à enseigner permettant l'exécution d'enseignements modélisés sous formes
d'algorithmes linéaires.
L'enseignement programmé a fait du béhaviorisme de Skinner, soit un modèle positif :
découpage de la matière à enseigner en petites unités, renforcement immédiat,
individualisation du rythme d'apprentissage et participation active de l'apprenant [Skinner,
1968], soit un modèle négatif : enseignement reposant sur la réussite de l’épreuve au lieu de
se baser sur la mise en place de mécanismes intellectuels, l’homme n’est pas un animal
[Riche, 1979]. On oublie au passage que le béhaviorisme a eu pour objectif de lutter contre
l’idée de génie intellectuel et de lutter pour la réussite de tout homme dans n’importe quel
domaine de connaissance et de compétence [Watson, 1924] [Skinner, 1968].
L'apprentissage programmé s’est également inspiré des techniques existantes dans l'industrie :
définition, analyse des tâches, évaluation du travail et traitement des données [Callender,
1970]. Les principes fondamentaux de l'apprentissage programmé sont les suivants :
analyse comportementale : consiste à prévoir un comportement final ;
réponse active en continu : l’étudiant doit accomplir une certaine tâche dans chaque étape
du programme ;
confirmation immédiate : l'apprenant doit savoir instantanément si sa réponse est correcte
ou non ;
rythme d'apprentissage : chaque apprenant doit apprendre à son propre rythme ;
petites étapes : l'apprenant doit avoir à chaque instant la juste quantité d'informations qu'il
peut gérer ;
validation : le programme doit être examiné par son application sur des exemples
sélectionnés par des individus.
Le béhaviorisme est donc à l'origine de l'introduction de l'informatique dans l'enseignement.
Néanmoins le modèle sur lequel il se fonde, exclusivement comportemental et rejetant l'étude
des représentations mentales, conduit à une théorie de l'apprentissage "simpliste"
17
Chapitre I E.I.A.H : évolution, révolution et remise en question
essentiellement limitée au modèle stimulus-réponse. Si cette représentation est confortable
dans l'optique d'une introduction de la machine numérique, elle semble trop pauvre pour être
durable.
2.2.3 Le cognitivisme
Cette théorie naît en même temps que l'Intelligence Artificielle, en 1956. Elle est proposée par
Miller et Bruner [Bruner, 60], en réaction au béhaviorisme. L'apprentissage ne peut être limité
à un enregistrement conditionné, mais doit plutôt être envisagé comme nécessitant un
traitement complexe de l'information reçue. La mémoire possède une structure propre, qui
implique l'organisation de l'information et le recours à des stratégies pour gérer cette
organisation. Le cognitivisme se concentre alors sur l'étude des états mentaux, se divisant en
deux courants, le symbolisme puis le connexionnisme.
Le symbolisme postule que le cerveau fonctionne comme un ordinateur et, donc, que l'étude
de programmes informatiques symboliques pourra conduire à une meilleure compréhension
du fonctionnement du cerveau. Le traitement de l'information est modélisé comme un filtrage
des stimuli, puis une formalisation et une représentation mentale et, enfin, une computation
(déduction, induction, comparaison, etc.). Ce modèle reste néanmoins limité dans la mesure
où le traitement symbolique ne constitue qu'une partie de l'activité du cerveau.
A la fin des années 1980, le connexionnisme propose une autre interprétation du cognitivisme.
Le cerveau ne fonctionne pas sur le modèle d'un calcul logique sériel, mais plutôt sur le
modèle d'un calcul en réseau. Le concept émerge de l'activité d'un réseau d'unités de
traitement (les neurones) . Les deux modèles se révèlent, en définitif, complémentaires : le
symbolisme permettant d'appréhender les processus d'apprentissage à un niveau macro, et le
connexionnisme à un niveau micro.
3 Evolution de l’Enseignement Assisté par Ordinateur
Dès leur apparition, la vocation des systèmes d’Enseignement Assisté par Ordinateur (EAO)
est de faciliter et d’optimiser la transmission d'information tout en diminuant le coût financier
et humain de la formation. Ils ont pour objectif de donner à l’utilisateur un certain regard sur
un domaine particulier et de créer chez lui les dispositions nécessaires à la compréhension et à
l’assimilation des informations diffusées. Comme nous allons le voir, les techniques mises en
oeuvre pour satisfaire ces objectifs ont beaucoup évolué au fil du temps.
18
Chapitre I E.I.A.H : évolution, révolution et remise en question
3.1 Didacticiels
Dans le courant des années 50, Skinner [Skinner, 1954] propose une révolution scientifique de
l'enseignement basée sur les résultats de recherches fondamentales et sur les lois de
l'apprentissage mises en évidence chez l'animal (rat, pigeon). Il considère qu'il est possible
d'enseigner n'importe quelle notion à un élève si on utilise la technique dite de l'enseignement
programmé. Le principe de cet enseignement repose sur des principes tels que, le découpage de la
matière à enseigner en petites unités et l'individualisation du rythme d'apprentissage. Cet
enseignement est réalisé à l'aide de machines à enseigner dont la sophistication technique variait
du simple manuel papier à des dispositifs relativement complexes.
A la même époque, d'autres tentatives d'applications ont consisté à proposer aux élèves des
exercices de consolidation des connaissances ou drill (révision de livrets, exercices
d'orthographe, etc.). Les enseignants et les parents ont été heureux d'être déchargés de la tâche
fastidieuse et répétitive que constitue ce type d'exercices ; quant aux élèves, ils ont pu
apprécier la grande patience de la machine à leur égard.
Dans les années soixante, une transposition de ces principes a permis de construire des
logiciels, au départ, relativement simples. Ce furent les premières tentatives d'Enseignement
Assisté par Ordinateur (ou EAO). Ils étaient souvent basés sur un même principe : des
scénarios définis dans des graphes imposant une succession figée d’écrans pour une
succession d’actions tous aussi figées. L’évolution de tels systèmes (fermés) est difficile et
coûteuse en temps. Pourtant, cette méthode est longtemps restée et est, encore, à la base de
nombreuses applications.
3.2 Systèmes Tutoriels Intelligents (STI)
L’étape suivante est l’apparition de l’EIAO (Enseignement Intelligemment Assisté par
Ordinateur, traduction de "Intelligent Computer Aided Instruction"). Ce domaine s'est
développé dès 1970 aux Etats-Unis, et depuis le début des années 80 en France à partir du
constat de certaines limites des systèmes d'EAO classiques. Il s'agissait de réaliser, en utilisant
des techniques d'intelligence artificielle, des systèmes plus souples, plus interactifs, s'adaptant
mieux à leurs utilisateurs.
Plusieurs approches ont été explorées. La décennie 80-90 a été marquée par celle des systèmes
tutoriels intelligents, fortement liée au développement des systèmes à base de connaissances en
intelligence artificielle. Une première expérimentation dans ce sens a été menée à l’aide d’un
19
Chapitre I E.I.A.H : évolution, révolution et remise en question
système expert nommé GUIDON [Quéré et al., 1991] réalisé par W.J. Clancey à la fin des
années 70. L'idée initiale était simple : si on dispose d'un système de résolution de problèmes
de niveau expert, avec une base de connaissances explicites, on peut l'utiliser pour former des
étudiants, en lui ajoutant des modules adéquats pour assurer la transmission d'information et
de cette compétence du système vers l'étudiant.
Il s'agissait principalement de concevoir des systèmes d'apprentissage individualisé, fondés
sur des activités de résolution de problèmes, ces activités étant généralement considérées
comme complémentaires d'un enseignement du domaine effectué par ailleurs (cours magistral
par exemple, ou bien autre type d'environnement informatique). Dans un STI, la résolution
d'un problème proposé par le système ou par l'apprenant, peut, en principe, être effectuée, soit
par le système, avec certaines capacités d'explication, dans un mode "observation" pour
l'apprenant, soit par l'apprenant, dans un mode "action", avec un guidage et un contrôle plus
ou moins rapprochés du système. C'est le cas, par exemple, du système APLUSIX, dans le
domaine de la factorisation de polynômes aux niveaux collège et lycée, dont la première
version date de 1987 [Nicaud, 1987], et du système QUIZ, pour l'enseignement du bridge, de
J.M. Labat et M. Futtersack [Futtersack, 1990] [Labat, 1990].
On peut aussi citer TUTORIN (TUTOR = tuteur, IN = industriel, Intelligent et INSA de Lyon
lieu de sa conception) est un outil de pilotage de la formation correspondant au mode tutoré
mais avec des caractéristiques rétablissant une souplesse pédagogique indispensable. Ainsi la
formation sera personnalisée [Prévot, 1992] :
Elle respecte le rythme d’apprentissage de chaque apprenant ; celui-ci pourra, en effet,
interrompre et reprendre à tout moment sa session de formation ;
Elle adaptera en permanence le chemin d’apprentissage à la progression effective de
chacun grâce à un modèle représentant l’évolution des connaissances de l’apprenant.
Là encore, des applications industrielles voient le jour, parfois très complètes, comme le
développement du dispositif de formation CECIL1 sur les unités de cuisson en cimenterie [Prévot,
1992].
Le célèbre système SCHOLAR de Carbonell [Carbonell, 1970], relatif à la géographie de
l'Amérique du Sud, mérite également d’être mentionné. Dans ce système de "dialogue à
1 CECIL est le didacticiel cimentier issu de l’expérimentation en situation d’usage de TUTORIN, gestionnaire
d’apprentissage destiné à un public industriel, développé par le laboratoire GRACIMP (deveu ICTT).
20
Chapitre I E.I.A.H : évolution, révolution et remise en question
initiative mixte", la connaissance, représentée dans des structures d'information, était utilisée,
non seulement pour être présentée, pour déterminer des questions à poser à l'apprenant et pour
vérifier ses réponses, mais aussi pour répondre à des questions de ce dernier, non explicitement
prévues à la conception du système, et ce en "langage naturel" (anglais limité à des phrases
simples). Plus précisément, Carbonell avait représenté des objets et concepts géographiques dans
une structure globale organisée sous forme de réseaux sémantiques (réseaux d'entités reliées entre
elles par des relations). Les réseaux sémantiques étaient vus comme des modèles de représentation
et de mémorisation de connaissances utilisées par les humains. Carbonell avait, aussi, doté
SCHOLAR de capacités embryonnaires de modélisation de l'apprenant, plus précisément d'un
mécanisme d'évaluation des connaissances de celui-ci, sous la forme de valeurs attachées aux
noeuds du réseau. Outre le caractère attractif d'un tel système de dialogue pour l'apprenant, qui
pouvait prendre l'initiative de poser des questions, Carbonell pensait qu'une telle approche était,
aussi, plus attrayante pour les enseignants impliqués dans la conception du système. En effet, au
lieu d'avoir à découper la connaissance en items à intégrer précisément dans des scénarios
séquentiels, comme c'était le cas en EAO classique, ils avaient à représenter les connaissances du
domaine dans le cadre d'une structure conceptuelle globale et à définir des stratégies tutorielles, en
terme de modes de parcours de cette structure, visant à permettre l'acquisition par l'élève de la
connaissance ainsi représentée. On trouve dans ces travaux précurseurs et dans ceux qui ont suivi
(dans la décennie 70) les idées fondamentales de l'EIAO, à savoir :
une représentation explicite des connaissances du domaine et des mécanismes de
raisonnement, qui dotent le système de la capacité de répondre à des questions, de
résoudre des exercices dont la solution n'a pas été explicitement prévue et dont l'énoncé
peut être proposé par l'apprenant ;
un processus de modélisation de l'apprenant, visant à disposer explicitement
d'informations telles que son degré de maîtrise des connaissances du domaine : l'objectif
général étant de permettre une adaptation dynamique et individualisée du système à son
interlocuteur ;
l'explicitation de stratégies pédagogiques, pour permettre au système d'engendrer
dynamiquement ses interventions en fonction de la situation, d'objectifs pédagogiques et
du modèle de l'apprenant ;
la recherche de capacités de communication souples et variées, avec des possibilités
d'intervention et de prise d'initiative de l'apprenant.
Ces idées fondamentales servent de base à l'architecture générale proposée classiquement
pour un STI : le module "représentation du domaine" (appelé initialement "module expert"),
21
Chapitre I E.I.A.H : évolution, révolution et remise en question
le module "modèle de l'élève", le module tutoriel (ou "pédagogue") et le module d'interface,
ce dernier étant plus ou moins distingué du module tutoriel selon les systèmes. La conception
de chacun de ces modules, avec la précision de leurs fonctionnalités et de leurs liens, a posé
un certain nombre de problèmes, de même que leur intégration dans une architecture
informatique adaptée, abordée parfois en termes de systèmes multi-agents. Ce modèle a, donc,
donné lieu à des travaux de recherche divers. On trouvera dans l'ouvrage de E. Wenger
[Wenger, 1987] une présentation détaillée des travaux anglophones antérieurs à 1987 et des
considérations générales dont l'intérêt dépasse largement cette date. Toutes ces recherches
justifient l'adverbe "intelligemment", ajouté au sigle EAO, à la fois en terme d'intelligence du
système et en terme de problématiques et de techniques relevant de l'intelligence artificielle.
Néanmoins, lorsque l'on s'attache à regarder l'utilisabilité des systèmes développés, on voit
rapidement que les résultats attendus initialement n'ont pas été atteints. Ce manque de
résultats s'est traduit par l’apparition d’une autre appellation pour le sigle EIAO, développé en
"Environnements Interactifs d'Apprentissage avec Ordinateur", correspondant à l'appellation
en langue anglaise "Interactive Learning Environments" et mettent fortement en évidence le
caractère pluridisciplinaire de ce domaine de recherche qui s'est fortement confirmé ces
dernières années dans les communautés nationales et internationales.
3.3 Environnements Interactifs d’Apprentissage, jeux d’entreprise et micro-
monde
C'est au cours de la décennie 80-90 que s'est développé l'usage des micro-ordinateurs et des
stations de travail multimédia, avec une évolution rapide des matériels, des logiciels et des
interfaces homme-machine. Tous ces éléments ont permis de développer une véritable
interactivité système-utilisateur. On est alors passé de l'idée de systèmes de résolution de
problèmes, où les échanges avec l'utilisateur se limitaient à la saisie des données et à la
fourniture des résultats, à celle de systèmes interactifs d'aide à la résolution de problèmes,
d'aide à la décision, ou d'aide au pilotage, avec une communication plus intense tout au long
du processus.
Les EIAH [Bruillard, 1997] visent d'autres objectifs en terme de situations et de formes
d'activités proposées aux apprenants, le point commun étant des capacités d'interactivité
intentionnellement destinées à favoriser des apprentissages de l'utilisateur, dans un cadre
d'utilisation relativement autonome. Par exemple, le système SIAM de J. Courtois [Courtois,
1990], système d'assistance à des activités de travaux pratiques de physique, aide un étudiant à
22
Chapitre I E.I.A.H : évolution, révolution et remise en question
comprendre pourquoi le montage qu'il a réalisé ne se comporte pas comme prévu (situation
indirecte de résolution de problèmes de diagnostic). D'autres systèmes comportent un module
important de simulation de dispositifs techniques, sur lequel sont basées des activités de
formation, dans des domaines de sciences expérimentales ou en formation professionnelle par
exemple.
Les simulateurs pédagogiques, tels que APLUSIX [Nicaud, 1994], permettent à l'apprenant
d'agir et de voir les conséquences de son action. Cette réactivité permet à l'autonomie d'être
profitable en ancrant l'action de l'apprenant dans une réalité à laquelle il peut se confronter et
en lui fixant un objectif de travail sanctionné par une modification de cette réalité. La
communication est le prolongement de la réactivité, elle peut-être considérée du point de vue
homme-machine, mais également, depuis la démocratisation des réseaux informatiques, du
point de vue homme-homme (médiatisé via la machine). La communication homme-machine
dans les EIAH est portée par les interfaces graphiques plutôt que par des interfaces en langues
naturelles (limitées par l'interprétation hasardeuse de la machine). La difficulté de concevoir
la communication via une interface graphique réside dans l'opposition entre des interfaces
puissantes, en terme d'expressivité mais complexes à manipuler, et des interfaces simples,
mais permettant peu d'interaction [Balacheff, 1997].
Une des évolutions actuelles des EIAH est la structuration des échanges homme-homme via la
communication en réseau. Les EIAH intègrent, ainsi, des notions telles que l'apprentissage
coopératif entre apprenants ou l'assistance à distance par un tuteur.
Une approche connexe se base sur des micromondes ou sur des environnements d'exploration,
de découverte plus ou moins guidée. Par exemple, l'environnement LOGO [Papert, 1980],
considéré comme le premier prototype de micromonde, a largement été expérimenté dans les
années 80 dans des contextes scolaires (niveau primaire ou collège). L'objectif pédagogique
annoncé était de développer des capacités de découverte, en proposant aux élèves un dispositif
mobile matériel ou abstrait (tortue ou écran graphique) réagissant à des commandes formulées au
moyen d'un programme en langage LOGO. De nombreuses études et d'expérimentations ont été
menées pour préciser des situations d'usage et analyser les apprentissages résultant, effectivement,
de telles activités, reprises et étendues à d'autres dispositifs dans le champ de la robotique
pédagogique. Un autre exemple de micromonde réactif est le système CABRI-Géomètre
(www.cabri.net), cahier de brouillon en géométrie, qui permet, via l'utilisation d'un ensemble de
commandes symboliques et d'opérations de manipulation directe, de construire une figure
géométrique, puis de la déformer en maintenant les relations déclarées entre ses éléments (un
23
Chapitre I E.I.A.H : évolution, révolution et remise en question
point déclaré sur une droite reste sur la droite, le point milieu d'un segment reste au milieu du
segment si ses extrémités se déplacent). On conçoit aisément l'intérêt d'un tel environnement pour
l'étude de figures, de propriétés géométriques et la formulation de conjectures, intérêt d'ailleurs
attesté par les nombreuses expérimentations de ce système. De même, de nombreux modules de
simulation de phénomènes ou de dispositifs peuvent être employés dans des situations de
formation, tout en n'ayant que des capacités réactives : l'apprenant fixe des valeurs de paramètres
et peut observer le comportement résultant du modèle simulé. Les principales propriétés des
micro-mondes sont l'autonomie, la réactivité et la communication. L'accès à une certaine
autonomie est une hypothèse forte des EIAH car l'apprenant doit pouvoir être acteur (et non
spectateur) de sa formation. Ainsi les micromondes, tels que LOGO ou Cabri-Géomètre, offrent
un environnement permettant à l'apprenant de créer, d'être auteur mais l'autonomie qui lui est
proposée, pour être efficace d'un point de vue de la formation, doit être associée à un contrôle de
l'activité. Ce contrôle se manifeste dans les EIAH sous la forme de réactions formulées par le
programme en fonction des actions de l'apprenant, telles que l'explication des erreurs, le guidage,
voire la perturbation [Piché et al., 1998 ]. Les micromondes comme LOGO et Cabri sont des
logiciels éducatifs dénués de toute connaissance, mais peuplés d’éléments avec lesquels
l’apprenant interagit. La connaissance n’est plus déductive mais inductive.
Il convient alors de préciser les limites des micromondes. Ainsi, certains de ces
environnements sont simplement réactifs, c'est-à-dire qu'ils ne font qu'exécuter des
commandes de leur utilisateur, sans effectuer de contrôle de celui-ci, ni d'intervention
tutorielle et ont donc un rôle pédagogique moins évident. Ils doivent alors être utilisés sous le
contrôle d'un enseignant qui est chargé d'assurer la pédagogie de l'utilisation. Ceci ne signifie
pas qu'ils ne peuvent pas être utilisés dans un contexte d’autoformation, et que l'on ne peut
pas apprendre en les utilisant.
Les jeux d’entreprise mettent des sous-groupes d’apprenants, en concurrence dans un univers
multimédia interactif. L’intérêt de ce dernier point est évident : les apprenants suffisamment
pris, voire passionnés, par l’enjeu (véritable "leurre") franchissent sans douleur et sans
véritablement en prendre conscience, les étapes cognitives ou conceptuelles nécessaires pour
avancer dans le jeu. Les objectifs des apprenants (gagner, relever un défi, …) sont ainsi
différents de ceux du formateur qui lui veut faire comprendre et maîtriser, en situation
d’action, des notions, des règles, des concepts...
La modélisation et la structuration (architecture) du jeu s'appuient ici sur l'identification de
places conceptuelles (étapes pédagogiques de la trajectoire de formation) et leur
24
Chapitre I E.I.A.H : évolution, révolution et remise en question
séquencement possible pour assurer une construction progressive des connaissances et savoir-
faire (individuels ou collectifs). Ceci impose un travail important sur le découpage et la durée
du jeu [Tarpin-Bernard et al., 2000]. Cette phase de conception informatique ne peut se faire
indépendamment du rôle que jouera l'enseignant lors de l'utilisation du jeu. Véritable
accompagnateur d'un processus de développement de compétences, il veille au maintien d’une
certaine synchronisation entre les apprenants et leur propose à travers des débriefings réguliers
(toutes les 20 à 30 minutes) une analyse critique comparée (partage) de l’expérience vécue dans le
but de la transformer en savoir positif et durable. Par exemple, Réactik Multimédia2 (Réactik-
MM) est un jeu d’entreprise multimédia reconçu à partir de Réactik, un produit CIPE (Centre
International de la Pédagogie d’Entreprise), et développé en multimédia sous la responsabilité
de notre équipe de recherche. Lors du déroulement de ce jeu, quatre groupes, chacun composé
de trois étudiants. Ils découvrent, mettent en situation et s’approprient une douzaine de
concepts liés à la gestion des flux et des stocks dans les entreprises. Employé chaque année
pour la formation initiale des élèves-ingénieurs de l’INSA, Réactik-MM est également
utilisable dans le cadre de la formation continue. Le jeu enchaîne une douzaine de séquences
pédagogiques interactives. Chaque séquence présente et illustre un concept, puis le scénarise
en mettant les apprenants en situation de décision pour progresser dans l'amélioration des
performances de leur entreprise : 4 entreprises, de production de bagages concurrents, essaient
d’accéder aux marchés de 12 pays (chacun requérant des conditions d’accès différentes).
L'animateur supervise la formation qui se déroule, selon le niveau des étudiants, sur deux ou
trois séances de 4 heures. Les étudiants enchaînent des phases de briefing où l’animateur
explique sommairement la tâche qui les attend, des phases d’interaction avec le logiciel (de 15
mn à 1h chacune) et des phases de débriefing (de 15 à 30 mn chacune), véritables séquences
de "partage" et de sédimentation de la connaissances, où l’animateur fait un retour avec les
étudiants sur les concepts abordés en suscitant tour à tour réflexions et questions. Ces séances
de débriefing peuvent se déroulées à distance en fonction de l'éloignement des groupes
d'apprenants et des outils disponibles. Une dizaine de jeux d'entreprises ont, depuis, été
développées et expérimentées selon les mêmes principes.
3.4 Organisation de la formation : LMS3 et Hypermédias pédagogiques
Ces dernières années ont vu l’évolution la plus profonde dans la conception de systèmes d’EIAH,
2 Réactik Multimédia est une marque déposée CIPE – Département GPR de l’INSA de Lyon
3 LMS : Learning Management System. 25
Chapitre I E.I.A.H : évolution, révolution et remise en question
avec la généralisation de l'utilisation d'Internet et l’émergence de nouveaux systèmes basés sur le
web. Avec le web, la formation à distance se reconfigure pour proposer des offres de formation en
ligne. Afin d'aider à la mise en place de ces sites Web de formation, de nombreuses recherches se
sont orientées vers la réalisation de plates-formes de formation en ligne [Balpe et al., 1996]
[Barrett, 1989] [Guégot et al., 1998]. Elles proposent des solutions permettant de mettre en place
des serveurs de formation, afin de construire des sites Web sans avoir à développer les fonctions
dynamiques qui leurs sont associées. Une plate-forme offre globalement les trois principaux
services suivants : la possibilité de mettre à disposition des contenus pour les utilisateurs via un
navigateur Web (pour consultation directe en HTML ou téléchargement sur le poste client de
formats imprimables), la possibilité pour les apprenants et tuteurs d'accéder aux différents services
applicatifs correspondant à des fonctions classiques de communication d'Internet (telles que le
mail, le forum, le chat, voire la vidéo-conférence) et la possibilité de gérer la formation du point
de vue logistique (inscriptions, planning, regroupement, etc.). De très nombreuses plates-formes
de téléformation ont vu le jour, mais très peu ont réellement été, massivement, utilisées. Quelques
études comparatives tentent de mettre en valeur les spécificités et les différences entre les
solutions existant actuellement sur le marché, telles que l'étude menée par l'association le Préau
[Preau].
Les plates-formes se caractérisent par la facilité qu'elles apportent pour organiser la diffusion
de support numérique, le recours à des systèmes 100% Web allégeant considérablement
l'organisation matérielle des postes clients. A ce titre, elles présentent une solution efficace
pour la gestion de formations et la distribution de l'information.
Mais, jusqu’à présent, elles se caractérisent également par l'absence d'une ingénierie
pédagogique qui permettrait de faire le lien entre les contenus et la formation des apprenants,
mais aussi entre la distribution et la production, ...
Selon nous, les principales fonctionnalités demandées à un environnement de télé-
enseignement sont les suivantes :
capitalisation et fédèration des activités pédagogiques dont il assure la gestion et la
diffusion. Pour cela, il est régulièrement alimenté par les enseignants/auteurs qui créent,
déposent et font évoluer leurs ressources pédagogiques en ayant une vue panoramique de
l'ensemble des enseignements et connaissances contenues (meilleure intégration et
coordination) ;
diffusion de l’information la plus pertinente (celle qui correspond à ses caractéristiques et
ses besoins prioritaires) pour l’utilisateur. En effet, ce dernier doit pouvoir faire le tri dans
26
Chapitre I E.I.A.H : évolution, révolution et remise en question
une grande masse d’informations (parfois non vérifiée) pour ne retirer que celle qui
l’intéresse ;
interaction (de son contenu) afin de favoriser certains modes de diffusion, de navigation et
de recherche, déterminés à partir des profils utilisateurs. Il offre ainsi la possibilité à tous
les utilisateurs de participer à la structuration du contenu et de fournir des outils de
visualisation/représentation des connaissances/savoirs qu’il contient ;
auto-adaptation aux besoins des apprenants identifiés et regroupés grâce à différents
profils (profils d’intérêts ou d’objectifs, de niveau de connaissances / compétences); il est
personnalisable ;
complémentarité vis-à-vis d'autres supports : nous pensons que l'avenir des supports
d'information et de formation doit être pensé en terme de complémentarité et non de
substitution ;
la pluralité : plusieurs modes pédagogiques liés à des situations d'apprentissage (télé-
projet, téléTP, classes virtuelle, …) devant cohabiter pour répondre aux besoins de la
formation.
La plupart des systèmes envisagés actuellement se basent ou font l'hypothèse que la majeure
partie du contenu pédagogique est constituée d’hypertexte ou d'hypermédia. Les hypermédias ont
été largement utilisés pour des applications pédagogiques, en particulier, parce que leur parcours
non linéaire favorise une approche constructiviste. La manipulation de l'hypertexte suppose, en
effet, une lecture active, analytique et la mise en oeuvre de procédés, tels que la comparaison ou la
synthèse, intéressants dans une perspective d'apprentissage construit par l'apprenant plutôt que
dicté par l'enseignant. On peut, donc, classer dans la catégorie des environnements réactifs les
systèmes hypertextes ou hypermédias, qui répondent à des demandes d'accès de leur utilisateur à
telle ou telle partie des informations enregistrées [Vétois, 1993] [Bruillard et al., 1994]. Ces
divers systèmes d'exploration libre ont connu une certaine vogue, avec des conceptions de
l'apprentissage basées sur la métaphore du "libre-service", où l'apprenant est censé prendre
lui-même ce dont il a besoin. Des expérimentations ont permis de constater que de tels
environnements réactifs supposent, si un minimum d'efficacité et de contrôles des
apprentissages est souhaité, soit une utilisation fortement intégrée à un dispositif de formation
externe et contrôlée par un enseignant humain, par exemple en classe ou dans des situations
de type travaux pratiques, soit une certaine capacité de l'utilisateur à gérer lui-même son
apprentissage. Depuis plusieurs années d'ailleurs, des projets ont pour objectif de compléter
de tels systèmes avec des modules assurant des tâches de guidage tutoriel et de contrôle des
activités de l'apprenant, pour en faire des véritables EIAO. Mais les recherches ont montré
27
Chapitre I E.I.A.H : évolution, révolution et remise en question
que l'hypertextualité s'accompagne également d'une désorientation du lecteur, lorsque celui-ci
n'a pas les compétences nécessaires pour reconstruire le sens morcelé, ou que la conception de
l'hypermédia engendre une surcharge cognitive par le trop grand nombre de possibilités
offertes. La conception des hypertextes est, donc, un travail complexe qui implique une
modélisation ad hoc des nœuds d'information et l'adjonction de stratégies pour guider la
lecture de l'utilisateur [Horn, 1989]. Ainsi, une catégorie particulière d'hypermédias, dits
adaptatifs, associe un modèle de l'information et de l'utilisateur, afin de construire
dynamiquement le parcours en fonction de l'utilisateur et tenter ainsi de lui offrir ce qui
correspondant le mieux à ses besoins [Brusilovsky, 1996]. Nous détaillerons ce type de
systèmes et les modèles sous-jacents dans le chapitre suivant puisqu'une grosse partie de notre
travail concerne cette technologie.
Il n'est pas question de dire que les EIAO sont la seule voie acceptable; on peut penser au
contraire que, selon les domaines, les types d'apprentissage, les types d'apprenants et les
situations de formation visées, il y a des réponses multiples, et qu'il est encore nécessaire
d'apporter des contributions à ces différents systèmes d'enseignements assistés par ordinateur.
4 Vers une ingénierie pédagogique
4.1 Médiatisation de l'enseignement
La montée en puissance combinée des besoins de formation plus autonomes et des supports
permettant cette autonomie conduisent à réactualiser les théories de Piaget et à considérer une
formation centrée sur l'apprenant plutôt que sur l'enseignant. On voit ainsi le glissement
progressif d'une situation d'enseignement à une situation d'apprentissage. Par ce glissement, le
support numérique prend de fait une place importante grâce à la possibilité qu'il apporte dans
la mise en œuvre des dispositifs. Le support numérique se pose, donc, comme un élément
d'une ingénierie pédagogique et nous conduit à nous demander dans quelle mesure cette
ingénierie pédagogique peut-être instrumentée ?
La tendance logique de la formation professionnelle est le recours à des dispositifs hybrides
de formation à distance couplés à du présentiel [Gil, 2000] afin de mettre à profit leurs
avantages respectifs.
Dans un dispositif classique, l'enseignement s'appuie sur des supports mises à disposition de
l'apprenant. Qu'il s'agisse d'un polycopié, d'un jeu de diapositives ou d'un cd-rom, le support
ainsi introduit permet à l'apprenant de reporter une partie de son apprentissage sur la
28
Chapitre I E.I.A.H : évolution, révolution et remise en question
consultation autonome de celui-ci.
Entre les deux, la formation tutorée en présentiel est basée sur un travail autonome de
l'apprenant sur un support généralement multimédia. L'enseignant (devenu tuteur) remplit le
rôle de régulateur, de guidage et de reformulation, mais non plus directement d'exposition.
La formation ouverte à distance consiste à laisser à l'apprenant le soin de gérer le lieu et le
temps de son apprentissage, en lui fournissant les supports ad hoc, un tutorat à distance et des
regroupements en présentiel pour répondre aux questions que le support ne permet pas de
résoudre, et un suivi pédagogique permettant d'assurer le guidage et le contrôle de
l'apprentissage.
On voit de nouveau ici qu'il est possible de caractériser les dispositifs de formation en
fonction de paramètres tels que la distance/présence ou le synchrone/asynchrone auxquels
s’ajoute la dimension collectif/individuel. Néanmoins, nous ne pensons pas qu'il existe dans
l'absolu des dispositifs meilleurs que d'autres, mais plutôt des dispositifs différents pour
répondre à des besoins pédagogiques et des contraintes organisationnelles différentes.
4.2 Numériser les activités pédagogiques
La technologie numérique n'est pas en soi une innovation pédagogique, mais elle rend
possible l'innovation pédagogique par les nouvelles fonctionnalités qu'elle apporte [Linard,
1996]. Il est, donc, important de concevoir des activités pédagogiques en adéquation avec les
caractéristiques de ces nouveaux supports numériques. Ne pouvant numériser la pédagogie
propre à chaque enseignant, la question se pose de savoir s'il est possible d'inscrire sur le
support le mode opératoire de la pédagogie, à savoir son processus de mise en oeuvre
[Bachimont, 1996]. En effet, si comme nous l'avons vu, nous admettons qu'une partie de la
pédagogie consiste à donner à l'apprenant un cadre pour gérer son processus d'apprentissage
[Boullier, 2000] et si l'on prend comme hypothèse supplémentaire, qu'un processus
d’apprentissage peut-être vu comme une succession d'actes pédagogiques discrets [Ghitalla et
al., 2001], alors, on voit qu'il devient possible de représenter de telles activités sur un support
numérique.
Pour aller dans ce sens, dans son modèle documentaire Crozat [Crozat et al., 2002] propose
une inscription de l'information fondée sur une couche sémiotique (les documents) et sur une
couche de contrôle (les modalités de transformation de ces documents). L'apprentissage à
travers un support numérique ainsi conçu, repose donc, d'une part, sur le calcul qui permet la
29
Chapitre I E.I.A.H : évolution, révolution et remise en question
programmation du processus pédagogique et, d'autre part, sur l'interprétation qui permet
l'accès au sens. Nous pensons, alors, qu'il est insuffisant de se limiter à la question de la
production des documents, mais qu'il faut intégrer la question de la production de structure de
contrôle de ces documents et des services utiles pour l’enseignant / tuteur.
Le problème réside, alors, dans le respect de l'intentionnalité pédagogique. C'est le processus
pédagogique, en tant que scénario conçu par l'enseignant, qui définit les modalités de
manipulation des documents par l'apprenant. Par conséquent le recours à une modélisation des
supports et services pédagogiques est nécessaire pour rendre efficace la manipulation des
documents et des services produits ou mis à disposition.
La question posée est celle de proposer un modèle permettant de produire et de manipuler des
documents contenant des connaissances. L'enjeu est, donc, à la fois technologique et
méthodologique, afin de trouver des mécanismes de programmation et des approches de
modélisation pour inscrire le modèle pédagogique au sein du dispositif technique. Il faut, de
plus, veiller à ne pas prendre en compte uniquement le développement technologique mais de
réfléchir aux modèles pédagogiques sous-jacents.
4.3 Numériser les enseignants ?
La question qui se pose naturellement lorsque l'on cherche à introduire l'informatique dans
l'enseignement est celle de la place de l'enseignant. On pourrait, en effet, imaginer, à plus
forte raison sur un support dynamique, que le rôle de l'enseignant soit modélisé au sein du
système, et ainsi que la machine prenne la place traditionnelle de l'enseignant.
Pour répondre à cette question, il faudrait se demander quel est exactement ce rôle rempli par
l'enseignant et tenter de voir si la machine est capable de le remplir. Sans toutefois procéder à
cet exercice, on pourra admettre que la fonction d'enseignement relève d'une complexité
importante [Clergue, 1997], et, qu'à ce titre, elle ne peut être réduite à une théorie formelle
représentable sous la forme d'un programme numérique. Notre opinion est confirmée par
Linard [Linard, 1996] :
"Il nous semble que la médiation technique qui vise à instrumenter des opérations par des
outils ne peut ni remplacer ni garantir la médiation humaine (qui vise à aménager une
conciliation en vue d'une décision motivée entre points de vues plus ou moins antagonistes).
Ce qui ne l'empêche pas, si on sait l'exploiter, d'enrichir de manière considérable l'exercice
de la pensée naturelle en mettant au clair certains de ses mécanismes".
30
Chapitre I E.I.A.H : évolution, révolution et remise en question
Une réflexion scientifique centrée sur l'information et l'innovation peut avoir tendance à
masquer la complexité de la relation éducative et du rôle de l'enseignant. Mais, apprendre ne
peut se résumer à la recherche et à l'assimilation de l'information, comme tente parfois de
nous le laisser penser une certaine vision techno-centrée de l'EAO [Alava, 2000].
L’approche suivie classiquement, lorsque les acteurs de l’enseignement sont confrontés aux
technologies d’enseignement médiatisé, consiste à transformer complètement les cours
traditionnels existants en produits multimédias très élaborés [Gyselinck et al., 1998]. Le
modèle sous-jacent à cette idée de transformation est celui du roman transformé par son
lecteur en images. Or, notre notion générale d’image est fortement influencée par celle d' «
image animée » pour le cinéma, la vidéo, etc. Nous supposons, ensuite, que ces images sont
assemblées en scènes par l’intermédiaire d’un scénario et que c’est pour cette raison que le
lecteur comprend le livre. Est-ce une bonne raison pour que nous scénarisions les cours de
l’enseignant ? Au cinéma, on réalise ce que nous croyons que le lecteur fait dans sa tête.
Ensuite que ce passe-t-il pour le spectateur ? Va-t-il absorber le spectacle comme un seau
vide, ou va-t-il transformer à nouveau ce qu’il perçoit ? On sait bien que le spectateur
transforme tout spectacle. Pouvons nous être certains que cette deuxième transformation va
permettre de retrouver le texte original ? Nous n’en savons rien. Mais, si nous prenons comme
modèle de transformation de cours celui de la scénarisation des films alors l’enseignant perdra
son rôle : on utilisera plutôt des scénaristes, des didacticiens, des tuteurs au risque de produire
des supports fermés, peu évolutifs / statiques, sans personnalité puisque consensuels car étant
l'œuvre d’un groupe.
Or, l’enseignant n’est-il pas un élément singulier et nécessaire de l’enseignement ? Qu’est-ce
qu’enseigner ? Est-ce déverser un contenu dans un apprenant figuré comme vide, ou
transformer l’état actuel de l’apprenant ? Qu’est-ce que cette transformation vise ?
Si l’on fait l’hypothèse de la valeur intrinsèque de l’enseignant, alors on admet qu’enseigner,
l’action de l’enseignement a une valeur propre qu’il est nécessaire de conserver même lorsque
l’on utilise des outils électroniques.
Pour nous, l’informatique doit être l’outil qui permet à l’enseignant d’adapter, de restructurer
ses matériaux pédagogiques. Il s’agit donc de réaliser à travers l’enseignement médiatisé :
le partage des ressources pédagogiques et l'interaction avec les usagers ;
la maîtrise des contenus ;
autonomie des enseignants ;
31
Chapitre I E.I.A.H : évolution, révolution et remise en question
l’évolutivité / malléabilité des contenus, valeurs existentielles, aspects qui forment la
valeur propre de l’enseignement.
Nous changeons le modèle classique de l’enseignement médiatisé orienté par l’attention
première portée aux modèles d’apprentissage en nous intéressant d’abord aux enseignants. Ce
choix conditionne les modèles qui ont présidé à la naissance de notre système, et les
problèmes qu’ils représentent :
Modèle d’organisation des contenus pédagogiques, des formes pédagogiques et des objets
pédagogiques, différenciation des parcours pédagogiques et des représentations
• Différenciation des objectifs de formation de la compétence dans un domaine de
savoirs ;
• Modélisation des processus d’apprentissage à partir de modèles psychologiques ou
neuropsychologiques ;
• Problème de la fabrication des contenus, des formes et des objets pédagogiques ;
définition de ce qu’est l’unité de base permettant la construction de contenus, et de
leurs formes ;
• Problème de la construction d’objectifs de formation et de leur traduction en
parcours ;
• Problème de la mesure du gain de l’apprenant, de son adéquation avec les
objectifs de formation donc de la compétence acquise dans un domaine de savoirs
particulier.
Modèle des acteurs et de leurs rôles :
• Définition des rôles joués par les acteurs (formateur, apprenant, …), définir la
fonction de ces rôles dans la création, le fonctionnement et l’évolution de notre
modèle ;
• Modélisation des liens entre les acteurs, entre les rôles, entre les fonctions ;
4.4 Numériser les relations pédagogiques
Cette distinction entre la médiatisation du contenu et celle des relations pédagogiques entraîne
deux genres de situations de multimédia. D'une part nous avons des situations de multimédia
qui utilisent seulement des contenus médiatisés (ou du trafic unidirectionnel) et, d'autre part,
nous avons des situations de multimédia qui combinent la numérisation du contenu avec des
situations de médiatisation des relations pédagogiques entre les individus.
Ce genre de considérations nous permet de distinguer différents niveaux dans les
stratégiespédagogiques à employer. Un contenu peut être constitué par un ou plusieurs
32
Chapitre I E.I.A.H : évolution, révolution et remise en question
médias. La relation pédagogique peut prendre la forme d'une non-médiatisation (situation de
tutoriel), d'une médiatisation simple (enseignement par correspondance) ou d'une situation de
multimédia combinant le tutoriel avec des apprenants à distance en utilisant la communication
assistée par ordinateur (intrinsèquement multimédia dans le caractère et interactif par nature).
L'interactivité entre les étudiants et les formateurs, en dépit de leur séparation physique
intrinsèque, peut être assurée par différents moyens technologiques, son résultat net étant une
efficacité augmentée de l'apprentissage.
À partir de quoi l’enseignant, qui restructure ses cours, travaille-t-il ? Le béhaviorisme, sous
toutes ses formes, a privilégié comme matière pédagogique de base l’élément de
connaissance, que celui-ci permette de reconstruire toute la connaissance d’un domaine ou
qu’il soit le support d’une découverte de cette connaissance.
L’examen des cours présentiels montre que l’enseignant vise moins à transmettre la
connaissance d’un domaine qu’à produire un certain type de connaisseur. Plutôt clone de lui
même, le formateur fait des hypothèses plus ou moins réalistes et justes sur l’état cognitif
actuel de l’apprenant et mesure son écart avec le modèle du connaisseur qu’il veut obtenir.
C’est alors qu’il produit son cours et le modifie. Les éléments qu’il utilise pour fabriquer son
cours ne correspondent pas à un état granulaire de la connaissance d’un domaine mais sont les
pièces qui, par empilage, lui permettent de réaliser des objets pédagogiques qui seront,
hypothèse de l’enseignant, efficaces. Ces objets pédagogiques ne sont pas, ni pour
l’enseignant, ni pour l’apprenant, de la connaissance : ils sont de l’information et des outils.
On observe que l’enseignant utilise une sorte de système de lois pour découper sa
connaissance en éléments d’informations. Ce système de lois, ou de règles, n’a de sens que
par rapport à l’objectif de l’enseignant.
Lorsque l’enseignant adapte son enseignement présentiel de manière diachronique, il relie les
informations qu’il utilise à des concepts généraux ou universels (métaphores). Ainsi,
l’enseignant parlera de "réseau routier" pour faire comprendre à un apprenant ce qu’est un
réseau informatique. L’apprenant est ensuite informé des particularités du concept local
(propre au domaine de connaissance) qui le distinguent du concept plus général. Un
enseignant doit pouvoir montrer à travers l’outil informatique le lien qui existe entre les
concepts utilisés, spécifiques au domaine, et les concepts universels qui doivent être visibles
afin d’accrocher l’apprenant. Tout ce que l’enseignant fait naturellement en présentiel doit
pouvoir être supporté par notre système informatique.
33
Chapitre I E.I.A.H : évolution, révolution et remise en question
Par ailleurs, l’enseignement en présentiel fait croire que dans toute situation pédagogique il
n’y a que deux acteurs dont les rôles sont tranchés. Or, l’on constate, par exemple, que
l’enseignant est enseigné par l’apprenant lorsque celui-ci lui fait part de ses connaissances a
priori, tandis que l’apprenant devient enseignant en faisant naître chez son enseignant de la
connaissance à son égard, qu’elle soit psychologique (style d’apprentissage) ou cognitive
(stratégie d’apprentissage).
On déduit de ces observations sur l’enseignement en présentiel, que l’apprenant et
l’enseignant ne peuvent fonctionner de manière constructive dans la médiatisation que s’ils
trouvent, en lui, les outils pour tenir différents rôles, pour mettre en œuvre différentes
fonctions.
5 La normalisation de l’enseignement à distance
La normalisation de l’enseignement à distance est un phénomène en émergence qui s'inscrit
au croisement des nouvelles possibilités éducatives qu'offrent l'Internet et les TIC. Autrement
dit, pour bonifier et renouveler l'acte pédagogique à l'aide d'un arsenal technologique de plus
en plus performant et pour favoriser l'accessibilité la plus large possible "au meilleur" du
monde de l'éducation, on s'active aujourd'hui à vérifier les descriptifs des objets pédagogiques
manipulés et la façon dont ils communiquent. Cette normalisation est motivée par le besoin
de cohérence et d'uniformité des ressources pédagogiques.
5.1 Des enjeux majeurs
Jusqu’à récemment les outils, les technologies et les produits destinés à la formation sur
Internet étaient surtout conçus et développés selon une approche propriétaire ou sur une base
individuelle par les différents fournisseurs de produits ou logiciels, par les créateurs de
matériel pédagogique et les institutions éducatives engagées dans l’enseignement à distance.
On parle d’approche propriétaire pour qualifier ce mode de production où chacun reste maître
de son développement. En effet, dans cette approche, chaque logiciel ou chaque produit
développé se veut autonome et fonctionne en quelque sorte en vase clos, c'est-à-dire que son
utilisation par un nouvel utilisateur, son exploitation ou, encore, son intégration dans un
environnement d’apprentissage numérisé dans un autre contexte (plateforme, système
d'exploitation, LMS, intranet pédagogique, …) différent suppose une adaptation souvent
gourmande en termes de temps et d'efforts.
Aujourd’hui, la volonté de réaliser des économies d’échelle incite le monde des technologies
34
Chapitre I E.I.A.H : évolution, révolution et remise en question
éducatives à adopter une approche plus globale, d'une part, pour réduire la lourdeur
d'adaptation et de mise à niveau du matériel pédagogique, d'autre part, pour augmenter
l'efficacité du repérage et des échanges des ressources dédiées à l’enseignement à distance.
Or, des solutions globales ne peuvent exister sans le recours à des façons de faire communes,
comme des normes et des standards de fonctionnement. Que l'on songe, par exemple, au
langage HTML ou encore les protocoles IP, TCP et HTTP qui sont autant de normes adoptées
en même temps que l’Internet.
Afin de traiter ce problème, de nombreuses organisations ont cherché à mettre au point un
système de description de tout document pédagogique numérique à l'aide d'un ensemble de
méta-données (des données décrivant des données). Afin que celles-ci soient réellement
efficaces, il est nécessaire qu'elles soient standardisées et ainsi partagées par tous, dans un
souci de communication entre machines et entre humains.
Les normes et les standards qui émergent aujourd'hui pour l’enseignement à distance ne
cherchent nullement à uniformiser les approches pédagogiques ou, encore, le génie créatif
que génèrent les relations humaines qui sont au cœur de l'acte pédagogique. Ils visent au
contraire à normaliser la mécanique qui régit l'utilisation de l'arsenal technologique afin de
préserver, justement, la richesse humaine de ce processus hautement personnel et créatif
qu'est l'acte pédagogique.
Les objectifs de cette normalisation se résument en cinq points [Simard, 2002] :
Accessibilité : facilité la recherche, l’identification, l’accès et les livraisons de contenus et
de composants de la formation en ligne de façon distribuée ;
Interopérabilité : pouvoir utiliser des contenus et de composants développés par une
organisation sur une plat-forme donnée par d’autres organisations sur d’autres plates-
formes ;
Ré-utilisabilité : la réutilisation des contenus et composants à différentes fins, dans
différentes applications, dans différents produits, dans différents contextes et via différents
modes d’accès ;
Durabilité : assurer une pérennité aux contenus et composants au delà des changements
technologiques sans avoir à les reconcevoir ou les développer ;
Adaptabilité : pouvoir faire du sur mesure à partir des contenus et des composants
existants (adaptation spécifique aux besoins pédagogiques).
Afin de bien situer le processus de constitution de ces standards, nous présentons de manière
chronologique les références en matière de méta-données pour l’enseignement et les
35
Chapitre I E.I.A.H : évolution, révolution et remise en question
diverses initiatives actives sur le sujet, qui sont en train de se concrétiser aujourd'hui autour de
la spécification d'un standard ISO.
5.2 Brève histoire des normes
5.2.1 SCORM (Sharable Content Object Reference Model) (www.adlnet.org) [ADL,
2001]
En 1988, des compagnies aériennes, des constructeurs aéronautiques, des producteurs
d’enseignement assisté par ordinateur fondent l’Aviation Industry CBT Committee (AICC)
(aicc.org), pour définir des spécifications techniques communes pour les produits d’enseignement
assisté par ordinateur qu’ils utilisent. Les travaux de ce consortium se sont concrétisés par le
projet SCORM, issu du département américain de la défense. Ce projet a établi une norme de
représentation des contenus de formation dans le domaine de l'aviation. SCORM a pour objectif
de proposer un modèle d'architecture permettant l'interopérabilité des systèmes de formation sur le
Web. Il définit un modèle de structuration des contenus ainsi qu'un modèle d'API permettant
l'utilisation de tout contenu conforme dans tout environnement d'exécution (Learning
Management System ou LMS) compatible. Le modèle repose sur une vision dynamique du
partage des contenus, c'est à dire que ceux-ci sont récupérés à la volée dans un LMS depuis
des bases de données sources.
Les critères de SCORM pour la mise en place du modèle sont la durabilité, l'interopérabilité,
l'accessibilité et la réutilisabilité des contenus. Ces critères sont exclusivement techniques et
ne concernent, donc, que la bonne disposition des contenus vis à vis des standards
technologiques. Le modèle SCORM définit une structure arborescente de représentation, avec au
plus haut niveau le cours (ou agrégation de contenus), composé de blocs, eux mêmes composés de
blocs plus petits ou de SCO (Sharable Content Object équivalents aux Assignable Units de
AICC). Les SCO représentent le niveau le plus fin de contenus susceptibles d'être réutilisés. A ce
titre, ils se veulent, subjectivement, le plus petits possibles et indépendants d'un contexte
pédagogique, et objectivement indépendants de l'exécution d'autres SCO. Ils sont composés
d'Assets, c'est à dire des ressources de base telles que des textes, des images, etc. Les SCO sont
encapsulés par une API permettant leur exécution dans un LMS, avec au minimum une fonction
de lancement et une fonction de terminaison de l'exécution. Enfin chaque niveau (asset, SCO,
block, cours) est associé à un ensemble de méta-données descriptives.
5.2.2 DCMI (Dublin Core Metadata Initiative) (www.dublincore.org) (DCMI, 1998)
En octobre 1994, se tient à Chicago la deuxième conférence internationale du World Wide 36
Chapitre I E.I.A.H : évolution, révolution et remise en question
Web. Quelques participants imaginent des pistes pour faciliter la recherche sur le web, et lancent
l’idée de méta-données sémantiques décrivant les ressources du web. En mars 1995, cinquante
personnes participent à ce séminaire organisé à Dublin (Ohio), et jettent les premières bases d’un
système de descripteurs de documents, comprenant 15 catégories générales (type, créateur, sujet,
description, éditeur, contributeur, date, type, format, identifiant, source, langage, relation, étendue,
droits). Ces catégories forment le noyau de nombreux systèmes de classification. C’est pourquoi,
ils sont appelés Dublin Core Metadata. A la suite de ce séminaire, est créé la Dublin Core
Metadata Initiative (DCMI) [Dublin-core, 1998], pour développer ces spécifications.
Par la suite, Dublin Core a donné lieu à des adaptations pour l'application aux documents
pédagogiques. Par exemple, le GTME du CRDP de Montpellier [GTME, 2001] propose une
nouvelle liste composée à partir du Dublin Core, moins les items Contributor, Source et
Coverage, et en ajoutant sept nouveaux items propres au contexte pédagogique (Statut,
Contact, Niveau, Discipline, Nature, Interactivité et Public).
5.2.3 ARIADNE (Alliance of Remote Instructional Authoring and Distribution
Networks for Europe) [Forte et al., 1997][Forte et al., 1999] (ariadne.unil.ch)
En 1996, est lancé en Europe le projet ARIADNE financé par le 4ème programme cadre de
recherche et développement de l’union européenne et l’Office fédéral suisse pour l’éducation et la
science. Ce projet développe, à côté d’un ensemble d’outils de production et de gestion de
ressources pédagogiques interactives (simulateurs, générateur de questionnaires, outils auteurs,
etc.), un jeu de méta-données, ARIADNE Educational Metadata, servant « d’en-tête pédagogique
(Pedagogic Header) » pour décrire les documents gérés dans la plate-forme [Ariadne, 1996].
Le projet européen ARIADNE a permis (lors de son développement de 1996 à 2000) la
constitution d'une base d'items pédagogiques, partagée par une large communauté et destinée
à la formation à distance. Cette base de données est aujourd'hui entretenue et développée par
la fondation ARIADNE. Ce projet s'inscrit dans une perspective sociale fondée sur le partage
du savoir, une perspective technique fondée sur l'interopérabilité et une perspective
méthodologique fondée sur la conception par les auteurs.
L'architecture du système est construit sur une base de données centrale, le knowledge pool
system, des outils auteur pour l'alimenter (cours, exercices, simulations, évaluations), des outils
d'indexation pour les repérer, des outils de scénarisation pour constituer les cours et des outils de
navigation pour les consulter. Le stockage des informations est organisé selon une topologie
distribuée sur un ensemble de bases répliquées. ARIADNE compte en 2004 environ 2500 items et
37
Chapitre I E.I.A.H : évolution, révolution et remise en question
une douzaine de bases de données sur 5 pays. ARIADNE est un exemple particulièrement
intéressant de par son ampleur et son caractère international. Le projet a permis des avancées
significatives dans le domaine de l'indexation, notamment en intégrant une dimension
multilingue et interculturelle, concrétisées par sa participation prépondérante dans la
définition de la LOM (voir plus loin).
Le système rencontre néanmoins des difficultés du point de vue de l'interopérabilité. En effet,
si une indexation de qualité assure la disponibilité des contenus, leur manipulation n'est en
rien assurée. L'hétérogénéité des formats, par exemple, est un frein à la réutilisation ou
encore, le niveau de granularité qui n'est pas contrôlé. Les nouveaux outils auteurs
d'ARIADNE tendent à prendre en compte ce problème pour proposer des formats logiques et
standards (fondés sur XML) [Miniaoui et al., 2003] afin d'assurer l'interopérabilité et la
pérennité des contenus.
5.2.4 LOM (Learning Object Metadata) (grouper.ieee.org/groups/ltsc/index.html)
En 1997, l’Institute of Electrical and Electronics Engineers (IEEE) lance un nouveau comité
sur les technologies d’apprentissage, le Learning Technologies Standard Committee (IEEE-
LTSC) [LTSC, 2002]. Le projet ARIADNE rejoint les groupes de travail de ce comité et ses
spécifications de méta-données servent de base pour former les spécifications des Learning
Object Model (LOM) [LOM, 1997] qui connaîtront plusieurs versions.
Le projet LOM vise à proposer un modèle standard de méta-données permettant de décrire et
de référencer tout document pédagogique numérique. Compte tenu des membres participants,
le standard est fondé sur les travaux préliminaires de l'IMS (imsproject.org) et d'ARIADNE
(ariadne.unil.ch). Le groupe de travail est également constitué de l'ensemble des acteurs
actuels du domaine en terme de normalisation, tels que AICC, Dublin Core, SCORM, etc.
Le draft 6.1 de la LOM propose 47 méta-données, organisées en 9 catégories principales
[IEEE, 2001] dont nous donnons les intitulés dans le tableau ci-dessous. Insuffisances, telles que,
par exemple, le fait que l'unité d'indexation soit le fichier, qui représente une unité technique et
non pédagogique. Ainsi un cours complet sera indexé au même titre qu'un unique exercice ou
qu'une image. Enfin le problème de la signification des termes choisis et de la définition des méta-
données n'est pas complètement résolu et les ambiguïtés qui subsistent restent un frein à un réel
usage pratique.
38
Chapitre I E.I.A.H : évolution, révolution et remise en question
Catégorie attributs
Généralité
Caractéristiques globales des
ressources
Identifiant
Titre
Identification dans un système de référence ou
catalogue
Langue utilisée
Description du contenu
Mots clés
Couverture en terme d’époque, de culture, de
géographie
Structure
Granularité
Cycle de vie
Version
Statut (provisoire, final, révisé, indisponible)
Identification
Date
Méta données
Identifiant de la méta données
Entrée dans un système de référence ou catalogue
Contribution à l’évolution des méta-données
Plan de méta-données
Langage
Référence
Informations techniques
Format
Taille
Localisation
Exigences techniques
Remarque sur l’installation
Autre exigences de la ressource
Durée
39
Chapitre I E.I.A.H : évolution, révolution et remise en question
Informations pédagogiques
Type d’interactivité
Type d’apprentissage
Niveau d’interaction
Densité sémantique
Destinataire
Contexte d’utilisation
Age ciblé
Difficulté par rapport au public ciblé
Temps moyen d’utilisation
Commentaire sur l’utilisation de la ressource
Langue
Coût
Coût d’utilisation
Copyright
Commentaire sur les conditions d’utilisation
Relation (pré requis) Nature de la relation vis-à-vis de l’autre ressource
Ressources liées
Commentaire (sur les usages
pédagogiques)
Personnes qui créent le commentaire
Date
Remarque
Classification
Objectif
Chemin taxonomique
Description
Mots clés
Tableau 1.1. Méta-données LOM v6.1
5.2.5 EduML (Educational Markup Language) [Bourda et al., 2000]
Partant du principe que la conception des documents pédagogiques est encore rudimentaire et
menée avec des outils propriétaires, EduML cherche comme toutes les autres normes à
introduire des notions telles que la spécification, la standardisation, la réutilisabilité, pour
permettre une conception de plus haut niveau, mieux maîtrisée et plus efficiente. Ce projet
pose deux axes pour conduire cette évolution : la mise en place de standards de description
par des méta-données pour décrire et retrouver des documents et la mise en place d'une
structuration logique des documents de façon à séparer le fond de la forme et, ainsi,
s'affranchir des formats privés pour améliorer la pérennisation, la mise à jour et la diffusion
40
Chapitre I E.I.A.H : évolution, révolution et remise en question
des documents. La problématique de standardisation des méta-données étant traitée par
ailleurs, le projet EduML se fonde sur le standard XML pour proposer des structures logiques
permettant de produire des contenus pédagogiques pour le support papier et pour le Web. Le
projet propose deux modèles de structuration à travers deux DTD correspondantes. La
première permet de représenter les structures générales de polycopiés de cours et la seconde
propose des modèles spécifiques aux contenus pédagogiques permettant de représenter des
grains de cours (théorèmes, exercices, etc.). Cette approche s'appuie, donc, sur une séparation
entre le contenu et sa scénarisation. Les modèles sont associés à une méthode de production
permettant de séparer les tâches de création de contenus et d'agrégation de ces contenus.
EduML se pose donc comme une brique pour l'élaboration d'un standard de structuration, en
parallèle à tous les autres standards qui concernent davantage l'indexation.
5.2.6 Standardisation ISO (jtc1sc36.org)
Jusqu’en 1999, les différents groupes travaillant sur les spécifications IMS, l’AICC, l’ADL,
ainsi que le consortium ARIADNE vont échanger intensément, faisant converger leurs
approches tout en élargissant de plus en plus le champ de leurs spécifications (voir Tableau
2). L’IEEE – LTSC est le lieu où s’opère la convergence de ces différentes spécifications vers
un standard commun. L’International Standard Organisation (ISO) est alors saisie d’un projet
de norme internationale. En novembre 1999, à Séoul, est créé le sous-comité 36 du Joint
Technical Committee n°1 de l’International Electrotechnical Commission de l’ISO et de
l’IEEE (JTC1- SC36) chargé de développer les normes concernant les technologies de
l’information pour l’éducation, la formation et l’apprentissage. Les premiers projets
concernent les travaux de l’IEEE, à partir de la fusion des spécifications AICC, IMS, SCORM
et des méta-données d’ARIADNE. Le CEN-ISSS – LTW y est associé, avec ses demandes
spécifiques, comme par exemple la traduction des LOM et un dictionnaire de méta-données
multilingues. Les échéances pour la publication de la norme sont fixées à fin 2005.
Le SC36 est un sous-groupe du comité technique JTC1 de l'ISO dont l'intitulé est Information
Technology for Learning Education and Training et dont l'objectif est la standardisation dans le
domaine des technologies de l'information pour la formation, afin d'aider les individus et
organisations et rendre possible l'interopérabilité et la réutilisabilité des ressources et outils.
Les travaux de l'ISO ne portent pas uniquement sur la problématique de l'indexation, mais
plus généralement sur la stabilisation du vocabulaire du domaine, les modèles d'apprenant, la
collaboration, les architectures des systèmes, etc. La standardisation par l'ISO représente le
41
Chapitre I E.I.A.H : évolution, révolution et remise en question
dernier maillon d'une chaîne qui a pris naissance dans la recherche et se terminera par la
spécification d'un standard qui pourra être partagé par toute la communauté.
Sur proposition du Groupement d’Enseignement supérieur sur Mesure Médiatisé (GEMME)
[GEMME, 1995], de la Fédération Interuniversitaire D’enseignement à Distance [FIED,
1987] et du laboratoire CRIS-SERIS de l’université Paris X, la France a rejoint en octobre
2000 les travaux de normalisation en cours sous l’égide de l’Association française de
normalisation [AFNOR, 1926].
5.2.7 EML (http://eml.ou.nl)
Educational Modelling Languages (EML), issus de travaux de recherche européens, et qui
constituent une généralisation de ce qu’étaient les LOM. Ces propositions sont pilotées par des
experts financés par l’Union Européenne. EML se veut un modèle intégrateur de méta données
(en XML) prenant en compte non seulement des éléments pour décrire les ressources
pédagogiques et leur contenu (texte, tâches, tests, devoirs), mais aussi le rôle, les liens, les
interactions et les activités des étudiants et des apprenants. Le modèle EML intègre des idées
venant de IMS, d'IEEE-LTSC, de Dublin Core et d'ADL SCORM.
EML est un langage indépendant de la plat-forme LMS (Learning Management System), cette
méthode de description du contenu de cours et des procédés de travail entre les intéressés
(apprenants et personnel) vise à en assurer l'interopérabilité et la durabilité à long terme, ainsi
qu'à en permettre la réutilisation.
Ci-dessous un tableau qui résume les principaux domaines couverts par les normes actuelles :
Domaine AICC IMS IEEE CEN-ISSS WS-LT ISO JTC1 SC36
Matériel X
Interopérabilité des
plates-formes
X X X
Médias X X
Interface homme -
machine
X
Description des contenus X X LOM EML LRM
Architecture du système LTSA LET Env.
42
Chapitre I E.I.A.H : évolution, révolution et remise en question
Technologies
collaboratives
X
Vocabulaire X X
Informations sur le
participant
LIP PAPI LIP LIP / PAPI
Description des
compétences
RCD PAPI RCD RCD / PAPI
Propriété intellectuelle X X
Qualité X X
Tableau 1.2. Principaux domaines couverts par les normes en cours et origine des travaux
Ce tableau fait clairement apparaître l’évolution du champ couvert par la standardisation, allant du
technique pur (AICC) à la description d’un ensemble de domaines qui n’ont plus rien de
technique.
Cet état des lieux permet d’abord de percevoir l’effervescence qui se vit en matière de
normalisation de l'enseignement à distance et la multitude des acteurs qui interviennent dans le
développement de normes et de standards d’interopérabilité pour le matériel pédagogique
électronique. Le développement bat son plein en matière de normes et de standards
d’interopérabilité et c’est sous le signe de la collaboration que les travaux s’effectuent maintenant.
Les travaux de normalisation se poursuivent actuellement, avec un nombre important de projets
en phase terminale, qui s’apprêtent à demander l’approbation pour tenir les échéances, quitte à
utiliser des procédures "rapides", sans discussion des projets (Fast Track).
6 Bilan
6.1 Notre avis sur la situation actuelle
La communauté de recherche autour de l’enseignement médiatisé a produit des normes sous
la forme de modèles de ce que sont la connaissance et le processus d’acquisition de
connaissance, ceux-ci qui renvoient plus ou moins explicitement à des auteurs particuliers et à
des systèmes d’idées à propos de la nature humaine, des moyens pour la protéger et pour la
changer.
L’application du béhaviorisme comme modèle positif pour fabriquer des logiciels
43
Chapitre I E.I.A.H : évolution, révolution et remise en question
d’enseignement assisté a consisté à la mise en place d’un même patron, des scénarios définis
dans des graphes qui imposent une succession d’écrans pour une succession d’actions.
Nécessairement, à la fin de la série d’actions réussies, l’apprenant doit être un connaisseur.
Mais le résultat de ces travaux a été décevant. Le béhaviorisme est devenu un modèle négatif
et la plupart des travaux actuels s’attache à contrecarrer l’aspect statique imposé par cette
structure, en apportant des méthodes de modélisation des connaissances d’un domaine de
savoirs, de modélisation de l’apprenant, des méthodes d’adaptation par sélection de stratégies
pédagogiques et des méthodes pour varier dynamiquement les formes de présentation des
contenus pédagogiques.
Si l’application stricte des méthodes de Skinner privilégie la connaissance finale de
l’apprenant, comme résultant d’un processus réussi de construction à partir d’éléments
enchaînés les uns aux autres d’une manière logique, les nouvelles idées privilégient comme
moteur de l’apprentissage la dynamique cognitive de l’apprenant, dynamique inconnue du
modélisateur des connaissances. Le béhaviorisme aboutit à l’idée que tout savoir, toute
connaissance possède une organisation, qu’apprendre c’est redécouvrir cette organisation. La
réaction au béhaviorisme suppose que c’est l’organisation de l’apprenant par
l’expérimentation qui lui permet d’apprendre. C’est pourquoi, au nom de ces nouvelles idées,
on utilisera des réseaux sémantiques pour modéliser les connaissances et leurs relations en
dissociant le fond (les connaissances) de la forme (la présentation), retrouvant le modèle
signifiant-signifié producteur de sens.
Les recherches actuelles basées sur ces idées [Chabert, 2000] [Delestre, 2000] [Laroussi, 2001]
paraissent reprendre à leur compte le modèle pédagogique de Skinner car elles mettent
l’accent sur la notion d’élément, forme insécable d’information, de connaissance et de
matériel de représentation. Mais ces éléments sont associés entre eux afin de produire des
unités variées qui deviennent elles-mêmes des éléments que l’on peut associer en des
ensembles plus vastes. On pense pouvoir résoudre de cette manière les problèmes de stockage
d’informations ou de connaissances, et ceux de présentations en fonction, soit de l’apprenant,
soit des buts pédagogiques de l’enseignant.
Dans les micromondes, c’est à l’apprenant de construire son savoir au travers d’expériences
concrètes. Derrière ce modèle, nous trouvons des modèles plus abstraits, plus transcendants
dirait un philosophe, à propos de la nature humaine, modèles qui impliquent directement des
modèles de ce qu’est la connaissance, de ce qu’est apprendre, de ce qu’est un apprenant et, in
fine de ce qu’est un enseignant. Pour le constructivisme, apprenants et enseignants 44
Chapitre I E.I.A.H : évolution, révolution et remise en question
appartiennent à la catégorie des utilisateurs et sont, donc, des individus en interaction à travers
un environnement informatique. Or, cette interaction est pour sa plus grande part visuelle et
motrice. Les problèmes de la mise en œuvre de l’épistémologie constructiviste rejoignent
alors ceux rencontrés par les chercheurs en IHM dans la conception d’interfaces. Ces
problèmes sont essentiellement perceptifs et font appel à la neuropsychologie pour les
résoudre. Dès lors, nous subordonnons notre modèle de la nature humaine à la
neuropsychologie. Nous espérons ainsi que nos produits seront en accord avec les processus
neurologiques mis en œuvre par les cerveaux humains. On aboutit, par exemple, à concevoir
des interfaces en 2D pour reproduire un certain modèle neuropsychologique de la perception
postulant l’existence d’un fonctionnement intermédiaire en 2D avant qu’un objet soit saisi en
3D et alors compris. On ne peut, donc, pas considérer la neuropsychologie comme une théorie
architectonique qui indiquera de manière neutre aux concepteurs ce qu’ils doivent faire pour
réaliser les produits de l’enseignement médiatisé, et quel modèle de la nature humaine ils
peuvent utiliser en toute certitude.
Mais la neuropsychologie permet de s’intéresser aux problèmes de conflits perceptifs
engendrés par la construction des représentations. Elle met aussi l’accent sur le fait que dans
l’apprentissage, quelle que soit la manière dont nous le définissons, différentes parties
fonctionnelles du cerveau doivent être sollicitées par l’environnement pédagogique de
manière coordonnée afin d’obtenir un résultat cognitif. De là, naît l’intérêt pour les styles
d’apprentissage qui sont des normes plus ou moins fondées permettant aux concepteurs de
spécifier la composition de l’interface entre le système informatique et l’apprenant [Mariaux
et al., 1995].
Ces modèles s’opposent à la liberté créatrice des concepteurs mais aussi à celle de l’utilisateur
qui pourrait vouloir paramétrer ses interfaces à son goût. Alors l’idée de construction libre
pour apprendre doit être abandonnée au profit d’une construction dirigée. Toutes ces
recherches nous conduisent à faire nôtre, l’idée que les systèmes pédagogiques médiatisés
doivent être dynamiques, et s’adapter en temps réel à l’apprenant en prenant en compte son
style, ses points forts et ses faiblesses, ses connaissances initiales ou celles qui émergent
durant le parcours pédagogique. Pour nous, l’apprenant n’est pas un « amas » de
connaissances acquises ou à compléter mais un individu à multiples facettes [Prévot, 1997]. Il
n’est pas un «seau vide» [Popper, 1995] comme paraissait le croire le béhaviorisme (ce qui est
faux si nous lisons correctement les œuvres de Watson et de Skinner) mais un être qui
possède des connaissances a priori sur le domaine qu’il va explorer dans le parcours
45
Chapitre I E.I.A.H : évolution, révolution et remise en question
d’apprentissage, et qui manifeste des attentes de différents types auxquels, le système
pédagogique doit répondre pour que l’apprentissage soit réussi.
Nous reconnaissons aussi que l’enseignant, ou tout autre système de supervision, ne peut
connaître exactement l’apprenant. Ses états psychologiques, neuropsychologiques se
manifestent bien par des signes, comme le prévoit la neuropsychologie, mais ceux-ci sont
plutôt flous, peu spécifiques dans la situation d’apprentissage au contraire des situations
d’expérimentation.
Il faut, alors, que la partie "machine" des systèmes pédagogiques soit capable de gérer la
complexité engendrée par les signaux de l’apprenant, leur contingence, par l’identification des
éléments de connaissance, des éléments de représentation, ainsi que par la mesure de l’état
cognitif de l’apprenant tout au long de son parcours pédagogique et par la rétroaction de cette
mesure sur le dit parcours. C’est de cette manière que nous comprenons l’apprenant,
l’enseignement, mais nous ne sommes pas certains que ces idées peuvent aller ensemble, et
s’intégrer aux savoir-faire nécessaires à la production de l’outil informatique.
Ainsi, pour nous, dans l'enseignement à distance, la médiatisation a autant à faire avec le
contenu qu'avec le rapport entre les acteurs humains. Nous avons vu que la pratique
pédagogique implique la communication, qui implique elle même un médium [Perava, 2000].
Crozat [Crozat, 2002] produit un modèle didactique qui résume bien la notion de
médiatisation de la formation telle qu’elle est vue aujourd’hui.
Figure 1.1. Pyramide de la didactique [Crozat, 2002]
46
Chapitre I E.I.A.H : évolution, révolution et remise en question
6.2 Propositions d’évolutions
Afin de mettre en exergue ces différents commentaires, il est possible de faire apparaître des
distinctions entre ce qui est du ressort de la structure des connaissances (niveau sémantique),
de la structure du parcours pédagogique et de la présentation(niveau structure) et du stockage
(niveau physique). En effet, cette séparation permettra de proposer un modèle séparant ces
trois aspects durant la conception pour les réunir durant la consultation.
6.2.1 Niveau physique : gestion des services et des supports
Le support numérique est un outil de stockage et d'échange de l'information, d'autant plus
important que les réseaux et les capacités de stockage tendent à se développer très rapidement.
Internet donne un rôle particulièrement crucial à cet aspect, en conférant à l'information
numérique des possibilités de distribution impossibles à envisager avec les autres supports.
Tout dispositif technique étant couplé à une pratique, le support numérique pédagogique est
couplé à la pratique pédagogique et participe de ce fait à son organisation. L'étude des
systèmes informatiques permettant d'organiser les dispositifs de formation basés sur le
numérique, en général, et, donc, sur Internet, en particulier, pour ses possibilités de
distribution, est un axe à étudier. Les possibilités d'échange associées au support permettent
d'envisager la mutualisation de l'information pédagogique et le partage de ressources au sein
de communautés plus ou moins larges. Enfin, de par ses possibilités de programmation, le
support permet d'envisager l'automatisation partielle de la distribution de l'information aux
apprenants. L’enseignant doit rester présent dans le processus au travers de la scénarisation
préalable des contenus et leur distribution contrôlée en fonction des résultats de l'apprenant et
de ces échanges au regard d'objectifs pédagogiques à atteindre. Les supports numériques
posent, au-delà des problèmes technologiques (partiellement résolus par les normes), la
question des modalités du partage (droits d'auteur et de la protection intellectuelle). Cette
question reste difficile à résoudre car les technologies actuelles ne fournissent pas réellement
de meilleures solutions pour protéger les contenus que celles utilisées pour les autres média, et
par contre facilitent très largement la diffusion, la recopie et la transformation.
6.2.2 Niveau structure : la forme
Le multimédia est le vecteur de présentation de l'information à travers les périphériques qui
permettent de matérialiser l'information numérique pour un utilisateur (et parmi eux
principalement l'écran). Il est, donc, nécessaire d'étudier les modalités de mise en forme de
47
Chapitre I E.I.A.H : évolution, révolution et remise en question
l'information pour que sa lisibilité soit assurée. En tant que support dynamique, la question est
plus large que simplement celle de l'affichage, et concerne également l'ensemble des fonctions
interactives qui permettent à l'utilisateur de manipuler cette information, dans une perspective
de réécriture plutôt que simplement de lecture. La question qui est alors posée, est celle de la
recherche de formes de présentations et d'interactions pertinentes au sein d'interfaces homme-
machine adaptées à une approche pédagogique. Les systèmes auteurs permettent d'envisager
cette problématique, à travers les fonctionnalités d'assistance à la réalisation d'activités
pédagogiques types. L'étude des guides de conception ergonomique fournit également des
éléments essentiels pour la mise au point des IHM.
Tout apprentissage informatisé se doit d’être scénarisé par un enseignant, c'est à dire qu'il
propose un parcours de l'information à l'apprenant, ce parcours étant défini comme le plus
adapté à un groupe, voire le plus adapté à un individu dans le cas de formation personnalisée.
Le support numérique se distingue par sa non linéarité qui permet d'envisager une
scénarisation proposant plusieurs parcours pour un même ensemble de contenus. Cette
particularité permet de proposer des supports à la fois génériques pour un contexte donné et
personnalisables pour les besoins spécifiques de chaque apprenant du groupe. Plusieurs types
de solutions sont proposés pour représenter des enchaînements pédagogiques
personnalisables, selon qu'ils sont construits a priori par l'enseignant, au fur et à mesure par
l'apprenant lui même ou automatiquement par la machine en fonction de l'activité de
l'apprenant, et plus généralement par combinaison de ces trois modes d'action. Dans tous les
cas, la question posée est celle de la représentation des scénarii pédagogiques au sein du
support numérique de sorte que leur manipulation soit la plus aisée possible par les acteurs
humains et/ou logiciels.
Actuellement, la scénarisation intervient généralement par la constitution d'un graphe
décrivant les parcours possibles des séquences pédagogiques et les conditions de passage
entre ces séquences.
6.2.3 Niveau sémantique : le fond
Le fond concerne les connaissances à transmettre, et leurs modes d'inscription dans le support
numérique. La question qui nous est, plus précisément, posée est de savoir comment inscrire
des connaissances pédagogiques et les scénarii d'apprentissage qui leurs sont associés, de telle
façon que cette inscription soit compatible avec les exigences d'une approche pédagogique.
Notre étude doit d'abord prendre en compte les procédés d'hypertextualisation permettant
48
Chapitre I E.I.A.H : évolution, révolution et remise en question
d'inscrire l'information de façon non-linéaire selon la logique propre du support, c'est-à-dire,
son caractère dynamique.
Cette structure reste généralement implicite et n'est manifestée que par une présentation
physique qui la met en exergue. Ainsi, par exemple, un texte contraint par les pratiques de
l'édition et de l'imprimerie, est structuré en chapitres, en sections, en paragraphes et l'on a
coutume de commencer un chapitre sur une nouvelle page, d'associer une section à un titre ou
encore d'aller à la ligne avant chaque nouveau paragraphe. Le support numérique permet de
représenter de façon explicite la structure logique sur laquelle l'information se fonde,
indépendamment de sa présentation au sein d'un système de présentation donné.
Les avantages d'une telle approche résident dans l'accès à une indépendance technologique de
l'information, puisque sa représentation structurée est interprétable et appropriable par tout
système et non, uniquement, par une technologie particulière. La structuration logique de
l'information est, donc, une solution efficace pour l'interopérabilité et la réutilisation des
informations dans des contextes, typiquement, des environnements logiciels, matériels ou
d'usages multiples.
Ainsi, la structuration de l'information repose, d'une part, sur des méthodes permettant d'expliciter
les structures et, d'autre part, sur des procédés informatiques permettant de représenter ces
structures. Les méthodes consistent à identifier les structures typiques du domaine pour en extraire
des modèles de structuration valides pour une pratique pédagogique. Les procédés informatiques
consistent à fournir des solutions permettant une représentation explicite de la structure des
documents numériques, afin que cette explicitation soit effectivement exploitable par un système
technique. Historiquement, le méta-langage SGML (www.iso.ch, ISO 8879:1986) [Sandoval,
1994] est la première solution à avoir été utilisée massivement pour la structuration de
l'information. XML (w3.org/XML) [Michard, 1998] est, aujourd'hui, une solution plus simple et
plus pratique permettant d'envisager réellement la généralisation de la structuration logique des
informations numériques.
"L'émergence de nouvelles normes en termes de diffusion de l'information sur Internet, comme
XML, nous offre des perspectives intéressantes. Il devient réellement possible de parler de
modélisation de documents associant personnalisation pour les utilisateurs et réutilisabilité"
[Guégot et al., 1998].
Ainsi, le support numérique permettant de distinguer la structure logique de la structure physique
de l'information, la représentation de l'information devra s'interroger sur les modalités de mise en
oeuvre d'une telle distinction. Celle-ci permet, de plus, l’association des méta-informations
49
Chapitre I E.I.A.H : évolution, révolution et remise en question
descriptives. Notre étude devra s'arrêter sur les procédés de standardisation puissant actuellement
en train de naître pour le domaine de l'information pédagogique.
7 Conclusion
Pour finir, il nous semble important de mentionner que beaucoup des questionnements
soulevés dans ce chapitre trouvent une réponse dans l’amélioration de l’interfaçage entre le
contenant (plate-forme pédagogique) et les contenus (ensembles des activités pédagogiques
médiatisées). Jusqu’à présent la plupart des travaux ne se sont intéressés qu’à l’un de ces 2
aspects. Ainsi, des travaux de standardisation sur les architectures technologiques des
systèmes de formation ont été engagés. Ces travaux s’efforcent de modéliser le processus
d’apprentissage de manière très générique et ne tiennent, par exemple, pas compte des aspects
Auteurs ou Administrateurs. Concernant les contenus et leur structuration, les normes LOM et
SCORM ont permis des avancés surtout en ce qui concerne l'indexation et la description des
supports pédagogiques. Mais, au final, lors de l’utilisation (lorsque contenants et contenus se
rejoignent inévitablement) les résultats restent décevants. Cela est probablement dû à
l’histoire puisque dans les débuts de l’EAO, il n’y avait aucune séparation entre contenu et
contenant. Aujourd’hui, la démocratisation d’Internet a tout bouleversé, il semble, donc,
important d’adapter les anciens modèles aux technologies actuellement utilisées.
Concernant l'apprenant, déterminer la bonne marge d'initiative déclenche des controverses. Faut-il
octroyer une liberté totale, au risque de laisser l'apprenant s'égarer, ou l'assister dans son parcours,
quitte à le contraindre à suivre un chemin balisé de manière stricte et à ne le laisser consulter que
quelques chemins de traverses ?
Ces différentes controverses ont poussé les chercheurs à réfléchir à des solutions intégrant
l’adaptativité en suggérant des systèmes hypermédias adaptatifs (SHA), objet du prochain
chapitre.
50
51
52