Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système...

107
Etude réalisée pour le Ministère des Affaires Sociales et de la Santé de la Région Wallonne Les nouvelles technologies de l’information et de la communication au service des personnes sourdes Système d’interprétation en langue des signes en ligne Rapport final Septembre 2003

Transcript of Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système...

Page 1: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Etude réalisée pour le Ministère des Affaires Sociales

et de la Santé de la Région Wallonne

Les nouvelles technologies de l’information et de la communication au service des personnes sourdes

Système d’interprétation

en langue des signes en ligne

Rapport final

Septembre 2003

Page 2: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 2

Table des matières

1 Introduction _____________________________________________________6

2 Contexte du problème et méthodologie ________________________________7

3 Étude du domaine _______________________________________________10

3.1 Aspects médicaux de la surdité ____________________________________ 10

3.2 Conséquences de la surdité________________________________________ 13 3.2.1 Conséquences d’une surdité prélinguistique__________________________________ 14 3.2.2 Conséquences au niveau des personnes devenues sourdes ______________________ 15 3.2.3 Surdité et handicap _____________________________________________________ 15

3.3 La langue des signes (LS) _________________________________________ 17 3.3.1 Bref historique _________________________________________________________ 17 3.3.2 Composantes syntaxiques et grammaticales de la langue des signes_______________ 18 3.3.3 Langue des signes vs autres formes de communication gestuelle _________________ 19 3.3.4 Moyens de diffusion de la langue des signes _________________________________ 21 3.3.5 Moyens de communication en langue des signes______________________________ 24

3.4 Organisations autour de la surdité _________________________________ 25 3.4.1 Paysage général du monde de la surdité en Belgique francophone ________________ 25 3.4.2 Parties prenantes consultées ______________________________________________ 26

3.5 Portée de l’étude ________________________________________________ 28

4 Analyse des exigences ____________________________________________29

4.1 Inventaire des besoins____________________________________________ 30 4.1.1 Objectifs généraux______________________________________________________ 30 4.1.2 Objectifs de communication ______________________________________________ 31 4.1.3 Objectifs d’amélioration de l’éducation des sourds ____________________________ 32 4.1.4 Objectifs d’accès à la culture et aux médias__________________________________ 34 4.1.5 Exigences non fonctionnelles _____________________________________________ 37

4.2 Analyse détaillée de l’accès à l’interprétation_________________________ 38 4.2.1 Situations de communication _____________________________________________ 38 4.2.2 Analyse d’un système d’interprétation ______________________________________ 41 4.2.3 Solution 1 : système d’interprétation à distance en langue des signes______________ 42 4.2.4 Solution 2 : système d’interprétation automatisé ______________________________ 43 4.2.5 Solution 3 : extension de la mobilité________________________________________ 43 4.2.6 Résumé des alternatives opérationnelles envisagées ___________________________ 44

5 Vidéo-interprétation en langue des signes ____________________________46

5.1 Principes généraux ______________________________________________ 46

5.2 La vidéoconférence ______________________________________________ 47 5.2.1 Présentation générale____________________________________________________ 47 5.2.2 Réseaux numériques ____________________________________________________ 48 5.2.3 Standards de vidéoconférence_____________________________________________ 50 5.2.4 Terminaux de vidéoconférence____________________________________________ 51 5.2.5 Logiciels de vidéoconférence _____________________________________________ 53

5.3 Systèmes existants et évaluations externes ___________________________ 53 5.3.1 Systèmes existants______________________________________________________ 54 5.3.2 Evaluations externes ____________________________________________________ 57

5.4 Exigences relatives à la conception d’un système d’interprétation à distance 59 5.4.1 Préparation de l’interaction au service public_________________________________ 59 5.4.2 Organisation des lieux dans le service public_________________________________ 60

Page 3: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 3

5.4.3 Organisation du centre d’interprétation _____________________________________ 60 5.4.4 Qualité de la communication _____________________________________________ 61

5.5 Tests de validation ______________________________________________ 64 5.5.1 Infrastructure matérielle utilisée ___________________________________________ 64 5.5.2 Scénarios des tests ______________________________________________________ 66 5.5.3 Participants ___________________________________________________________ 67 5.5.4 Enseignements tirés_____________________________________________________ 67

6 Interprétation virtuelle____________________________________________70

6.1 Chaîne de communication sourd � entendant________________________ 70

6.2 Etat de l’art des technologies ______________________________________ 71 6.2.1 Synthèse de contenu en langue des signes ___________________________________ 71 6.2.2 Technologies de traitement de la parole _____________________________________ 75 6.2.3 Reconnaissance de la langue des signes _____________________________________ 76 6.2.4 Traduction automatique__________________________________________________ 77

6.3 Présentation de systèmes réalisables ________________________________ 78 6.3.1 Possibilités générales____________________________________________________ 78 6.3.2 Systèmes de communication interactifs partiels_______________________________ 78 6.3.3 Systèmes d’information en langue de signes _________________________________ 83 6.3.4 Autres systèmes destinés aux devenus-sourds ________________________________ 85

6.4 Utilisations possibles dans le cadre de services publics _________________ 87

7 Vers plus de mobilité _____________________________________________89

7.1 Infrastructure pour les communications mobiles ______________________ 89 7.1.1 UMTS _______________________________________________________________ 89 7.1.2 WiFi _________________________________________________________________ 91 7.1.3 Comparaison __________________________________________________________ 91

7.2 Terminaux portables ____________________________________________ 92

7.3 Offre de services ________________________________________________ 94

8 Conclusions et recommandations ___________________________________96

9 Références _____________________________________________________99

10 Annexes ____________________________________________________103

10.1 Glossaire et acronymes__________________________________________ 103

10.2 Résultats du sondage réalisé par la FFSB ___________________________ 106

10.3 Contenu du CD-ROM compagnon ________________________________ 107

Page 4: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 4

Liste des figures Figure 1. Coupe schématique de l’oreille humaine.________________________________________ 10 Figure 2. Diagramme fréquence/intensité montrant la zone de communication normale (hachuré) et l’échelle des différents degrés de surdité. ________________________________________________ 11 Figure 3. Indice passe-partout. De gauche à droite : chaisard seul, chaisard accompagné, piéton appareillé, aveugle/malvoyant, sourd/malentendant, personne fragilisée ______________________ 16 Figure 4. Signe pour « je te donne ». ___________________________________________________ 19 Figure 5. Dactylologie (source : [Bon98]). ______________________________________________ 19 Figure 6. Distinction entre langue des signes (LSF) et langue signée (FS) (source :[Bon98]).______ 20 Figure 7. Code LPC pour le M de « Main » (source : [Los00a]) _____________________________ 20 Figure 8. Interprétation en langue des signes du JT de la RTBF. _____________________________ 21 Figure 9. Sous-titrage du journal de France 2. ___________________________________________ 21 Figure 10. Notation HaMoSys pour « fatigué » ___________________________________________ 22 Figure 11. Explication de « Nuage » dans le CDROM multimédia « Les signes de Mano » _______ 23 Figure 12. Système relais textuel (source [MCC99])_______________________________________ 25 Figure 13. Notion d’arbre des buts _____________________________________________________ 29 Figure 14. Principaux objectifs et organisations responsables. ______________________________ 30 Figure 15. Buts de communication._____________________________________________________ 31 Figure 16. But d’éducation des sourds __________________________________________________ 32 Figure 17. But de prise en charge des bébés sourds. _______________________________________ 33 Figure 18. But d’enseignement aux enfants sourds. ________________________________________ 33 Figure 19. But d’éducation des adultes sourds. ___________________________________________ 34 Figure 20. But d’accès à la culture et à l’information. _____________________________________ 34 Figure 21. But de disponibilité de contenu adapté aux sourds. _______________________________ 36 Figure 22. But de diffusion « temps réel ». _______________________________________________ 36 Figure 23. But de diffusion sur support physique. _________________________________________ 37 Figure 24. Service d’interprétation en langue des signes. __________________________________ 39 Figure 25 : Personne sourde et son interprète en LS à la police de Namur _____________________ 39 Figure 26. Scénario de réalisation d’une interprétation.____________________________________ 40 Figure 27. Analyse des obstacles à l’interprétation. _______________________________________ 41 Figure 28. Principales alternatives pour un système d’interprétation. _________________________ 45 Figure 29. Principe de l’interprétation à distance (source [MCC99])._________________________ 46 Figure 30. Principe du relais vidéo (source [MCC99]). ____________________________________ 47 Figure 31. Principe de la vidéoconférence. ______________________________________________ 48 Figure 32. « Ombrelles » des standards H.320 et H.323. ___________________________________ 50 Figure 33. Différents types de terminaux de vidéoconférence : (a) set-top-box (b) tout-en-un (c) sur ordinateur_________________________________________________________________________ 52 Figure 34. Beamer PVS. _____________________________________________________________ 52 Figure 35. Système de la Finlande._____________________________________________________ 55 Figure 36. Omnitor Allan eC (Suède). __________________________________________________ 55 Figure 37. eSourds, service clientèle pour les abonnés sourds d’EDF. ________________________ 55 Figure 38. Application de l’interprétation à distance en milieu hospitalier._____________________ 56 Figure 39. Prototype utilisé pour les tests. _______________________________________________ 64 Figure 40. Poste de l’interprète. _______________________________________________________ 65 Figure 41. Poste dans l’administration publique. _________________________________________ 65 Figure 42. Exemple de flou.___________________________________________________________ 68 Figure 43. Automatisation de la traduction des flux de communication entre le sourd et l’entendant. 70 Figure 44. Avatar signant Vcom3D. ____________________________________________________ 74 Figure 45. Avatar Visia (Televirtual) ___________________________________________________ 74 Figure 46. Avatar de Paris XI _________________________________________________________ 74 Figure 47. Virtual Signer (UCL)_______________________________________________________ 74 Figure 48. Avatar de Signe3D. ________________________________________________________ 74 Figure 49. Reconnaissance gestuelle et « immersion » dans un environnement virtuel (AlterFace). _ 77 Figure 50. Avatars faciaux synchronisés d’EyeMatic. ______________________________________ 77 Figure 51. Visia signant une explication à la Poste anglaise. _______________________________ 79 Figure 52. Chaîne de traitement dans le système TESSA. ___________________________________ 80 Figure 53. Interface de iCommunicator _________________________________________________ 81

Page 5: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 5

Figure 54. Prototypage de système interactif simple basé sur l’écrit seul. ______________________ 82 Figure 55. Avatar Vcom3D mis en place dans le « Sign Smith Illustrated Dictionary ». ___________ 83 Figure 56. LinkIt utilisé pour raconter une histoire pour enfant. _____________________________ 84 Figure 57. Interface LAC, en mode vidéo et avatar « plat ». ________________________________ 84 Figure 58. Avatar Visia signant la météo sur le web._______________________________________ 84 Figure 59. Utilisation Visia pour interprétation télévisuelle. ________________________________ 85 Figure 60. Visia signant le journal télévisé ______________________________________________ 85 Figure 61. Simon signant le journal télévisé. _____________________________________________ 85 Figure 62. Synthèse d’animation labiale par Speechview.___________________________________ 86 Figure 63. Synthèse d’animation labiale par SynFace. _____________________________________ 86 Figure 64. Sous-titrage à la VRT. ______________________________________________________ 87 Figure 65 . Complémentarité des solutions sans fil (source [Ces02])__________________________ 92 Figure 66. Nokia 3650 et iPaq. ________________________________________________________ 93 Figure 67. Structure générale d’un tablet-PC ____________________________________________ 93 Figure 68. Conversation « mobile » en langue des signes. __________________________________ 94 Figure 69. Projet WISDOM. __________________________________________________________ 95 Liste des tableaux Tableau 1. Comparaison des qualités de différents médias (légende : -= mauvais, += bon, ++=très bon) _____________________________________________________________________________ 23 Tableau 2. Parties prenantes consultées. ________________________________________________ 27 Tableau 3. Infrastructure de communication pour la vidéoconférence. ________________________ 49 Tableau 4. Qualités vidéo ____________________________________________________________ 51 Tableau 5. Principaux logiciels de vidéoconférence. _______________________________________ 53 Tableau 6. Evalution générale de la vidéoconférence. Légende : N/A=non applicable, 0=nul, 1=médiocre, 2=acceptable, 3= moyen, 4= bon, 5=excellent ________________________________ 67 Tableau 7. Liste des principales technologies d’avatars signants. ____________________________ 73 Tableau 8 . Comparaison WiFi vs UMTS (source JDNet) ___________________________________ 92

Page 6: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 6

1 Introduction

Ce document présente le délivrable du projet initialement intitulé « Etude d’un Système de Traduction Gestuelle en Ligne » commandité au CETIC par le Ministre des Affaires sociales et de la Santé de la Région Wallonne. Cette étude a été réalisée durant le premier semestre 2003. L’objectif principal du projet est l’amélioration de l’accès des personnes sourdes dans les administrations et services publics. Une présentation plus précise du contexte du problème et de la méthodologie suivie est faite au chapitre 2. Sur base d’un rappel des faits marquants du monde des sourds (chapitre 3), ce délivrable présente de manière détaillée les objectifs du projet dans son contexte (chapitre 4). Il propose ensuite trois classes de solutions alternatives, basées sur diverses mises en œuvre de moyens humains et de technologies existantes ou émergentes. Ces solutions seront explorées en allant du plus réaliste au plus prospectif :

• dans le chapitre 5, un système d’interprétation à distance par vidéoconférence est étudié. L’interprétation est assurée par une personne, la technologie n’est mise en œuvre que pour transmettre l’information visuelle ou auditive. Cette partie est ancrée dans le réel et un cahier de charge réalisable est établi.

• dans le chapitre 6, les progrès récents en matière d’automatisation de l’interprétation sont examinés en termes des multiples processus impliqués : la reconnaissance vocale, la reconnaissance gestuelle, la synthèse vocale, l’animation de personnages de synthèse et la traduction automatique en langue des signes. Dans son entièreté, cette partie est prospective mais plusieurs combinaisons partielles sont d’ores et déjà envisageables et seront examinées.

• Dans le chapitre 7, les extensions en termes de mobilité sont explorées, notamment dans la perspective des technologies sans fil à haut débit et des services spécifiques pour les sourds.

Ce document conclut en donnant quelques pistes et recommandations sur les possibilités de mise en œuvre à court terme sur base des besoins exprimés et des compétences découvertes. Etant donné le domaine et son caractère essentiellement visuel, nous avons essayé d’illustrer au maximum nos propos. Le CD-ROM compagnon contient notamment les vidéos réalisées par nos soins lors d’entrevues et de tests, ainsi que des vidéos collectées illustrant certains produits et systèmes existants. Un glossaire reprenant les principaux termes du domaine et techniques est également disponible en annexe. Les références de type [Abc12] renvoient à la liste bibliographique du chapitre 9.

Page 7: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 7

2 Contexte du problème et méthodologie

Le cadre général de cette étude est l’amélioration des possibilités de communication des personnes sourdes en s’appuyant sur l’utilisation des nouvelles technologies de l’information et de la communication (TIC). Les personnes sourdes et malentendantes sont quotidiennement confrontées à de nombreux problèmes de communication avec leur entourage, principalement avec le monde entendant. Pour s’adapter à leur déficience auditive, ces personnes disposent bien sûr de diverses solutions techniques permettant de tirer le meilleur parti de leurs restes auditifs éventuels : amplification analogique ou numérique, voire implant cochléaire. Ces aides ont leurs limites, pour y pallier, ces personnes et leur entourage entendant ont développé des modes alternatifs de communication. Les plus importants sont la lecture labiale et la langue des signes. Généralement, pour communiquer, une personne sourde ou malentendante recourra à une combinaison de modes qui dépend de l’histoire de sa déficience auditive (dans la petite enfance, à l’adolescence, à l’âge adulte, brutale ou progressive,…). Les aptitudes sont donc très variables au sein de la population sourde et ne peuvent être caractérisées précisément qu’au cas par cas. Il faudra donc être vigilant dans les tentatives de classer la population sourde en diverses « catégories ». Cependant, culturellement, il est possible de diviser les personnes souffrant de surdité en deux grands groupes :

• les personnes dont la langue première est le français. Parmi ceux-ci figurent les personnes devenues sourdes à un âge où elles maîtrisaient le français. Outre ces «devenus-sourds », on trouve également dans ce groupe un pourcentage non négligeable de personnes atteintes de surdité congénitale et éduquées avec une méthode oraliste.

• les personnes dont la langue première est la langue des signes. Nous les nommerons « sourds-signants » ou tout simplement « sourds » quand le contexte suffit.

La frontière entre ces groupes n’est pas clairement tranchée et est plutôt un continuum comprenant des personnes maîtrisant plus ou moins l’un ou l’autre langage, avec à une extrême de parfaits bilingues et à l’autre extrême des personnes qui ont vécu recluses et n’ont quasiment pas développé de moyens de communications. Quantitativement, plus de personnes se situent dans la catégorie « devenus-sourds » que dans les « sourds-signants » (environ 10 fois plus). Cependant en terme de problème de communication cette catégorie minoritaire est plus touchée. La principale cause est liée à la non maîtrise du français qui est quasiment une « langue étrangère » pour ces personnes. Ceci rend impossible le décodage des informations affichées et l’utilisation de l’écrit dans les interactions. Sans mésestimer les problèmes réels rencontrés par les autres personnes sourdes et malentendantes, cette étude se consacre principalement à la résolution des problèmes de communication des « sourds-signants » dans leur démarche avec les entendants et plus spécifiquement dans le cadre des administrations et des services publics.

Page 8: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 8

Dès qu’il s’agit pour un « sourd-signant » d’interagir avec des personnes entendantes en dehors du cercle des proches, le recours à une personne intermédiaire maîtrisant le français et la langue des signes est souvent nécessaire. C’est notamment le cas pour toute démarche administrative. Ces intermédiaires peuvent faire partie des proches ou être des interprètes professionnelles. Ces dernières ont l’avantage d’être parfaitement bilingues, complètement neutres et de responsabiliser le sourd qui prend les décisions lui-même. Malheureusement, l’organisation actuelle des services d’interprétation souffre d’un problème majeur qui est le manque chronique de disponibilité des interprètes. Leur petit nombre (une vingtaine en Belgique francophone) exige de planifier l’entrevue parfois plusieurs semaines à l’avance et ne permet pas de faire face à des situations d’urgence. Le manque chronique de disponibilité des interprètes est le problème principal à résoudre dans le cadre de cette étude. Il se posera d’autant plus que la possibilité d’interprétariat en langue des signes pour toute démarche auprès d’un service dépendant de la communauté française est une implication directe de la reconnaissance de la langue des signes en Belgique francophone. Les solutions envisagées le seront dans le cadre d’une mise en œuvre au sein des services publics. Ce problème a été traité au moyen de la méthode d’analyse objectif KAOS [Dar93], [Lam00] Les principales étapes de la méthode sont détaillées ci-après. La structure générale du rapport (en italique) est à leur image :

• la méthode se base sur une étude préalable du domaine de l’application afin d’identifier quels sont les acteurs, leurs caractéristiques, l’environnement dans lequel ils évoluent

Dans notre cas, il s’agissait de comprendre le monde des personnes sourdes, leur mode de communication, leurs relations avec les entendants, les principes de base de la langue des signes. Ceci est présenté dans le chapitre 3.

• la méthode est guidée par la découverte et le raffinement des objectifs sous-

jacents au problème à résoudre, ce qui permet de bien situer le problème dans un cadre plus large.

Dans notre cas, il s’agit d’objectifs de bien-être, d’intégration sociale, d’accès à la culture et à l’information qui devraient en fait être garantis à tout citoyen. Ces objectifs sont découverts et décrits dans la première partie du chapitre 4.

• la méthode permet de dériver la solution du problème sous forme d’un

ensemble d’exigences formant son cahier de charge. Celui-ci est formulé non seulement en termes techniques mais aussi par rapport à son impact organisationnel. En effet, des responsabilités sont établies non seulement au niveau de l’informatique à mettre en œuvre mais aussi au niveau des contraintes imposées aux différents acteurs devant interagir.

Dans notre cas, une solution technique possible consiste à mettre en place un système d’interprétation en langue des signes par vidéoconférence. En effet, ce système améliorerait notablement la disponibilité des interprètes en

Page 9: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 9

économisant le temps de leur déplacement, il permettrait aussi la mise en place d’un système d’interprétation en urgence. Cette solution est présentée au chapitre 5. Cependant même si possible techniquement, le système ne pourra fonctionner que s’il est bien adapté et accepté par les diverses personnes interagissant par son biais : sourd, interprète, employé. Dans un premier temps, nous avons étudié l’organisation de systèmes similaires expérimentés à l’étranger. Ensuite, nous avons réalisé notre propre prototype et mené quelques tests afin de valider les aspects techniques et organisationnels et d’en préciser les exigences.

• la méthode suivie se caractérise aussi par sa capacité à mettre en évidence des

solutions alternatives et à fournir les critères pertinents pour leur comparaison.

Dans notre cas, une solution technique alternative envisagée est l’automatisation complète de l’interprétation en remplaçant l’interprète humain par une chaîne de composants logiciels basés sur la reconnaissance vocale et gestuelle, la traduction automatique, la synthèse vocale et d’animation de personnages virtuels en 3D. Cette alternative est détaillée dans le chapitre 6. D’emblée, disons que globalement, celle-ci est irréalisable dans l’état actuel des technologies mais que des sous-systèmes automatisés ont pu être identifiés et peuvent être mis en œuvre dans des circonstances précises que nous expliciterons. Nous explorerons également une extension du système qui est suggérée par la perspective de l’apparition de technologies de communication haut débit sans fil. Sur base de l’étude de ces technologies et des nouveaux services qui pourront être offerts, nous examinerons les perspectives d’amélioration du quotidien des personnes sourdes.

• enfin, la méthode facilite la production d’explications et de synthèses

notamment, en motivant les solutions en termes de buts.

Nous terminerons le rapport par la synthèse de quelques recommandations de mise en œuvre sur base des principales exigences identifiées et des compétences des divers acteurs rencontrés.

Page 10: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 10

3 Étude du domaine

L’objet de ce chapitre est de mettre en évidence les caractéristiques marquantes du monde de la surdité en général et en Belgique francophone en particulier. Cette description ne se veut pas exhaustive, tâche impossible dans le temps et avec les moyens accordés. Elle se veut suffisamment représentative pour cerner les besoins de personnes sourdes dans le cadre du problème posé et pour proposer des solutions adéquates. Pour un éclairage plus complet, nous renverrons à d’autres références.1 Dans un premier temps, nous examinerons ce qu’est la surdité au niveau médical et individuel et les conséquences qu’elle a sur le développement de la personne et de sa place dans la société entendante. Nous présenterons sans nous y attarder les solutions médicales du problème. En effet, dans le cadre de cette étude, l’aspect médical est supposé pris en compte adéquatement. La personne sourde est considérée « telle quelle » avec les moyens de communication qu’elle a pu développer au cours de son histoire. Ce sont ces moyens que nous nous attacherons à comprendre, et en particulier la langue des signes. Diverses organisations gravitent autour des sourds, nous examinerons leurs objectifs et les services qu’elles proposent. Parmi celles-ci, beaucoup ont été consultées en tant que parties prenantes ou pour la validation de cette étude.

3.1 Aspects médicaux de la surdité Physiquement, le son est une vibration de l’air perçue par l’oreille externe, transmise et amplifiée dans l’oreille moyenne et encodée sous forme d’impulsion nerveuses sur le nerf auditif dans l’oreille interne. L’information est finalement ensuite interprétée par le cerveau en termes de parole d’une langue donnée, de musique, de bruits,… (voir Figure 1)

Figure 1. Coupe schématique de l’oreille humaine.

La perception de l’intensité du son n’est pas linéaire mais logarithmique : c.à.d que la perception augmente linéairement alors que l’intensité de la vibration augmente

1 en particulier l’étude [Rec03] terminée récemment (mars 2003) et menée conjointement par l’UBL et Marie-Haps dans le cadre de la reconnaissance de la langue des signes en communauté française

Page 11: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 11

exponentiellement. Ceci permet à l’oreille de traiter des intensités couvrant un très large spectre, depuis son seuil de sensibilité jusqu’au seuil de douleur. La mesure de l’intensité se fait dans cette échelle logarithmique appelée le décibel (dB). L’oreille est également caractérisée par une sensibilité limitée et variable en fréquence, située entre 16 et 20.000 Hz (un Hertz étant une vibration par seconde), avec un maximum de sensibilité situé entre 500 et 8 000 Hz. La Figure 2 présente en hachuré la zone de perception pour la parole en intensité normale ainsi que quelques sons typiques.

Figure 2. Diagramme fréquence/intensité montrant la zone de communication

normale (hachuré) et l’échelle des différents degrés de surdité.

La surdité se caractérise par une dégradation plus ou moins sévère des facultés auditives. Elle se quantifie par une mesure normalisée du décalage du seuil d’audition. La partie droite de la Figure 2 présente une échelle des degrés de surdité depuis la surdité légère (à partie de -20dB) jusqu’à la surdité profonde (au-delà de -90dB). Le seuil entre malentendant et sourd est généralement placé autour de -70dB au-delà duquel même la voix criée n’est plus perçue. Physiologiquement, le problème peut être localisé :

• soit au niveau de l’oreille externe (bouchon) ou moyenne (chaîne amplificatrice des osselets, tympan). On parle alors de surdité de transmission. Celle-ci ne dépasse généralement pas les 60dB et peut généralement être complètement rétablie.

• soit au niveau de l’oreille interne. On parle de surdité de perception. Des causes possibles sont une disparition ou une malfonction des cellules ciliées de la cochlée ou une atteinte du nerf auditif.

Elle peut affecter une seule oreille (surdité unilatérale) ou les deux (surdité bilatérale). La surdité peut avoir une cause génétique. Un certain nombre de syndromes prénataux héréditaires ont été identifiés (Waardenburg, Pendred , Usher,…). Il existe aussi des formes post-natales dégénératives. La dimension génétique implique la possibilité de transmission de la surdité de génération en génération. Ce phénomène

e

Page 12: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 12

est accru par le fait que socialement, les sourds auront tendance à former des communautés et à se marier entre eux, augmentant la probabilité d’avoir un enfant sourd. Actuellement, environ 5% des enfants sourds naissent de parents sourds. Il y a aussi des causes non génétiques à la surdité, celles-ci sont soit liées à un problème durant la grossesse (maladie de la mère telle que la rubéole, incompatibilité de facteur Rhésus), à des problèmes lors de l’accouchement ou à un traumatisme subit durant la vie (accident crânien, exposition à un bruit entraînant des lésions irréversibles), ou tout simplement à l’âge (« presbyacousie » de nature progressive). Des moyens médicaux et techniques permettent de réduire la déficience auditive [Gou01], [Dum96]

• intervention chirurgicale au niveau de l’oreille externe, moyenne, voire interne (cf. implant cochléaire)

• prothèse s auditives (de nature amplificatrice) : o analogique ou digitale. Les premières permettent déjà d’adapter la

sensibilité en fréquence de l’amplification afin de cibler au mieux les fréquences importantes (celles de la parole) et de tenir compte de la sensibilité en fréquence de l’oreille déficiente. Les secondes sont de véritables ordinateurs pouvant réaliser des traitements plus poussés sur le son reçu. Ils sont beaucoup plus fins au niveau fréquentiel et discriminent le bruit de manière plus intelligente. Généralement plusieurs « programmes » sont disponibles suivant l’environnement d’écoute.

o ces prothèses se présentent généralement sous deux formes : intra-auriculaires (de différentes tailles) ou en contours d’oreille. Ces dernières sont les plus courantes.

o ces aides disposent aussi généralement de la possibilité de connexion à une source externe, indépendante de l’environnement. Généralement, il s’agit d’un mode spécial « T » permettant de capter des informations transmises par induction magnétique. Ce procédé est facile d’installation et peu onéreux. Il est cependant très peu présent en Belgique. Son installation au niveau d’équipements collectifs (salles de spectacles, églises, services publics, cabines téléphoniques,…) est recommandable.

• implant cochléaire : il s’agit ici d’une véritable oreille bionique dont le cœur est un ensemble d’électrodes positionnées au niveau de la cochlée. Chacune de ses électrodes va stimuler électriquement le nerf auditif selon les fréquences du signal auditif traité. L’intégrité du nerf auditif ainsi que de la cochlée est indispensable. Ces électrodes travailleront selon une stratégie imposée par un processeur et d’un décodeur, lors de séances de réglages. Ces 2 éléments (processeur et décodeur) sont installés de manière sous cutanée (entre le cuir chevelu et la boîte crânienne) au-dessus de l’oreille. La liaison entre le processeur et le monde extérieur est assurée par une antenne fixée à proximité du processeur. Celle-ci transmet les informations auditives captées et traitées par un contour d’oreille suivant un ou plusieurs profils personnels développés lors de la phase d’adaptation. Ce type d’aide est très coûteux et exige bien sûr une intervention chirurgicale. Jusqu’il y a peu, elle n’était envisagée que pour une oreille et pour les personnes sourdes sévères qui ne peuvent plus tirer aucun parti des aides amplificatrices. Depuis quelques

Page 13: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 13

années, on considère des catégories plus larges de personnes sourdes et des implantations bilatérales. Sur ce dernier point, une étude d’évaluation d’impact est en cours en Belgique.

Un aspect fondamental est qu’aucune aide technique ne peut redonner une audition intacte. Dans le cas de l’implant cochléaire, la phase d’adaptation nécessite plusieurs années et se poursuivant durant toute la vie. Il est donc primordial d’examiner les autres aides à mettre en œuvre, principalement au niveau de la communication.

3.2 Conséquences de la surdité Au-delà de ces aspects médicaux, la surdité se caractérise principalement par les problèmes de communication et les complications engendrées au niveau des activités quotidiennes et du développement personnel. Celles-ci sont de nature fondamentalement différente suivant que la surdité survient : • en phase prélinguistique, c.à.d à la naissance ou avant l’âge de 3 ans. Cette

période est cruciale pour le développement cognitif et celui du langage qui implique la communication avec la mère, les babillages, l’acquisition du rythme de la langue, la répétition de mots, leurs combinaisons, etc. Il ne s’agit pas uniquement ici d’un aspect purement oral mais aussi de communication non verbale (attitudes, mimiques, applaudissements, etc) que les bébés utilisent d’ailleurs beaucoup plus vite que leur voix.

• en phase postlinguistique, c.à.d après l’acquisition du langage. Il n’y a évidemment pas de frontière nette : si un minimum de langage est déjà acquis vers 3 ans, certains sons ne sont correctement prononcés que vers 5 ans et les acquisitions grammaticales se poursuivent encore entre 5 et 12 ans. Ce n’est donc vraiment que dans l’adolescence et à partir de l’âge adulte qu’on peut parler d’une personne « devenue sourde » et ce terme doit toujours être mis en relation avec les compétences linguistiques acquises de l’individu considéré.

En Belgique, on ne dispose malheureusement pas de chiffres officiels fiables concernant la population sourde. Les chiffres cités dans la presse sont souvent très variables et parfois contradictoires. Les chiffres que nous donnons ici ont été recoupés de plusieurs sources (CMAP, Espace Sourd, SISW, étude [Rec03]) et comparés avec ceux de pays voisins. On estime ainsi qu’il y a en Belgique entre 80 et 100 naissances d’enfants sourds par an (surdité totale ou profonde), ce qui fait pour environ 114.000 naissances par an, un rapport de l’ordre de 1‰. 1 ‰ supplémentaire est dépisté durant la première année. La proportion de jeunes adultes sourds est estimée à 3‰ et représenterait de l’ordre de 2000 enfants en communauté française de Belgique. Ce chiffre est inférieur au chiffre souvent avancé de 9000 enfants. Le nombre d’adultes gravement limité par leur surdité en Belgique est de l’ordre de 100.000. En communauté française, il est de l’ordre de 30.000. Parmi ceux-ci, d’après [Rec03], on peut raisonnablement estimer qu’environ 25.000 sont concernés par l’utilisation de la langue des signes.

Page 14: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 14

Concernant la population malentendante, les chiffres sont beaucoup plus élevés : on estime que cela concerne 8% de la population, la principale tranche touchée étant les personnes âgées. A titre de comparaison, en France, plus de 4 millions de personnes (soit environ 6 % des français) sont atteintes de déficience auditive à un degré plus ou moins élevé : 2 millions de personnes malentendantes légères, 1.8 millions atteintes de surdité moyenne et 200.000 sourds profonds (soit 4 ‰). Les statistiques au niveau mondial font état de 4 ‰ personnes sourdes et de 4 % de personnes malentendantes.

3.2.1 Conséquences d’une surdité prélinguistique

Celles-ci peuvent être dramatiques : déficience du langage et retard du développement cognitif, repli sur soi, troubles affectifs, menant à plus long terme à un véritable handicap social et culturel (individus analphabètes, non intégrés, non autonomes). Ces personnes n’auront jamais une véritable expérience du monde des sons. Pour elles, le langage naturel est la langue des signes, du moins s’il leur est donné la possibilité de l’acquérir. Comme nous le verrons à la section 3.3, la langue des signes est un véritable langage, entièrement basé sur la modalité visuelle et disposant de sa propre syntaxe et grammaire. Ce langage se transmet naturellement au sein des familles sourdes, de manière tout à fait similaire à un langage oral. La majorité des enfants sourds (environ 95%) naissent dans des familles entendantes qui ne sont malheureusement pas armées pour transmettre ce langage. D’autre part, pour s’intégrer, ceux-ci devront un jour ou l’autre être confrontés à la communication avec le monde entendant et être capables dans une certaine mesure de maîtriser le français écrit et oral (via l’oralisation et la lecture sur les lèvres). Historiquement (cf. point 3.3.1), cet argument a été poussé à son extrême et est à la base du courant d’éducation « oraliste » qui a banni la langue des signes pendant un siècle et a entraîné son morcellement et son appauvrissement. Nous ne sommes progressivement sorti de ce schéma de pensée que depuis seulement une vingtaine d’années. De nombreux sourds adultes sont encore marqués par cette éducation qui ne leur a fourni aucun véritable langage : ce ne sont pas des très bons signeurs et leur connaissance du français reste souvent élémentaire. On estime qu’une grande proportion est fonctionnellement analphabète, c’est-à-dire incapable de saisir le sens de l’écrit. Pour les enfants sourds naissant au sein de familles sourdes, on constate que la langue des signes s’acquiert comme une langue maternelle de manière tout a fait similaire à une langue orale et permet un développement harmonieux. Les chercheurs [Rec03] ont également montré qu’un apprentissage précoce de l’enfant en langue des signes favorise les apprentissages intellectuels ultérieurs, notamment la maîtrise du français. Dans cette optique, le bilinguisme français/langue des signes paraît incontournable. Cet apprentissage ne peut débuter que si des moyens systématiques et précoces de dépistage sont développés et il se fait parallèlement à la mise en place d’une solution médicale adéquate, de nature amplificatrice ou cochléaire. Celle-ci aura été décidée

Page 15: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 15

en connaissance de cause par les parents. Des aspects culturels peuvent intervenir ici, notamment au niveau d’enfants sourds nés de parents sourds. Tout ceci motive bien sûr la reconnaissance des sourds-signants comme une minorité linguistique. Actuellement la langue des signes est déjà reconnue en Belgique francophone comme langue d’enseignement depuis 1998. Un processus de reconnaissance de la langue des signes au niveau institutionnel est actuellement en cours et aura des implications pratiques, notamment au niveau :

• de l’accès précoce à la langue des signes pour l’enfant sourd. Nous venons d’évoquer son importance mais nous n’examinerons pas plus ce volet éducatif qui n’est pas directement lié à notre étude. Cet aspect est traité plus en détail dans des études telles que [FFSB97] et [Rec03].

• du recours à des services d’interprétation. C’est principalement cet aspect qui nous intéressera.

3.2.2 Conséquences au niveau des personnes devenues sourdes

Celles-ci sont également importantes. L’apparition brusque ou progressive de la déficience peut être invalidante : difficulté de communiquer avec des collègues, d’écouter la radio, de téléphoner, d’assurer sa sécurité ou celle des autres. Elle peut entraîner la perte de son emploi et amener à une dépression. En pratique, une définition fonctionnelle de la frontière entre malentendance et surdité est la perte de la capacité de téléphoner. Ces personnes sont cependant toujours à même de s’exprimer et généralement développent progressivement de très bonnes capacités de lecture labiale ; plus facilement que des personnes sourdes car cette capacité était latente et déjà utilisée inconsciemment. Par ailleurs des cours d’apprentissage et de perfectionnement en lecture labiale sont organisés par la Ligue Belge de la Surdité. La lecture labiale laisse un grand nombre d’ambiguïtés qui doivent se résoudre au moyen du contexte. Elle est également dépendante du locuteur qui doit articuler convenablement et ne pas présenter d’obstacles visuels sur ses lèvres. Il n’est d’ailleurs pas toujours possible de maintenir ce contact visuel notamment dans des discussions de groupe ou, lors d’un cours, quand le professeur se retourne pour écrire au tableau. Parfois, la personne malentendante recourt aux services d’un interprète oraliste qui reformule le discours de façon claire, à un rythme constant et à une intensité adéquate.

3.2.3 Surdité et handicap

Un problème délicat est le fait de considérer la surdité comme un handicap. Si elle est clairement invalidante, la surdité est cependant souvent rejetée par les personnes qui en sont atteintes et méconnue du public :

• la surdité n’est pas visible. Elle peut facilement être dissimulée, notamment par les personnes devenues sourdes qui acceptent mal que brusquement ou progressivement leur monde s’écroule. Elles ont tendance à contourner ou à nier leur handicap, en se comportant comme si elles continuaient à entendre

Page 16: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 16

• les sourds-signants se considèrent comme une communauté avec sa propre langue et culture

• les personnes âgées sont parfois des sourds qui n’en ont pas conscience. Les sourds acceptent mal le logo « chaise roulante » pour signaler les infrastructures propres aux handicapés. A cet égard, une classification plus fine , l’indice « passe-partout » est en train de voir le jour en Belgique et semble intéresser pas mal d’autres pays (voir le site web : http ://www.ipp-online.org ). Cette présentation a le mérite de ne pas amalgamer les handicaps (classés en 6 catégories représentées à la Figure 3) et de présenter une gradation progressive des aides pour chacun d’entre eux.

Figure 3. Indice passe-partout. De gauche à droite : chaisard seul,

chaisard accompagné, piéton appareillé, aveugle/malvoyant, sourd/malentendant, personne fragilisée

Concernant la surdité, la gradation des aides possibles est la suivante :

0. Rien n’est prévu ! 1. Principales infos sont écrites 2. Principales infos sont écrites et schématisées (voire illustrées) 3. Infos données par voie auditive peuvent être amplifiées 4. Les critères ci-dessus, plus dispositifs spécifiques de sécurité (ex : flashes en

même temps qu’une alarme) 5. Possibilité d’être informé (ex : sous-titrages d’infos audiovisuelles) 6. Présence, sur demande, d’une personne avec connaissances de base de la

langue des signes 7. Présence permanente d’une personne avec connaissances de base de la langue

des signes 8. Présence, sur demande, d’une personne avec connaissances approfondies de la

langue des signes 9. Présence permanente d’une personne avec connaissances approfondies de la

langue des signes. Le niveau minimum recommandé est le niveau 2 étant donné les difficultés que les sourds-signants peuvent avoir avec le français. Au niveau de la politique générale de l’aide aux personnes handicapées, la Belgique a une tradition d’aide individuelle plutôt que collective. Pour un aveugle, par exemple, on préférera l’aider à financer le coût d’une barrette braille qu’il devra transporter avec lui plutôt que d’en équiper les bibliothèques. Le caractère individuel permet de mieux personnaliser l’aide mais n’assure pas toujours une accessibilité optimale des lieux publics aux personnes handicapées.

Page 17: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 17

3.3 La langue des signes (LS) Comme mentionné plus haut, la langue des signes est un langage naturel utilisé par de nombreux sourds dans leur vie quotidienne mais aussi par des personnes entendantes communiquant régulièrement avec des sourds. On estime que pour 1 sourd-signant, en moyenne 2 entendants de l’entourage font l’effort d’apprendre cette langue. Il s’agit d’une langue à part entière avec son vocabulaire, sa syntaxe et sa sémantique. Comme pour les langues orales, elle dispose également de variantes régionales (dialectes) et de différents registres (langage courant, officiel, jargon…). Contrairement à certaines croyances, elle n’est pas universelle : chaque pays à sa propre langue des signes. Cependant certaines langues des signes présentent des ressemblances liées aux circonstances géographiques et historiques de leur évolution : les langues des signes française de Belgique (LSFB2) et française (LSF) sont assez proches, et sont cousines avec la langue des signes américaine (ASL) car celle-ci a été « importée » de France. Les sourds de diverses nationalités s’adaptent généralement rapidement à leurs langues des signes mutuelles : pour la conversation courante, quelques jours suffisent. A noter qu’il existe aussi une forme de langue des signes internationale (ISL, précédemment appelé « Gestuno ») qui est « l’esperanto » des langues des signes. La langue des signes est une langue très vivante et en pleine évolution : elle renaît après un siècle d’oppression (voir ci-dessous) qui l’a laissé blessée. Elle nécessite de se réunifier et de s’enrichir.

3.3.1 Bref historique

Cette section donne un bref aperçu des principaux faits marquants de la langue des signes et est tiré de [Gerday]. L’histoire moderne de la langue des signes s’est essentiellement déroulée en Belgique. L’idée que les gestes puissent servir à exprimer la pensée a été formulée par l’abbé Michel de L’Epée (XIII° siècle). Le système qu’il développe est cependant loin d’une langue des signes naturelle. Il se bat pour imposer l’idée que les sourds sont des personnes normales. Dans la lignée, Bébian propose une éducation véritablement bilingue. La reconnaissance de la langue des signes comme langue d’enseignement entraîne la reconnaissance de la communauté des sourds. Le milieu du XIX° siècle connaît un formidable développement du « mouvement sourd » en France. De nombreuses associations sont créées. Ferdinand BERTHIER, professeur sourd, est le « mobilisateur » de la communauté sourde. Cependant, en toile de fond une querelle d’écoles s’entretient entre d’un côté, les éducateurs qui font appel à un enseignement gestuel et de l’autre, ceux qui l’excluent pour concentrer tous leurs efforts sur l’enseignement de la parole. Plusieurs raisons vont faire que les oralistes vont l’emporter : la majorité d’enseignants entendants, l’instruction obligatoire de Jules Ferry qui appelle l’uniformisation des méthodes

2 on utilise parfois aussi l’acronyme LSBF pour Langue des Signes de Belgique Francophone. Nous utiliserons ici la même convention que [Rec03] : LSFB qui met en évidence le B final de Belgique.

Page 18: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 18

d’éducation et l’étouffement des langues minoritaires, et enfin le progrès technique qui apporte aux sourds, avec le début de l’appareillage, l’espoir de redevenir des entendants. L’usage des signes est supprimé peu à peu. Le congrès de Milan, en 1878, marque le début d’une interdiction de la langue des signes qui durera près d’un siècle. Il sera entretenu notamment par l’illusion que l’apparition des prothèses, leur miniaturisation, la chirurgie et l’orthophonie peuvent transformer tous les sourds en entendants. Durant cette période la culture des sourds est reniée et la langue des signes s’appauvrit et se morcelle. Un renouveau apparaît après mai 1968 qui réveille la sensibilité à la diversité des cultures et le droit à la différence, aboutissant à la prise de conscience collective de la langue des signes comme source et instrument de culture [Del96]. Entre 1980 et 2000, de plus en plus de méthodes se développent et se structurent : langue des signes unifiée (par le CFLS), AKA, LPC, français signé, lecture labiale. La langue des signes devient une langue de communication et parfois d’enseignement. Des moyens de communication se développent : Minitel, sous-titrage (années 80), Internet et GSM (années 1990). Récemment, de plus en plus de pays reconnaissent la langue des signes et l’inscrivent dans leur constitution.

3.3.2 Composantes syntaxiques et grammaticales de la langue des signes

Comme toute langue, la langue des signes comporte son vocabulaire, sa syntaxe et sa grammaire. Le vocabulaire est le plus aisé à décrire, c’est notamment l’objet des lexiques du CFLS pour la LSFB unifiée. A l’heure actuelle, la grammaire n’est encore que partiellement décrite. Nous donnerons ici quelques éléments de base, principalement d’après [Ron97]. La langue des signes met en jeu non seulement le mouvement des bras et des mains mais également le buste, les épaules, la direction du regard et la mimique faciale. Plus précisément, un signe peut être décrit par 5 paramètres spatiaux principaux :

• la configuration correspond à la forme de la main ; la configuration reprend une partie de la forme de l’objet ou de l’action.

• l’orientation indique dans quelles directions pointent la main et la paume. Elle permet de conjuguer certains verbes ou de préciser l’orientation d’objets

• l’emplacement désigne l’endroit où les signes se font. L’emplacement de la main donne l’endroit où l’action se déroule ou un endroit générique. Il peut se situer sur le buste et la tête ou dans l’environnement, dans l’espace dans le rayon d’action des bras.

• le mouvement regroupe les mouvements des bras, des poignets, des mains et des doigts. Il représente une action exercée par ou sur l’objet et sa dynamique peut indiquer des modes du verbe.

• la mimique faciale permet de donner le mode du discours (interrogatif, négatif, etc.) ou les compléments de manière (joie, colère, etc.)

Contrairement au français qui énonce les choses séquentiellement, les éléments constitutifs d’un signe se réalisent en parallèle. Ainsi, malgré que l’exécution d’un signe élémentaire prenne plus de temps que la prononciation du mot « correspondant », la langue des signes dispose d’un débit similaire à la langue parlée.

Page 19: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 19

Certaines phrases peuvent même se réduire à un seul signe comme l’illustre la Figure 4.

Figure 4. Signe pour « je te donne ».

La langue des signes comporte de nombreuses particularités grammaticales : • les temps du verbe n’existent pas : on précise seulement le moment où se

déroule l’action. Pour cela, on les situe sur une ligne du temps qui est perpendiculaire au corps : le futur se trouvant devant et le passé derrière (dans la plupart des langues des signes)

• les classificateurs qui sont des signes génériques représentant des classes d’objets de taille, forme ou épaisseur similaires et qu’on retrouve dans certaines langues orales comme le chinois

• la localisation des personnages, des choses dans l’espace du signeur et auquel il peut faire référence, par exemple par la direction du regard.

• l’ordre d’exécution des signes est moins important que leur arrangement visuel dans l’espace. Généralement, les compléments circonstanciels de temps et de lieu viennent en premier et le verbe à la fin.

3.3.3 Langue des signes vs autres formes de communication gestuelle

Il convient de ne pas confondre la langue des signes avec d’autres formes de communication gestuelle.

A. La dactylologie C’est est un moyen d’épeler les lettres de l’alphabet au moyen de simples configurations de la main qui sont statiques.

Figure 5. Dactylologie (source : [Bon98]).

B. La langue orale signée Il s’agit d’une utilisation purement syntaxique des signes dans le contexte de la grammaire de la langue orale (ici le français, mais le même principe s’applique à

Page 20: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 20

d’autres langues). Il sert souvent de langage-pont entre les sourds-signants et les entendants ne maîtrisant pas la langue des signes. Le français signé essaye de calquer les signes sur les mots français et force la langue des signes à suivre l’ordre du français. Le locuteur parle d’ailleurs généralement en même temps (communication bi-modale). Les nuances, l’utilisation de l’espace et les expressions du visage sont généralement absentes et pour compenser, on épelle des mots au moyen des signes dactylologiques. Ceci rend la phrase très longue, visuellement surchargée et fatigante (voir Figure 6). On a généralement aussi recours en complément à d’autres formes d’aide à la communication comme la lecture labiale ou l’écrit.

Figure 6. Distinction entre langue des signes (LSF) et langue signée (FS)

(source :[Bon98]).

C. Les gestes co-verbaux Ils complètent le canal oral par de l’information visuelle de nature phonétique et ne sont pas porteurs de sens propre. Il s’agit par exemple du LPC ou de l’AKA que nous ne détaillerons pas ici. Contrairement à ces techniques, la langue des signes permet de communiquer sans l’aide d’une autre modalité de communication.

Figure 7. Code LPC pour le M de « Main » (source : [Los00a])

Page 21: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 21

3.3.4 Moyens de diffusion de la langue des signes

A. Support sur les ondes La langue des signes est diffusée à la télévision sous deux formes :

• Interprétation en langue des signes d’une émission normale, l’interprète est présentée en incrustation (voir Figure 8). Pour la RTBF, il s’agit principalement du JT de 19h30 et de l’émission pour enfant « les Niouzz ». A noter que cette émission, par son approche simplifiée des informations, attire un public plus large que les enfants sourds.

• Emissions spécifiques aux sourds, réalisées pour eux (et parfois par eux). Pour la RTBF, c’était le cas pour l’émission « Tu vois ce que je veux dire » qui a été supprimée il y a peu.

Figure 8. Interprétation en langue des signes du JT de la RTBF.

Notons aussi la disponibilité de sous-titrage pour certaines émissions (avec ici l’obstacle de la langue orale écrite). La diffusion se fait via le Teletexte sur une page spéciale (souvent la page 777 ou 888) et utilise des conventions spécifiques : couleurs pour les interlocuteurs, le narrateur, bruits environnants. Certains sous-titres sont parfois positionnés spatialement près des interlocuteurs. La quantité d’émissions sous-titrées est variable suivant les chaînes et leurs moyens financiers. Pour la RTBF, il s’agit principalement de documentaires (comme le « jardin extraordinaire ») et des émissions d’information (« Contact » : code de la route, « Pulsation » : magazine médical,…). Le JT de la RTBF est signé mais pas sous-titré. Concernant le sous-titrage, notons enfin un problème technique lié à la disparition en Belgique des magnétoscopes capables de les enregistrer.

Figure 9. Sous-titrage du journal de France 2.

Page 22: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 22

B. Supports physiques Les langages disposent généralement de formes orale et écrite et peuvent être diffusés au moyen de divers médias : écrit, audio et/ou vidéo. Parmi ceux-ci l’audio est évidemment inutile pour les personnes sourdes. Contrairement aux langues classiques, la langue des signes ne possède pas de forme écrite équivalente à la langue signée et d’usage général. Diverses possibilités écrites existent mais ont des usages particuliers :

• la notation de Hambourg (HamNoSys) est utilisée par des linguistes. Elle tire son nom de sa ressemblance avec des hiéroglyphes (voir Figure 10)

• les descriptions de signes par dessins fléchés (voir Figure 4) sont utilisées par les dictionnaires de langue des signes et ne sont pas toujours aisés à décoder.

• des notations basées sur le français mais complétées d’annotations sont utilisées comme moyens de transition vers le français. Elles sont investiguées par des centres d’alphabétisation tels que Alpha Signe.

Configuration de la main

(ouverte, pouce à 90°)

Position (au niveau de la poitrine)

Orientation de la main

(paume vers le haut)

Position de la main

(en haut à gauche)

Action (mvt avec modification)

Figure 10. Notation HaMoSys pour « fatigué »

En fait, avant l’apparition de la vidéo VHS, la langue des signes ne pouvait se transmettre que de personne à personne. La vidéo permet de visualiser des histoires mais présente certains inconvénients, liés à l’angle unique de prise de vue et au mode de stockage sur bande qui ne permet pas un accès aisé (dans le cas d’un lexique par exemple). Le DVD, technologie plus récente, permet une navigation plus aisée et supporte aussi plusieurs angles de vision. Cette possibilité est assez méconnue car très peu utilisée à cause des difficultés et du coût de réalisation. Le DVD offre aussi des sous-titrages qui sont parfois spécifiques aux sourds (mais bien sûr avec l’obstacle de la langue écrite pour les sourds-signants). Le CD-ROM multimédia, autre technologie récente, permet de combiner diverses représentations complémentaires de la même information : image, description textuelle et vidéo (voir Figure 11). Ceci est intéressant pour l’apprentissage. Il permet aussi une navigation aisée, intuitive et sur des index multiples (suivant les paramètres de la langue des signes ou suivant l’ordre alphabétique pour le français). Cependant le stockage se limite à quelques centaines de signes par disque et en ne considérant que des vidéos de taille réduite et de qualité assez moyenne (sans quoi le nombre se réduit encore : la qualité et la taille sont exigeantes en espace). Le DVD-ROM repousse la limite d’un ordre de grandeur et peut proposer plusieurs milliers de signes mais reste insuffisant pour des dictionnaires complets (plusieurs dizaines de

Page 23: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 23

milliers de signes). En outre, il ne s’agit que de vidéo numérisée et on souffre aussi des problèmes de vision suivant un angle fixe et à vitesse fixe. Une technologie prometteuse et qui sera envisagée dans le cadre de cette étude est l’utilisation de personnages de synthèse en 3D (nommés « avatars »). Ceux-ci remplacent avantageusement la vidéo en offrant un taux de compression beaucoup plus élevé : l’information stockée est une description des signes qui peut être quasiment de nature linguistique. Son volume peut se comparer à celui du texte écrit équivalent. En outre, ces personnages peuvent être visualisés sous divers angles, à vitesse variable, ce qui est très intéressant pour l’apprentissage. Il est également possible d’adapter le personnage de synthèse en fonction du public (enfant, adulte…) et même de lui donner l’apparence d’une personne réelle. La principale restriction concerne les possibilités de rendre toutes les nuances de la langue des signes, notamment au niveau des expressions du visage et de certains signes particuliers. L’utilisation de cette technologie sera envisagée en détail dans le chapitre 6 de ce rapport.

Figure 11. Explication de « Nuage »

dans le CDROM multimédia « Les signes de Mano »

Les principales qualités des divers supports envisagés sont résumées à la table ci-dessous.

Support Livre VHS CD-ROM

DVD [Avatar]

Volume stockable - (figé) - - + ++ Facilité de réalisation - - - + ++ Flexibilité d’utilisation - - + + + Restitution du mouvement

- + + + +

Navigabilité + - ++ ++ ++ Contenu multimédia - - ++ ++ ++ Expressivité - + + + -/+ Aspect épuré + - - - +

Tableau 1. Comparaison des qualités de différents médias (légende : -= mauvais, += bon, ++=très bon)

Page 24: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 24

3.3.5 Moyens de communication en langue des signes

A. Communication avec un entendant L’objectif étant de faire passer un message, tous les moyens sont mis en oeuvre pour y parvenir. Plusieurs cas de figure peuvent se présenter :

• l’entendant a appris la langue des signes ou en a des notions partielles. C’est généralement le cas de la plupart des personnes entendantes de l’entourage du sourd. La communication peut s’installer en langue des signes ou plus probablement en français signé.

• l’entendant ne maîtrise pas la langue des signes, mais le sourd peut se débrouiller en lecture labiale et par l’utilisation du français écrit.

• l’entendant et le sourd n’ont pas de langage commun. Il est alors recommandé de faire intervenir une tierce personne qui connaît les deux langues. Ce sera soit une personne de l’entourage familial, soit une interprète professionnelle. Cette dernière offre plus de garanties par rapport à la neutralité, la fidélité et le secret. En ne s’impliquant pas dans ses décisions, elle responsabilise également davantage le sourd.

• si en outre le sourd doit être épaulé pour les démarches dans lesquelles il est impliqué auprès des entendants, l’aide d’une assistante sociale maîtrisant la langue des signes sera envisagée.

Concernant les interprètes en langue des signes, une vingtaine seulement sont actifs en Belgique francophone, soit sous un statut d’indépendants, soit pour un des services d’interprétation (SISW, SISB ) ou d’aide sociale (L’Epee, InfoSourd, SARE). La profession est essentiellement occupée par des femmes. L’interprétation en langue des signes, comme toute interprétation est un processus complexe, faisant intervenir de nombreuses tâches cognitives en parallèle (écoute, compréhension, recherche d’équivalents, reformulation, contrôle… voir [ElOu03]). Le processus d’interprétation est mentalement épuisant et se dégrade en moyenne après une vingtaine de minutes. Pour des interactions longues et ininterrompues, il faut donc prévoir plusieurs interprètes qui se relaient.

B. Communication à distance A l’heure actuelle, il n’existe pas d’équivalent opérationnel du téléphone pour les sourds : ceux-ci ne peuvent communiquer à distance dans la langue des signes. Ceci demande la transmission de l’image et les systèmes de vidéoconférence ne sont pas encore largement opérationnels. Nous les envisagerons dans le cadre de cette étude. Les sourds doivent passer par la langue française écrite pour communiquer à distance. Les divers moyens à leur disposition sont :

• le FAX, très répandu et aisé d’utilisation, il permet aussi également le dessin. • le Minitel importé de France a longtemps été un des seuls moyens de

communication interactif à distance. Un service d’annuaire a été mis en place par TeleContact. Le développement d’Internet a rendu ce moyen obsolète.

• les possibilités basées sur Internet : l’e-mail, le chat et les messageries instantanées. Cependant, ceci demande de surmonter l’obstacle d’utilisation d’un ordinateur et l’investissement qu’il nécessite.

Page 25: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 25

• le SMS, qui a l’avantage de la mobilité et ne s’embarrasse pas d’un langage écrit très formel. Des tarifs spéciaux ont pu être négociés pour les sourds.

Aucun service relais n’est disponible en Belgique francophone (voir Figure 12). Ceux-ci sont fonctionnels notamment au Royaume Uni, dans les pays scandinaves et aux USA. Ce service permet à un sourd de contacter une personne intermédiaire et celle-ci va relayer l’appel vers un abonné téléphonique ne disposant pas des moyens du sourd (FAX, Minitel,…). Des permanences peuvent être établies, notamment pour l’accès à des services d’urgence. Deux éléments récents rendent ce manque moins critique qu’auparavant :

• le boom des GSM donnant, grâce au SMS, un moyen de communication textuel à la disposition de tous (sourd et entendant) et en tous lieux. Un sourd peut dès lors utiliser un membre entendant de son entourage comme relais.

• l’ouverture des services d’urgence à d’autres moyens de communication : le 100 et le 101 sont accessibles au moyen d’un simple FAX. Il est également possible de contacter Touring Secours par SMS.

La multiplication et la diversité des moyens de communication n’ont pas que des aspects positifs. L’organisation de services largement accessibles devient également plus complexe. La volatilité des logiciels pour la communication par Internet peut aussi décourager les personnes (sourdes comme entendantes) de s’y investir.

Figure 12. Système relais textuel (source [MCC99])

3.4 Organisations autour de la surdité

3.4.1 Paysage général du monde de la surdité en Belgique francophone

Le monde des sourds est principalement un monde associatif formé par les familles sourdes d’une région. Ces associations sont relativement indépendantes les unes des autres. On en dénombre environ 80 en Belgique francophone. Ces associations organisent diverses activités ludiques, sportives ou culturelles qui permettent aux sourds de se rencontrer. Elles s’occupent aussi typiquement d’activités éducatives en langue des signes destinées aux enfants ou aux parents d’enfants sourds. Au sein de certaines associations dynamiques, des projets plus ambitieux peuvent naître comme la conception et l’édition de matériel en langue des signes (livres, vidéos, CD-ROM).

Page 26: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 26

Cette mosaïque d’associations rend difficile l’union des forces pour l’expression d’une vision commune des problèmes à résoudre et l’élaboration de projets globaux. Cette coordination est assurée par la FFSB (Fédération Francophone des Sourds de Belgique) qui gère aussi les liens avec d’autres organismes : les services d’interprétation de Wallonie (SISW) et de Bruxelles (SISB), des services sociaux et de recherche d’emploi (L’Epée, InfoSourd, le SARE…), ou encore les contacts au niveau national (la fédération flamande : Flevlado) ou international (européen : EUD ou mondial FMS). Au niveau de l’éducation qui est un aspect moins concerné par cette étude, notons l’existence d’une petite dizaine d’établissements comme « La petite école » de Montegnée (CMAP), l’Ecole Intégrée (comprendre et parler) ou encore « Ecole et surdité ». Elles proposent des enseignements adaptés avec un suivi personnalisé (audiologistes, logopèdes,…) et une mise en œuvre des divers moyens de communication évoqués suivant diverses modalités (en interne et/ou en intégration dans l’enseignement normal). Pour un aperçu plus détaillé, en particulier au niveau de l’utilisation de la langue des signes, on consultera [FFSB97] et [Rec03]. Au niveau de la recherche touchant à la langue des signes, on trouve chez nous des chercheurs en linguistique de la langue des signes (Institut Marie Haps, faculté de psychologie de l’ULB, à la faculté de philosophie et lettres de l’ULG), en aide technique (CRETH, à la faculté de psychologie de Namur) et en utilisation de l’informatique (faculté des sciences appliquées de l’UCL).

3.4.2 Parties prenantes consultées

Cette section détaille ceux, parmi les organismes précédents, qui ont été consultés et impliqués dans le processus d’élaboration de cette étude. Nous aussi donnons un bref aperçu de leurs principales compétences.

Organisme Personnes de contact Compétences

ABILS Association Belge des Interprètes en Langue des Signes

Annie Gillet Anne-Marie Wauquiere

Organisation représentative des interprètes en Belgique francophone. Services d’interprétation en LS.

Alpha signe Jeannine Pawlack Cours généraux de formation pour personnes sourdes

APEDAF Association de Parents d’Enfants Déficients Auditifs

Véronique Gernay Information et support aux parents, conseils en aides techniques.

AWIPH Agence Wallonne pour l’Intégration des Personnes Handicapées

Politique des personnes handicapées Gestion des aides individuelles Agrégation/subvention de services Information, formation, sensibilisation Centre de documentation

CMAP Centre Médical de Montegnée

Sonia Demanez Audiophonologie Enseignement intégré et spécial (comprenant de la langue des signes)

Page 27: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 27

CFLS Centre Francophone de la Langue des Signes

Caroline Ahn Max Rasquinet

Unification de la LSFB Edition de lexiques et brochures d’information

CRETH Faculté de psychologie

FUNDP

Pr. Michel Mercier Geneviève Bazier Vincent Collin

Aide technique et psychologie

Espace Sourds Caroline Heretinsky Edition de supports d’apprentissage en LS. Cours de base en LS. Activités pour sourds

FEVLADO Federatie voor VLAamse Doven

André Lathouwers Equivalent flamand de la FFSB

Coordination, projets, aides techniques

FFSB Fédération francophone des Sourds de Belgique

Martine Fraiture Jean-Louis Brassiène

Coordination, projets, aides techniques

I3D Université de Lilles

Jean-Marc Toulotte Olivier Losson

Utilisation des NTICs

InfoSourd Yves Van Minnenbruggen

Aide sociale et interprétation (Bruxelles)

INGI/TELE FSA/UCL

Yves Deville Benoît Macq Xavier Wielemans

Utilisation des NTICs

L’Epée Sylviane Sciorre Aide sociale et interprétation (Liège, Namur, Eupen)

Marie Haps Damien Huvelle Rachid El Ouaghli

Etudes linguistiques sur la LS. Cours d’interprétariat LS.

SARE Pascale Van Der Belen Service d’Aide à la Recherche d’un Emploi

Signe3D Pierre Beghin Utilisation des NTICs

Télécontact Marc De Muynck Annuaire de personnes sourdes et de leurs amis (minitel,…)

Tableau 2. Parties prenantes consultées.

Page 28: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 28

3.5 Portée de l’étude Il ressort de cette description du domaine que la population souffrant de déficiences auditives à des degrés divers est vaste. Elle est aussi très hétérogène quant à l’impact du handicap auditif sur la vie et sur les capacités des personnes sourdes. Afin de délimiter le champ de l’étude aux aspects pertinents, nous rappelons et précisons le cadre dans lequel nous nous situerons :

• le contexte est l’amélioration de l’accessibilité au niveau des services

publics. Si la solution peut avoir des applications dans d’autres contextes (comme l’éducation), ceux-ci seront mentionnés.

• l’étude se concentre principalement sur la minorité des sourds-signants.

Nous mentionnerons également si certains aspects de ces solutions peuvent profiter aux devenus-sourds ou même à d’autres classes de personnes.

• l’étude se concentre sur un public adulte et ne considère pas les aspects

spécifiques liés à l’enseignement. • l’aspect médical et l’appareillage sont supposés résolus. • le cas des personnes ne maîtrisant ni le français, ni la langue des signes

n’est pas considérés. Celles-ci nécessitent le recours à des services sociaux et des techniques de communication spécifiques.

• le cas des personnes qui cumulent d’autres handicaps affectant leur

capacité de communication n’est pas considéré.

Page 29: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 29

4 Analyse des exigences

Dans ce chapitre, nous allons expliciter les principaux objectifs que doit atteindre un système d’aide à la communication pour les personnes sourdes. La méthode KAOS d’analyse et de structuration des besoins sera mise en œuvre (voir [Dar93][Lam00]). Celle-ci a déjà été esquissée au chapitre 2 et sera progressivement détaillée au fil de ce chapitre. Certains objectifs sont évidents, tant ils ont une portée universelle : le bien-être de chacun, l’autonomie, l’accès à la culture et à l’éducation. Afin de raffiner ces objectifs très généraux et d’examiner s’ils se concrétisent effectivement pour les sourds et de quelle manière, nous nous appuierons sur l’étude du domaine réalisée au chapitre précédent. Nous aboutirons alors à une structuration des objectifs sous forme d’arbre. Un exemple très général d’arbre des buts est présenté ci-dessous (Figure 13). On trouve les buts généraux à la racine, les moyens techniques aux feuilles et les différentes personnes et langages utilisés pour interagir sont représentés dans l’environnement externe à l’arbre. Circuler dans l’arbre correspond à se poser la question « pourquoi » lorsque l’on se dirige vers la racine et « comment » lorsque l’on se dirige vers les feuilles. Dans les pages suivantes, nous présenterons ce diagramme de manière plus symbolique.

vidéo conférence

Bien-être Autonomie

Insertion sociale et professionnelle

communication

communication interpersonnelle

FAX

personnes entendantes

personnes devenues sourdes personnes

sourdes

LPC

langue des signes

lecture labiale

interprètes

langue orale

SMS

consultation de médias

communication interactive

communication indirecte

vidéo

cd-rom

chat

e-mail

avatar

doublage LS sous-titrage

Figure 13. Notion d’arbre des buts

Cet arbre d’objectifs fournira le cadre général dans lequel nous examinerons le problème posé. Celui-ci sera alors analysé à partir du scénario concret d’une démarche d’interprétation actuelle. Une analyse basée notamment sur l’identification des obstacles sera réalisée et des solutions alternatives proposées dans un cadre faisant intervenir non seulement des organisations mais également des éléments technologiques. Chacune de ces alternatives sera détaillée et évaluée dans les chapitres suivants. La validation de celles-ci se fera en fin de compte sur base des principaux objectifs fonctionnels et non fonctionnels qui auront été décrits dans ce chapitre.

Page 30: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 30

4.1 Inventaire des besoins Les objectifs ont été collectés lors de nombreuses entrevues. Nous avons également examiné les compétences des diverses organisations ainsi que les solutions techniques existantes et nous nous sommes posé la question de leur raison d’être. Diverses exigences de la vie quotidienne d’une personne sourde ont été identifiées et mis en relation avec les buts généraux déjà cités. A partir d’ici, nous présenterons les diagrammes de buts de manière plus symbolique :

• la racine, correspondant aux objectifs généraux sera placée en haut • les différents nœuds à l’intersection des branches à l’aide de diverses formes

géométriques : des parallélogrammes pour les buts, des hexagones pour les agents.

Nous utiliserons aussi les notions supplémentaires suivantes :

• la notion de responsabilité confiée à un agent (notée <<resp>>). Celle-ci peut être de type humain ou logiciel. Dans l’exemple simple précédent, les responsabilités sont toutes assignées à des technologies (FAX, SMS...). Dans cette section, il s’agira aussi d’organisations (SISW, SARE…)

• la notion d’exigence (au sens d’un cahier de charge) : qui est un objectif immédiatement placé sous la responsabilité d’un agent faisant partie du système à développer. Par exemple dans le cadre de cette étude, les exigences porteront sur les aspects liés à l’interprétation mais pas à l’éducation.

• la notion d’obstacle, représenté par un parallélogramme symétrique au but et annoté d’une croix. Il représente une barrière à vaincre pour la réalisation d’un certain but relié par une relation d’obstruction (notée <<obstruction>>). Les buts supplémentaires introduits pour les contournés seront reliés par une relation de résolution (notée <<Résolution>>).

4.1.1 Objectifs généraux

En suivant la démarche précédente, nous obtenons le diagramme de la Figure 14. L’objectif général de bien-être se compose de trois sous-objectifs : l’amélioration de l’éducation, de l’autonomie et de l’accès à la culture et à l’information.

Améliorer le Bien-être des Sourds

Améliorer l'Intégration et l'Autonomie des Sourds

Améliorer l'Education des Sourds

Voir diagramme dédié

Accès à un TravailPrise en compte de la

surdité dans la société

Reconnaissance de la Langue des Signes

Sensibilisation des Entendants

Surdimobil

CFWB

SARE

FOREM

AWIPH

Améliorer l'Accès à la Culture et à l'Information

Voir diagramme dédié

Manque de qualification

<<Obstruction>>Faciliter la

Communication

Voir diagramme dédié

<<Resp>>

<<Resp>>

<<Resp>>

<<Resp>><<Resp>>

Figure 14. Principaux objectifs et organisations responsables.

Page 31: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 31

Le but d’éducation sort du contexte de cette étude et relève principalement des compétences de la communauté française. Il sera cependant détaillé à titre indicatif au point 4.1.3. L’intégration relève principalement des compétences de la région wallonne. Trois sous objectifs contribuent à assurer l’intégration :

• Tout d’abord il convient que le problème de la surdité soit pris en compte dans le monde entendant. Deux aspects entrent en compte ici :

o au niveau institutionnel, il s’agit de reconnaître la langue des signes. Ce point à fait l’objet d’une étude et vient d’être réalisé.

o au niveau du grand public qui est relativement peu sensibilisé au sujet mais de très bonnes initiatives existent, tels le SurdiMobil. Des événements tels que la Journée Mondiale des Sourds ou des annonces liées à la reconnaissance de la langue des signes contribuent aussi à cette sensibilisation.

• ensuite, la possibilité de communiquer est cruciale. Nous avons mis en évidence d’énormes lacunes dans ce domaine. Cet objectif sera précisé au point 4.1.2.

• enfin, l’intégration passe aussi par l’accès à un travail. Plusieurs organisations collaborent dans ce but : le FOREM en tant qu’organisme général en matière de recherche d’emploi, l’AWIPH pour la politique générale de la mise au travail des personnes handicapées et des services sociaux spécialisés comme le SARE pour les sourds en particulier. Un obstacle est le manque de qualification qui justifie l’introduction de buts de formation des adultes sourds.

Enfin, le but d’amélioration de l’accès à la culture et à l’information sera décrit au point 4.1.4.

4.1.2 Objectifs de communication

Les problèmes de communication sont les problèmes majeurs pour les sourds. On peut distinguer les problèmes de communication avec les entendants et entre sourds. Ces buts sont détaillés ci-dessous et décrits à la Figure 15.

Acces Service d'Interprétation

Accès Service d'Aide Sociale

L'Epee

Info Sourd

SISW

SISB

Interprètes Privées

<<Resp>>

<<Resp>>

<<Resp>>

<<Resp>>

<<Resp>>

Faciliter la Communication

Faciliter la Communication avec les Entendants

Faciliter la Commucation entre Sourds

Communication à distance en LS

Communication à Distance

<<Obstruction>>

SMS

FAX

Accès à un Système Relais

Système Relais Inexistant

Diffusion d'Information en Temps Réels

Chat

e-mail<<Obstruction>>

Diffusion du Contenu Adapté

voir

Figure 15. Buts de communication.

Page 32: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 32

Concernant l’interaction avec des entendants, nous avons mis en évidence la nécessité de services d’interprétation (comme le SISW et le SISB) et de services sociaux (comme L’Epée et InfoSourds). Nous avons également mentionné l’inexistence d’un service de relais. Nous approfondirons ce but dans la deuxième partie de ce chapitre car c’est le besoin clef que cette étude veut traiter. Concernant l’interaction entre sourds, diverses solutions basées sur la langue écrite existent. Les manques se situent au niveau des moyens de communication à distance en langue des signes. La solution passe par la mise en œuvre de la vidéoconférence une technologie qui sera envisagée dans le cadre de la mise en place d’un service d’interprétation à distance et qui pourrait à plus long terme se généraliser à tous les sourds. La diffusion de contenu en langue des signes est également très pauvre et permet peu de diffusion indirecte via les médias. Nous examinerons ce point dans le raffinement de l’objectif d’accès à la culture et à l’information (voir 4.1.4)

4.1.3 Objectifs d’amélioration de l’éducation des sourds

Nous donnons ce raffinement à titre informatif et pour enrichir le contexte. Un premier raffinement considère d’une part le parcours éducatif et d’autre part le matériel disponible. Ce dernier but contribue aussi à l’accès à la culture et aux médias et sera considéré dans ce cadre (voir point suivant)

Prise en Charge des Bébés Sourds Education des

Adul tes Sourds

Amél ioration de l'Education des Sourds

Education Scolai re des Enfants Sourds

Améliorer le Parcours Educatif des Sourds Amél iorer le Matériel

Educati f Disponible

Am él iorer l'Accès à la Cul ture et aux Médias

voir diag dédié

Figure 16. But d’éducation des sourds

Le raffinement du parcours éducatif est une décomposition par classe d’âge. Il est seulement ébauché dans les trois diagrammes qui suivent. Pour les très jeunes enfants, comme on l’a souligné dans l’étude du domaine, il importe de mettre en œuvre une prise en charge le plus vite possible. Ceci passe par des moyens de détection de la surdité (typiquement au niveau de l’ONE), par une prise en charge médicale par des audiologistes mais aussi par un suivi linguistique permettant une acquisition aussi bien du français que de la langue des signes, dans une optique de communication totale. Ce dernier aspect n’est pas encore pleinement réalisé.

Page 33: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 33

Prise en Charge des Bébés Sourds

Dépistage de la Surdité

O.N.E

Prise en Charge Médicale

Prise en Charge Linguistique

Audio- logistes

Logo- pèdes

"Bébé Sourd Bouquine"

Psycho- logues

Prise en charge des Parents

APEDAF

<<Resp>>

<<Resp>>

<<Resp>>

<<Resp>>

Information des Parents Formation des

Parents en LS

CREE

Formation Sociale

<<Resp>>

Figure 17. But de prise en charge des bébés sourds.

Pour les jeunes en âge scolaire, nous retrouvons les divers types d’enseignement qui ont été décrits dans l’étude du domaine ainsi que le suivi pluridisciplinaire.

Audio- logistes

Logo- pèdes

Education Scolaire des Enfants Sourds

Organisation de l'Enseignement

Interprètes

Suivi Individuel et Pluridisciplinaire

Psycho- logues

Etablissements Spécialisés

Etablissements Partenaires

Enseignement Spécifique Intégration Ens.

Entendant

<<Resp>>

<<Resp>>

<<Resp>>

<<Resp>> <<Resp>>

<<Resp>>

Figure 18. But d’enseignement aux enfants sourds.

Pour les adultes, nous trouvons un but d’amélioration de la maîtrise du français qui pose problème chez un grand nombre. Il est notamment assuré par des formations proposées par Alpha Signe. Nous trouvons aussi un but de formation des sourds à un emploi. Cet aspect est notamment pris en compte par l’intégration dans une filière classique d’enseignement avec un support adéquat (notamment des interprètes). Dans les faits, il n’est suivi que par un faible pourcentage des sourds. D’autres solutions sont des formations dans le cadre d’un apprentissage et qui peuvent se dérouler en

Page 34: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 34

collaboration avec des entreprises partenaires (par exemple les Ateliers du Monceau qui pratiquent un bilinguisme français-LS).

Education des Adultes Sourds

Amélioration de la Maîtrise du Français

Alpha- Signe

Intégration Ens. Entendant

Formation à un Emploi

Entreprises Adaptées

FOREM

<<Resp>><<Resp>>

<<Resp>>voir Enseignement

Sourds non-qualifiés

Manque de maitrise du Français

<<Mitigation>> <<Mitigation>>

Figure 19. But d’éducation des adultes sourds.

4.1.4 Objectifs d’accès à la culture et aux médias

L’accès à la culture et aux médias peut se raffiner (cf. Figure 20) en considérant d’une part la disponibilité de contenu adapté aux sourds et d’autre part la diffusion de ce contenu. Cette diffusion peut se faire soit sur un des supports physiques déjà largement évoqués dans l’étude du domaine, soit sur des supports de diffusion en temps réel. Nous allons examiner ces trois buts plus en détail.

Améliorer l'Accès à la Culture et à l'Information

Disponibilité de contenu adapté au Sourd

Sensibilisation des Entendants

Diffusion du Contenu Adapté

Diffusion sur Support Physique

Diffusion Temps-Réel

Figure 20. But d’accès à la culture et à l’information.

La disponibilité de contenu adapté aux sourds se décompose principalement en trois sous-objectifs :

• la disponibilité de contenu SUR la langue des signes, typiquement du matériel d’apprentissage : cours, lexiques, etc. Différents organismes pour sourds ont mis au point un tel matériel :

o le CFLS a produit des lexiques papier de la LSFB unifiée o des associations de la région de Tournai ont produit une version CD-

ROM d’une partie de ce lexique (2 CD-ROM) ainsi que des livres pour enfants combinant dessins, phrases simples en français et représentations en LSFB (eg. La série des « Woopy »)

o du matériel en LSF est également disponible, par exemple le « DILS », un dictionnaire possédant des index très complets en langue des signes et en français et les « Signes de Mano » faisant un usage remarquable du multimédia

Page 35: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 35

• la disponibilité de contenu EN langue des signes, qui nécessite un doublage par une interprète

• la disponibilité de contenu avec sous-titre. Pour les sourds-signants, cette solution souffre de l’obstacle de la langue. Il convient beaucoup mieux à la classe plus nombreuse des devenus-sourds. La mise en œuvre est complexe et coûteuse car il faut assurer une très bonne synchronisation avec la parole. On estime que la quantité de travail est de 40 fois le temps de diffusion. Pour la diffusion en temps réel (voir point suivant) c’est encore plus complexe.

Les impératifs de coût entraînent malheureusement une forte restriction de l’importance de la diffusion et des choix douloureux quant au contenu. En priorité il s’agit de se concentrer sur des sujets importants, l’information sur la santé par exemple.

• concernant le sous-titrage : très peu de DVD commerciaux disposent de sous-titres spécifiques aux sourds. Le nombre d’émissions sous-titrées est également très limité en Belgique francophone (RTBF : quelques émissions par semaine, pas de JT). Celle-ci est très en retard par rapport aux autres pays européens (environ 80% sur la BBC, 20% sur TF1 et A2). Les émissions sont principalement des documentaires (comme le « Jardin extraordinaire ») ou des informations (sur la santé, la réglementation routière)

• concernant le matériel en langue des signes diffusé sur la RTBF : deux émissions d’information existent : le journal télévisé principal et les « Niouzz » destinés aux enfants sourds mais également suivis par un public plus large vu son approche très claire et dépouillée de l’actualité. Concernant le matériel édité, il l’est principalement sur l’initiative d’associations sourdes quand elles en trouvent les moyens. Il concerne principalement l’information sur des sujets cruciaux comme le SIDA, la grossesse, etc.

Des alternatives qui n’ont pas été explorées pour la diffusion du contenu sont :

• l’utilisation des personnages virtuels, pour les avantages qu’elle présente en termes d’apprentissage (angle de vision, vitesse), d’adaptation au public, de volume stockage sur un support donné.

• un mode de diffusion en ligne sur Internet, qui permet de tenir le média à jour avec l’évolution de cette langue vivante.

La combinaison des alternatives est également recommandable : la diffusion de vidéos en ligne sur Internet reste gourmande en bande passante et l’utilisation de personnages de synthèse permettrait de la réduire grandement. Nous développerons ce point au chapitre 7. Ces alternatives ont été étudiées au niveau du CFLS qui pourrait en tirer parti pour son processus d’unification de la langue des signes belges, au niveau :

• du processus lui-même : les réunions de travail hebdomadaires pourraient être plus efficaces si la discussion pouvait débuter par un encodage et une consultation via Internet. On pourrait également impliquer davantage la communauté dans le processus.

• du produit : le lexique lui-même pourrait être en ligne. Divers obstacles ont cependant été identifiés :

• les limites d’expression des personnages virtuels

Page 36: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 36

• l’utilisation des technologies Internet dans la communauté sourde et en particulier parmi les plus anciens (comme chez les entendants)

• la tarification : les lexiques actuels sont vendus et constituent une source de revenus importante pour le CFLS.

Disponibilité de contenu adapté aux Sourds

CFLS Manque de maitrise du Français

Interprétation en LS

Coût de Réalisation

Titreurs

Interprètes

Disponibilité temps-réel des ST

Disponibilité de contenu EN LS

Disponibilité de contenu SUR LA LS

Disponibilité de Contenu Sous-titré

<<Resp>>

<<Mitigation>>

<<Obstruction>>

Disponibilité ST temps différé

<<Obstruction>>

coût important

<<Obstruction>><<Resp>>

Génération des Sous-titres

voir Diffusion

<<Obstruction>>

Choix du Contenu

<<Mitigation>>

Sténos

Reconn. Vocale

Figure 21. But de disponibilité de contenu adapté aux sourds.

Le but de diffusion « temps réel » est décrit à la Figure 22. Il s’agit principalement de diffusion analogique sur les ondes ou le câble mais on peut aussi imaginer dans le futur des diffusions numériques en ligne.

• pour la langue des signes, l’organisation n’est pas très complexe, car les interprétations se font toujours en temps réel. Pour des émissions assez longues, il faut prévoir plusieurs interprètes (idéalement relais toutes les 20 minutes environ).

• pour les sous-titres, le processus est beaucoup plus complexe et coûteux car il ne peut être préparé à l’avance pour les interviews « live ». Il faut disposer de personnes très spécialisées (sténo, par exemple sur France 2) ou de technologies très pointues (reconnaissance vocale, par exemple à la VRT). La perfection n’est pas réalisable ici et un taux d’erreur de quelques pour-cent est toléré.

Teletexte

Titreurs

Sténos

Reconn. Vocale

Disponibilité temps-réel des ST

Diffusion Temps-Réel

Génération des Sous-titres

Interprétation LS Temps Reel

Interprète

Sensibilisation des Entendants

<<Resp>>

<<Resp>>

<<Resp>>

<<Resp>>

Diffusion des Sous-titres

<<Resp>>

Figure 22. But de diffusion « temps réel ».

Page 37: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 37

Concernant la diffusion sur un support physique, nous retrouvons ici la nécessité de supports adaptés, ceux-ci ont déjà été évoqués dans la présentation du domaine. Un autre but est la présence d’éditeurs compétents. Pour du contenu touchant la langue des signes, cela implique la participation de sourds au niveau de la validation et éventuellement au niveau de la réalisation. La réalisation de ce dernier but contribue aussi à améliorer l’accès à un emploi.

Espace SourdDVD

Diffusion sur Support Physique

Disponibilité de Supports Adaptés

Editeurs Compétents

Sourds Impliqués dans la Validation

Sourds Impliqués dans la Réalisation

Accès à un Travail

CDROM

Support Papier

Vidéo

<<Resp>><<Resp>>

<<Resp>>

<<Resp>>

<<Resp>>

Figure 23. But de diffusion sur support physique.

4.1.5 Exigences non fonctionnelles

Les exigences élicitées précédemment ont principalement décrit des fonctionnalités améliorant le quotidien des sourds : service d’interprétation, diffusion d’information, etc. Elles sont complétées par des exigences non fonctionnelles qui correspondent à des qualités de leur mise en œuvre. Nous en avons déjà évoqué plusieurs ; d’autres ont été collectées lors des entrevues ou dans la littérature. Voici une synthèse des principales :

• Personnalisation : les systèmes doivent pouvoir s’adapter aux compétences et situations très diverses des personnes sourdes ; les solutions proposées devront être flexibles dans leur organisation et dans leurs aspects techniques.

• Performance : les systèmes conversationnels doivent par définition être fournis en temps réel. Ils devront permettre une conversation de qualité. Des critères plus détaillés (résolution de l’image, fluidité,…) devront être établis.

• Accessibilité : les coûts d’accès pour les usagers doivent rester acceptables. Des politiques d’aide doivent éventuellement être prévues.

• Fiabilité : les solutions techniques retenues doivent être éprouvées et présenter les meilleures garanties en matière de disponibilité.

• Interopérabilité : en matière de solutions techniques, on privilégiera celles qui sont basées sur un standard ne liant pas la solution à un constructeur et permettant aux matériels de constructeurs différents de fonctionner ensemble. Ceci garantit aussi une plus grande pérennité au système.

• Sécurité : les systèmes retenus devront garantir l’anonymat et le respect de la vie privée de leurs usagers.

Page 38: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 38

4.2 Analyse détaillée de l’accès à l’interprétation L’analyse organisationnelle générale du point précédent donne une bonne vue d’ensemble des problèmes qui touchent les sourds et montre l’importance des interprètes en langue des signes qui apparaissent à de nombreuses reprises. Nous allons à présent examiner plus en détail l’accès individuel à un service d’interprétation dans le cadre d’une démarche dans un service public. Nous examinerons un scénario typique, identifierons les principaux obstacles et proposerons diverses alternatives pour les résoudre.

4.2.1 Situations de communication

Comme mentionné dans l’étude du domaine, les contacts entre les sourds et les entendants sont souvent problématiques (par exemple entre un sourd ayant des difficultés en français et un entendant peu sensibilisé). Nous avons relevé un certain nombre de situations classiques :

• au niveau administratif : à la commune (renouvellement d’une carte d’identité, demande de passeport,…), à la région wallonne (prime au logement,…)

• avec un service public au sens plus large : mutuelle, banque, assurance, électricité (Electrabel), eau (SWDE), etc.

• au niveau judiciaire : à la police, chez l’avocat, au tribunal • au niveau médical : chez le médecin généraliste ou spécialiste, à l’hôpital,

chez le psychiatre ou le psychologue • au niveau culturel : associations, conférence, visites guidées, messes,… • au niveau professionnel : réunion, formation, entretien d’embauche, syndicat • au niveau privé : magasins, réunions de parents, etc.

La communication exige la présence d’une personne compétente en français et en langue des signes. Cette fonction peut être remplie par une personne de l’entourage mais se heurte à plusieurs obstacles :

• la compétence en langue des signes de ces personnes n’est pas toujours parfaite. Elles peuvent involontairement altérer le contenu des messages échangés.

• la neutralité n’est pas garantie : le contenu des informations transmises entre le sourd et l’entendant peut être volontairement altérée (censure, précisions non souhaitées,…)

• le manque de secret : le sourd peut être amené à dévoiler des aspects de sa vie privée

• la responsabilité : la personne sourde peut être complètement écartée du processus de décision, ce qui ne l’encourage pas à se prendre en main.

Ces obstacles justifient l’accès à un service professionnel d’interprétation, assurant la fidélité du message, la neutralité et le secret professionnel. Il amène aussi une plus grande autonomie du sourd comme le montre la Figure 24. Nous allons examiner rapidement comment fonctionne un tel service. Une illustration typique à laquelle nous avons eu l’occasion d’assister est la convocation d’une personne sourde à la police. Il s’agissait d’une saynète de démonstration lors de l’inauguration de l’antenne namuroise du service social « l’Epée » (voir Figure 25)

Page 39: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 39

Figure 24. Service d’interprétation en langue des signes.

Figure 25 : Personne sourde et son interprète en LS à la police de Namur

Page 40: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 40

Le scénario présenté était le suivant :

• la personne sourde a commis un excès de vitesse (les personnes sourdes peuvent obtenir un permis de conduire)

• le « pro justicia » reçu a été jeté par le sourd qui n’a pas compris ce qu’il devait en faire (la personne peut avoir un problème de compréhension du français, en particulier par rapport au vocabulaire utilisé dans ce genre de document)

• le sourd reçoit alors une convocation pour se présenter en personne à la police de Namur.

• Cette fois, le sourd a compris la démarche à effectuer et contacte un service d’interprétation (plus exactement le service social dans ce cas). Techniquement ce contact peut se faire par un moyen accessible au sourd : FAX, SMS ou physiquement pour expliquer le problème. Ce dernier cas est plus adapté ici où il s’agit d’un service social.

• le service planifie le rendez-vous en fonction des disponibilités de la personne, des interprètes et des contraintes de la convocation.

• la personne sourde et son interprète se rencontrent au lieu et à l’heure dite. Une simplification de ce scénario est présentée à la Figure 26 sous forme de diagramme de séquence (notation UML). Ce diagramme présente, par des flèches horizontales, les diverses interactions entre les utilisateurs du système. A chaque utilisateur correspond une ligne verticale, le temps s’écoulant de haut en bas.

Personne Sourde

Interprète Service d'interprétation

Service Public

convocation(date_max)

disponibilités

demande d'interprétation (date_max,disponibilités)

confirmation(date)

confirmation(date)

planification

Date maximale

déplacement

déplacementDate du rendez-vous

fin de la démarche

Figure 26. Scénario de réalisation d’une interprétation.

Page 41: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 41

Au niveau du coût du service, les sourds disposent d’heures d’interprétation gratuites, sous forme de « tickets » qui sont remboursés aux services d’interprétation. En cas de nécessité professionnelle, cette quantité est plus importante mais est souvent insuffisante. Les sourds pratiquent également l’échange des tickets entre utilisateurs intensifs et occasionnels. Pour une comparaison avec la situation dans d’autres pays européens, on consultera [EU00].

4.2.2 Analyse d’un système d’interprétation

L’objectif d’offre d’un service d’interprétation peut être raffiné en 2 sous-buts : la disponibilité des interprètes et la planification. Nous allons examiner les nombreux obstacles à ces buts et identifier les pistes pour les résoudre (voir Figure 27)

• le faible nombre des interprètes, une vingtaine en Belgique francophone, allonge les listes d’attente au niveau de la planification : un rendez-vous doit être prévu plusieurs semaine à l’avance. Des améliorations à ce niveau passent par la formation de plus d’interprètes et plus généralement par une amélioration de leur condition, notamment par la reconnaissance de leur statut.

• une partie importante du temps est perdue en déplacements : parfois deux heures de route pour quelques minutes d’interprétation ! Au niveau du centre de planification, cet aspect est pris en compte au niveau de l’attribution des demandes aux interprètes mais de nombreuses données rendent cet aspect difficile à satisfaire : par exemple, l’urgence de certaines demandes ou le manque d’interprètes dans certaines régions (comme la province du Luxembourg)

• les deux points précédents rendent impossible le traitement de situations d’urgence dans le système actuel.

Dans les points suivants, nous allons examiner 3 pistes pour mitiger ces obstacles.

Faible Nombre d'Interprètes Temps perdu en

déplacements

Planification des Interprétation

Offre d'un service d'interprétation

Interprètes Disponibles

<<Obstruction>>Situation d'Urgence

Contact des Participants

Formation des Interprètes

<<Mitigation>>

Améliorer la Condition des interprètes

Reconnaissance du Statut d'Interprète

Replanification

Telephone

<<Resp>>GSM

Réunion annulée ou déplacée

<<Obstruction>>

<<Mitigation>>

<<Resp>>

<<Obstruction>><<Obstruction>>

Optimiser

<<Mitigation>>

Réduction des Déplacements

Système d'Interprétation à Distance

<<Mitigation>>

Figure 27. Analyse des obstacles à l’interprétation.

Page 42: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 42

4.2.3 Solution 1 : système d’interprétation à distance en langue des signes

Une première solution possible est la mise en œuvre d’un système d’interprétation à distance, n’exigeant plus le déplacement de l’interprète. Ce système doit faire appel à de la technique pour capturer et transmettre les images et les paroles entre le sourd, l’interprète et l’entendant. A priori, le système offre plusieurs avantages :

• amélioration de la disponibilité des interprètes par économie des temps de déplacement et donc diminution du temps d’attente pour satisfaire une demande

• amélioration de la condition des interprètes, les déplacements étant fastidieux. On pourrait même envisager que l’interprète puisse traiter des interprétations depuis son domicile.

• possibilité de prise en compte de situations d’urgence, par l’organisation d’un service de garde.

Cependant de nouveaux obstacles apparaissent également. Ils ont été identifiés lors d’entrevues notamment avec les services d’interprétation. Un sondage des sourds a également été réalisé. Voici les principaux :

• l’absence physique de l’interprète demande au sourd d’affronter seul l’entendant dans un premier temps.

• la qualité de la communication à distance : interprétation sur écran, qualité de l’image en termes de résolution et de fluidité, cadrage adéquat, etc. Ceci nécessite un examen précis des limitations techniques.

• l’intimidation liée à l’aspect technologique. • la notion de secret par rapport à la présence d’une caméra.

Les interprètes interrogés estiment que le système présente une utilité mais est à réserver à des démarches assez simples et à des situations neutres. Les opérations courantes dans une administration semblent appropriées. Le système est à déconseiller dans des situations de crise et ayant une dimension émotionnelle. Les domaines médicaux et judiciaires semblent donc moins s’y prêter. Néanmoins l’urgence d’une situation peut justifier son emploi. A titre de comparaison, lorsqu’un entendant ne parlant qu’une langue étrangère est reçu en urgence dans un hôpital, on peut faire appel à un interprète par téléphone. Concernant le sondage, il s’agissait d’un formulaire à choix multiples disponible sur Internet, à partir du site de la FFSB. Ce moyen a déjà été utilisé pour d’autres sondages. Il est évidemment très biaisé dans le sens où seuls les sourds « branchés » ont pu y répondre. Ceux-ci ont un profil très actif et sont a priori favorables à un tel système. Les résultats (présentés en annexe) vont effectivement dans ce sens : la majorité des sourds qui ont répondu n’ont pas d’à priori et acceptent l’absence de l’interprète. Des craintes sont émises par rapport à la qualité de l’image. Parmi les lieux qui devraient être équipés d’un tel système, les plus sollicités sont les hôpitaux, la police et les maisons communales. Faisons aussi remarquer que ce système d’interprétation à distance ne doit pas être confondu avec un système de relais vidéo où l’entendant n’est pas aux côtés du sourd mais en contact téléphonique avec l’interprète. Le second système est cependant une extension triviale du premier et pourrait aussi être envisagé. Dans le cadre d’un

Page 43: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 43

contact avec un employé entendant au sein d’une administration, se pose cependant la question de la localisation du poste de vidéoconférence utilisé par le sourd. Le chapitre 5 approfondit l’étude de l’utilisation de la vidéoconférence.

4.2.4 Solution 2 : système d’interprétation automatisé

Dans la solution précédente, le système continuait à se baser sur une interprète humaine. Une piste à envisager serait le recours à un système se basant sur un système de traduction automatique dans la mesure où celui-ci peut être mis en œuvre. Nous avons évoqué la complexité du processus d’interprétation dans l’étude du domaine. Son automatisation demande la mise en œuvre d’une chaîne de composants complexes et faisant appel à des techniques pointues :

• pour la communication de l’entendant vers le sourd : la reconnaissance de la parole, la traduction automatique du français en langue des signes, l’animation de personnages de synthèse

• pour la communication du sourd vers l’entendant : la reconnaissance des gestes et des expressions du visage, la traduction automatique de la langue des signes en français, la synthèse de parole.

Nous étudierons ces techniques plus en détail au chapitre 6. Nous verrons que si certaines sont très matures, d’autres relèvent encore du domaine de la recherche pure. On ne peut donc pas encore remplacer une interprète par une machine. Ce fait n’est pas surprenant car les systèmes de traduction de langages oraux, beaucoup mieux étudiés, sont également loin d’être effectifs. Cependant des systèmes partiels pour des situations de communication particulières peuvent être envisagés. Par exemple, un système basé sur l’utilisation de formules prédéfinies « langage formulaïques » et couplé avec un personnage virtuel qui les interprète en langue des signes, a été développé au sein du consortium européen ViSiCAST et testé au niveau de la poste anglaise. Ce système est décrit en détail au chapitre 5. Une phase de validation a montré que le système permet de mener à bien les démarches simples et courantes à une poste comme l’encaissement d’un chèque, l’achat de timbres. Cependant, il allonge et alourdit la démarche. Son utilité principale semble plutôt être un garde fou pour les cas où la transaction ne se passe pas bien avec les « moyens du bord » (papier, gestes, affichage digital du prix,…) Le chapitre 5 sera dédié à l’exploration plus exhaustive de systèmes partiels et des situations particulières auxquelles ils pourraient répondre.

4.2.5 Solution 3 : extension de la mobilité

Dans les deux solutions précédentes, nous avons fait implicitement l’hypothèse que les personnes sont fixes : l’entendant et l’interprète sont ensembles et contactent à distance l’interprète qui se trouve dans un centre d’interprétation. Des postes fixes sont prévus au niveau des 2 endroits et une liaison de communication les relie. La nature de celle-ci n’a pas été détaillée mais dans l’état actuel des technologies, il s’agit d’une liaison « câblée ».

Page 44: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 44

Le développement de technologies sans-fil connaît un développement continu depuis l’apparition du GSM. Celui-ci a véritablement libéré les sourds grâce au SMS, qui s’il était à l’origine un service « technique », est devenu une de ses fonctionnalités principales (y compris pour les entendants). Le SMS a permis au sourd de rester partout en contact avec son entourage, qu’il soit sourd ou entendant. Ce développement est appelé à continuer dans la direction d’une connectivité totale à haut débit. Ceci est l’objectif ultime de l’UMTS, technologie chère et sur laquelle beaucoup de spéculations ont eu lieu. A terme, la disponibilité de bande passante en tout lieu, donnera enfin aux sourds l’équivalent du GSM pour la langue des signes. On n’est en pas encore là. Actuellement, on voit plutôt se développer une technologie moins lourde et plus ciblée : le WiFi, équivalent sans fil des réseaux locaux d’ordinateur. Il permet l’accès à Internet dans des sites équipés (nommés « HotSpot »). Les technologies « PC » et « GSM » seront certainement amenées à converger dans les prochaines années : l’apparition des assistants personnels digitaux, de GSM avec de multiples fonctions de communication (comme le Nokia 9210i) et des « tablets PC » en sont les signes actuels. Au niveau du système d’interprétation à distance, ceci ouvre de nouvelles possibilités :

• le contact à distance d’un interprète depuis tous les « HotSpot » et non pas depuis un lieu équipé spécifiquement.

• le terminal appartient au sourd et pas à l’administration (équipement personnel, plutôt que collectif). Ces terminaux devraient être aisés à transporter : par exemple PDA, « tablet PC » et doivent être équipés d’une caméra.

Les coûts d’infrastructure de communication et de matériel se réduiraient, pour autant que celles disponibles soient adaptées (garantie de la qualité) Nous évoquerons ces pistes plus en détails au chapitre 7. Nous examinerons notamment les objectifs du projet européen WISDOM.

4.2.6 Résumé des alternatives opérationnelles envisagées

Pour répondre au besoin d’interprétation à distance, trois solutions alternatives ont été évoquées. Celles-ci se traduisent par une frontière différente entre le système « automatisé » et les acteurs interagissant avec celui-ci. La Figure 28 donne un aperçu de la conception de chacune des alternatives évoquées et notamment au niveau des agents humains impliqués et des technologies mises en œuvre. Dans les 3 chapitres qui suivent, nous allons explorer ces alternatives plus en détail en nous focalisant sur les systèmes réalisables et leurs exigences, en particulier pour une mise en œuvre au sein d’un service public.

Page 45: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 45

Sourd

Entendant

Interprète en langue

des signes

Frontière du système automatisé

Vidéo-conférence

Reconnaissance vocale Reconnaissance gestuelle Synthèse 3D Synthèse vocale Traduction automatique

Terminal audio/video/texte

(PC,…)

Connexion haut-débit sans fil Terminaux portables

Solution à mobilité étendue

Solution automatisant la chaîne d’interprétation

Solution basée sur un interprète humain à distance

Environnement Système automatisé

Figure 28. Principales alternatives pour un système d’interprétation.

Page 46: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 46

5 Vidéo-interprétation en langue des signes

Dans ce chapitre, nous allons examiner en détail la conception d’un système de vidéo-interprétation en langue des signes dont les objectifs ont été établis au chapitre précédent. Nous examinerons d’abord le principe de ce système, puis les contraintes liées à la technologie sous-jacente : la vidéoconférence. Afin de mettre en évidence les exigences propres à un système d’interprétation à distance en langue des signes, nous passerons en revue les systèmes et études existants. Sur cette base, nous proposerons une synthèse des exigences relatives à la conception d’un système de vidéointerprétation approprié à la langue des signes afin de tirer le meilleur parti possible de la vidéoconférence. Celles-ci seront validées au moyen d’une batterie de tests que nous avons réalisés : nous décrirons le prototype déployé et les enseignements tirés.

5.1 Principes généraux La Figure 29 rappelle le principe de l’interprétation à distance : le sourd et l’entendant sont en présence physique l’un de l’autre et l’interprète en langue des signes est à distance. Une liaison vidéo permet la communication en langue des signes entre le sourd et l’interprète et une liaison audio permet la communication entre l’entendant et l’interprète. Celle-ci peut éventuellement être assurée par téléphone. Le principal problème est l’acheminement de la vidéo pour une transmission de bonne qualité des éléments importants : en particulier le mouvement des mains et les expressions du visage.

Figure 29. Principe de l’interprétation à distance (source [MCC99]).

La Figure 30 illustre le système relais vidéo, qui est l’extension du système de relais textuel présenté dans l’analyse du domaine (voir Figure 12). Par comparaison avec le système d’interprétation à distance, on voit qu’il s’agit d’une extension naturelle de celui-ci : l’entendant était simplement contacté par téléphone. Si le sourd dispose d’un équipement personnel, il peut, lui aussi, être dispensé de se déplacer (parfois loin). Le système que l’on va concevoir pourra donc évoluer vers le support de ce service de relais.

Page 47: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 47

Figure 30. Principe du relais vidéo (source [MCC99]).

Notons aussi deux autres extensions du système

• le système fonctionne indépendamment des langages oraux et signés utilisés : il convient aussi bien en français, qu’en anglais, à la LSF qu’à l’ASL. Il se borne à transmettre les informations auditives et visuelles sans interagir avec son contenu. Ceci permet aussi de considérer l’extension du système au public plus large des devenus-sourds et des malentendants qui font appel à des interprètes oralistes. Ces dernières pourraient aussi offrir leurs services à distance, la caméra transmettant essentiellement leur visage et en particulier les mouvements bien articulés de leur bouche.

• à plus large échelle et à plus long terme, on peut envisager l’utilisation directe et banale de la vidéoconférence entre 2 sourds-signants.

5.2 La vidéoconférence Dans cette section nous donnons un bref aperçu de la technologie de la vidéoconférence.

5.2.1 Présentation générale

La vidéoconférence permet à des personnes éloignées de communiquer. Elle assure le transport en temps réel de la voix et de l’image animée en couleur. A l’heure actuelle, la vidéoconférence est principalement utilisée :

• par les entreprises, pour éviter des déplacements coûteux et parfois dangereux (syndrome post-11-septembre, guerre en Irak, SARS,…). Ceci justifie des investissements importants dans des salles de vidéoconférence sophistiquées

• par des particuliers sur Internet qui peuvent ainsi communiquer avec des amis ou des membres de leur famille parfois très éloignés et à des prix très compétitifs.

A noter que pour le commun des entendants, l’image n’apporte pas forcément un plus par rapport au téléphone. Elle contraint plus le comportement de l’interlocuteur qui doit rester à proximité de la caméra alors que la plupart des téléphones sont sans fil.

Page 48: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 48

En outre, cette caméra est aussi une intrusion chez lui. Au niveau des utilisateurs sur Internet, ce complexe est surmonté : les protagonistes ne s’embarrassent pas de « multi-tâcher » en allant relever leur courrier ou en surfant parallèlement à la conversation. Techniquement, la vidéoconférence se situe dans un contexte de transmission numérique : contrairement au téléphone, il n’est pas concevable de transmettre de la vidéo analogique à large échelle. La mise en œuvre de techniques de compression est nécessaire. Tout système de vidéoconférence exigera donc, sur chaque site :

• une ou plusieurs caméras vidéo • un ou plusieurs microphones • un codec (Codeur-DECodeur) qui assure plusieurs fonctions : conversion des

signaux analogiques vidéo et audio en signaux numériques ; compression et réduction du débit de ces signaux numériques vidéo et audio ; multiplexage de ces signaux avec divers signaux de télécommande et de signalisation ; interface électrique avec la liaison numérique et gestion des appels ; décompression des signaux numériques reçus ; conversion analogique des signaux numériques reçus

Figure 31. Principe de la vidéoconférence.

Le dispositif peut être complété d’outils de travail collaboratif comme la messagerie instantanée, tableau blanc, partage d’applications informatiques, transfert de fichiers synchrone. Il peut y avoir 2 sites ou plus. Pour plus de deux sites, on parle de vidéoconférence multipoint. Sa mise en œuvre est plus complexe et nécessite un « pont » permettant l’échange des flux vidéo entre tous les sites. Dans le cadre de ce travail, nous ne devrons pas envisager ce cas et nous nous limiterons à la vidéoconférence de point à point.

5.2.2 Réseaux numériques

La vidéoconférence fonctionne sur base de réseau de transmission numérique. Plusieurs types de réseaux peuvent être envisagés :

• l’ISDN, qui est un réseau à commutation de circuit, offrant principalement 2 canaux de communication (64Kbps) pouvant transporter de la voix ou des données. On peut les combiner ensemble en un seul canal de données à débit doublé (128Kbps).

Page 49: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 49

• le réseau Internet, qui est un réseau basé sur la circulation de paquets. Divers modes de connexion sont possibles : à très bas débit (modem « 56K » sur ligne téléphonique) ou à haut débit (câble, ADSL)

Deux notions importantes liées aux possibilités du réseau seront nécessaires pour la suite :

• la notion de bande passante : il s’agit du débit d’information maximal disponible pour la communication. Il se mesure en débit binaire par seconde (Kbps : kilobits par seconde ou Mbps : mégabits par seconde). Il convient ici de distinguer la bande passante descendante (vers soi) et montante (vers le réseau) car elles ne sont généralement pas symétriques : par exemple, la bande passante descendante est plus importante pour les surfeurs normaux dont l’activité essentielle est de consommer de l’information depuis Internet. Elle est plus symétrique pour les entreprises qui offrent des services.

• la notion de qualité de service (QoS) : il s’agit du débit d’information minimal garanti. Cette notion est nécessaire pour une transmission temps réel de qualité et implique des notions de priorité et de réservation de ressources. Celle-ci est présente dans les réseaux de type « commuté » et ISDN en particulier. Sur Internet, il n’y a pas de garantie forte à l’heure actuelle.

Pour de la vidéoconférence :

• la symétrie est souhaitable : par exemple la disponibilité d’une immense bande passante descendante sur l’ADSL n’est pas très utile si l’interlocuteur ne dispose que d’une petite bande ascendante et donc est très restreint dans la qualité de la vidéo qu’il peut proposer.

• la qualité de service est souhaitable : en son absence, la liaison risque de souffrir régulièrement de dégradations importantes de qualité et de coupures qui mineront l’utilisation du système et entraîneront son rejet.

Voici un tableau présentant ces caractéristiques pour les principales solutions pour les privés et les entreprises : Réseau Débit QoS Coût (indicatif) Usage privé Modem sur ligne tél.

56 Kbps (pas duplex) Pas de garantie Gratuit (comm. Locale)

ISDN 2x64 Kbps Garantie 30�/mois Câble Jusque 4 Mbps down

de 128 à 256 Kbps up Pas de garantie

35�/mois

ADSL de 1 à 3 Mbps down de 128 à 192 Kbps up

Pas de garantie

35�/mois

Usage en entreprise

ISDN multiple 3x128 Kbps Garantie 3x30�/mois ADSL 256 à 512 Kbps up 128 à 256 Kbps

« garantis »par l’ISP 150 à 500�/mois

SDSL 1 à 2 Mbps up et down

256 à 512 Kbps « garantis » par l’ISP

??

Tableau 3. Infrastructure de communication pour la vidéoconférence.

Page 50: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 50

5.2.3 Standards de vidéoconférence

La vidéoconférence est standardisés par l’ITU : il s’agit des recommandations : • H.320 pour l’ISDN (et plus largement pour les réseaux à qualité de service

jusque 2 Mbps) • H.323 pour le réseau Internet à débit raisonnable • H.324 pour les réseaux Internet à très bas débit (modem 56K sur ligne

téléphonique). Ces recommandations spécifient principalement le déroulement de la vidéoconférence et font référence à des nombreuses autres recommandations concernant le codage audio (série des G.7xx) et vidéo (H.261, H.263). Les outils de travail collaboratifs sont standardisés par la norme T.120. Ces deux normes sont ainsi surnommées « ombrelles » (voir Figure 32) et garantissent l’interopérabilité des équipements développés par les divers constructeurs. Celle-ci est cruciale pour le développement d’un tel système. Pour plus de flexibilité, ces normes prévoient une partie obligatoire et une partie optionnelle.

Figure 32. « Ombrelles » des standards H.320 et H.323.

A. Qualité audio (G.7xx) Les codecs audio sont nombreux. Ils proposent des taux de compression compris entre 16 et 64 Kbps et couvrent des fréquences vocales de 3.1 KHz (téléphonie normale) à 7 KHz (qualité étendue). Le codec de base est le G.711, également connu sous le nom PCM (Pulse Code Modulation), les autres sont facultatifs. Le codec audio est donc généralement négocié dynamiquement lors de l’établissement de la connexion en fonction des codecs disponibles de part et d’autre et des préférences.

B. Qualité vidéo (H.261 et H.263) Le Tableau 4 présente les formats d’images supportés. Ce sont généralement des multiples et sous-multiples du format CIF (352x288). Ils ont un rapport largeur/hauteur de 4/3. A titre indicatif, la résolution CIF est un peu en deçà de la résolution d’une télévision et le 4 CIF (704x576) correspond à une résolution de type DVD. Le QCIF (176x144) est la plus haute résolution devant être supportée par les codecs H.261 et H.263. Le CIF est optionnel. H.261 applique une compression spatiale au sein d’une image (analogue aux images JPEG) et temporelle entre les images (basée sur de la compensation de mouvement). H.263 améliore H.261 notamment la prédiction des mouvements. Ces principes sont les mêmes que pour du codage MPEG utilisé dans les VCD et DVD mais une contrainte fondamentale est différente : le système doit s’accommoder d’un débit variable.

Page 51: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 51

Débit non-compressé (Mbps)

10 FPS 30 FPS

Format d’image

Largeur Hauteur H.261 H.263

N/B Coul. N/B Coul. SQCIF 128 96 N/A Yes 1.0 1.5 3.0 4.4 QCIF 176 144 Yes Yes 2.0 3.0 6.1 9.1 CIF 352 288 Opt. Opt. 8.1 12.2 24.3 36.5 4CIF 704 576 N/A Opt. 32.4 48.7 97.3 146.0 16CIF 1408 1152 N/A Opt. 129.8 194.6 389.3 583.9

Tableau 4. Qualités vidéo

Le taux de compression n’est donc pas fixe mais dépend de la bande passante disponible. Il peut aller de 25 (très bonne qualité) à 150 (qualité moyenne). Ayant sélectionné la qualité, la taille et le nombre d’images par secondes (FPS), le Tableau 4, permet de calculer la bande passante nécessaire. Par exemple, pour du CIF en couleurs à du 20 FPS, on aura besoin d’un débit non compressé de l’ordre de 24Mbps (par interpolation entre 10 et 30FPS). Une connexion à 384Kbps exigera donc une compression de l’ordre de 62.5 qui est de bonne qualité sur l’échelle donnée. Notons aussi que ces codecs proposent une balance entre d’une part la qualité (dégradation de l’image due à la compression) et d’autre part la fluidité (nombre d’images par seconde). Ils n’imposent donc aucun de ces deux paramètres mais dégradent l’un et/ou l’autre en fonction de la bande passante instantanée. Par exemple, si l’utilisateur a privilégié la qualité de l’image, le codec sacrifiera d’abord le nombre d’images par seconde en cas de diminution de la bande passante. Notons déjà que pour l’interprétation, les deux paramètres ont leur importance : la qualité est cruciale car certains éléments sont très petits (doigts, regard) et le mouvement doit également être bien rendu. A ce niveau, un taux de 12 images par seconde semble être le minimum acceptable. Tous ces paramètres seront étudiés plus en détails dans la suite de ce chapitre. Pour terminer signalons qu’un nouveau codec est en préparation : il s’agit du H.264 qui est dans la lignée de H.261 et H.263. Le gain espéré est le doublement de la compression pour la même qualité. Ceci permettrait de diminuer d’autant les exigences en bande passante ou plutôt de faire beaucoup mieux avec les bandes passantes actuelles. Il est cependant également beaucoup plus exigeant en puissance de calcul ; ce qui n’est pas un problème avec les processeurs récents.

5.2.4 Terminaux de vidéoconférence

Divers types de terminaux sont proposés : • les « set-top-box » sont des dispositifs à placer sur une télévision qui servira

pour l’affichage et le son. L’appareil comporte la camera, le micro et le dispositif d’encodage et de décodage.

• les « tout-en-un » ont l’apparence d’un téléphone mais avec un écran et une caméra intégrée. Notons déjà que ceux-ci sont peu adaptés à l’interprétation à distance car l’écran est de petite taille. On peut généralement aussi les connecter à une télévision mais on revient alors à la solution précédente.

Page 52: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 52

• les solutions basées sur les ordinateurs personnels. Le terminal consiste en un PC multimédia connecté au réseau, équipé d’une webcam de bonne qualité et d’un logiciel de vidéoconférence. Ce logiciel sera détaillé plus loin.

(a)

(b)

(c)

Figure 33. Différents types de terminaux de vidéoconférence : (a) set-top-box (b) tout-en-un (c) sur ordinateur

La plupart des équipements (a) et (b) sont compatibles à la fois H.320 et H.323. Certains constructeurs supportent en plus des protocoles propriétaires qui exigent que toutes les parties utilisent leur produit. Les principaux constructeurs sont : Aethra, Polycom, Sony et VCON. Nous ne considérons pas plus en détails les solutions basées sur le protocole H.324 (utilisant des lignes téléphoniques pures). Les produits qui existent ne peuvent garantir une vidéo de qualité sur une bande passante aussi réduite. A titre d’exemple, citons le récent « Beamer Personal Video System » (voir Figure 34) supportant le standard H.324. Il offre une résolution QCIF mais ne propose en moyenne que de 2 à 5 images par seconde.

Figure 34. Beamer PVS.

Concernant les prix, les solutions les moins chères sont basées sur les ordinateurs personnels (en dessous de 1.000�), on trouve déjà des « set-top-box » et des « tout-en-un » autour de 2.000�. Les versions professionnelles se situent entre 5.000 et 10.000� (voire plus) mais comprennent des fonctionnalités liées à la conférence multipoint et proposent des installations de luxueuses salles de réunions complètes avec des écrans géants qui ne sont pas nécessaire ici. A ces coûts, il faut bien sûr ajouter ceux de la connexion qui ont été évoqués précédemment.

Page 53: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 53

5.2.5 Logiciels de vidéoconférence

Ces logiciels sont destinés à la solution basée sur l’ordinateur personnel. Ils sont généralement orientés H.323 mais certains offrent la possibilité de travailler en H.320 avec une ou plusieurs cartes ISDN. La plupart des logiciels fonctionnent avec du matériel standard. Certains tirent profit de matériels PC spécifiques dont ils sont le logiciel compagnon (eg. VCON Vigo). La plupart de ces logiciels supportent généralement aussi les fonctions collaboratives liées à la norme T120 : chat, tableau blanc réparti, transfert de fichiers et partages d’applications. Logiciels Plate-forme Caractéristiques Prix Génériques NetMeeting http://www.microsoft.com/windows/netmeeting/

PC-windows H323 Fourni avec Windows

CuSeeMe http ://www.cuworld.com

PC-windows H323 Version d’entrée gratuite

Sorenson EnVision http ://www.s-vision.com

PC-windows H323, utilisé dans relais aux USA

??

VideoLink http ://www.smithmicro.com/videolinkpro

PC-windows H323 60$

eConf (France Télécom) http://www.econf-communication.com/

PC-windows H323, SDK disponible pour adapter l’interface aux sourds (eg. En Suède)

??

Marvin (Envilogg, Suède) http ://www.envilogg.com/

OpenPhone http ://www.openh323.org

PC-windows Linux

H323 Peu élaboré, plutôt démo

Gratuit (open-source)

GnomeMeeting http://www.gnomemeeting.org/

Linux H323, basé sur OpenH323 Gratuit (open-source)

Plus spécifiques Allan eC (Omnitor, Suède) http://www.omnitor.se

PC-windows H323 ??

X2X Visual Meeting (VCON) http://www.xenex.fi

PC-windows H320, H323 (spécifique à la finlande)

??

Tableau 5. Principaux logiciels de vidéoconférence.

Parmi les logiciels, certains sont plus spécifiquement adaptés aux besoins des sourds. Nous les examinerons plus en détail au point qui suit, dans le cadre des systèmes de traduction en ligne existant.

5.3 Systèmes existants et évaluations externes Cette section va passer rapidement en revue les principaux systèmes qui existent dans le monde et les études qui ont été faites pour les évaluer. L’objectif ici n’est pas d’être exhaustif mais de donner une vision représentative et de mettre en évidence les exigences liées à l’emploi de la vidéoconférence dans le contexte de l’interprétation en langue des signes.

Page 54: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 54

5.3.1 Systèmes existants

Nous examinerons la situation dans les pays suivants : • Pays scandinaves et USA : ils sont plus en avance dans le traitement du

problème de l’interprétation à distance pour diverses raisons : o le problème de la distance et de l’accessibilité s’est posé de manière

plus critique (pays vastes, blocage hivernaux,…) o la législation sociale est très poussée dans les pays scandinaves. La

langue des signes y est d’ailleurs déjà reconnue officiellement o les USA n’ont pas subi l’interdiction de la langue des signes

• Pays et régions plus proches : les Pays-Bas, la France et la Flandre. Il s’agit ici de regarder l’évolution chez nos voisins qui en sont plus ou moins au même stade que nous.

Pour les pays disposant déjà d’un système de relais textuel, le système vidéo (relais et/ou interprétation à distance) s’est mis en place plus facilement. Les pays suivants disposaient déjà d’un système de relais textuel :

• aux USA : c’est d’ailleurs une obligation légale imposée aux états par « l’Americans with Disabilities Act » (1990).

• en Europe : le Danemark, la Norvège, la Suède, la Finlande, la France, les Pays-bas, la Suisse.

Aux USA, de nombreux réseaux de relais sont actifs et plusieurs proposent de l’interprétation à distance. Il peut s’agir d’organismes liés à un état américain, à un des opérateurs téléphoniques, ou d’un organisme national. Citons en quelques uns :

• Réseau USAVRS : http ://www.usavrs.com • Réseau CAN : http ://www.caninterpreters.com • Réseau SignOnASL : http ://www.signonasl.com • Opérateur ATT : http ://www.relaycall.com • Etat du Wyoming : http ://www.dawyo.org/VRI.htm

En Europe, nous savons que la Suède et la Finlande se sont dotées d’un système de vidéo-interprétation :

• en Suède, le projet a démarré en 1995 et s’est ouvert au public en 1997. Le service couvre une soixantaine de terminaux dans le pays et est ouvert du lundi au vendredi de 8AM à 8PM. Il traite environ 400 appels par mois (chiffres de 1998).

• en Finlande, le système (voir Figure 35) a été déployé entre 1998 et 2000 vers 22 ménages et un lieu de travail répartis dans l’est et le nord du pays (grande région peu peuplée). Le système a été financé par l’équivalent du Lotto (Finnish Slot Machine Association) puis repris par les municipalités.

Plus proche de nous, des essais ou projets sont à l’étude : • en France : EDF a mis en place un service destiné à ses clients sourds

(eSourds : http ://www.esourds.com ). Un projet important est également en phase préparatoire : WebSourd (http ://www.websourd.org). Il s’agit d’un portail complètement orienté vers les sourds dans sa conception. Il comprendra l’accès à toute l’information relevante pour ces personnes et à des services tels que l’explication de démarche par des vidéos LSF et un service d’interprétation en ligne. Son ouverture est prévue pour fin 2003.

Page 55: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 55

• aux Pays-Bas : des expérimentations ont lieu aux Pays-Bas depuis plus d’un an dans le cadre du projet « BeeldBellen » (http ://www.beeldbellen.info)

• au Royaume Uni, il n’y a pas de système en fonction mais des essais ont été réalisés notamment par le « Center for Deaf Studies » de Bristol dans le cadre du projet «SignWorks » et se poursuivent actuellement dans le cadre du projet européen Wisdom. Nous les détaillerons plus loin.

Figure 35. Système de la

Finlande.

Figure 36. Omnitor Allan eC (Suède).

Figure 37. eSourds, service clientèle pour les abonnés sourds d’EDF.

Techniquement, on retrouve les diverses solutions présentées dans la section sur la vidéoconférence :

• Le triple ISDN, le seul à garantir la qualité. Il permet un travail dans de très bonnes conditions mais est cher à mettre en œuvre. L’établissement de la triple connexion peut aussi être longue et poser problème. La Finlande a opté pour ce système.

• Le simple ISDN (2x64 kbps), jugé acceptable mais fatigant : les signes rapides sont saccadés et certains détails (doigts, direction du regard) sont parfois trop flous pour être bien distingués. Un exemple de vidéo comparative est fourni sur le CD-ROM compagnon.

• L’Internet à large bande mais dont la qualité de service est largement dépendante de la connexion mise en place. La qualité se rapproche généralement de celui du simple ISDN. C’est le cas en France d’eSourds qui se base sur NetMeeting avec de petites vidéos « QCIF » au sein de pages web.

Page 56: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 56

• Un système mixte acceptant plusieurs systèmes. C’est le cas du projet néerlandais « BeeldBellen ».

Concernant les logiciels spécifiques aux sourds, leur interface se caractérise par :

• un souci de simplification : o omission des fonctionnalités non nécessaires (annuaire complexe, etc) o intégration au sein de page web (généralement sur base de

NetMeeting) avec des contrôles simplifiés (simple bouton « faire un appel au centre »)

o ou encore : fonctionnement en mode plein écran, en cachant les autres applications éventuelles de la plate-forme pour imiter un véritable visiophone.

• un souci d’intégration des moyens de communication textuels (inclus dans la norme T.120) et de leur présence systématique au niveau de l’interface (voir Allan eC ci-dessus)

Concernant les domaines d’utilisation, il ne s’agit pas toujours uniquement d’interprétation à distance mais parfois aussi de contacts directs entre sourds (Finlande). Les contacts avec les services publics sont toujours évoqués. Au niveau des applications dans le domaine médical où nous avions vu qu’il y avait des objectifs contradictoires (urgence vs fidélité vs aspect émotionnel). Nous avons relevé plusieurs systèmes dans ce contexte :

• un projet canadien d’évaluation au sein de l’université de McGill : http ://ww2.mcgill.ca/icc/canarie/signLanguage/

• un système américain (university de Rochester), qui est devenu opérationnel : http ://www.urmc.rochester.edu/strongconnections/

• un système anglais à l’hôpital universitaire de Leicester qui dispose de deux liaisons de vidéoconférence avec des interprètes situées dans le centre des sourds de Leicester. Il s’agit du service d’urgence et de l’unité de soins cardiaques.

Nous ne détaillerons pas plus cet aspect ni les autres domaines d’application qui sortent du cadre strict de notre étude. Pour une revue des besoins et des diverses technologies utilisables par les sourds, on consultera [EU00].

Figure 38. Application de l’interprétation à distance en milieu hospitalier.

Page 57: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 57

5.3.2 Evaluations externes

A. Etude de l’ACE (Australie) Le système d’interprétation à distance a été testé avec 19 participants sourds, 6 interprètes Auslan, et en présence de 26 personnes entendantes représentant des fournisseurs de services. Voici les principaux enseignements, pour plus de détails, voir le rapport [Mcc99]. Tous les participants se sont déclarés partisans du système d’interprétation à distance notamment parce qu’il offre une interaction plus naturelle que le service basé sur le relais textuel, notamment au niveau de l’expression des émotions. Par comparaison avec un système de relais vidéo, les participants se sont aussi exprimés plutôt pour la présence physique du fournisseur de services. Cette présence permet de mieux contrôler le débit de la conversation. Cette préférence tient aussi à l’importance du contact humain notamment dans les interventions de type médical. Néanmoins, les participants ont reconnu l’utilité du relais vidéo dans les zones éloignées où les fournisseurs de services sont absents. Une recommandation importante de cette étude est d’établir une série de protocoles assurant une interaction efficace à trois : • un protocole de contrôle du débit de la conversation ; • des protocoles du côté interprète pour gérer la conversation en différentes

circonstances ; par exemple, suivant le niveau du client ; • un protocole pour déterminer la meilleure disposition des places et assurer ainsi le

meilleur contact visuel ; • des protocoles pour déterminer les meilleurs environnements physiques et

vestimentaires • des protocoles pour introduire les participants au concept d’interprétation à

distance avant d’entamer la conversation ; ceci inclut une période d’échauffement permettant au sourd et à l’interprète de prendre connaissance du style de l’autre partie, un protocole de remplacement de l’interprète si une des 2 parties ne désire pas continuer la conversation, un guide pour conduire le fournisseur de services vers une conversation efficace

B. Evaluation « SignWorks » de Bristol (UK) Le centre d’étude des sourds de Bristol a mené plusieurs études [Bla98a], [Bla98b], [Bur98] sur l’utilisation de la visiophonie et de la télé-interprétation en langue des signes anglaise (BSL). Ces études se situent principalement dans le cadre du projet « SignWorks », visant à favoriser le travail des sourds. Les principaux enseignements tirés sont les suivants :

• La conversation en langue des signes est possible mais demande un effort d’adaptation, notamment au niveau de la vitesse d’exécution des signes. Les sourds signent donc plus lentement et mettent en moyenne 50% de temps de plus (par exemple 1min 30 au lieu de 1min)

• L’utilisation de la dactylologie pose problème : éviter les petits écrans des vidéophones « tout-en-un » et préférer de plus grands écrans.

Page 58: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 58

• L’acceptation est bonne : à l’issue des tests scénarisés, une conversation libre s’est engagée sur la critique du système lui-même mais s’est faite au moyen du système.

• Trois configurations entre interprète et entendant ont été imaginées : avec d’un côté respectivement le sourd seul, l’entendant seul et l’interprète seul et de l’autre côté les deux autres personnes. La configuration la plus populaire était celle de l’entendant et du sourd ensemble avec l’interprète à distance. C’est cette configuration que nous considérons dans le cadre de cette étude.

C. Evaluation de l’état de Pennsylvanie (USA) L’évaluation confirme le manque d’adéquation des liaisons téléphoniques traditionnelles, l’acceptabilité de la ligne ISDN simple mais le meilleur confort apporté par la ligne triple. La mise en œuvre est notamment envisagée au niveau médical.

http ://www.cermusa.francis.edu/prototype/telemed/interpret/

D. Evaluation Ominitor (Suède) La société suédoise Omnitor a établi des mesures précises des exigences de qualité au niveau de la communication vidéo de la langue des signes [Hel97] en se basant sur des mesures et sur les recommandations ITU [H.Supp-1]. Les principales conclusions sont les suivantes :

• Au niveau de la résolution spatiale, la prise en compte du cadrage (plan américain) et la taille des éléments les plus fins (doigts et yeux), impliquent une résolution de type CIF (352x288). Une résolution QCIF (176x144) permet encore de distinguer les doigts mais non la direction du regard ; une partie du message risque d’être perdue.

• Au niveau de la résolution temporelle, les signes exécutés le plus rapidement concernent la dactylologie (parfois 7 signes par seconde). Considérant qu’il faut 3 images pour percevoir le signe, un taux de 21 images par seconde est nécessaire. Des taux inférieurs sont possibles mais amènent le ralentissement des signeurs et une certaine frustration de ceux-ci : 12 images par seconde constitue le minimum.

• Au niveau des mouvements : éviter le flou lors des mouvements est nécessaire pour augmenter les chances de perception des configurations des mains. A ce niveau, une bonne caméra et un bon éclairage sont des facteurs importants.

• Au niveau des délais : en dessous de 0,5 seconde, le délai n’est pas vraiment ressenti, au-delà de 1,2 secondes, il devient irritant.

Page 59: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 59

5.4 Exigences relatives à la conception d’un système d’interprétation à distance

Sur base des exigences générales décrites au chapitre 3 et sur celles mises en évidence à la section précédente, nous allons à présent proposer une conception plus précise du système d’interprétation à distance. Nous décrirons ici les exigences relatives aux différentes composantes du système : l’organisation du service public en terme de procédure d’accueil et de l’infrastructure, l’organisation du service d’interprétation et l’infrastructure de vidéoconférence. Ces exigences sont parfois nuancées en terme de niveau minimum requis et niveau recommandé.

5.4.1 Préparation de l’interaction au service public

A. Accueil du sourd Actuellement, un sourd se rendant sur le lieu de l’interaction rencontre d’abord son interprète dans la salle d’attente et une communication s’établit entre eux : salutations, échanges de nouvelles et prise de connaissance plus précise de la démarche à réaliser. Cette étape d’accueil est primordiale pour le sourd qui est certainement rassuré dans sa démarche par le fait de rencontrer une personne parlant « sa langue ». Au niveau du nouveau système, il importe de prévoir un accueil adéquat de la personne sourde. Parmi les différents moyens pouvant être mis en œuvre :

• l’utilisation des icônes « passe-partout » informant de la prise en charge des personnes sourdes. Le niveau pourrait être équivalent à un interprète physique présent sur demande (niveau 8).

• la formation du personnel, notamment à la manière de se comporter avec les personnes sourdes et à quelques rudiments en langue des signes

• la mise à disposition de documents visuels : brochures, vidéos… expliquant le fonctionnement du système si le sourd le rencontre pour la première fois

• il importe aussi que la même organisation se retrouve dans les différents services, afin que le sourd se retrouve immédiatement en lieu connu s’il a déjà eu une expérience précédente avec le système

B. Interprète familière Le monde des sourds et des interprètes étant petit, il est possible que le sourd ait déjà eu affaire à la même interprète. Au niveau du dispatching, on essaie de tenir compte de cette dimension dans une certaine mesure (surtout s’il y a des demandes explicites : la planification est déjà complexe sans cette contrainte supplémentaire). Ceci reste valable pour le système de télé-interprétation.

C. Echange préliminaire Durant cet échange préliminaire, la communication entre les 2 protagonistes s’adapte, principalement du côté de l’interprète qui évalue l’origine régionale du sourd, son « niveau » général d’instruction, de maîtrise de la langue des signes. Il est important que dans le nouveau système, cette étape importante soit préservée par une période préliminaire d’intimité entre le sourd et l’interprète.

Page 60: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 60

5.4.2 Organisation des lieux dans le service public

Beaucoup d’interactions dans un service public ont lieu à un guichet qui n’est pas un lieu très adéquat pour mettre en place une vidéoconférence :

• les conditions d’éclairage, de bruits ambiants ne sont pas très bonnes pour la transmission et la réception d’audio et de vidéo

• la personne sourde peut utiliser des restes d’acuité auditive et la lecture labiale : la présence d’une vitre est un obstacle à la fois pour une diffusion efficace de la parole de l’employé ainsi que parfois à une visualisation suffisante de ce dernier (épaisseur, propreté, partie dépolie...)

• la configuration du guichet : le guichet est une configuration à deux personnes en vis-à-vis, l’interprétation fait intervenir une troisième personne qui se place généralement à côté du sourd, ce qui est parfois déjà problématique avec des guichets normaux. Pour un système de télé-interprétation, le système doit être placé adéquatement : il exige le contact visuel avec le sourd mais aussi parfois avec l’entendant (ou certains documents en sa possession). Une configuration en triangle autour d’une table est plus appropriée.

• un endroit plus intime est préférable pour éviter le sentiment d’exhibition et pour plus de confidentialité

On veillera donc à prévoir un lieu adéquat à la vidéoconférence avec les caractéristiques suivantes :

• bon éclairage • bonne isolation phonique avec l’extérieur (pièce fermée réservée à la

vidéoconférence pour la durée de celle-ci) • configuration en triangle où le sourd, l’entendant et le système de

vidéoconférence occupent chacun des sommets. • position assise autour d’une table avec les documents éventuels

A noter qu’une salle spécifique ne doit pas être bloquée à cet usage unique : beaucoup de services disposent d’un local multimédia avec télévision pouvant faire l’affaire moyennant quelques aménagements.

5.4.3 Organisation du centre d’interprétation

En principe, la localisation géographique du centre n’est pas très importante. Il se situera de préférence dans un lieu géographique central par rapport aux interprètes et ayant de bonnes infrastructures de télécommunications. Le service peut cependant s’envisager comme faisant partie d’une organisation plus vaste :

• un centre d’interprétation générique comme le CIRE • en lien avec des services plus spécifiques aux sourds (par exemple le

SISB/Info-Sourd/SARE/FFSB/APEDAF sont déjà regroupés dans un même bâtiment où des interprètes sont présentes en permanence)

Comme pour les interprétations traditionnelles, il faut disposer d’un système de planification. Ce système peut être intégré au système existant si le système est mis en place dans un service d’interprétation existant qui partage des interprètes de terrain et une ou plusieurs interprètes fixes pour la télé-interprétation. En fonction de la demande, on peut déterminer le nombre d’interprètes fixes simultanées.

Page 61: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 61

Le système initial peut être constitué d’un poste unique et évoluer en fonction de la demande. Si plusieurs postes sont présents, le système offrira cependant un identifiant d’accès externe unique, les appels étant redirigés sur un des postes libres. Malgré la présence du système de planification, la saturation des postes pourrait néanmoins se produire (retard, appel imprévu, etc.) : l’appel peut alors être mis en attente et/ou redirigé sur un poste spécial. Il pourrait par exemple y avoir un poste réservé pour la secrétaire responsable de la planification qui pourrait ainsi l’utiliser pour prendre des rendez-vous en complément des autres moyens (SMS, FAX, téléphone,…) Une extension possible est la mise en place d’un système d’interprétation en urgence. Un appel entrant doit être signalé de manière à ne pas être perdu (alerte sur l’écran, alerte auditive et visuelle externe). L’appel a priorité sur d’autres appels au cas où aucun poste n’est libre. Un poste spécial peut aussi être prévu. Si le service est mis en place en continu, un système de permanence devra être assuré. La conception d’un tel système doit être examinée plus en détail avec les partenaires potentiels (service 100, hôpitaux, etc.). Elle sort du cadre de cette étude.

5.4.4 Qualité de la communication

L’interprétation à distance introduit inévitablement une dégradation de la communication qu’il faut veiller à minimiser car tout bruit supplémentaire au niveau de l’échange nuit au confort de « l’écoute » et en particulier rend plus difficile les multiples tâches que l’interprète doit réaliser simultanément et accélère sa fatigue. Nous allons passer quelques facteurs en revue.

A. Infrastructure de communication Ce point a été discuté largement dans le début de ce chapitre. Le système recommandé pour une bande passante suffisante et une qualité de service reste la triple liaison ISDN. Le confort des interprètes est à ce prix. Des solutions basées sur l’Internet à haut débit sont à examiner et peuvent être envisagées si les fournisseurs d’accès s’engagent à garantir des bandes passantes au-delà de 200 Kbps.

B. Utilisation de la caméra Une interprète présente physiquement perçoit les signes en relief et suivant un angle qu’elle choisit comme étant le plus adéquat (choix de la place au début de la séance). L’interprète suit également les protagonistes du regard. L’image captée est en deux dimensions suivant un certain angle statique et ne capte qu’une zone définie. Pour l’interaction, une caméra fixe semble suffisante mais il convient de veiller au choix de cet angle de vue et du cadrage. Ceux-ci seront déterminés par les deux parties en début de séance. Concernant le cadrage, du côté de l’interprète, on utilise le cadrage classique pour la langue des signes qui est le plan américain se concentrant sur la partie supérieure du corps au dessus de la ceinture. Du côté du sourd et de l’employé, on se pose la

Page 62: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 62

question de l’affichage ou non de l’employé (ainsi tout le monde voit tout le monde). L’image de ce dernier n’est pas primordiale mais peut apporter un plus. On peut opter :

• pour un affichage simultané du sourd et de l’entendant. Dans ce cas, on perd un peu en résolution et on doit rapprocher physiquement les parties. Ceci n’est pas toujours possible, par exemple pour une entrevue d’embauche.

• pour un affichage successif en fonction de la personne qui s’exprime. La mise en œuvre est alors plus complexe, elle demande soit un opérateur externe qui s’occupe du cadrage, soit un système à deux caméras avec un bouton poussoir qui permet de basculer l’affichage d’une personne vers l’autre. Les images peuvent être combinées pour que l’image de la personne qui ne s’exprime pas soit présentée en incrustation.

On doit aussi veiller au maintien du cadrage. L’utilisation de la position assise n’autorise pas de gros dérèglements à ce niveau, sauf si la démarche exige de quitter la table de vidéoconférence à certains moments. Le système le plus simple est d’afficher une image de contrôle en incrustation locale, chaque intervenant devant veiller à rester cadré correctement. On peut éventuellement confier cette tâche à un opérateur humain externe ou via un système automatique (caméra motorisée « intelligente »). Concernant l’angle de vue, une vue légèrement de biais est recommandée pour une meilleure observation des signes, par contre une vue de face permet de simuler un contact oculaire. Pour l’aspect bidimensionnel, le système de Teleportec (très coûteux) permet de simuler une présence physique tridimensionnelle (http ://www.teleportec.com/)

C. Image L’image est transmise avec une certaine qualité, en termes de fréquence de rafraîchissement et de résolution. Il importe que l’image soit fluide pour rendre correctement les mouvements constitutifs des signes : absence de flous (souvent liés au capteur de la caméra) et d’à-coups (liés à des ralentissements de la liaison). Concernant les éléments porteurs de sens, ceux qui paraissent les plus difficiles à transmettre sont les subtilités des expressions du visage et les configurations de la main. On se reportera ici aux mesures de qualité réalisées notamment [Hel97] et aux exigences qui en ont été déduites :

• résolution temporelle minimale de 12 images par seconde, 25 recommandées • résolution spatiale minimale QCIF (176x144), CIF (352x288) recommandée • délai maximum 1,2 s ; un délai inférieur à 0,5 s est recommandé

La vidéoconférence donne ses meilleurs résultats avec un très bon éclairage et un fond uni. Il faut aussi veiller à disposer de bons contrastes pour que la silhouette de l’interprète se détache bien. Les interprètes optent souvent pour un habit uni de couleur foncée pour mettre leurs mains en évidence.

D. Taille et type d’écran L’image reçue doit se substituer le mieux possible à l’interprète. Une image de bonne taille est donc indispensable, surtout du côté de la personne sourde :

Page 63: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 63

• un petit écran LCD (proposé par les vidéotéléphones « tout-intégré ») est insuffisant.

• un écran LCD de bonne taille (17’’) offre une très bonne image, très reposante • une télévision de grande taille est une bonne solution technique (sa résolution

affichée est comparable au format CIF) et économique. En outre elle est peut-être déjà présente. Par rapport à l’écran LCD, l’image TV est plus fatigante, notamment à cause du scintillement et du fait qu’on se place plus près qu’à l’accoutumé. Une télévision 100Hz est meilleure à cet égard. Pour l’interprète, on évitera de l’utiliser.

• le vidéo-projecteur offre une image de très grande taille mais est coûteux (>2500�) et exige un éclairage modéré incompatible avec la caméra.

• rappelons aussi le système « 3D » de Teleportec (http ://www.teleportec.com/) qui est hors de prix.

E. Transmission de l’audio Un élément à ne pas perdre de vue est une transmission correcte de l’audio qui est indispensable à la communication avec l’entendant. L’audio est géré de manière synchrone avec l’image par le logiciel de vidéoconférence. Au niveau de la capture et de la diffusion de l’audio, deux solutions sont envisageables : fermée (micro directionnel et casque) ou ouverte (micro libre, haut-parleurs). Techniquement, cette dernière solution peut poser des problèmes d’écho et éventuellement d’effet Larsen. Au niveau du service public, la solution ouverte semble préférable : elle est moins contraignante pour l’employé (pas de port du casque) et est indispensable si plusieurs entendants sont impliqués ou si le sourd dispose de restes auditifs. Au niveau de l’interprète la solution d’un micro-casque semble préférable pour un bon confort d’écoute et pour une isolation éventuelle par rapport à l’environnement de travail.

F. Moyens de communication complémentaires On veillera à utiliser un dispositif offrant des moyens complémentaires de communication :

• le chat textuel peut être utile pour épeler certains noms • le tableau blanc pour dessiner un plan visible par l’interprète • le transfert de fichiers pour que l’interprète puisse étudier un formulaire de

près si on dispose de sa version électronique Ceux-ci sont optionnels au niveau des standards de vidéoconférence mais sont proposés par la plupart des logiciels. On s’assurera de l’interopérabilité des fonctions proposées. Un système offrant une interface conviviale de type « communication totale » (par exemple « Allan eC ») est recommandé par rapport à des solutions grand public de vidéoconférence pour entendant Pour l’affichage de documents, une caméra spéciale est recommandée. Certains dispositifs de vidéoconférence la proposent en standard.

Page 64: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 64

5.5 Tests de validation Afin de valider la conception détaillée au point précédent, nous avons réalisé une série de tests de validation. Ceux-ci mettaient des sourds, interprètes et entendants dans des situations de communication typiques que l’on pourrait rencontrer dans des administrations réelles. Ils ont été réalisés sur un prototype dont nous maîtrisions tous les paramètres. Les tests ont été réalisés fin mai 2003 dans les locaux de la FFSB avec la participation de sourds recrutés par la fédération et d’interprètes appartenant à la fois au SISW et au SISB. Plusieurs observateurs externes ont été invités. Un objectif secondaire était aussi de familiariser les intervenants avec les possibilités et limites du concept de vidéoconférence.

5.5.1 Infrastructure matérielle utilisée

Les tests ont été réalisés en conditions contrôlées sur un réseau privé à haut débit (100 Mbps). Celui-ci était artificiellement bridé pour simuler différentes bandes passantes disponibles commercialement (voir Figure 39). Les postes étaient basés sur des ordinateurs PC portables équipés de caméras de très bonne qualité (plus de 1 million de pixels, résolution largement supérieure à celles utilisées en vidéoconférence). L’intérêt du PC portable est de pouvoir simuler les autres types de terminaux (« set-top-box » et « tout-en-un ») via son écran LCD et sa sortie télévision.

���������������������������������������� �������������������� ���������������� ����

Figure 39. Prototype utilisé pour les tests.

Le poste de l’interprète (voir Figure 40) était situé dans la bibliothèque de la FFSB. Il n’y avait pas de fond uniforme prévu et l’éclairage naturel et au néon était complété d’un spot de 100 W en éclairage direct. Le poste était équipé :

• d’un appareil photo numérique Fuji FinePix 2600Z, en mode webcam • d’un écran LCD (14 pouces) • d’un micro-casque semi-professionnel

Page 65: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 65

Le poste dans le service (voir Figure 41) était situé dans la salle de réunion de la FFSB avec un mur blanc comme fond. L’éclairage naturel et au néon était complété par un lampadaire halogène en éclairage indirect. Le poste était équipé :

• d’une webcam haut de gamme Logitech Quickcam 4000, avec micro incorporé

• d’un écran LCD (14 pouces) et d’un téléviseur (50 cm) • de haut-parleurs externes supplémentaires, de type PC

Figure 40. Poste de l’interprète.

Figure 41. Poste dans l’administration publique.

Le logiciel de vidéoconférence choisi est « eConf » de France Telecom. Il a été retenu sur base de ses bonnes performances, son interface conviviale, son mode plein écran avec incrustation. Le logiciel n’est pas spécifique au sourd mais dispose d’un kit de développement pour son interface. Celui-ci est utilisé par une firme suédoise pour réaliser l’adaptation du logiciel aux sourds. Des outils collaboratifs sont disponibles mais ne sont pas activés par défaut. Nous ne les avons pas testés en profondeur.

Page 66: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 66

Le logiciel de bridage de la bande passante utilisé est « bandwidth controller » (disponible depuis http ://bandwidthcontroller.com/). Il permet de limiter les bandes passantes montantes et descendantes et de surveiller leur utilisation instantanée. Initialement les tests devaient comporter une partie sur le réseau réel, en utilisant les connexions « câble » et ADSL présentes à la FFSB. Ils n’ont cependant pas été réalisés à cause de problèmes techniques d’installation et par manque de temps.

5.5.2 Scénarios des tests

Deux scénarios étaient prévus : 1. un scénario simple basé sur un formulaire, il s’agissait de la délivrance d’un

passeport 2. un scénario de discussion à bâtons rompus, situé dans le cadre d’une

embauche et mis au point avec l’aide du SARE

A. Scénario 1 : demande de passeport Le scénario prévu est le suivant :

• accueil par un entendant avec une formation minimale • contact avec l’interprète et accueil préliminaire • arrivée de l’employé avec le formulaire • occurrence et résolution d’un problème (exemple : pas de photo d’identité et

on prend une photo numérique sur place) • fin de la démarche et nouveau rendez-vous (date de disponibilité du passeport)

B. Scénario 2 : entretien d’embauche Le contexte général est une entreprise désirant embaucher un sourd. Plusieurs types d’emploi sont possibles. On demandera au sourd notamment ses compétences (ses études, ses expériences, en matière d’utilisation de la bureautique) et ses attentes. On abordera évidemment les problèmes liés à sa surdité et les moyens de les surmonter au niveau de son travail quotidien, en particulier via l’utilisation du système d’interprétation à distance.

C. Mise en œuvre Ces scénarios ont été mis en œuvre avec deux sourds dans les mêmes conditions afin de pouvoir en tirer les enseignements les plus représentatifs. L’employé était toujours le même. Le premier scénario a été mis en œuvre avec l’interprète du SISW et le second avec l’interprète du SISB. Concernant les paramètres techniques, les premiers scénarios se sont basés sur des paramètres assurant une excellente qualité mais peu réalistes en terme de bande passante. Dans la deuxième partie du test, ils ont été progressivement diminués afin de déterminer les seuils d’acceptabilité. Pour la dégradation de la qualité, le compromis réalisé entre la fluidité et la résolution était une même priorité aux deux paramètres. Les postes n’étaient pas tout à fait similaires (notamment concernant l’audio et l’affichage TV). Vers la fin du test, les participants ont permuté leur place afin de

Page 67: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 67

donner à chaque partie l’occasion d’expérimenter chaque poste et de valider les différences de perception. Les principaux moments des tests ont été filmés sur caméscope numérique afin de pouvoir être étudiés. Un montage est disponible sur le CD-ROM compagnon.

5.5.3 Participants

A. Sourds Martine Fraiture (FFSB) Thierry Adnet (FFSB)

B. Interprètes Laurence Beer (SISB) Anne-Marie Wauquierre (SISW et présidente de l’ABILS)

C. Employé : Jean-Francois Molderez (CETIC)

D. Observateurs Jean-Louis Brassiène (FFSB) Véronique Gernay (APEDAF) Max Rasquinet (CFLS)

5.5.4 Enseignements tirés

Nous donnons ici une évaluation générale des résultats des tests et un ensemble de remarques sur des points spécifiques qui sont apparus lors de leur réalisation.

A. Aperçu général Durant le test et à son issue, plusieurs discussions d’évaluation ont eu lieu. Les principales remarques collectées sont résumées dans le Tableau 6.

Interprètes Personnes sourdes Observateurs Qualité d’image 3 4 3

Qualité de perception des

signes 3 3 3

Mise en situation 4 4 N/A Environnement 3 3 3

Qualité de l’audio 2 (écho) N/A 3 Appréciation

globale 3 3 3

Tableau 6. Evalution générale de la vidéoconférence. Légende : N/A=non applicable, 0=nul, 1=médiocre, 2=acceptable, 3= moyen, 4= bon, 5=excellent

Globalement, il s’agit d’un succès : les scénarios ont tous pu être menés à bien : il n’y a pas eu de rejet immédiat, ni de difficultés insurmontables. Deux indices sont révélateurs :

Page 68: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 68

• les sourds se sont assez rapidement appropriés le moyen de communication pour s’amuser entre eux

• une partie de la discussion de débriefing s’est improvisée par vidéoconférence. La qualité de l’image est jugée de moyenne à bonne. Le poste des sourds disposait d’un dispositif double (TV+LCD). La principale amélioration concerne les conditions d’éclairage : les spots mis en place n’étant pas assez puissants. La perception des signes était jugée moyenne à bonne. Une interprète s’est plainte d’un délai agaçant (environ 1 seconde). Celui-ci n’affectait pas le poste du sourd. En poussant les investigations, il semble que ce délai soit dû au limiteur de bande passante utilisé qui fonctionnait sur cette machine. Concernant le flou de l’image, il était présent sur les mouvements rapides (voir Figure 42). Il semblait affecter plus l’image reçue par le sourd que celle reçue par l’interprète. Le problème semble se situer au niveau de la caméra utilisée et de l’éclairage. Les deux scénarios d’interaction ont été appréciés et jugés assez réalistes. Par contre l’environnement général pourrait être amélioré, notamment pour l’éclairage, le fond et la finition (il s’agissait ici d’un prototype avec de nombreux câbles apparents).

Figure 42. Exemple de flou.

B. Préférence d’affichage La préférence entre l’affichage TV et LCD varie suivant les personnes. La TV semble plus lumineuse et offre des couleurs plus riches, elle a aussi une plus grande surface d’affichage. Par contre son image est plus « flashante » et donc fatigante pour de longs usages. Pour les interprètes, un écran LCD de bonne taille et de qualité est indispensable. Le principal intérêt de la télévision est son prix et sans doute sa disponibilité dans beaucoup de services publics

Page 69: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 69

C. Problème de l’écho dans le casque de l’interprète Une des premières surprises durant les tests a été la découverte de la présence d’un écho dans le casque de l’interprète. Celui-ci est dû au retour de la voix diffusée dans les haut-parleurs du service public et capté par le micro. Il n’a pas posé de problème majeur mais est un peu gênant. Des pistes d’amélioration sont :

• diminuer le gain des haut-parleurs (en veillant à rester suffisamment audible) • éloigner les haut-parleurs du micro • utiliser un micro plus directionnel • utiliser un filtre d’élimination de l’écho

D. Qualité minimale requise Pour une vidéoconférence utilisant le protocole standard et compatible, les tests confirment la nécessité d’un format d’image CIF et d’un débit supérieur à 256 Kbps, et de préférence 384 Kbps. Les tentatives de réduction de la taille ou de la bande passante ont rapidement amené des problèmes de communication La possibilité de mener une conversation à 128 Kbps en se limitant au format QCIF n’est pas recommandée pour l’interprétation. Elle pourrait convenir à des sourds communiquant directement entre eux par Internet, pour autant que leur connexion leur assure ces débits. Actuellement ces débits correspondent à la limite supérieure proposée par les solutions commerciales « grand public » : l’utilisation de connexion de type ADSL ou câble est clairement exclue au moment où non écrivons ces lignes. Cependant, ces obstacles technologiques à une disponibilité « grand public » seront vraisemblablement levés à court terme (d’ici un an ou deux) avec des connexions offrant une plus grande bande passante montante et avec une qualité de service garantie, probablement dans un premier temps uniquement entre des abonnés du même fournisseur d’accès Internet.

Page 70: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 70

6 Interprétation virtuelle

Dans ce chapitre, nous allons analyser plus en détail les possibilités d’automatisation de la traduction de la communication entre un entendant et un sourd-signant. Nous allons d’abord présenter la structure générale des flux de communication, ainsi que les processus que l’on peut mettre en place pour opérer des transferts entre eux. La faisabilité de l’approche dans un contexte général est utopique : nous ferons un rapide état de l’art des diverses technologies à mettre en œuvre pour mettre en évidence les composants les plus matures et les plus problématiques. Nous terminerons néanmoins ce chapitre en illustrant plusieurs systèmes réels ou en cours de développement qui répondent à des besoins partiels. Nous monterons quelle est leur utilité au sein des services publics.

6.1 Chaîne de communication sourd � entendant La Figure 43 illustre les flux de communication impliqués dans un transfert de messages entre un sourd-signant et un entendant. Chaque partie a des compétences différentes et s’appuie sur des modalités principales différentes. Les entendants, utilisent principalement le canal sonore (la voix) et très peu le canal visuel (quelques gestes, langage corporel). Ils peuvent aussi utiliser l’écrit (lettres, SMS, email,…). Le message est transmis en langue française, soit en version orale, soit écrite. L’entendant moyen ne connaît généralement pas la langue des signes. Les sourds utilisent principalement le canal visuel (gestes, expressions du visage) et très peu le canal sonore (parfois des soufflements et des claquements sont perceptibles par l’entendant). Le message est transmis en langue des signes. Le canal textuel ne peut être utilisé pour la langue des signes : celle-ci ne possède pas de représentation écrite usitée. Le manque de maîtrise du français chez le sourd moyen l’empêche généralement de passer par le français écrit. Le canal sonore est utilisé par les sourds qui peuvent parler.

Sourd Entendant

Audio

Vidéo

Texte

Capacité orale?

Compréhension LS ?

Audio

Texte

Vidéo

Maîtrise du français ?

Reconn. Geste + Visage

Reconn. vocale

Traduction LS ou FS

Synthèse 3D

Animation en LS ou FS

Traduction en français

Synthèse vocale

Maîtrise du français ?

Figure 43. Automatisation de la traduction des flux de communication

entre le sourd et l’entendant.

Page 71: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 71

Examinons les deux sens de communication pour analyser comment la traduction pourrait s’opérer. Nous prendrons la phrase comme unité sémantique. Dans le sens de l’entendant vers le sourd, on peut mettre en œuvre :

• la reconnaissance vocale ou se baser sur la saisie textuelle directe. • la traduction s’opère par l’analyse sémantique de la phrase sur base de la

grammaire française et l’identification d’un équivalent en langue des signes (également sur base de la connaissance de cette grammaire). A priori, on peut craindre de la faisabilité de cette phase de traduction, nous verrons cependant qu’il existe des solutions pour la simplifier ou l’éviter

• la description linguistique en langue des signes peut ensuite être transmise à un composant d’animation d’un personnage de synthèse qui l’exprimera visuellement.

Dans le sens inverse, du sourd vers l’entendant, une chaîne complémentaire est mise en œuvre :

• elle débute par la reconnaissance automatique de la langue des signes. Ceci nécessite l’identification simultanée de nombreux éléments comme les configurations des mains, les mouvements des bras, les expressions du visage et la direction du regard. Contrairement au français, une saisie symbolique n’est pas possible ici (ou alors directement en français et il n’y a plus de travail à réaliser).

• la traduction de la langue des signes vers le français transforme les structures grammaticales de la langue des signes en structures françaises véhiculant un sens équivalent.

• Le résultat peut être formulé textuellement ou éventuellement envoyé vers un synthétiseur vocal.

Ces divers processus sont très complexes et délicats à mettre en œuvre car ils touchent au sens du message. Notons que la solution de la vidéoconférence se contentait de transmettre les messages bruts en veillant à les dégrader le moins possible.

6.2 Etat de l’art des technologies

6.2.1 Synthèse de contenu en langue des signes

Deux approches sont explorées pour la génération d’animation en langue de signes : l’une est basée sur la vidéo et l’autre sur l’animation de personnages de synthèse. Le principe de l’utilisation de la vidéo est simple : il suffit de mettre les vidéos de signes élémentaires en séquence pour créer sa phrase en « langue des signes ». L’approche a évidemment de nombreuses limites :

• il faut disposer d’une banque des signes élémentaires (un dictionnaire) avec la même personne qui les signe.

• la jointure entre les signes est difficile à assurer (voir notamment [Kra99]). • l’approche est trop figée pour vraiment reproduire la langue des signes. Des

problèmes se posent par exemple pour les expressions du visage, le paramétrage de l’ampleur ou de la vitesse de certains signes, etc.

Page 72: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 72

En dépit de ces limites, l’approche est utilisable mais dans le contexte plus restreint de la langue orale signée. Un exemple de produit est iCommunicator qui sera détaillé plus loin dans ce chapitre. L’autre approche est basée sur l’utilisation d’avatars. Ceux-ci ont été rendus populaires par leur utilisation dans des jeux vidéo (par exemple dans les « First Person Shooters », les « Mondes virtuels persistants », etc). On les trouve énormément dans les publicités, dans des émissions télévisées (même en direct) et au cinéma (des films sont à présent entièrement réalisés en images de synthèse). Par rapport à la vidéo, les avatars présentent de nombreux avantages :

• ils sont entièrement contrôlables dans leurs mouvements, la vitesse d’exécution.

• les mouvements peuvent être décrits complètement dans un langage très compact formé par des commandes de pilotage. Le volume de données à transmettre est plusieurs ordres de grandeur inférieur au volume de la vidéo correspondante.

• ils sont totalement modelables (changement du squelette, du « skin », etc). La description du personnage lui-même est également de taille réduite.

• l’angle de vue est au choix de l’utilisateur Les personnages qui nous intéressent se caractérisent cependant par des exigences particulières rendant impossible l’utilisation comme telle des avatars existants :

• animation temps réel : les personnages doivent pouvoir être animés en « live ». Ceci exclut tous les personnages de synthèse de très bonne qualité calculés en temps différé.

• animation en langue des signes : la plupart des personnages virtuels sont des modèles simplifiés qui manquent de finesse au niveau de l’animation des mains et du rendu des expressions du visage. Certains personnages virtuels sont animés par des marionnettistes.

Plusieurs systèmes propres à la langue des signes ont été développés, ils sont rapidement présentés au Tableau 7. A part les produits basés sur la technologie de Vcom3D et Televirtual (Figure 44 et Figure 45), il s’agit principalement de prototypes (voir Figure 46, Figure 47 et Figure 48) qui ont leurs limites. Les techniques et algorithmes les plus couramment utilisés sont, pour l’animation des bras :

• la digitalisation des mouvements qui assure un rendu réaliste puisque reproduisant un mouvement réel. Un inconvénient est qu’on capture un unique représentant d’un mouvement qui peut avoir de nombreuses variantes que l’on ne décrit pas. Celles-ci doivent être capturées séparément ou être introduites au moyen d’opérateurs de transformation.

• la cinématique inverse, qui permet de calculer le mouvement « naturel » d’un corps articulé entre deux points et évite de devoir donner l’ensemble de descriptions angulaires à chaque instant. Elle est plus compacte et se prête mieux à la description des mouvements sur des bases linguistiques (voir [Los00a] et [Los00b]). Cependant les mouvements peuvent manquer un peu de naturel dans leur dynamique. Des algorithmes complémentaires peuvent corriger ce point (voir [Leb98], [Leb99], [Pot00]).

Page 73: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 73

Pour l’animation faciale : la technique des nœuds déplaceurs permet de déformer le maillage qui décrit la face et ainsi de simuler les froncements des soucils, des sourires, etc (voir [Los02]). Les technologies d’implémentation se basent généralement sur un des standards de développement 3D suivant :

• VRML : un langage standard de description de monde 3D dans un format textuel adapté pour l’Internet. Des outils de visualisation existent pour la plupart des plateformes informatiques : Cosmos, Blaxxun, Cortona. Ils sont en principe interchangeables mais en pratique, leur compatibilité a des limitations à cause d’extensions propriétaires, notamment au niveau de l’interfaçage avec des langages externes de contrôle (Java, C++, script). Ces extensions sont nécessaires à cause des limitations des possibilités d’animation au sein de VRML

• Java3D (SUN) : il s’agit d’une interface de programmation 3D pour Java. Son utilisation assure une bonne portabilité de l’application. Les performances sont également bonnes car l’implémentation tire parti des accélérations matérielles sous-jacentes. Les interfaces de programmation offrent un bon niveau d’abstraction.

• Direct3D (Microsoft) : il s’agit de la technologie de Microsoft pour la programmation 3D sous Windows. Elle se situe dans le cadre de la technologie DirectX qui permet une programmation graphique efficace sous Windows. Les interfaces de programmation sont cependant complexes.

Nom Type Technologie Remarques Vcom3D (USA)

Commercial VRML (Blaxxun)

Modélisation complète de la LS : mains et expressions du visage Plusieurs avatars proposés Studio de conception adapté à la LS http ://www.vcom3.com

Visia (ViSiCAST)

Proto ?? http ://www.televirtual.com/euro_3.htm

Signeuse I3D (Lille)

Proto de recherche (thèse)

VRML C++ (cosmos)

Avatar plat (2D) et 3D Bonne finition Expressions du visage limitées http ://www-cal.univ-lille1.fr/

Virtual Signer (UCL)

Proto de recherche (mémoire)

Java3D Animation par cinématique inverse Finition partielle : pas de jointure Pas de détection de collision Pas d’expression du visage http ://www.touva.be/virtualsigner/

Signeur Paris XI

Proto de recherche (thèse)

?? Personnage très simplifié Pas d’expression du visage Signe complexe (eg. Foule)

Signe3D (Aptitude)

Proto de démo

Direct3D (VisualBasic)

Pas d’expression du visage Animation par cinématique inverse

Tableau 7. Liste des principales technologies d’avatars signants.

Page 74: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 74

Figure 44. Avatar signant Vcom3D.

Figure 45. Avatar Visia (Televirtual)

Figure 46. Avatar de Paris XI

Figure 47. Virtual Signer (UCL)

Figure 48. Avatar de Signe3D.

Page 75: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 75

6.2.2 Technologies de traitement de la parole

Le traitement de la parole est un sujet très vaste et très complexe dont nous ne donneront qu’un très bref aperçu tiré de [Tut00] et de notre entrevue chez BabelTech. Le domaine est très actif et connaît de nombreux développements liés à la révolution du GSM, la recherche (grandes bases de données, mise en commun de ressources de laboratoires) et les outils d’ingénierie pure (de nature algorithmique). On distingue 3 types de techniques :

• les reconnaisseurs qui ont pour mission de décoder l’information portée par le signal vocal à partir des données fournies par l’analyse. On peut vouloir reconnaître le locuteur ou la parole. Pour la reconnaissance de parole, on distingue les cas monolocuteur, multilocuteur et indépendant du locuteur. On distingue également entre mots isolés, connectés et dictée continue.

• les synthétiseurs qui ont la fonction inverse : ils produisent de la parole artificielle. Ils peuvent être pilotés par une représentation numérique ou symbolique (textuelle pure ou enrichie linguistiquement)

• le rôle des codeurs est de permettre la transmission ou le stockage de la parole avec un débit réduit, ce qui passe par une prise en compte judicieuse des propriétés de production et de perception de la parole.

Parmi ces techniques, seules les deux premières nous intéressent et seront détaillées ci-dessous.

A. Synthèse de la parole D’apparence triviale, la synthèse de la parole est un processus complexe tant au niveau des processus cognitifs impliqués (contextualisation, phonétisation, intonation, rythme…) qu’au niveau du dispositif de génération (configuration des muscles articulateurs, vibration des cordes vocales,…). Le système est organisé informatiquement en une série de modules reproduisant le traitement général humain : prétraitement, analyse morphologique, contextuelle, syntaxique-prosodique, puis le synthétiseur proprement dit. La phase de synthèse a récemment connu une avancée impressionnante par sélection d’unités dans une grande base de données. Sur base de plusieurs heures de parole, il est à présent possible de synthétiser des voix quasiment indiscernables de voix humaines. Un exemple de produit basé sur cette technique est BrightSpeech de la société BabelTech (http ://www.babeltech.com) Dans le cadre de cette étude, la synthèse semble réservée à l’entendant. Notons cependant que dans le cadre des personnes devenues-sourdes, le système peut être modifié en remplaçant le composant final de synthèse par un composant animant les unités sonores sur une tête de synthèse sous forme de mouvements labiaux. Pour les sourds disposant de restes auditifs, la voix de synthèse peut être un complément utile par sa clarté et la régularité de son rythme.

Page 76: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 76

B. Reconnaissance de la parole Différents systèmes de reconnaissance de la parole ont été développés, couvrant des domaines aussi vastes que la reconnaissance de quelques mots clés sur lignes téléphoniques, les systèmes à dicter vocaux, les systèmes de commande et contrôle sur PC, et allant jusqu’aux systèmes de compréhension du langage naturel. Les premières technologies étaient basées sur le principe de la reconnaissance de mots. Elles étaient limitées par la taille du vocabulaire et plus adaptées à un contexte monolocuteur. Dans ces conditions, on obtient à l’heure actuelle des résultats quasiment parfaits. Pour les systèmes à large vocabulaire et multilocuteur, on doit descendre au niveau du phonème et l’objectif est de déduire un modèle indépendant de la voix. La mise en œuvre se base généralement sur des modèles acoustiques statistiques entraînés sur une grande quantité de données de parole. Ils font appel à des modèles de Markov cachés ou des réseaux de neurones artificiels, parfois de manière combinée. Les performances actuelles sont encore loin des performances humaines : le taux d’erreur varie en fonction de la taille du vocabulaire et du caractère dépendant ou indépendant du locuteur. La robustesse est également un grand défi : la présence de bruit diminuant rapidement les performances de reconnaissance. Des produits sont commercialisés pour divers types d’applications (commande industrielle, dictée vocale,…). Au niveau des dictées vocales, les solutions sont dépendantes du locuteur et exigent une phase d’entraînement initiale d’une dizaine de minutes environ. Citons les produits suivants : ViaVoice (IBM), Dragon Naturally Speaking (ScanSoft), Microsoft Speech. Nous avons eu l’occasion d’expérimenter Dragon Naturally Speaking et même de le mettre en œuvre au sein d’une application. Nous y reviendrons dans la partie applicative de ce chapitre.

6.2.3 Reconnaissance de la langue des signes

On peut ici mettre en œuvre des techniques utilisant un système de capture des mouvements (basé sur un système complexe de harnais, gants et enregistrements de certains points de la face) ou analysant un flux vidéo (au moyen de diverses techniques de traitement de l’image : segmentation, extraction de caractéristiques discriminantes, etc). La reconnaissance de la langue des signes implique principalement la reconnaissance de caractéristiques manuelles et faciales. Elles font l’objet de recherches au niveau de divers laboratoires : à l’UCL [Erg98], Aachen (RWTH, dans le cadre de WISDOM) [Ers03], au Japon [Sag97], en Australie [Kad95], aux USA [Yan01], [Gri99], [Gri02]. Depuis 1996, un workshop « Gesture and Sign Language in Human-Computer Interaction » fait annuellement le point sur l’évolution du domaine [Wac97]. Au niveau des réalisations concrètes, les progrès les plus marquants ont lieu au niveau du secteur de « l’edutainment » (combinant loisirs et éducation). La Figure 49 montre une réalisation de la société belge Alterface (http ://www.alterface.com). Typiquement une personne filmée est « immergée » dans une application avec

Page 77: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 77

laquelle elle interagit par des gestes. Des applications similaires seront bientôt disponibles sur des consoles de jeux grand public. La reconnaissance des gestes n’est cependant pas assez fine pour être appliquée à de la reconnaissance de la langue des signes.

Figure 49. Reconnaissance gestuelle et « immersion »

dans un environnement virtuel (AlterFace).

Au niveau de la reconnaissance faciale, des applications en temps réel convaincantes commencent à voir le jour notamment par EyeMatic (voir Figure 50). Les expressions faciales d’une personne (mouvements labiaux, sourire, étonnement, froncements des sourcils…) sont reconnus et commandent un avatar. Ceci permet ainsi de réaliser une communication visuelle sur des bandes passantes réduites. Dans le contexte de la langue des signes, l’information sémantique pourrait être extraite de manière à compléter celle contenue dans les gestes.

Figure 50. Avatars faciaux synchronisés d’EyeMatic.

6.2.4 Traduction automatique

Le problème de la traduction automatique entre deux langues est un problème ardu, encore largement non résolu pour les langues orales qui sont pourtant étudiées depuis longtemps et bien décrites. La langue des signes cumule les difficultés supplémentaires de différer sensiblement par rapport aux langues orales et d’être encore très mal décrite. Outre les travaux des linguistes pour en établir plus précisément la grammaire, divers travaux ont lieu sur les représentations informatiques adéquates. Les domaines de recherche explorent le paradigme « Movement-Hold » de Liddell & Johnson’s ([Lid89], [Vog99], [Spe01], [Zij03]), la notation HPSG (Head-driven Phrase Structure Grammar) [Bun02][Mar02], SiGML [Ell00] et les systèmes de réécriture TAG [Zha00].

Page 78: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 78

Pour contourner le problème de la traduction, deux options sont possibles :

• rester dans la même langue en optant pour du français signé • se limiter à des phrases types pour lesquelles ont connaît la traduction

(approche dite des « langages formulaïques ») Nous verrons plus loin des systèmes pratiques optant pour ces simplifications.

6.3 Présentation de systèmes réalisables

6.3.1 Possibilités générales

Une des principales conclusions qui ressort de l’état de l’art de la section précédente, est que les techniques de support à la communication du sourd vers l’entendant sont beaucoup moins matures que celles de l’entendant vers le sourd. Ni la reconnaissance visuelle de la langue des signes, ni sa traduction ne sont réalisables actuellement. Nous ne les explorerons pas plus dans le reste de ce chapitre. La direction de communication du sourd vers l’entendant souffre de plusieurs problèmes mais ceux-ci sont surmontables :

• le caractère lié au locuteur de la reconnaissance vocale est acceptable pour certaines classes d’applications où le nombre de locuteurs est connu et stable dans le temps : par exemple dans un établissement scolaire ou dans une administration.

• la traduction en langue des signes peut être évitée en passant par du français signé (considéré comme un pis-aller pour les sourds mais néanmoins accepté) ou par l’utilisation de formules pré-encodées.

Dans la suite de cette section, nous allons détailler quelques applications utilisant ces hypothèses de travail. Nous examinerons également les possibilités plus larges qui pourraient convenir au public des devenus-sourds.

6.3.2 Systèmes de communication interactifs partiels

Ces systèmes se concentrent principalement sur la transmission d’informations de l’entendant vers le sourd. Concernant le canal retour, nous supposerons :

• soit qu’il ne pose pas de problème : c’est le cas si le sourd est capable de parler

• soit qu’il est peu important à cause de la nature asymétrique de la communication. C’est le cas d’un étudiant assistant à un cours. En cas de nécessité d’interaction, un système manuel de style « ardoise magique » ou automatique basé sur la synthèse vocale est envisageable.

Nous devons aussi considérer la contrainte que le système de reconnaissance vocale doit être au préalable entraîné au locuteur. Un entraînement de base ne dure que quelques minutes mais rend déjà impossible d’apostropher une personne. Un entraînement assurant une reconnaissance plus fiable et donc plus confortable peut nécessiter de nombreux ajustements en cours de l’utilisation. On se restreindra donc aux classes de systèmes mettant en œuvre de manière récurrente les mêmes locuteurs.

Page 79: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 79

Deux classes concrètes peuvent être citées : • le cas de l’enseignement : durant l’année scolaire, le sourd suit un

enseignement avec les mêmes professeurs (de l’ordre d’une dizaine). Dans ce cas, le système est géré par l’étudiant qui veille à enregistrer les profils vocaux de ses professeurs.

• le cas de démarches courantes au sein d’une administration : par exemple la rédaction d’un recommandé à la poste, le renouvellement d’un passeport à la commune. Dans ce cas, le système est géré par l’administration qui veille à enregistrer les profils vocaux des employés prévus pour interagir avec les sourds.

Nous allons à présent illustrer un exemple de chacun de ces systèmes.

A. TESSA : Text and Sign Support Assistant (Projet ViSiCAST) Tessa est la principale réalisation du consortium ViSiCAST, financée par le 5ème programme-cadre européen [Ban00]. L’objectif général de ce projet est similaire à celui de notre étude : améliorer l’intégration des sourds. Le projet est coordonné par l’université d’East Anglia (UK). Divers partenaires européens sont impliqués, notamment : Televirtual (UK) pour sa technologie d’avatars, l’université de Hambourg (aspects linguistiques), l’Institut National des Télécommunications (France), ainsi que des organismes de sourds : le Royal National Institute for Deaf People (Royaume Uni) et l’Instituut voor Doven (Pays-Bas)

Figure 51. Visia signant une explication à la Poste anglaise.

L’objectif de TESSA est d’aider les employés postaux dans leurs interactions avec les personnes sourdes (voir Figure 51). Il s’agit ici d’aider à mener à bien des transactions simples et sans surprise comme l’encaissement d’un chèque ou l’achat de timbres. Le principe de l’interaction est illustré à la Figure 52 :

• L’employé postal parle au micro « Votre colis sera délivré le {date_prévue}» • La reconnaissance de la parole détermine la phrase prononcée. • L’ordinateur localise et assemble l’animation correspondante

Page 80: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 80

• L’écran destiné à l’usager montre l’animation de l’avatar (nommé Visia) ainsi qu’une version textuelle.

Figure 52. Chaîne de traitement dans le système TESSA.

Les interactions peuvent sembler très rigides car limitées à un ensemble de phrases clefs. Les animations peuvent même être précalculées dans des fichiers. Ceci revient à jouer de la vidéo et on ne profite finalement guère des avantages offerts par un personnage de synthèse. L’approche utilisée pour animer TESSA se base sur une reproduction de données capturées par un harnais. On peut s’interroger sur le réalisme d’un tel système qui semble à la merci du moindre imprévu. Le système a été évalué en profondeur dans [Cox02][Cox03]. L’étude révèle que le système permet de mener à bien les transactions mais allonge notablement le temps nécessaire (doublement du temps) par rapport à une situation où le sourd est livré à lui-même sans interprète. Le système a cependant été jugé globalement utile, notamment comme moyen alternatif à utiliser en cas où la démarche s’enlise. Pour rendre le système plus flexible, des extensions sont envisagées notamment au niveau d’une utilisation plus poussée de la reconnaissance vocale pour sortir du cadre des phrases types. Le risque est alors de devoir basculer vers de l’anglais signé plutôt que du BSL. Une autre extension envisagée concerne le canal de communication allant du sourd vers l’entendant. Il s’agirait dans un premier temps de reconnaître un nombre limité de signes. L’approche semble avant tout pragmatique et à le mérite de se situer dans un programme d’accessibilité plus large destiné à toutes personnes ne maîtrisant pas bien l’anglais : outre la langue des signes, le système pourrait aussi afficher des sous-titres dans des langues orales telles que le français ou l’allemand. Une telle extension peut s’avérer utile dans les lieux forts touristiques. Le personnage de synthèse peut également encore être utilisé avec des devenus-sourds en lui faisant remuer les lèvres de manière synchronisée avec l’audio et en présentant des sous-titres. Nous retrouverons d’autres applications de l’avatar utilisé dans la suite de ce chapitre, notamment sur le web et en télévision.

Page 81: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 81

B. iCommunicator iCommunicator est un produit commercialisé en Amérique par Interactive Solutions et présenté sur leur site Internet (http ://www.myicommunicator.com). Il s’agit d’un produit intégrant plusieurs fonctionnalités (voir Figure 53) :

• une reconnaissance vocale (basée sur Dragon Dictate). Le texte reconnu s’affiche dans la zone du bas et peut être retravaillé plus tard, par exemple pour compiler des notes de cours, réaliser un compte rendu d’une conférence, etc.

• une présentation en américain signé avec un affichage vidéo des mots chargés de sens (substantifs, verbes, adjectifs,...). Le cadrage peut varier suivant les mots : soit une vue classique en plan américain ou une vue de la main quand elle suffit (exemples : chiffres, lettres)

• une ligne de saisie pour le synthétiseur vocal, permettant au sourd qui n’aurait pas la capacité de parler de s’exprimer.

Le produit semble surtout viser les adolescents dans le cadre de leurs activités scolaires et sort donc du cadre strict de cette étude. Le système correspond bien aux contraintes d’utilisation évoquées plus haut : entraînement du professeur, communication majoritairement du professeur vers l’étudiant. La dimension “aide à la prise de notes” est également très intéressante à relever. En effet, la présence d’une interprète ou de la capacité de lire sur les lèvres demande au sourd de garder un contact visuel constant et il doit donc faire un choix entre la prise de notes et “l’écoute”. D’autres alternatives sont bien sûr de recourir aux notes d’autres étudiants ou même celles du professeur. Le système peut aussi convenir pour une utilisation au sein d’un service public pour autant qu’on fasse l’effort de la phase d’entraînement. Une vidéo de démonstration est disponible sur le site Internet de la société ainsi que sur le CD-ROM en annexe.

Figure 53. Interface de iCommunicator

Notons que la réalisation d’une telle application n’est pas spécialement complexe dès lors qu’il est possible d’assembler des composants commerciaux « off-the-shelf » de qualité. Dans ce cas, le produit est basé sur le produit reconnaissance vocale dépendant du locuteur Dragon Naturally Speaking. Nous avons pu le tester séparément. Il dispose d’un kit de développement puissant utilisable dans des

Vidéo présentant chaque signe dans l’ordre de l’anglais (anglais signé)

Texte reconnu depuis le microphone

Ligne de saisie pour le synthétiseur vocal

Page 82: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 82

environnements standard de programmation tels que Visual Basic et Visual C++. Nous l’avons rapidement mis en œuvre pour réaliser un prototype sans prétention et se limitant à la reconnaissance de parole sans technique de visualisation en langue des signes. Il n’est donc pas adapté pour les sourds-signants mais pourrait convenir à des devenus-sourds ou des malentendants. La fonctionnalité de l’application est simplement d’afficher dans une très grande police la dernière phrase prononcée. Typiquement ceci permet au sourd de suivre sur les lèvres et de jeter un regard à l’écran pour s’assurer de la compréhension. Les anciennes phrases sont également mémorisées et consultables dans une zone de texte de police plus petite. Ce texte peut être sauvé et éventuellement retravaillé dans un traitement de texte. Ce genre d’application a été étudié plus en détail dans des projets européens tels que VOICE (http://voice.jrc.it/).

Figure 54. Prototypage de système interactif simple basé sur l’écrit seul.

La figure ci-dessus illustre l’application à laquelle on a dicté quelques lignes du recueil « L’histoire des sourds » [Gerday]. La qualité de la reconnaissance est ici très bonne : le sens est entièrement préservé et l’orthographe presque parfaite. Ce test a cependant été réalisé dans de bonnes conditions :

• entraînement standard d’une dizaine de minutes (réalisé quelques semaines auparavant et sans adaptation particulière)

• environnement calme • micro de très bonne qualité • recalibrage avant le début de la session • attention particulière à la diction et à l’articulation

La qualité des résultats se dégrade rapidement et donne des textes dénudés de sens dès qu’une des conditions n’est plus réalisée. Nous avons également rencontré d’autres causes de dégradation :

• liées au locuteur : par exemple lorsque celui-ci souffre d’une maladie modifiant le timbre de sa voix (rhume, mal de gorge)

• liées aux algorithmes mis en place : ceux-ci privilégient les enchaînements de mots les plus probables (établis sur base de “corpus” linguistiques). Des textes poétiques peuvent par exemple poser problème par leur emploi non

Page 83: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 83

conventionnel des mots. Les homophones sont également problématiques (par exemple “ces chalets”, “ses chalets”, “ces chats laids”, “sécha les”), car l’utilisation du contexte est limitée et probabiliste.

6.3.3 Systèmes d’information en langue de signes

Ici, la chaîne de communication se limite au rendu de matériel en langue des signes et ne pose pas de problème majeur. Il faut cependant veiller à disposer de bons outils pour générer ce contenu de manière aisée. Des recommandations sur l’emploi de la langue des signes pour le web sont décrites dans [Hel02]. Nous allons passer en revue trois classes de produits : les dictionnaires, les éditeurs de contenu hypertextuel enrichi en langue des signes et des systèmes de diffusion de langue des signes en temps réel.

A. Dictionnaires en langue des signes Nous avons déjà mentionné les dictionnaires DILS, Mano, DicoLS. Tous les trois sont basés sur l’utilisation de la vidéo. Le dictionnaire « Sign Smith Illustrated Dictionary » de Vcom3D illustre l’apport du personnage de synthèse. Sur la Figure 55, on distingue notamment les contrôles pour modifier la vitesse (tortue-lapin), ainsi que les curseurs pour modifier l’angle de vue.

Figure 55. Avatar Vcom3D mis en place

dans le « Sign Smith Illustrated Dictionary ».

B. Systèmes de gestion de contenu en langue des signes Concernant la gestion de contenu en langue des signes, le produit suédois LinkIt permet de créer et de distribuer l’équivalent d’un site Internet combinant texte et langue des signes (avec un affichage synchronisé par rapport au texte). Il s’agit cependant d’un format propriétaire nécessitant un programme spécial pour la visualisation. La Figure 56 illustre son utilisation dans le cadre d’histoires enfantines. Le produit fait appel à de la vidéo et est plutôt destiné à générer du contenu distribuable sur CD-ROM.

Page 84: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 84

Figure 56. LinkIt utilisé pour raconter une histoire pour enfant.

Un autre système développé en France est le LAC, (Logiciel multimédia d’apprentissage des techniques de communication chez les personnes sourdes). Ce logiciel fonctionnait initialement avec des vidéos. Des expériences ont été menées avec succès pour les remplacer par un avatar [Los00a] (voir Figure 57).

Figure 57. Interface LAC, en mode vidéo et avatar « plat ».

L’avatar Visa réalisé par Televirtual dans le cadre du projet ViSiCAST a également été testé dans un système de traduction de la météo sur le web. Comme dans le cas de TESSA, le domaine peut être décrit par un ensemble assez restreint de formules génériques.

Figure 58. Avatar Visia signant la météo sur le web.

Page 85: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 85

C. Système de diffusion de la langue des signes en temps réel L’avatar Visia peut aussi être mis en œuvre au niveau d’un système de diffusion télévisuel. Le schéma de principe est illustré à la Figure 59 : les sous-titres seraient extraits du Teletexte par un décodeur appartenant à la personne sourde. Ces sous-titres seraient injectés dans un composant de traduction qui génèrerait les ordres d’animation de l’avatar. L’image de l’avatar serait ensuite incrustée à l’écran avec l’image et le son. La Figure 60 et la Figure 61 illustrent ceci avec deux avatars différents.

Figure 59. Utilisation Visia pour interprétation télévisuelle.

Figure 60. Visia signant le journal

télévisé

Figure 61. Simon signant le journal

télévisé.

Comme décrit la présence du composant de traduction n’est actuellement pas réaliste pour de la génération de langue des signes : on peut tout au plus générer de la langue signée. Un système alternatif qui pourrait fonctionner dans une première phase élimine ce composant et génère directement les ordres d’animation en capturant les mouvements d’une vraie interprète (au niveau du studio de production). La quantité de données à transférer reste faible, de l’ordre de 15 Kbps.

6.3.4 Autres systèmes destinés aux devenus-sourds

Nous décrivons brièvement quelques solutions appropriées à des personnes devenues sourdes qui s’expriment en français. Ces solutions font une utilisation un peu différente de technologies décrites plus haut.

Page 86: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 86

A. Synthèse labiale automatique La synthèse labiale allie directement reconnaissance vocale et animation d’un personnage de synthèse. Celui-ci est réduit à une tête ou un buste : seul le mouvement des lèvres est important à rendre avec précision, ceci afin de permettre la lecture labiale. Techniquement le problème de reconnaissance est plus simple car limité à la discrimination des phonèmes. Un tel système fonctionne de manière indépendante du locuteur. Deux implémentations existent :

• le système LipcCell (voir Figure 62), produit par la société israëlienne Speechview (http ://www.speechview.com). Il devrait être commercialisé prochainement (environ 125$). Un de ses objectifs est de faciliter la réception d’appels GSM par des sourds. Actuellement, il fonctionne sur PC mais devrait être porté sur PDA et GSM. Nous n’avons pas de détail sur la technologie utilisée sinon qu’elle est basée sur la reconnaissance de phonèmes. Un système de pastilles colorées est utilisé pour discriminer les phonèmes ambigus.

• le système SynFace (voir Figure 63), un projet européen mené par la Suède, le Royaume Uni et les Pays-Bas. Le système utilise la reconnaissance de phonèmes via 2 méthodes (HMM et ANN). Il a été évalué dans [Sic02] : l’utilisation de cette technologie semble améliorer la communication de 20% mais reste assez en deçà d’une face humaine (18%). Curieusement le système ne semble pas ajouter d’information permettant de discriminer les phonèmes ambigus.

Figure 62. Synthèse d’animation

labiale par Speechview.

Figure 63. Synthèse d’animation labiale par

SynFace.

B. Sous-titrage semi-automatique Un autre emploi possible de la reconnaissance vocale est le sous-titrage semi-automatique au niveau de sujets à diffusion non immédiate (rappelons le taux de 40 :1 entre le temps de préparation et de diffusion) et surtout au niveau des sujets en direct pur. La reconnaissance vocale ne peut pas être appliquée directement à la bande son originale pour deux raisons principales :

• la première est liée à la technologie de reconnaissance vocale qui ne peut être multilocuteur sur un large vocabulaire.

Page 87: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 87

• la seconde est liée aux impératifs de sous-titrage : un taux maximum de 150 mots/minute doit être respecté (110 pour les enfants). Ceci implique une reformulation plus synthétique du contenu.

Une solution utilisée notamment à la VRT consiste à utiliser un humain qui écoute l’entretien en direct et le reformule dans un système de reconnaissance vocale entraîné à sa voix (voir Figure 64). Les sous-titres sont très rapidement vérifiés et éventuellement corrigés par une seconde personne avant leur envoi sur le Télétexte. Le système fonctionne avec un taux d’erreur acceptable de quelques pour-cent. Il va de soi que ce système exige une grande concentration et un relais au bout d’un certain temps. Ce système est utile au niveau des journaux télévisés, des débats ou de matchs de football.

Figure 64. Sous-titrage à la VRT.

6.4 Utilisations possibles dans le cadre de services publics Parmi les systèmes décrits, plusieurs offrent un intérêt certain au niveau de leur mise en œuvre au sein d’un service public :

• Les systèmes de gestion de contenus en langue des signes pourraient être utilisés pour donner des explications préalables à l’interaction ; par exemple concernant le déroulement de la démarche, les documents nécessaires, la manière de remplir les formulaires, etc. Ces explications en langue des signes pourraient être accessibles dans des bornes locales ou directement en ligne sur Internet.

• Un système similaire à TESSA pourrait aider à mener à bien des démarches simples et bien connues du sourd.

• Le sous-titrage pourrait être utilisé au niveau de la vidéoconférence pour les devenus-sourds utilisant une interprète oraliste. Celle-ci reformulerait clairement les paroles de l’employé qui disposerait ainsi des informations labiales et textuelles, éventuellement complétées de français signé.

• Le système d’animation labiale pourrait aussi être mis en œuvre pour les devenus-sourds directement au guichet. Il pourrait par exemple être intégré au

Page 88: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 88

personnage virtuel de TESSA qui s’exprimerait soit en langue des signes, soit en français signé et articulé.

Nous avons également noté une application intéressante au niveau d’un des partenaires rencontrés : le CFLS qui dispose d’une base de données d’environ 9000 signes unifiés. Celle-ci n’est pas exploitée à la mesure des possibilités actuelles : elle sert principalement d’archivage des signes édités dans les lexiques sur papier. Ce contenu pourrait être valorisé de diverses façons :

• sa publication pourrait se faire sur CD-ROM ou directement sur Internet, couplée à un système d’animation par avatars. Il pourrait se baser sur des représentations linguistiques.

• le processus d’unification pourrait se faire de manière collaborative sur Internet : les diverses propositions de signes pourraient être mises en ligne par plusieurs moyens (vidéo, encodage linguistique ou via une interface appropriée) et discutées par le comité d’unification avant les réunions hebdomadaires. Ceci permettrait d’accélérer le processus. On pourrait aussi lui donner plus de visibilité en permettant à d’autres sourds d’intervenir dans le processus (suggestions, avis,…).

• l’organisation de la base de connaissance linguistique pourrait être enrichie par les expériences menées dans des centres de recherche. Ceci peut s’envisager au niveau d’aspects spécifiques à la langue des signes comme [Bon98] et [Los00], mais aussi dans le contexte plus général du « web-sémantique ». A terme, ceci pourrait mener à des moteurs de recherche capables d’indexer du contenu en langue des signes.

Page 89: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 89

7 Vers plus de mobilité

Dans ce chapitre nous allons examiner les nouvelles possibilités ouvertes par le développement des communications mobiles à haut débit. Nous examinerons d’abord leurs principales caractéristiques technologiques, les terminaux mobiles et enfin les services utiles aux personnes sourdes. Cette partie est largement inspirée de [Tis99], [Hol01] et [Sus00].

7.1 Infrastructure pour les communications mobiles Depuis quelques années la mobilophonie s’est imposée dans le quotidien de la plupart des belges, y compris des sourds pour qui le SMS est devenu un outil de communication quotidien et indispensable. Il leur confère une autonomie et une capacité de communication avec d’autres personnes, sourdes ou entendantes, dont elles ne disposaient pas jusque-là. Ce système offre de très faibles débits (14 Kbps) qui le limitent à la transmission de messages textuels ou à un accès très restreint à Internet (WAP). D’autre part, dans le monde des réseaux informatiques, les accès à haut débit se sont généralisés et ont atteint un grand nombre de foyers et de lieux de travail. C’est également valable pour les personnes sourdes, dans une mesure moins généralisée que l’engouement pour le SMS cependant. Des applications telles que la vidéoconférence sur Internet sont expérimentées par certains. Le futur qui se profile consistera en une convergence de ces deux mondes : celui des réseaux de mobilophonie et d’ordinateurs :

• le manque de haut débit des premiers sera comblé par le développement planifié de la norme UMTS (GSM de 3ème génération), promettant des débits de l’ordre de 2Mbps. En attendant, une norme intermédiaire nommée GPRS (GSM de génération 2,5) offre des débits théoriques de 140 Kbps (35 Kbps en pratique, de l’ordre d’un modem traditionnel) et permet un accès Internet un peu plus convivial : « l’iMode »

• l’absence de connexion sans fil du second est déjà actuellement résolue par le déploiement du WiFi, une norme de réseau local sans fil. Il fonctionne à une vitesse appréciable, de l’ordre de 11 Mbps.

Nous allons rapidement détailler ces technologies afin de les comparer.

7.1.1 UMTS

L’UMTS s’organise en deux domaines distincts, le domaine « circuit » et le domaine « paquet » destiné à des applications différentes :

• le domaine circuit permettra de gérer les services en temps réel correspondant aux conversations téléphoniques, à la vidéotéléphonie, aux jeux vidéo, aux streaming (envoi d’un flux continu d’informations qui seront traitées instantanément avec possibilité d’afficher les données avant que l’intégralité du fichier ne soit téléchargé), et aux applications multimédia. Ces applications exigent un temps de transfert faible et la qualité du service : seul le domaine circuit sera capable de gérer ces flux lors de l’introduction de l’UMTS. Le

Page 90: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 90

débit supporté par ce mode sera de 384 Kbps (débit compatible avec une vidéoconférence de qualité)

• Le domaine paquet permettra de gérer les services non temps réel

correspondant à la navigation sur Internet, aux jeux en réseau et aux e-mails. Ces applications sont moins sensibles au temps de transfert et ces données pourront transiter en mode paquet. Le débit supporté pourra atteindre 2 Mbps. Ce niveau sera bien sûr relié au réseau Internet et à d’autres réseaux publics ou privés de transmissions de données.

Une caractéristique fondamentale de UMTS est la possibilité de négocier les propriétés de la porteuse radio en fonction de la qualité de service requise pour le type de données à transmettre. Un protocole de négociation initiée par l’application ou par le réseau permet de demander le niveau requis, de vérifier sa disponibilité au niveau de l’abonnement de l’utilisateur, de consulter les ressources disponibles et de faire une offre. Quatre classes de trafic correspondant à différentes qualités de service sont identifiées en UMTS : • Conversationnelle : l’application la mieux connue dans cette classe est la

transmission de la voix en circuit commuté ; avec Internet et le multimédia, de nouvelles applications et notamment la vidéotéléphonie feront partie de cette classe. Il s’agit de la seule parmi les 4 classes de qualité de service dont les propriétés sont directement imposées par la perception humaine.

• Unidirectionnelle (“streaming”) : cette classe de qualité de service comprend les applications multimédia dans lesquelles le client, recevant les données en flux stable et continu, les convertit directement vers du son ou de l’image ; de telles applications sont asymétriques et tolèrent un délai de transmission plus élevé qu’en conversationnel.

• Interactive : cette classe comprend les applications dans lesquelles un utilisateur final (humain ou logiciel) demande en ligne des données à un site distant ; le temps de réponse et le transfert transparent des paquets sont les propriétés clés de cette classe.

• Arrière-plan (“background”) : dans cette classe se retrouvent des applications telles que messagerie électronique (email), SMS ou téléchargement de bases de données. Cette classe de qualité de service se caractérise par le fait que la destination ne fixe pas de délai pour la réception des données.

Le modèle de déploiement « universel » de l’UMTS ne prévoit pas de garantir un haut débit en tout lieu mais en fonction de la concentration urbaine : en campagne les bornes porteront plus loin avec un plus faible débit, tandis qu’en ville elles seront plus rapprochées et à haut débit. Un problème est la couverture de l’intérieur des bâtiments. D’autres caractéristiques de la conception de l’UMTS sont la prise en charge de nombreuses connexions simultanées, le suivi de cellule en cellule, le support de systèmes d’identification et de facturation, le suivi de la qualité de service et la sécurité. Le déploiement de l’UMTS n’aura pas lieu avant plusieurs années car le système est complexe, l’infrastructure importante et les investissements colossaux. On a

Page 91: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 91

beaucoup spéculé lors de la vente des licences d’UMTS aux opérateurs, depuis la situation économique mondiale ne s’est pas prêtée à l’engagement des dépenses nécessaires et a plutôt favorisé une technologie plus simple et déjà fonctionnelle au niveau des réseaux informatiques : le WiFi.

7.1.2 WiFi

La technologie WiFi se déploie sous forme de points d’accès Internet à haut débit dans des lieux de forte affluence (appelés “Hot Spots”) tels que des hôtels, des aéroports, des entreprises, etc. Contrairement à l’UMTS qui vise la mobilité globale, le WiFi se contente du concept de nomadisme : la personne doit se trouver dans un « Hot Spot » pour accéder au réseau. Techniquement, cette technologie s’appuie principalement sur les révisions 802.11a, 802.11b et 802.11g de la norme IEEE 802.11 :

• la norme 802.11a définit des liaisons dans la bande de 5 GHz pour des débits allant jusque 54 Mbps.

• la norme 802.11b définit des liaisons dans la bande de 2.4 GHz pour des débits allant jusque 11 Mbps et est la plus répandue actuellement. Les normes 802.11a et 802.11b ne sont pas compatibles entre elles.

• la norme 802.11g définit des liaisons dans la bande de 2.4 GHz pour des débits allant jusque 54 Mbps. Cette norme qui n’a pas encore été validée est compatible avec la norme 802.11b.

Le déploiement fonctionne bien dans les bâtiments. Les puissances en jeu sont assez faibles : de l’ordre de 10MW et les portées sont donc assez réduites : de l’ordre de 50 m en interne et 100 m en externe. Ceci peut nécessiter la mise en place de plusieurs points d’accès pour couvrir un endroit donné. Concernant la qualité de service : le WiFi souffre bien sûr des limitations liées à Internet (dont il constitue la couche physique et de liaison de données). En outre, il n’a pas été conçu pour un grand nombre de connexions simultanées. En pratique, pour qu’un ordinateur puisse utiliser le WiFi, il suffit de l’équiper d’une carte réseau sans fil pour un coût de moins de 100 �. La mise en place d’un réseau WiFi nécessite un point d’accès sans fil pour un prix à partir de 100 �. A noter aussi que l’installation d’un réseau WiFi à son domicile privé est totalement libre. Des mécanismes de sécurité assurant un contrôle d’accès existent mais ne sont pas toujours bien mis en œuvre, ce qui peut résulter dans des possibilités d’intrusion sur le réseau et les postes connectés.

7.1.3 Comparaison

Le Tableau 8 donne une comparaison des principales caractéristiques de chacune des solutions à l’heure actuelle. Ces normes ne doivent cependant pas être vues comme concurrentes. La Figure 65 montre que chaque solution peut trouver une niche en fonction de la couverture offerte : « WLAN » pour le WiFi et « WWAN » pour l’UMTS.

Page 92: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 92

L’approche du WiFi est plus progressive et plus dirigée par des applications réelles mais se heurte à de gros problèmes, notamment en matière de qualité de service. Celle-ci est très importante dans les applications de type conversationnel qui nous intéressent dans le cadre de cette étude. Des solutions sont envisageables (par des flux « prioritisés » par exemple) mais nécessitent l’évolution des normes actuelles. A terme, quand ces problèmes seront résolus, il est probable que le cœur du réseau bascule en « tout IP ».

���������� �� ������� ����� ��� ��������������

������������� ������������������ ��

��������

������� �!��������! ��������� ������������������ "�#���� ��!��$�� �#�$#!������������������� !"��

� ����!�������! �����#��� !!���� !���������!�����$�%#��&�#��'���'����#�(��!���#)������������*��������!������ !�����#�+��#�!����!+��������!��

%�����&���� ������),�-.�������� !"��#)�������� ������!#����!��/��+���!�+��!#�! �����#��� !!�0� !��

��&� '��������� $��������#���(���1 $��������#����������1

)�#�� ���#����!�#����*��#���+

��,#$��#����� ������� ��!����$�� ������ !�#�������2�������� �����������0����2�����,!�������������!)���������#� ���#)�!���������!��� �!�������#�!��������*����3��)��� ����!���!��#�� +��� !�

�#$��#���

��#�#����� � 4�!!�� -����� !!��

�#����#���� . ���� !���� ����������� 5��2���

��$� ���������� 5������2�� 5� � � ���#���/�!+���!��#)���������

�������� ������6������� .����3����

Tableau 8 . Comparaison WiFi vs UMTS (source JDNet)

Figure 65 . Complémentarité des solutions sans fil (source [Ces02])

7.2 Terminaux portables L’utilisation mobile va nécessiter la présence de terminaux mobiles adaptés. Ici aussi la tendance est à la convergence des terminaux du monde des ordinateurs personnels et ceux des GSM : déjà les assistants personnels digitaux (PDA) et les GSM haut de gamme se ressemblent de plus en plus (voir Figure 66).

Page 93: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 93

Si les GSM sont actuellement limités au GPRS (lent mais accessible), certains PDA disposent d’un accès sans fil intégré ou en option. Les GSM sont par contre plus avancés sur l’acquisition multimédia, notamment via de petites caméras digitales permettant de générer des MMS. Certains modèles comme le Nokia 3650 (voir Figure 66) permettent également de capturer quelques secondes de vidéos et de les envoyer.

Figure 66. Nokia 3650 et iPaq.

Dans une autre gamme de produits, notons aussi le Tablet-PC (voir Figure 67), qui est l’hybride entre un ordinateur portable (pour la taille de son affichage, sa puissance de calcul, le type de système d’exploitation mis en place) et l’assistant personnel (pour son interface et son mode de saisie).

Figure 67. Structure générale d’un tablet-PC

Concernant les besoins spécifiques aux sourds, on peut imaginer l’affichage d’une vidéo en langue des signes qu’il s’agisse d’un appel en temps réel ou d’un message différé :

• la taille de l’écran est un élément important. Le Nokia 3650 ci-dessus offre 208x176 et l’iPaq offre 320 x 240. Le format standard le plus adapté est le

Page 94: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 94

format QCIF. La Figure 66 illustre d’ailleurs l’affichage sur un iPaq d’une telle image pour le logiciel de vidéoconférence eConf

• les caméras ne sont pas encore très répandues pour les PDA. Elles ont typiquement une résolution photo de 640x480. En mode vidéo, le Nokia 3650 effectue une capture au format de vidéoconférence H.263 (résolution QCIF) qu’il stocke dans un fichier au format 3GP. Nous avons réalisé un bref essai qui a confirmé les limites du format QCIF, le taux d’images par seconde était également assez faible (estimé entre 10 et 15).

• notons aussi que les caméras ne sont pas toujours bien placées pour se filmer soi-même (exemple : objectif se trouvant au dos de l’affichage). En outre, pour signer pleinement il faut en principe les 2 mains, ce qui nécessite la présence d’un support ou une aide externe.

7.3 Offre de services La mobilité à haut débit offre de nouvelles perspectives d’applications aux entendants et aux sourds. Pour ces derniers, le principal espoir est de disposer d’un moyen de communication en langue des signes. Celui-ci peut se décliner sous plusieurs variantes :

• Accès conversationnel temps réel : « le GSM pour sourd », il mettrait en œuvre la vidéoconférence. Le principal obstacle est la qualité de service : au niveau de sa spécification l’UMTS doit le supporter. Quant au WiFi, à l’heure actuelle, il n’offre pas de garantie en cette matière.

• Echange de messages en langue des signes : ici le temps réel n’est plus nécessaire. On peut se contenter d’un accès de type « streaming » ou simplement un téléchargement sans contrainte de délai suivi d’une visualisation du message

• Accès à un serveur d’information en langue des signes, éventuellement tenant compte de la localisation géographique de l’appelant (exemple : trouver le garage le plus proche dans le voisinage). Ici, le mode d’accès adéquat serait sans doute le streaming.

• Accès à un service relais ou d’interprétation à distance en langue des signes, avec éventuellement une permanence pour les urgences.

Figure 68. Conversation « mobile » en langue des signes.

Page 95: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 95

L’objectif du projet européen WISDOM (Wireless Information Service for Deaf People On the Move : http ://www.mobilewisdom.org) est principalement d’explorer ces possibilités. Parmi les exigences particulières citons que :

• le terminal devra disposer de moyens d’alerte visuels ou vibratoires pour les appels entrants

• les moyens de saisie envisagés seront textuels mais aussi en langue des signes : par exemple pour naviguer sur le serveur vidéo. Des recherches actuelles ont déjà abouti à un système acceptant des phrases continues dans un vocabulaire restreint de 152 signes, avec une précision de reconnaissance de 91,1 %.

Figure 69. Projet WISDOM.

Page 96: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 96

8 Conclusions et recommandations

Au terme de cette étude, nous avons mis en évidence diverses manières d’améliorer l’offre de services destinés aux personnes sourdes utilisant la langue des signes au sein d’administrations et de services publiques. Ces solutions se basent sur l’utilisation plus ou moins poussée de technologies de l’information et de la communication. Elles ont été motivées par une étude préliminaire du domaine et une analyse des objectifs à réaliser. Nous avons d’abord considéré la solution la plus proche de la solution actuelle et également la plus réaliste : la mise en œuvre d’un système de vidéoconférence pour réaliser l’interprétation à distance. Celle-ci est assurée par un interprète professionnel. Moyennant une connexion adaptée, ce système peut être déployé dans l’état actuel des technologies. Les exigences à remplir ont été décrites en détail à la section 5.4. Le système n’est certes pas adapté à toutes les situations mais contribue à l’amélioration de l’accessibilité des services publics aux personnes sourdes, il augmente aussi la disponibilité des interprètes en réduisant leur fastidieux déplacement. Enfin, il permet la mise en place d’un service d’interprétation en urgence. Nous avons ensuite exploré la piste d’une traduction automatique et étudié les nombreux traitements à mettre en œuvre. Nous avons montré que l’approche n’était pas réaliste dans son entièreté mais que des systèmes intéressants étaient réalisables pour des classes d’applications particulières, combinant principalement la reconnaissance de la parole et l’animation de personnages de synthèse. Parmi ces applications, rappelons celles qui peuvent être mises en œuvre dans un service public :

• la consultation d’informations explicatives en langue des signes • la traduction en français signé de la communication d’employés connus du

système • la traduction en langue des signes de démarches simples et bien connues

Toutes ces solutions peuvent avantageusement recourir à l’utilisation de personnages de synthèse pour la présentation de l’information en langue des signes à la personne sourde3. En terme fonctionnel, ces deux solutions ne se recouvrent donc que très peu : la première est principalement centrée sur la communication interactive et la seconde sur la consultation d’information disponible sur un média. Elles peuvent donc être mises en œuvre de manière complémentaire : par exemple une borne de consultation ou un site Internet pourrait fournir l’information en langue des signes sur la manière d’effectuer une démarche dans un service public. Cette dernière pourrait alors être envisagée avec le système d’interprètation à distance. Enfin, nous avons évoqué les opportunités offertes par le développement des systèmes mobiles et les promesses de communication et d’autonomies supplémentaires qu’elles offrent aux personnes sourdes.

3 A ce niveau, on pourrait donc encore parler d’interprétation en langue des signes mais dans le sens plus restreint de la « performance d’acteur » de l’avatar.

Page 97: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 97

Rappelons que cette étude s’est principalement focalisée sur les personnes sourdes utilisant la langue des signes. Nous avons cependant également signalé quand un système mis en œuvre se prêtait à des extensions pouvant profiter aux personnes devenues sourdes ou malentendantes : notamment concernant l’utilisation d’une interprète oraliste à distance, la mise en œuvre de sous-titrage ou encore la synthèse labiale automatique. Nous avons aussi évoqué certaines utilisations dans d’autres contextes que les services publics : l’éducation ou l’usage privé par exemple. Nous terminerons par une liste de recommandations concernant les principales actions possibles et des modalités de mise en œuvre. Nous émettrons d’abord quelques recommandations liées au contexte général de l’étude. Celles-ci recouvrent en partie celles émises dans [Rec03]. • Sensibilisation des sourds aux technologies de l’information et de la

communication. L’interaction avec un terminal de vidéoconférence ou la consultation d’un site multimédia comprenant des avatars, demande un minimum de familiarisation avec des moyens informatiques de base : utilisation d’un navigateur Internet, de la messagerie instantanée, de l’e-mail, de logiciels spécifiques comme les dictionnaires en langue des signes, etc. Des initiatives de formation des sourds à ces techniques doivent être encouragées, notamment au niveau des associations sourdes. Un soutien financier par rapport à l’achat de matériel et la connexion à Internet est un autre élément qui va dans ce sens.

• Sensibilisation des personnes entendantes aux problèmes rencontrés par les

personnes sourdes (et les handicapés en général). Les personnes entendantes amenées à côtoyer des personnes sourdes doivent être mise au courant des possibilités actuelles et futures de communiquer et doivent pouvoir y recourir plus facilement. On peut veiller ici à donner une formation adéquate au personnel des services publics. Des actions « grand public » comme le Surdimobil sont à poursuivre. L’introduction de l’indice passe-partout et l’année européenne de la personne handicapée sont aussi de bonnes occasions de rappeler les problèmes rencontrés par les sourds.

La seconde série de recommandations est la plus importante et concerne l’interprétation à distance par vidéoconférence. • Le déploiement de connexions haut débit entre les centres de vidéoconférence

est un prérequis. Afin d’être réaliste, sa mise en œuvre doit sans doute s’envisager dans un contexte plus large que les services destinés à la minorité visée, par exemple dans le cadre de la modernisation des infrastructures informatiques ou du développement de l’eGouvernement.

• Valorisation du travail des interprètes. Le système de vidéoconférence n’a pas

pour but de supprimer les interprètes, à l’opposé : il permet de soulager leur travail en réduisant les déplacements fatigants. Des mesures complémentaires concernant l’amélioration de leur formation et la reconnaissance de leur statut sont à encourager. Leur nombre devrait aussi être sensiblement augmenté.

• Réalisation d’une expérience pilote d’interprétation à distance.

L’interprétation à distance augmente l’autonomie des personnes sourdes et la

Page 98: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 98

disponibilité des interprètes. Elle n’est cependant pas applicable dans toutes les situations et avant d’envisager un déploiement important et coûteux, il convient de réaliser une expérience pilote à échelle réduite mais en conditions réelles. Celle-ci permettrait de valider et d’affiner l’organisation proposée. Des actions de sensibilisation sont aussi nécessaires afin de familiariser le public sourd avec les possibilités de ce moyen, par exemple lors de la journée mondiale des sourds.

• Estimation des coûts et déploiement. Plusieurs modèles de déploiement sont

envisageables, en terme de progressivité et du type de partenariat avec les administrations et services publics équipés (équipement complet, fourniture de subsides, fourniture de l’accès au centre d’interprétation…). Ces points n’ont pas été abordés dans ce document mais peuvent être développés notamment sur base de la description des exigences de la section 5.4.

Enfin la dernière série de recommandations concerne la diffusion de contenu en langue des signes. • Diffusion de contenu en langue des signes. Les sites Web s’adressant aux

sourds doivent pouvoir proposer plus de matériel en langue des signes qu’actuellement. Les initiatives allant dans ce sens doivent être encouragées. Le projet français WebSourd qui devrait prochainement devenir opérationnel est à suivre de près et des collaborations pourraient être envisagées.

• Encourager le développement d’un système d’animation par avatars. La

synthèse de signes basée sur un personnage virtuel animé résout de nombreuses limitations des systèmes actuels : facilité de stockage et de transmission, possibilité de visualisation, adaptabilité. Des avatars spécifiques à la langue des signes existent déjà (projet européen ViSiCAST) ; cependant, ils souffrent de limitations au niveau de leur expressivité et de la création de contenus. Les approches actuelles se basent trop peu sur la structure de la langue des signes qui peut être exploitée avec succès comme le montrent divers travaux. La diversité des compétences et la dimension de recherche encore présente nécessitent de considérer un projet pluridisciplinaire associant :

• des informaticiens ayant de préférence de l’expérience dans ce domaine (comme l’ASBL Aptitude, le CETIC, I3D)

• des linguistes sourds et entendants (comme le CFLS, Marie-Haps, Liège) • des associations de sourds pour mettre en évidence les besoins et valider

les réalisations. La mise en œuvre peut s’envisager à l’échelle wallonne mais pourrait tirer profit de collaborations plus larges : le logiciel étant en grande partie réutilisable dans d’autres langues des signes, son intérêt pourrait largement dépasser le cadre de la communauté des sourds de Belgique francophone :

• au niveau franco-belge, des contacts très positifs ont eu lieu avec la fédération flamande (Fevlado), la fédération française (IVT), l’université de Lille, France Telecom (Paris) et WebSourd (Toulouse).

• à l’échelle européenne, le second appel d’offre du 6ème programme-cadre offre aussi des opportunités intéressantes au niveau du prolongement des travaux réalisés dans le cadre du projet ViSiCAST. Des contacts préliminaires avec le centre de Bristol et de l’université d’East Englia révèlent cette volonté.

Page 99: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 99

9 Références

[Ban00] J.A. Bangham, S.J. Cox, R. Elliott, J.R.W. Glauert, I. Marshall (UEA), S.

Rankov, M. Wells (Televirtual), “Virtual Signing: Capture, Animation, Storage and Transmission – An Overview of the ViSiCAST Project”, IEE Seminar on “Speech and language processing for disabled and elderly people”, London, April 2000.

[Bla98a] Frank Blades, Joe Collins, Transmission and Reception of BSL by Videophone, D221, SignWorks Project , June 1998.

[Bla98b] Frank Blades, Joe Collins, Remote Sign Language Interpreting, D223, SignWorks Project, June 1998.

[Bon98] Alexandre Bonucci, Analyse phonologique et indexation figurative pour une base de données d’entrées lexicales de la Langue des Signes Française. Thèse, Université de Lyon II, 1998.

[Bun02] J. Bungeroth, A Formal Description of Sign Language using HPSG, Master’s thesis, University of Karlsruhe, Germany, September 2002.

[Bur98] Ken Burgin, Video Communication and Relevant Software, D211, Motion Mdeia Tchnology Ltd, SignWorks Project, June 2001.

[Ces02] CESMO, Wireless LAN : Mobilité Locale et Nomadisme, Livre blance, 2002.

[Cox02] S.J. Cox, M. Lincoln, J. Tryggvason, M. Nakisa, M. Wells, M. Tutt and S. Abbott: TESSA, a system to aid communication with deaf people, in Proc. ASSETS 2002, Fifth International ACM SIGCAPH Conference on Assistive Technologies, pages 205—212, Edinburgh, Scotland, July, 2002.

[Cox03] S J Cox, M Lincoln, M J Nakisa, M. Wells, M. Tutt and S. Abbot: The Development and Evaluation of a Speech to Sign Translation System to Assist Transactions, Int. Journal of Human Computer Interaction, accepted for publication 2003/2004.

[Dar93] A. Dardenne, A. van Lamsweerde and S. Fickas, Goal-Directed Requirements Acquisition, Science of Computer Programming Vol. 20, North Holland, 1993.

[Del96] Yves Delaporte, Aspects de la culture sourde : des signes, des noms, des rires, Editions ASAS, 1996.

[Dum96] Annie Dumont, Implant cochléaire, surdité et langage, DeBoek, 1996.

[Ell00] R. Elliott, J.R.W. Glauert, J.R. Kennaway, I. Marshall, “The Development of Language Processing Support for the ViSiCAST Project”, 4th International ACM SIGCAPH Conference on Assistive Technologies (ASSETS 2000), Washington, November 2000.

[ElOu03] Rachid El Ouaghli , Damien Huvelle et Patricia Sana, Enjeux de l’interprétation des signes-français en Belgique Francophone, 2003.

[Erg98] David Ergo, Xavier Wielemans, Reconnaissance du langage des signes pour malentendants par extraction automatique de caractéristiques

Page 100: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 100

discriminantes, mémoire de fin d’étude, UCL, 1998.

[Ers03] T. Ersayar, U. Canzler, Manual and Facial Features Combination for Videobased Sign Language Recognition, in Proc. 7th International Student Conference on Electrical Engineering POSTER 2003, Prague, May 22, 2003.

[EU99] Signing Book Project, Signing Books for the Deaf: Development and Production of Sign Language Videos/CD-ROMs, Workshop Proceedings, Institute of German Sign Language, University of Hamburg, November 1999.

[EU00] Promise European Program, Preparing a European Deaf Network for Information and Communication, Proceedings of the Klagenfurt Workshop, 2000.

[FFSB97] FFSB, Situation de la Langue des Signes en Belgique francophone, Rapport final, 1997.

[Gerday] Claude Gerday, Valérie Thomas, L’Histoire des Sourds – Recueil d’informations.

[Gou01] Jérôme Goust, Guide des aides techniques pour les malentendants et les sourds, Collection Néret, 2001.

[Gri99] Angus B. Grieve-Smith, English to American Sign Language Machine Translation of Weather Reports, in Proceedings of the Second High Desert Student Conference in Linguistics, 1999.

[Gri02] Angus B. Grieve-Smith, SignSynth: A Sign Language Synthesis Application Using Web3D and Perl, in Proceedings of the Second High Desert Student Conference in Linguistics, 2002.

[Hel97] Hellström Gunnar, Quality Measurement on Video Communication for Sign Language, in Proceedings of the 16th International Sympoosium on Human Factors in Telecommunications, Olso (Norway), May 12-16, 1997.

[Hel02] Hellström Gunnar, Sign Language in the Web, draft guideline proposal, Omnitor, 2002.

[Hol01] Harri Holma, Antti Toskala, UMTS : Les réseaux mobiles de troisième génération, Eyrolles multimédia, 2001.

[H.Supp-1] ITU Supplement 1 (05/99) to Series H – Application profile – Sign language and lip-reading real-time conversation using low bit-rate video communication, 1999.

[Kad95] W. Kadous, “GRASP: Recognition of Australian Sign Language using Instrumented Gloves”, UNSW/CSE thesis, University of New South Wales, 1995.

[Kra99] Slavko Krapez, Franc Solina, Synthesis of the Sign Language of the Deaf from the Sign Video Clips, Electrotechnician Review, Slovenija, 1999.

[Lam00] A. van Lamsweerde, E. Letier: Handling Obstacles in Goal-Oriented Requirements Engineering, IEEE Transactions on Software Engineering, Special Issue on Exception Handling, Vol. 26 No. 10, October 2000.

[Leb98] Thierry Lebourque, Spécification et génération de gestes naturels –

Page 101: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 101

application à la langue des signes française, Thèse de doctorat, Université de Paris XI, 1998.

[Leb99] Thierry Lebourque, Sylvie Gibet, A complete system for the specification and the generation of sign language gestures, Lecture Notes in Artificial Intelligence 1739, Springer, Berlin, 1999.

[Lid89] S. Liddell, R. Johnsonn, American Sign Language: The phonological base. Sign Language Studies, 1989.

[Los00a] Olivier Losson, Modélisation du Geste Communicatif et Réalisation d’un Signeur Virtuel de Phrases en Langue des Signes Française, Thèse de doctorat, Laboratoire I3D, Université de Lille, 2000.

[Los00b] Olivier Losson, Brigitte Cantegrit, Generation of Sentences in Sign Language by a 3-D Expressive Avatar, SCI2000.

[Los02] Olivier Losson, Brigitte Cantegrit, Generation of signed sentences by an avatar from their textual description, SMC02.

[Mar02] I. Marshall and E. Safar, “Sign Language Synthesis using HPSG.”, Proceedings of the Ninth International Conference on Theoretical and Methodological Issues in Machine Translation (TMI), Keihanna Japan, Mar 2002.

[Mcc99] Thomas F McCaul Video-Based Telecommunications Technology and The Deaf Community (Research Summary of the Report) Australian Communication Exchange

[Pot00] Olivier Potmans, Christian Van Brussel, Conception et animation d’un personnage en trois dimensions dans l’optique de la représentation de la langue des signes, mémoire de fin d’étude, UCL, 2000.

[Rec03] Université Libre de Bruxelles, Institut Libre Marie Haps, Etude de faisabilité de la reconnaissance de la langue des signes en Belgique francophone. Rapport final Mars 2003.

[Ron97] Jean-Adophe Rondal, Fabienne Henrot, Monique Charlier, Le langage des signes, Aspects psychologiques et éducatifs, Editions Mardaga, 1997.

[Sag97] Hirohiko Sagawa, Masaru Takeuchi, Masaru Ohki, Description and Recognition Methods for Sign Language Based on Gesture Components, ACM, 1997.

[San01] Damien Sandras, Réalisation d’un logiciel de vidéo-conférence sous Linux, mémoire de fin d’études, UCL, 2001.

[Sic02] Catherine Siciliano, Geoff Williams, Jonas Beskow, Andrew Faulkner, Evaluation of a multilingual synthetic talking face as a communication aid for the hearing impaired, in Speech, Hearing and Language: work in progress, volume 14, 2002.

[Spe01] Armond L. Speers, Représentation of American Sign Language for Machine Translation, PhD Dissertation, Georgetown University, 2001.

[Sus00] Jean-François Susbielle. Internet multimédia et temps réel, Eyrolles, 2000.

[Tis99] Joachim Tisal, Le réseau GSM : L’évolution GPRS, une étape vers UMTS, Dunod Informatique, 1999.

Page 102: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 102

[Tut00] T. Dutoit, « Je parle, donc je suis ? », Un bilan des développements récents en traitement automatique de la parole, Faculté Polytechnique de Mons, 2000.

[Vog99] Christian Vogler and Dimitris Metaxas, Parallel Hidden Markov Models for American Sign Language Recognition, in Proc of the International Conference on Computer Vision, Kerkyra, Greece, September 22–25, 1999

[Wac97] Ipke Wachsmuth, Martin Frölich (Eds), Gesture and Sign Language in Human-Computer Interqction, Bielefeld, Germqny, September 1997.

[Yan01] Jie Yang, Jiang Gao, Ying Zhang, Xilin Chen and Alex Waibel, An Automatic Sign Recognition and Translation System, Interactive Systems Laboratory, Carnegie Mellon University, 2001

[Zha00] Liwei Zhao, Karin Kipper, William Schuler, Christian Vogler, Norm Badler, Martha Palmer, "A Machine Translation System from English to American Sign Language", in Proceedings of the Association for Machine Translation in the Americas 2000, Published in Lecture Notes in AI series of Springer-Verlag.

[Zij03] L. van Zijl, D. Barker, A Machine Translation System for South African Sign Language. Proc. Afrigraph 2003, Febr. 2003, Cape Town, South Africa. ACM SIGGRAPH Conference Proceedings Series, 2003. Copyright of this work belongs to ACM SIGGRAPH.

Références non bibliographiques Les médias suivant (CD-ROM, vidéo), plus adaptés à la langue des signes ont également été consultés : CD-ROM :

• DicoLS • DILS • Les signes de Mano • Apprentissage interactif de la LSF • Sign Smith Studio Demo • Sign Smith Illustrated Dictionary Demo • Lankät text teckensprak (en suédois)

Vidéo :

• Les Enfants du Silence (1986) • Le pays des Sourds (1992) • Dites-moi : Emmanuelle Laborit (1995) • Danse des mains – La renaissance de la langue des signes en Europe(1997)

Page 103: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 103

10 Annexes

10.1 Glossaire et acronymes Acouphène Sensation auditive (bourdonnement, sifflement, etc.) qui n'est pas

provoquée par une excitation extérieure de l'oreille.

AKA Alphabet des kinèmes assistés. Système d’aide à la lecture labiale basé sur l’association de gestes facilement reconnaissables traduisant en même temps les mouvements de la phrases et les fluctuations d’intonation. Plus complexe à acquérir que le LPC mais plus souple et permettant une plus grande fluidité d’expression.

ADSL Asymetric Digital Subscriber Line. Moyen de connexion à un fournisseur d’accès à Internet à haut débit mais asymétrique :de 1 à 3 Mbps en chargement vers l’abonné et de l’ordre de 128 Kbps en chargement vers le fournisseur d’accès.

ASL American Sign Language

Auslan Australian Sign Language

BSL British Sign Language

CS Cued Speech. Voir LPC.

CODEC Codeur-décodeur : composant responsable de la compression et décompression des signaux numérique vidéo ou audio afin de diminuer la bande passante nécessaire à leur transmission et au détriment éventuel de leur qualité.

Décibel (dB, dBA) Unité qui exprime le rapport entre 2 intensités sonores sur une échelle logarithmique. Plus précisément, elle s’exprime mathématiquement en fonction logarithmique du rapport des pressions : 20 log (p2/p1).

Le niveau de référence (0 dB) correspond au plus petit son audible pour une oreille humaine. Le seuil moyen de douleur pour l’oreille humaine se situe à 130 dB.

Pour tenir compte de la sensibilité variable de l’oreille en fonction de la fréquence qui atténue les sons graves (< 1 kHz) et aigus (> 10 kHz), les appareils de mesure sont équipés d’un filtre (filtre A) dont la réponse en fréquence simule celle de l’oreille humaine. L’unité de mesure correspondante est alors le dBA.

FPS Frame per second = images par seconde. Débit d’image en vidéo. Le rendu du mouvement exige plus de 10 FPS. Une excellente qualité exige plus de 25FPS.

Français signé (FS)

Français parlé traduit en gestes empruntés à la LSFB (pour la Belgique). L’ordonnancement correspond à celui du français.

GPRS Global Packet Radio Service

h.261 Standard ITU de transmission vidéo conçue pour les lignes ISDN à bas débit

Page 104: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 104

h.263 Amélioration du standard ITU de transmission vidéo également pour les lignes à bas débit.

h.264 Nouveau standard ITU émergeant

h.323 Standard ITU spécifiant les composants, les protocoles mais aussi les procédures qui fournissent des services de communication audio, vidéo, et de données en temps réel sur les réseaux à paquets, notamment les réseaux basés sur le protocole IP. Le standard H.323 regroupe en fait un grand nombre de protocoles qui définissent les différentes étapes d’une communication h.323.

IEEE 802.11 Nom officiel des standards de transmission sans fil, connu sous le nom grand public de WiFi.

Implant cochléaire Appareillage composé de 2 parties (une partie externe et une partie interne implantée) qui transforme les sons en signaux électriques qui sont directement envoyés au nerf auditif.

ISDN « Integrated Service Digital Network ». Réseau numérique offrant 2 canaux numériques full-duplex indépendants de 64kbs et pouvant être combinés en une liaison 128kbs, ainsi qu’une liaison de signalisation de 16kbs.

ISL International Sign Language (aka Gestuno)

ISP Internet Service Provider. Prestataire de service assurant la connexion à Internet d’un privé ou d’une entreprise.

ITU International Telecommunication Union. Organisme de standardisation dans le domaine des télécommunications.

KAOS Méthode d’acquisition et de spécification des exigences guidée par les objectifs, voir les références [Dar93] et [Lam00].

Kbps Kilobit per second. Débit de transmission d’un millier de bits par seconde.

Kinème Mouvement bucco-facial produit lors de la vocalisation d’un phonème. A un même kinème peut correspondre plusieurs phonèmes, ce qui rend la lecture labiale ambiguëe.

Lecture Labiale (LL)

Technique qui consiste à suivre uniquement le mouvement des lèvres, de la bouche, de l’expression du visage pour reconnaître un mot.

LPC Langage Parlé Complété. Technique qui consiste à utiliser la parole articulée accompagnée de gestes significatifs.

Langue des signes Langue composée d’un ensemble de gestes, mimiques et mouvements corporels et possédant sa propre grammaire et syntaxe (variable suivant les pays et les régions)

LSBF Langue des Signes de Belgique Francophone, synonyme de LSFB.

LSF Langue des Signes de France

LSFB Langue des Signes Française de Belgique

Mbps Megabit per second. Débit de transmission d’un million de bits par seconde.

Page 105: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 105

MPEG Norme de compression de vidéos numérique notamment utilisée par les DVD.

Oralisme Philosophie et méthodes éducatives visant à faire acquérir la pratique de la langue parlée à l’enfant sourd.

Personne devenue sourde

Personne qui a déjà entendu et qui a perdu complètement le sens de l'ouïe à la suite d'une maladie ou d'un accident.

Personne malentendante

Personne dont l'acuité auditive est plus ou moins diminuée (quantifiée entre 35 et 70dB) et qui, avec ou sans aide technique, utilise ses restes auditifs pour comprendre la parole. Cette personne utilise la plupart du temps la langue française pour communiquer et possède des habitudes de communication qui se rapprochent davantage de celles des personnes entendantes.

Personne sourde Personne privée plus ou moins complètement du sens de l'ouïe habituellement depuis sa naissance ou sa petite enfance. Très souvent, cette personne utilise régulièrement la langue des signes pour communiquer et partage, à des degrés divers, la culture, les valeurs, les habitudes de communication, les règles de comportement, les objectifs et les traditions des membres de la communauté sourde.

Registre linguistique

Variantes existant à l’intérieur du même système linguistique correspondant à des usages différents de la langue (officiel, familier…)

Restes auditifs Capacité auditive résiduelle chez la personne non-sourde totale.

RNIS Réseau Numérique à Intégration de Service. Voir ISDN.

SDSL Symmetric Digital Subscriber Line.

Signeur Personne communiquant au moyen de la langue des signes

UML Unified Modelling Language. : langage graphique de modélisation permettant de décrire les aspects statiques et dynamiques des organisations et systèmes informatiques.

UMTS Universal Mobile Telecommunication System

VCD Video CD. Système de diffusion de vidéo numérique sur un support CD-ROM utilisant le format MPEG-1.

WiFi Wireless Fidelity : réseau LAN sans fil.

Page 106: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 106

10.2 Résultats du sondage réalisé par la FFSB

A. Des services administratifs ou publics cités ci-dessous, le/lesquels doivent être équipés de ce système ? (3 choix maximum)

Hôpitaux 24

Gendarmerie (Police) 24

Maison communale 16

Palais de justice 12

Banque 11

ORBEM / FOREM 6

AWIPH 4

Contacts jeunes 3

Mutuelle 3

Service bruxellois pour l’intégration de la personne handicapée 3

Planning familial 2

B. Absence de l’interprète:

La communication avec une interprète via un écran ne me dérange pas

28

La présence d’une interprète à mes côtés est indispensable 15

Je n’ai aucune confiance envers un système d’interprétation gestuelle en ligne

4

C. A priori sur les système

Oui 20

Parfois 10

Non 5

D. Précision des craintes éventuelles

D’une mauvaise qualité d’image 19

Je n’ai pas peur... 16

D’une panne 5

Page 107: Système d’interprétation en langue des signes en ligne · 2009-11-11 · Système d’interprétation en langue des signes en ligne - Rapport final 7 2 Contexte du problème et

Système d’interprétation en langue des signes en ligne - Rapport final 107

10.3 Contenu du CD-ROM compagnon Le CD-ROM compagnon reprend le matériel cité durant cette étude : vidéos, rapports d’étude, articles de recherche, logiciel utilisé (version démo). Il comprend aussi une version électronique de ce rapport. Le CD-ROM est consultable à l’aide d’un navigateur Internet qu’il suffit de faire pointer sur le fichier index.html dans la racine du CD-ROM. Sur Windows, le démarrage est en principe automatique. Les fichiers contenus sont principalement aux formats suivants :

• format rm (real-vidéo) pour les vidéos, l’outil de visualisation est disponible gratuitement sur http://www.real.com

• format pdf pour les articles et rapports, l’outil de visualisation est disponible gratuitement sur http://www.adobe.com/products/acrobat/readstep2.html