Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

46
Page1 MBA affaires électroniques Johann Lovato Matricule de dossier 08 125 684 SIO-66087 : Entreprise digitale Rapport de session automne 2008 : Web 3.0 ou l'évolution vers un réseau Internet intelligent

description

Pour les ingénieurs, informaticiens avancés ou simplement geeks en informatique, voici un mémoire de MBA pour vous apprendre que je ne fais pas que du PPC dans la vie ;) Le web sémantique est pour moi l'avenir!

Transcript of Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page 1: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page1

MBA affaires électroniques

Johann Lovato

Matricule de dossier 08 125 684

SIO-66087 : Entreprise digitale

Rapport de session automne 2008 :

Web 3.0 ou l'évolution vers un réseau Internet

intelligent

Page 2: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page2

Sommaire

Introduction…..………..……………………………………………………………………...3

I. Web sémantique…………………………………………………………………………….4

A. Un langage propre : OWL………………………………………………………………………..…4

B. Une nouvelle structure d’entreprise : l’architecture orientée service............................6

C. Les nouvelles applications concrètes pour les processus d’affaires……………………..….9

II. WEB 3.0: évolution vers l’intelligence des réseaux………………………………………...12

A. Les outils de raisonnement conçus pour les ontologies……………………..…………..…..13

B. Les systèmes multi-agents………………………………………..…………….……….…...20

C. RFID: la voie royale vers une traçabilité absolue................................................................. 24

D. L’informatique omniprésente change les mentalités………………………………..............30

III. Limites et perspectives d’un Internet en pleine mutation……………………………………….33

A. L’intégration et fusion des modèles conceptuels.................................................................... 33

B. Le traitement des données incertaines: un chantier à long terme.......................................... 35

C. E-gouvernement: un enjeu international…………….……………………………………... 38

Conclusion…............................................................................................................................... 41

Bibliographie et Webographie..................................................................................................... 42

Page 3: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page3

Introduction

L’évolution de l’internet s’est réalisée de manière très rapide depuis 2001 et a marqué une

nouvelle étape avec l’émergence du WEB 2.0, un internet participatif qui a changé

profondément la structure du commerce électronique et s’axe beaucoup plus sur la

participation commune, la collaboration entre partenaires, avec l’expansion actuelle des

logiciels libres qui vont accroître davantage cette ouverture du monde des affaires

électroniques.

Nous étudierons tout d’abord un concept qui, bien que présenté dès 1993 par Tim Bernes Lee,

n’a commencé à être sérieusement appliqué que depuis 2003-2004 : le web sémantique. Nous

verrons comment ce réseau donne une vision plus globale de l’internet et contribue à construire

un Internet qui a du sens, une structure autonome et à donner cette intelligence, flexibilité,

rapidité à la gestion de la connaissance. Nous verrons ensuite les répercussions sur la

restructuration et réingénierie des systèmes d’information et des architectures d’entreprise en

expliquant quels sont les nouveaux enjeux, perspectives pour le commerce électronique. Nous

nous arrêterons sur une notion de plus en plus présente : l’e-gouvernement.

La seconde partie abordera les outils permettant d’exploiter cette approche nouvelle des

connaissances en analysant en profondeur des concepts-clés tels que les ontologies et

modélisation de concepts en montrant leurs implications au niveau des processus

d’affaires. Ces principes seront illustrés par les notions d'agents intelligents, de

technologies telles que RFID ou Ubiquitous Computing (informatique omniprésente) et

montrerons l'impact de ces nouvelles technologies et quelles améliorations concrètes sont

escomptées, à exploiter ou à perfectionner.

Enfin la dernière partie fera un constat des limites actuelles du web sémantique et des projets à

venir, solutions en études qui sont en chantier pour les prochaines décennies et quel est l’avenir

proche d’Internet. La conclusion établira une synthèse des éléments-clés du web sémantique et

de leurs débouchés économiques, financiers, politique, individuels.

Page 4: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page4

I – Web sémantique

Les gestionnaires de l’information et les architectes web n’ont désormais plus qu’un

mot à la bouche lorsque l’on aborde le sujet d’Internet : les services web. Or avant d’y

parvenir, il a fallu reconstruire une nouvelle perception du réseau et effectuer une

mutation d’un système d’information syntaxique vers un système de la connaissance qui

a abouti au web sémantique.

A) Un langage propre : OWL

Pour comprendre la source de ce basculement, il faut remonter à 1999, lorsqu’à la veille

du nouveau millénaire et des spéculations énormes qui pesaient déjà sur les

investissements de la nouvelle technologie de l’Internet par les entreprises, Tim Berners

Lee, fondateur du World Wide Web en 1990, commença ses travaux et sa réflexion sur

l’évolution déjà future des réseaux informatiques dans son livre intitulé « Weaving the

web » où il exprimait déjà la notion de « connaissance » et de « sens » propre à cette

technologie1.

Mais le 10 février 1998 fut le départ d’une formidable aventure avec la certification du

langage XML 1.0 aboutissement d’une longue recherche de deux années de Michael

McQueen, développeur de langages de balises jusqu’alors connu grâce au SGML mais

qui posait des soucis de standardisation. Le langage XML était le premier langage à

pouvoir structurer le contenu de l’information de manière en éléments simples,

complexes, en langage compréhensible par l’individu, tout en ayant un format

adaptable au standard du World Wide Web et un code ouvert à une évolution future de

son exploitation2. Le XML obtenait ainsi en 1998 une norme ISO de la part du

consortium W3C fondé par Tim Berners Lee en 1994.

Diverses recherches conduisirent ce dernier à définir concrètement un point de départ

du Semantic Web sur le fond de recherches d’ingénieurs qui abouti en 1999 à un cadre

de description nommé RDF, qui utilisé avec la syntaxe et la définition de schémas XML

allait permettre une vision totalement différente et pionnière d’Internet.

Le Resource Definition Framework a constitué le premier cadre vers un modèle

conceptuel de données. Il intègre l’énumération des éléments, des attributs et une liste

exhaustive des caractéristiques s’y rapportant. Le XML avait un souci de représentation

en page web cependant car il structurait le contenu tandis que le langage HTML le

présentait, ce qui a obligé le développement d’un modèle XSL (eXtensible Stylesheet

Language) qui a permis d’intégrer le XML dans les page HTML et de donner naissance au

langage XHTML. De l’utilisation conjointe du XHTML du RDF est né le RDFS ou schéma

Page 5: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page5

RDF qui permet de décrire la structure, le fonctionnement de ces éléments sur Internet

et de voir désormais les informations comme une arborescence d’éléments, contenant

des sous-éléments et permettant de regrouper les données en blocs, construire une

interaction entre ces éléments, définir la manière dont les éléments s’échangeaient de

l’information sur le réseau.

Cependant ce schéma RDF était assez rudimentaire. L’idée de Berners Lee, Roland

Wagner, et plusieurs membres du W3C était d’apporter une notion temporelle à ce

modèle conceptuel de données afin qu’il puisse traiter l’information de manière

autonome, sans interaction humaine et sache prendre en considération l’évolution des

termes, des concepts, du sens, de la définition de la sémantique, en permanence. Le but

était de préserver l’intégrité du modèle de manière permanente. Cela nécessitait de

créer un langage propre à cette ontologie qui puisse regrouper l’ensemble des

éléments, inférences, interactions, classes, sous-classes et devait permettre d’ajouter du

sens et maintenir un raisonnement qui permettent de mieux comprendre les activités

notamment dans les processus d’affaires, en les découpant en objets, hiérarchisés,

interagissant entre eux et aboutissant à un mappage des domaines, activités, rubriques,

applications, sous-applications des entreprises dans leur commerce électronique.

C’est ainsi qu’est apparu en 2001 le Web Ontology Working group. Effectuant des

recherches plus poussée pour exploiter le XML et les schémas RDF, les chercheurs ont

abouti au langage OIL (Ontology Inference Layer). Celui-ci s’appuyait sur des

descriptions d’attributs beaucoup plus riches et permettait de définir des domaines

particuliers avec les classes d’objets qui y correspondaient. OIL s’appuyait également sur

le FaCT3 (Fast Classification of Terminologies) qui permettait de constituer une base de

connaissances sur les différentes hiérarchies de classification et de types de classes

d’objets selon les domaines demandés.

OIL a permis des applications dans les ressources humaines, où le partage de la

connaissance représente d’énormes quantités d’informations stockées sur les systèmes

et a permis de les structurer notamment dans des entreprises comme Enersearch, afin

de permettre une meilleur modélisation des connaissances des activités et

communication des processus d’affaires à ses actionnaires4. De son côté, le

département de la défense américaine a travaillé en parallèle depuis 1960 sur son

propre réseau sémantique et le DARPA (Defense Advanced Research Projects Agency) a

établit son langage propre : le DAML ou DARPA Agent Markup Language.

Afin d’harmoniser l’OIL et le DAML, le W3C proposa une syntaxe commune DAML+OIL et qui

devint le 10 février 2004 le langage officiel du web sémantique sous une appellation définitive :

OWL (Ontology Web Language).

Page 6: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page6

B) Une nouvelle structure d’entreprise : l’Architecture Orientée Services

Le commerce électronique a très vite compris l’avantage que pouvait procurer l’utilisation du

web sémantique, car jusqu’alors les organisations étaient structurées en divisions, chacune

indépendante, sans aucun lien entre les activités ni interconnexions entre les bases de

connaissances. Les systèmes d’informations se retrouvaient ainsi dupliqués, avec une valeur

dégradée, rigide, utilisée uniquement de manière ponctuelle.

Le modèle conceptuel de données que proposent les ontologies, sur lesquelles nous nous

arrêterons plus en détail dans la partie II, permet d’effectuer une réflexion nouvelle sur les

processus d’affaires. En effet, les domaines d’activités sont trop souvent segmentés d’après leur

environnement d’application et les systèmes connectés point à point entre eux. Ceci provoque

souvent des pertes de bénéfices énormes lorsqu’une défaillance d’un des deux systèmes

survient, car le lien ne peut être remplacé. Pour conséquence, les affaires cessent entre deux

partenaires d’activités ou deux départements internes de l’organisation car l’ensemble du

réseau est paralysé. De même cette structure souvent appelée « legacy system » ou système

d’héritage, provoquait des multitudes d’intermédiaires entre certaines entités diamétralement

opposées sur une structure de plusieurs milliers de systèmes.

D’autre part la plupart des systèmes tels que les réseaux bancaires, notamment, du fait de leur

complexité et programmation en COBOLD parfois même (langage de programmation datant des

années 1970) rendent ces systèmes inopérables avec des systèmes plus actuels et ralentissent

voir empêche d’optimiser la productivité de l’organisation et cela a des répercussions auprès

des clients, Sears a été un exemple de mauvaise gestion informatique. Ce leader nord-

américains dans le commerce de détail a cru bon d’investir 60 millions de dollars dans de très

nombreux systèmes d’informations, sans se préoccuper d’établir une architecture commune et

rationnelle, ce qui l’a fortement handicapé au niveau de la gestion des clients et à revoir sa

stratégie en fonction des services fournies à ses clients en magasin mais aussi envers ses

partenaires de la chaîne logistique5.

Autre souci, l’entrée et la suppression d’un système soulevaient le problème d’intégration des

applications d’entreprise dans son architecture globale. Chaque modification avait une

répercussion sur l’ensemble des activités présente sur le réseau et ceci générait de plus des

soucis de compatibilité entre les applications et programmes afin d’échanger des informations.

Page 7: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page7

Exemple d’architecture classique d’entreprises traditionnelles

Cette architecture archaïque nommée CORBA (Common Object Request Broker Architecture)

montrait ainsi ses faiblesses au niveau de sa rapidité de traitement des informations, de sa

souplesse à réagir face aux évolutions, changements des besoins des activités d’entreprises.

En 2004, des travaux basés sur la programmation orientée objet d’université européennes de

Milan,Manchester et de Stanford, du Massachusset Institute of Technology aux États-Unis, ont

servi à définir un lien entre le XML et les activités d’affaires pour développer les services web et

une architecture d’entreprise nouvelle.

Cette architecture permet de regrouper les systèmes d’informations disparates en services

simplifiés et interconnectés non plus de point à point mais en réseau connecté en toile avec

une point de convergence commun permettant l’échange entre n’importe quel services quelque

soient leur programmation d’architecture et avec une parfaite communication entre services

web, apportant une flexibilité de connexion et d’interaction entre les processus d’affaires des

sociétés.

L’architecture orientée services s’articule sur 3 composantes :

- UDDI (Universal Description Discovery and Integration): une base de registres contenant

les noms des services webs, leurs attributs, ainsi que leur caractéristiques et propriétés

(ex : SCM = port 80). Celui-ci enregistre le nom des services chaque fois que de

nouveaux apparaissent et les suppriment aisément lorsqu’une entreprise se retire du

réseau d’affaires.

- WSDL (Web Services Description Language): un langage qui permettent de créer les

interactions et échanges entre les services web et décrit de quelle manière chacun

d’entre eux se connectent, quelle nature de données transmettre sans en connaître le

Page 8: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page8

contenu exact, à quel partenaire d’activité le service web doit être envoyé, sous quelle

forme….

- SOAP (Simple Object Access Protocol): le langage de communication entre les services

web. Grâce à un « broker » ou « facilitateur »utilisant le format XML et situé au centre

du l’architecture orientée service, SOAP permet l’échange entre les services webs. Les

entreprise n’ayant besoin que de programmer un applet qui va transformer les codes de

programmations différents de chacun vers le langage commun SOAP qui permettre

d’établir la connexion entre deux services à partir d’un réseau en toile commun et une

architecture ayant un noyau central gérant les demandes de services des partenaires

d’affaires.

Exemple d’architecture orientée service

Cette architecture a incité les entreprises actuelles à réfléchir à une meilleure définition de leur

stratégie d’affaires, des objectifs à réaliser et des processus d’affaires adaptés à leurs besoins,

tout en permettant de garder en place les legacy systems et de les faire fonctionner avec des

systèmes plus récents en offrant cette compatibilité par un même langage commun, le SOAP.

Page 9: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page9

L’un des principaux outil de réingénierie utilisé à dans ce but fut l’UMM (UNCEFACT Modeling

Methodology) qui a permis de recréer des processus structurés en services et non plus en

applications, à simplifier les tâches afin de permettre une meilleure correspondance des services

entre les partenaires d’affaires et de pouvoir définir la manière d’opérer des processus, et

finalement à pouvoir automatiser le traitement des processus selon qu’ils le permettent ou non.

Le gros avantage est de pouvoir améliorer la réutilisation des mêmes services pour différents

partenaires qui en font la demande et de pouvoir éliminer à la fois la surmultiplication des bases

de données qui contiennent des données similaires afin d’obtenir une souplesse et facilité

d’échange d’information entre les applications logicielles des entreprises. Des standards

d’ingénierie propre à l’architecture orientée services ont été créés comme le BPM4WS6 et

permettent d’obtenir un même raisonnement de conceptualisation d’éléments de processus

d’affaires pour l’ensemble des partenaires d’un même réseau sur Internet.

Cette architecture permet d’intégrer de nouveaux services ou d’en supprimer sans occasionner

de perturbations dans le fonctionnement de l’architecture, on y voit souvent une référence au

plug-in et plug-out qui illustre cette facilité d’utilisation de l’architecture orientée service et de

ses services web.

Dernier composante importante dans cette réingénierie pour optimiser le fonctionner de

l’architecture orientée services : le Service Level Agreement.

Le S.L.A est un cadre d’interface des services web qui permet de définir la manière dont

fonctionnent les processus, les responsabilités affectées à chaque éléments du service utilisé,

ainsi que leur portée, et pourvoir une interface commune de travail afin d’harmoniser en un

même langage les différentes équipes d’utilisateurs en s’appuyant sur des règles, standards qui

définissent un champs d’opérations commun pour tous lors de l’utilisation des services web7.

C) Les nouvelles applications concrètes pour les processus d’affaires

Là où certaine entreprises y ont vu un simple remodelage de processus, d’autre s’y sont

appuyées pour redéfinir leur cœur de métier de base. C’est le cas notamment des

réseaux bancaires dont un des exemples les plus réussis est sans doute le réseau Nordea

qui rassemble les 4 banques leader en Scandinavie et se répartit sur plus de 1100 sites

différents utilisant près de 30000 collaborateurs8.

Les gestionnaires, là où certains y ont vu un projet ambitieux d’investir massivement

dans l’équipement pour améliorer la technologie et l’efficacité des système

d’information présents dans l’entreprise, ceux de Nordea a raisonnée en terme de gain

de productivité et de rentabilité en redéfinissant les processus d’affaires du cœur de

métier et en organisant les tâches qui pouvaient réduire les charges de l’organisation

tout en permettant une efficacité d’action par son automatisation.

Page 10: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page10

Nordea s’est rendue compte qu’une architecture orientée service servait une stratégie

d’affaires et non une volonté de modernisation des systèmes. L’essentiel des banques

qui ont échoué dans leur investissement technologiques, l’ont fait à tort en pensant à

l’aspect technique et matériel au détriment du sens des affaires, à l’apport qu’une

nouvelle architecture pouvait apporter à la structure de l’ensemble de l’entreprise.

L’Architecture orientée service, si elle a permet à d’anciennes structures d’évoluer, peut

permettre également à des compagnies leaders de surveiller et développer, maintenir

leur avantage compétitif au niveau concurrentiel. C’est notamment le cas de la société

RLP Technology, basé dans le Michigan aux États-Unis, et qui est leader au niveau des

solutions d’affaires marketing dans le domaine automobile.

La compagnie, basé dans plus d’une dizaine de pays à travers le monde tel que le Japon,

la France, l’Australie, cherchait à améliorer son système de collecte de l’information,

afin de pouvoir proposer des offres de services plus adaptées à ses clients, car le marché

du B2B suggéré d’être extrêmement pointu et en veille permanente et efficace du

marché.

L’architecture orientée service y a apporté une solution en permettant de réorganiser

les tâches de collectes des données, en optimisant la vitesse d’échanges d’informations

des systèmes, en définissant des réglementations quant à ces données et rationalisant

les coût tout en apportant un support additionnel pour le suivi de l’activité.

L’essentielle était de structure les systèmes d’information de manière ordonnée et

intelligente afin de faciliter l’accès aux données et de créer des concevoir les services

comme des blocs d’éléments, des services à part entière et qui éliminaient toute

redondance en clarifiant les forages de données et les modes d’accès à l’information

dans l’entreprise.

RLP Technology a ainsi pu ouvrir ses services vers les analystes de ses partenaires

d’affaires qui pouvait étudier les perspectives par rapport à l’évolution de l’entreprise

sur le marché automobile grâce à une interface simplifiée, procurant des outils de

création de données et d’échanges beaucoup plus souples et rapides.

L’A.O.S (Architecture Orientée Service) a permis de refondre les activités des

producteurs de pièces en se concentrant sur leurs cœurs d’activités pour créer

l’interaction avec les services proposés par RLP. Une plus grande richesse d’information

s’est créée sans pour autant se disperser dans les systèmes car la base de connaissances

était organisée de manière dynamique, en organisant ses données selon les domaines

financiers, communication, marketing, juridique de RLP, et la conceptualisation des

Page 11: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page11

données permettait ainsi de mieux analyser les cycles, les étapes successifs des

processus d’affaires entre eux pour mieux anticiper les conséquences de les

commercialisation de produits sur le marché automobile et prévoir l’impact des

décisions et stratégies d’affaires de ses concurrents sur le marché actuel et selon les

perspectives futures.

Ce projet baptisé Re-Fuel a été complété par un ESB (Entreprise Service Bus) qui devait

permettre d’augmenter la capacité de traitement des quelques 2,5 milliards

d’informations que comptait à l’époque les systèmes d’information de RLP, tout en

veillant à une définition plus précise des données afin d’assurer une meilleur qualité et

intégration de l’information dans les affaires électroniques.

Une meilleur gestion globale de l’information a permis à RLP de remplacer ses legacy

system programmé en COBOLD par un réseau internet souple, rapide, efficace,

directement connecté à ses partenaires professionnels afin d’augmenter la

collaboration et l’échange pour créer une valeur ajoutée aux avantages compétitifs des

services marketing de RLP Technology. Ajouté à un choix judicieux de la technologie

JEMS pour son intégration du langage JAVA dans la programmation de ses systèmes et

son intégration dans l’architecture globale, ont contribué à une stratégie gagnante

définie par Joe Lafair, responsable du développement de l’architecture web RLP, comme

une stratégie 50/50/100 avec 50% de l’activité reposant sur cette solution, permettant

50% de rapidité de traitement en plus, aboutissant à 100% de qualité et en

rationnalisant les coûts des investissement par rapport à la réduction du traitement des

affaires que permet l’automatisation de processus simples.

Autre excellent exemple d’application, celle de la compagnie Swedish Railways. En 2005,

constatant de la saturation et manque d’efficacité de ses serveurs actuels et intranets, la

société a réfléchit avec une société experte en implantation d’architectures orientées

services à une plateforme permettant d’optimiser sa capacité de traitement de la

demande de billets de trains de ses clients et d’une manière de rationnaliser les coûts

de son système, à des fins de rentabilité accrue.

Un partenariat avec Ebay a ainsi été mis en place en utilisant l’AOS pour rendre plus

aisée l’échange de services entre les deux firmes et être plus réactif quand à la demande

spontanée et le flux de clients auquel devait faire face Swedish Railways. Ceci lui a

permis, grâce à l’appui d’une infrastructure informatique IBM adaptée, souple, fondée

sur Websphere et les logiciels libres ainsi que des postes informatiques et serveurs plus

performants d’augmenter ses ventes de 1500 billets supplémentaires chaque semaine,

et donc d’assurer un formidable retour sur investissement et une meilleur satisfaction

de sa clientèle9.

Page 12: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page12

Tous ces exemples de réussites sont un élément de motivation pour inciter davantage

les entreprises qui cherchent la meilleur optimisation de leurs affaires électroniques et

dont l’architecture classique et rigide en place paralyse l’évolution avec les partenaires

d’activités et empêchent d’utiliser de manière efficiente l’information de leurs systèmes

pour coordonner leur tâche, leur échanges de services sur le marché, ce qui accroît les

investissements à réaliser afin de se maintenir à jour par rapport à la concurrence et

l’essentiel point de départ est toujours une réflexion itérative sur le modèle économique

de l’entreprise, afin de prendre en compte les réels besoins ,les faiblesses du réseau

existant et choisir les solutions les plus adaptées à une souplesse, réactivité, rentabilité

des affaires, chose que permet l’architecture orientée services.

II – WEB 3.0 : évolution vers l’intelligence des réseaux

L’internet a contribué à une fulgurante amélioration de la conduite des affaires dans le

domaine du commerce-électronique, en s’axant sur le développement d’activités créant

une réelle valeur ajoutée apportée par les technologies nouvelles de l’information liées

à Internet.

Là où le web 2.0 a recentré la stratégie autour de la collaboration et l’aspect social,

participatif des individus pour la création d’information afin d’adapter les produits,

services de meilleure manière pour desservir les clients, leur donnant plus de valeur et

cherchant par tous les moyens à augmenter l’interaction, l’ergonomie de

communication, d’utilisation, la valeur de leur partenaires d’activité et celle des clients,

le web 3.0 lui apporte cette notion supplémentaire d’intelligence.

Cette nouvelle approche des affaires prend du recul par rapport aux stratégies

d’affaires, en apportant une réflexion nouvelle sur la conceptualisation de la

connaissance, de l’information et une transparence et homogénéisation de la gestion

des connaissances sur Internet. Nous l’avons vu précédemment, l’architecture réseau

est un élément-clé désormais dans une vision d’optimisation du traitement de

l’information, opérabilité des processus d’affaires et valeur de l’offre de services.

Cependant les méthodes et technologies en développement, telles que les ontologies

d’entreprises, agents intelligents, nous offrent une vision d’un réseau autonome et

cohérent, ayant du sens et cherchant à créer du sens pour simplifier l’accès, le

traitement des informations, des activités et tend à modifier l’ensemble des

comportements des individus en impliquant une logique humaine aux applications

informatiques et une meilleur coordination du partage des informations.

Page 13: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page13

A) Les outils de raisonnement conçus pour les ontologies

Nous l’avons brièvement aperçu précédemment, le web sémantique a contribué à se

tourner vers le problème du sens de la connaissance et de la manière imparfaite avec

laquelle elle est utilisée.

Très tôt et dès le milieu de l’année 2004, le W3C et des équipes telles que l’université de

Milan en Italie, ou de Stanford aux Etats-Unis, et groupes d’ingénieurs asiatiques,

indiens ont perçu cette limite que représenterait à court ou moyen terme l’utilisation

« syntaxique » des données sur le réseau Internet. Cette perception réduisait les

possibilités d’exploitation autonome de l’information et réduisait l’utilisation des base

de connaissances à une simple connexion formalisée, prédéfinie et rigide. Ainsi les

ontologies ou modèles conceptuels de données sont nés du web sémantique avec son

propre langage OWL afin de réfléchir à une approche nouvelle de l’utilisation des

données et à l’élaboration de significations, de structures ordonnées et inter-

opérationnelles et autonome des systèmes afin d’améliorer la qualité des informations

et de la pertinence des recherches et du traitement automatisé des données.

Concrètement, lorsque de nos jours nous recherchons de l’information sur Google, ce

qui se passe derrière sur le réseau n’est qu’une combinaison de « wrappers »,

« spiders » plus communément appelés robots-araignées de recherches, qui combinés à

de très puissant algorithmes d’analyse permet cette rapidité d’accès à l’information.

Cependant, aucune analyse ne nous permet de dire si les résultats affichés sont

réellement pertinents, car cela dépend souvent des critères choisis pour paramétrer une

recherche. Et les outils utilisés tels que le pagerank (classement de la popularité des

pages), le référencement HTML, la notoriété des sites internet ne nous indique

nullement quand à la qualité réelle du contenu même des informations que renferment

ces sites. Comment définir la réelle pertinence d’un terme lorsque par exemple la

tomate est considérée pour 236 sites comme légume, alors que pour 4 sites il est

désigné comme un fruit. Est-ce la popularité qui octroie la certitude du sens

obligatoirement? La tomate étant considéré comme fruit et légume, cela montre qu’il

est nécessaire de reconceptualiser les connaissances afin de préciser leur sens, leur

portée, les éléments intégrés, les attributs et le type d’interaction avec d’autres

connaissances, afin d’homogénéiser la connaissance.

Au niveau des entreprise ceci impliquait une refonte totale de leur modèle d’affaires en

5 étapes : l’étude de faisabilité, le kick-off, la réitération, l’évaluation et la maintenance.

Page 14: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page14

Méthodologie de conceptualisation des processus d’affaires10

Étude de faisabilité

Elle permet de faire le constat des faiblesses de l’entreprise, de la pertinence de sa

stratégie d’affaires et de l’adéquation de ses processus avec ses besoins actuels et

futurs. Ceci permet ensuite de faire le point sur les possibilités d’intégrer un modèle

conceptuel de données au sein de l’organisation avec les ressources disponibles pour

valider le projet.

Kick-off

Il s’agit de faire une capture de l’information et des connaissances conservées dans les

bases de données et systèmes d’information. Cette étape permet de définir un

« squelette » de l’architecture de l’information dans l’entreprise et permet ensuite de

définir les activités en domaines d’application, eux-mêmes divisés en sous-domaines,

comportant des éléments. Chaque éléments peut comporter des sous-éléments et se

composent obligatoirement d’attributs, de caractéristiques qui définissent sa nature et

sa portée, ses propriétés, sa signification. Ce modèle définit également les interactions

Page 15: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page15

qui se produisent entre chaque élément, entre éléments et domaines, entre les

domaines, etc.….

L’ensemble de cette phase se base sur la sémantique des éléments et les

correspondances de sens des termes, données présentes dans les bases de données,

pour définir les processus d’affaires et il est très important de vérifier que chaque

élément est cohérent avec le sens du domaine auquel il appartient.

Exemple de conceptualisation des données

« Refinement » ou itération

Une fois le modèle défini en détails, il s’agit de vérifier de la validité de chaque élément

en regardant son application et essayant de catégoriser les données de manière plus

affinée encore. Une réflexion est apportée sur la valeur des concepts établis, jusqu’à ce

que les éléments soient clairs, compréhensibles et dont l’impact, l’action, les relations et

inférences, hiérarchies doivent être correctement précisés. Bien évidemment le travail

sera d’autant plus difficile que l’information est riche ou que les domaines touchent à

une multitude d’environnement ,de champs sémantiques divers et épars, et la difficulté

est de catégoriser en concepts des éléments souvent complexes et dont les données

peuvent être incertaines ou dont les répercussions sont improbables, chose que nous

analyserons plus tard dans ce rapport.

Page 16: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page16

Évaluation

Cette phase vérifie que les éléments soient opérationnels, que le raisonnement des

processus soit cohérent à la stratégie d’affaires d’ensemble et par rapport aux domaines

cernés. Il est nécessaire de vérifie que les relations entre concepts pour déterminer s’ils

sont correctement définis, si les bonnes caractéristiques, attributs, inférences, actions

ont été catégorisés de façon à ce que l’ontologie obtenue puisse être réutilisable et

exploitable de manière continue.

Maintenance

La mise à jour des données est capitale afin de préserver la qualité des informations

possédées. La valeur des concepts des processus dépendra fortement de la capacité à

les faire évoluer en fonction e l’environnement dans lesquels ils s’appliquent et en

fonction des changements de comportements des utilisateurs. Et il sera ponctuellement

nécessaire de procéder à un processus de réitération et donc de revenir à notre 3ème

étape de « refinement » afin de modifier les éléments, dès lors que leur signification,

leur rôle, leur actions, les finalités visées, changent.

Les outils du web sémantique

L’un des premiers outils apparaissent en 2004 fut Swoogle, accessible via l’URL

http://swoogle.umbc.edu/ et qui fonctionne comme un moteur de recherche pour le

web sémantique. Cette outils permettait de retrouver des éléments, des attributs et des

ontologies parmi plus de 100 000 documents en 2004. Cependant, il lui était impossible

d’établir le lien entre deux concepts d’ontologies distinctes, ni de définir la qualité de

l’information autrement que pas le ranking des mots-clés ou des sites.

Page 17: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page17

Ainsi en 2006, le Knowledge Media Institut de Milton Keynes au Royaume-Uni a

développé un outil plus perfectionné appelé Watson Semantic Web Gateway11. Au

contraire de Swoogle, Watson se base sur un moteur de recherche par mots-clés de très

haut niveau et utilisent les métadonnées des informations et concepts afin de vérifier la

qualité, la pertinence de ceux-ci et ne se base plus sur l’uniquement popularité des

termes sur les pages internet. D’autre part, Watson Gateway permet d’analyser les

relations qu’il existent entre des concepts appartenant à des ontologies différentes en

se basant sur les liens existants entre les éléments dans leurs ontologies respectives

pour ensuite établir des correspondance de sens au niveau de ces concepts et construire

une relation entre eux.

Exemple de raisonnement de Watson Gateway12

Autre caractéristique, Watson vérifie en permanence l’utilité de ses critères d’analyses

des termes sémantiques et développe de nouveaux critères d’analyse et de

correspondances pour établir les liens entre les informations et améliorer sa perception

de leur qualité. A l’instar de Swoogle qui se limitait à 100 000 documents, Watson peut

traiter les quelques 6 millions d’informations renfermées dans les bases de données du

web sémantique et peut traiter ces informations sans limite de temps ni d’utilisation, ce

qui n’ était pas le cas de Swoogle qui n’autorisait qu’un nombre limité de demandes.

Watson a été vu très rapidement comme un premier pas vers les intégrations

d’ontologies et un projet en devenir concernant les alignements de concepts et fusion

d’ontologies.

Page 18: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page18

D’autres outils tels que Poweraqua et Powermagpie permettent également de faciliter

le repérage des informations et d’établir les liens avec des ontologies existantes ou de

créer une nouvelle ontologie, en analysant les contextes et les attributs, les classes de

termes et de connaissances ces deux logiciel permettent d’afficher à l’écran les

correspondances existantes, les ontologies utilisées ou les conceptualisation qu’il est

possible d’établir entre plusieurs mots-clés. Power Magpie tout comme Watson

s’appuie sur le RDF (Resource Description Framework) pour établir les catégorisation de

concepts,de termes sémantiques et établir une « communication » avec les documents

html afin de générer un listing des relations existantes dans les modèles conceptuels

relevés dans chaque page internet. Ainsi selon l’API ou Application Programming

Interface de Power Magpie utiliser des fenêtres contextuelles de similaire au format

Notepad afin de montrer les résultats des analyses sémantiques.

Capture écran de l’interface de Power Magpie

L’outil actuellement le plus abouti et le plus utilisé pour concevoir des ontologies et

structures leur intégration est sans aucun doute le logiciel Protégé.

Page 19: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page19

Le logiciel Protégé, développé en 2000 à l’université biomédicale de Stanford13 en

Californie, est une des premières solutions qui ont été mis en place afin de représenter

sous informatique de manière schématique, visuelle le web sémantique.

Il permet de créer des structures sous forme d’arbres heuristiques avec des connexions

qui sont établies par le biais de concepts- clés communs entre les systèmes

d’informations ou entre les éléments de manière à ce que l’ensemble des concepts

puisse communiquer de manière optimisée et automatisée. Ce logiciel permet d’affecter

les informations par individus, classes (qui peuvent posséder des attributs caractérisés

par des propriétés propres), entités et au sommet de la structure l’ontologie et d’y

assigner les actions d’analyse intelligente de cette dernière.

Il permet aussi d’y intégrer des annotations spéciales pour compléter la description de

chaque élément de l’ontologie. Grâce à l’outil Graphviz, il est possible de visualiser la

hiérarchie des données telle que l’on a répertorié les fils, sous-fils, sous-sous-fils et

différents liens entre les classes, labels descriptifs d’information et attributs des

différents contenus.

De plus il permet d’intégrer des plug-ins pour fonctionner avec les documents OIL, RDS,

OWL de toutes sortes, inclure des librairies et notamment un plug-in intéressant avec

l’outil Watson Gateway.

Exemple de l’interface de Protégé (en version 4 bêta ici)

Page 20: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page20

Tous ces outils du web sémantique sont tous confrontés des problèmes qui sont encore

à l’heure actuelle à l’étude comme la fusion d’ontologie et l’intégration de concepts

renfermant des éléments complexes et de l’information incertaine.

B) Les systèmes multi-agents

Entrevue par la communauté scientifique dès le début des années 199014, le système

multi-agents se caractérisait par trois composantes essentielles :

- Réactivité : capacité à agir selon les changements de son environnement et à

s’adapter en fonction des données qu’il reçoit ou analyse.

- Pro-activité : aptitude à anticiper les besoins et les répercussions futures des

informations, aide à la prise des décisions avant que les événements ne

surviennent en étudier toutes les possibilités d’évolution du contexte et des

éléments avec lesquels il interagit.

- Sociabilité : faculté de coopération avec les autres agents et d’organiser la

répartition de tâches, la structure hiérarchique d’un projet entre agents, de

définir une structure approprié pour travailler de manière indépendante.

Schéma de fonctionnement des agents intelligents15

Page 21: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page21

Les agents intelligents conceptualisent les données pour se forger leurs propres

ontologies et agir de manière autonome dans leur environnement. Ils réagissent en

fonction de capteurs d’information qui rentrent en « input » ou entrée pour constituer

une action en sortie ou « ouput » vers ce même environnement.

Chaque agent du système peut être attribué à un contexte ou environnement

différents, mais établit toujours un lien avec les autres agents.

D’autre part les agents intelligents ont leur propre structure mentale qu’il organisa en

fonction de croyances, désirs et intention (le BDI ou Belief, Desire, Intention). L’agent en

analysant les données se construisent leur propre choix de négociation et prennent les

décisions d’après les perspectives répondent le plus à ce qu’il « croient » optimal

comme choix pour atteindre un objectif de travail. Le désir est l’objectif de base que

chacun possède mais qui est souvent sujet à des divergences avec les buts des autres

agents. Ils se concentrent alors sur les intentions où les obligations, besoins sur lesquels

ils n’accepteront aucune marge de négociation.

Ainsi selon le contexte 4 différents choix sont possibles : la coopération, la collaboration,

l’antagonisme, ou la semi-coopération.

Dans une logique coopérative l’agent peut rendre un service à son homologue mais la

chose ne sera pas forcément réciproque ensuite, car les intérêts sont divergents mais

une entente existe.

La collaboration présente une action mutuelle des agents entre eux car ils ont des

objectifs soient commun soient compatibles avec les finalités escomptées.

L’antagonisme est le refus catégorique de communication entre deux agents, soit par

intérêts trop fortement divergents, incompatibles, où par analyse de l’autre comme

ayant une réputation insuffisamment fiable ou infidèle.

La semi-coopération enfin est un état de réflexion de l’agent intelligent qui va d’abord

considérer le statut de son vis-à-vis avant de prendre une décision. Il se basera sur

l’historique des interactions passées, la réputation, fiabilité, qualité de l’autre agent et

sa propension à permettre la réalisation d’objectifs en temps voulu.

Le système multi-agents se structure autour de l’architecture CORBA16 (Common Objet

Request Broker Architecture) , qui permet d’utiliser les agents comme des objets et de

les rendre autonomes pour des tâches précises, complexes.

Page 22: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page22

On retrouve généralement trois types d’organisation des agents intelligents dans le

système SMA17 :

- L’architecture axée sur le flux d’information : le rôle des agents est de capturer,

analyser, et effectuer des veilles sur la base de connaissances qu’il possède ou

acquiert afin de maintenir sa qualité et son utilité.

- L’architecture orientée rôle : chaque agents comprend des responsabilités et

peut avoir à se référer à un agent supérieur. Une hiérarchie par couche

d’importance des tâches à accomplir ou application à utiliser peut suggérer

qu’un agent constitue des sous-agents qui vont exécuter des tâches simples.

- L’architecture orientée contrôle : mise en place lorsque le projet dans lequel est

impliqué le système multi-agents est trop complexe pour laisser une autonomie

et confiance totale à l’ensemble des agents, des contrôles s’effectuent dans leur

espace de collaboration afin de valider l’atteinte de objectifs de chaque

éléments simples contenu dans les applications complexes à réaliser et ensuite

une validation de l’ensemble de la tâche complexe est effectuer par les agents

lorsque tous manifestent l’atteinte des objectifs définis au départ.

De nombreux domaines exploitent déjà cette technologie, notamment les secteurs

de la santé, du tourisme et de la gestion de la relation client.

Système multi-agents dans l’aéronautique

Le très ambitieux projet Nextlink, par exemple, dans le domaine de l’aéronautique,

avait pour objectif de construire un système multi-agents afin de travailler sur le

design des pièces de construction des avions commerciaux.

L’architecture du système utilisait un agent intelligent qui supervisaient

l’avancement dans la réalisation des pièces et validait les étapes de conception et

pouvait moduler des décisions en fonction des impératifs, défaillances, difficultés

rencontrées auprès des différents ingénieurs réparties à travers le monde,

permettant également la transmission via les réseaux sans-fils aux équipes humaines

et le but était de construire un système standard transposable dans d’autres

domaines ultérieurement.

Page 23: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page23

Schéma extrait du projet18

Système multi-agents dans le traffic automobile

Autre exemple encore plus complexe : la gestion de la signalisation routière des feux

routiers. Un équipe de projet de recherche à l’université de Anyang en Corée du Sud a

établit un système multi-agents permettant de gérer le changement des lumières des feux

passant du rouge au vert.

Les agents au moyen de capteurs permettent d’analyser et calculer le temps des cycles des

feux en fonction de la densité et congestion du trafic routier. Mais également ils sont

« conscients » des conditions atmosphériques en analysant la structure de l’air et peuvent

adapter la vitesse de changement des lumières selon le contexte afin de minimiser les

risques d’accident automobiles.

Cela va encore plus loin puisque les agents peuvent non seulement prévenir les autres

agents d’augmentation ou baisse de flux de trafic, mais aussi peuvent gérer le signal des

feux en fonction de la vitesse à laquelle roulent les automobilistes afin de ne pas provoquer

des ralentissements pouvant occasionner de possibles carambolages, et peut gérer

simultanément plusieurs intersections de rues.

Page 24: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page24

Schéma représentatif de l’application du système d’agents intelligents pour réguler le

traffic routier au niveau des intersections19

Cette technologie représente un défi formidable dans les systèmes d’informations des

entreprises, et les projets actuels rapprochent les systèmes multi-agents de la recherche en

intelligence artificielle, afin de permettre une autonomie de travail sur des éléments

beaucoup plus complexes et sur l’amélioration du raisonnement « humain » des agents.

C) RFID : la voie royale vers une traçabilité absolue

Développée dès la seconde guerre mondiale, en 1948, pour la Royal Air Force

britannique pour distinguer les avions ennemis20, ce système apparaissait alors sous

le nom « IFF » pour Identification Friendly of Foe. Ce n’est que vers la fin des années

1970 que la Radio Frequency Identification fit une percée, lorsque le domaine de

l’armée qui avait conservé l’usage et la recherche exclusive de cette technologie

durant plusieurs décennies finit par la rendre publique.

Utilisée durant les années 1980 essentiellement pour sécuriser l’accès aux sites

nucléaires, et il faudra attendre 1998 pour qu’un système utilise les puces RFID pour

Page 25: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page25

permettre de suivre le bétail au niveau agricole mette sur le devant de la scène

réellement cette technologie. La raison de ces années de silence est essentiellement

due à l’absence de normes et à un devoir de réglementation avant tout usage

public21.

En 2004, après de longues décennies de recherche et fabrication de tags par les

industrie européennes et américaines essentiellement, la RFID pris tout son sens

lorsque les entreprise ont entrevue l’utilité des progiciels, architecture orientée

services et l’enjeu économique au niveau de la logistique que l’apport de nouvelles

puces de traçabilité des produits offrait. Ainsi dès fin 2003, WalMart suivi les pistes

d’ASA firme de détail anglaise dans l’incorporation de tags RFID sur ses produits. Ce

qui causa un demi-échec car le coût des puces se posait car bien que permettant un

rayon d’action de 50m, elles coutaient en moyenne 15€, ce qui réduisait son

implantation dans des firmes de grande taille ayant de forte rotation de stocks ou

portant sur des produits à fortes marges22. WalMart, leader américain de la grande

distribution du reporter ses ambitions pour 2005, année où il créa la norme EPC, en

fréquence 13,56Mhz et 98 bits et dont la portée était estimé à 2 mètres maximum

étant donné qu’il s’agissait d’étiquettes RFID passive23.

Ainsi depuis, la RFID est utilisée essentiellement pour contrôler le taux de démarque

inconnue en magasin, la traçabilité des produits depuis le fabricant vers les

entrepôts et surveiller les stocks en magasins.

La puce RFID se compose d’une micro-puce renfermant des informations sur le

produit et utilisant l’énergie du signal d’un lecteur RFID qui transmet une requête

pour échanger l’information qu’elle contient.

Schéma de fonctionnement d’une puce RFID

La technologie Verichip, approuvée par la travaille actuellement sur une puce ayant

une portée de 300m et permettant d’être implanter sous cutané afin de permettre

la localisation des individus par satellite et préoccupe énormément les prisons

Page 26: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page26

américaines pour la surveillance de leur détenus, mais également dans la prise en

charge de patients24.

Les puces RFID comprennent deux catégories :

- Les puces passives, ayant un rayon d’action réduit de 9 cm à 2 mètres et ayant

une fréquence de 13,56 Mhz : uniquement lisibles par une lecture,

essentiellement pour le stockage d’informations.

- Les puces actives, ayant un rayon d’action allant jusqu’à plus de 50 mètres en

moyenne, utilisant une fréquence de 2,38 à 2,47Ghz : permettent lecture et

écriture, mise à jour de données, utilisée pour le suivi logistique principalement.

Applications

Transport londonien

La RFID s’inscrivit de plus en plus le principe d’ubiquitous computing ou

informatique omniprésente et très tôt les gouvernements ont saisit ce progrès pour

l’application dans les services publics. Le réseau public de Londres ainsi a vu très tôt

l’utilité d’une telle technologie pour réduire la congestion du trafic de voyageurs

quotidien du centre urbain de Londres, où plus de 5 millions d’anglais prennent

chaque jour le métro, le bus, le train et le nombre de visiteurs enregistrés

augmentent de 15% chaque année. La gestion optimale du réseau de transport était

donc une priorité essentielle à très court terme face à l’engorgement des flux de

circulation.

Le ministère des transports britannique, et le réseau TfL (Transport for London),

réfléchissait à une amélioration de leur système de tickets magnétiques et billets

d’autobus qui engendrait des perturbations et embouteillages dans les heures de

pointe en journée et de même facilitait la fraude d’individus mal intentionnés et qui

coûtait entre 5 et 6 millions de pounds au réseau chaque année.

C’est ainsi que naquit le projet Prestige en 200525, qui élabora un système de

capteur sur les portiques d’entrée et sortie des stations de métro qui à l’aide de

capteurs placés près de la zone de passage des individus lisaient leur nouvelle carte

magnétique RFID et leur ouvraient le portique. Ceci engendra un gain de 4 secondes

par personne en temps de passage car il n’était plus nécessaire d’insérer un coupon

magnétique mais de passer simplement suffisamment près des capteurs avec la

Page 27: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page27

carte contenant la puce RFID pour que celle-ci soit reconnu, authentifiée et se voit

accordé l’accès. La carte ne devait pas nécessairement être sortie et les personnes

pouvaient les conserver sur eux du moment que le capteur détecter un titre valide.

Un problème au début du projet se posa sur la difficulté à placer les dispositifs de

reconnaissances car la portée était réduite à quelques centimètres uniquement avec

une risque d’effet d’angle perpendiculaire qui pouvait empêcher le capteur de lire

les puces RFID contenu dans les cartes des citoyens.

Ce système permis de réduire de manière significative la congestion du trafic

londonien et fut également mis en place dans plus de 8000 bus londonien qui

enregistraient en 2005 près de 6 millions de ventes de billets, grâce à ce système et

près de 4 millions supplémentaire de titres concernant le métro.

Ce système permis d’enregistrer le parcours des usagers, ce qui souleva également

le problème de méthode d’écriture « étape par étape » ou « finale » des trajets des

individus pour identifier les différences entre les parcours simples et les allers-

retours et valider les droits des usagers par rapport aux informations détenues sur

leurs cartes individuelle. Ceci facilite grandement les contrôles des agents de

surveillance des réseau du métro de Londres dans le contrôle des titres et grâce à

une signature électronique propre à chaque pass, la fraude et les tentatives de

falsification de titres de transports s’est considérablement résorbé.

Portiques RFID à Londres et effets observés sur les ventes de titres de transports26

Page 28: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page28

Gestion client tokyoïte dans la vente de chaussure

Autre exemple pertinent, le support client en plein centre ville de Shibuya à Tokyo dans le

flagship (plus grand magasin mondial en termes de superficie) de la firme Mitsukoshi,

spécialiste dans la vente de détail et dont le problème de qualité de service auprès de la

clientèle de leur département de chaussures était problématique.

En effet, l’évasion de clientèle qu’entraînait le traitement de chaque client à cause de

nombreuses allées et venues des vendeurs et du manque d’information spontanée sur l’état

des stocks entraînait des pertes chiffrées à 8% des chiffres d’affaires notamment sur la cible

féminine.

Appuyé par le METI (Minister of Economy Trade and Industry) du Japon concernant les

recherches de projets portant sur la technologie RFID, la firme Mitsukoshi aboutit à la

conception d’un système de kiosque RFID intégré avec écran tactile qui permettait d’insérer

de manière discrète et invisible les lecteurs de puces. Les vendeurs pour leur part utilisaient

des assistant personnels capable de lire les tags des puces collées sur chaque chaussures en

magasin. Les PALM étaient ainsi connectés en réseau sans fil avec les kiosques qui leur

transmettaient en temps réel l’emplacement des produits et de la disponibilité de chaque

taille de chaussure en magasin. Très vite les vendeurs ont manifesté cependant une

appréhension quant au fait de garder en permanence un assistant personnel à la main ce

qui réduisait leur confort lors de manipulation d’échantillon de vitrine auprès des clients.

Le système finit par ne plus utiliser que les kiosques et renseigner de meilleure manière le

client sur leurs demandes. Une autre amélioration au système concernait les puces

implantées sur les chaussures pour qu’elles puissent être retirées aisément une fois le

produit vendu au client, et l’application de tags RFID détachable facilement a été par la suite

instauré pour un meilleur confort d’utilisation et éviter tout souci de retour du client.

Les kiosques ont retirés des bénéfices également du fait qu’ils permettaient de reconnaître

une chaussure à son tag RFID chaque fois qu’elle était posée sur le kiosque à proximité du

lecteur et de l’écran informatique.

Page 29: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page29

Exemple de kiosque Mitsukoshi

La RFID ainsi nous montre une très forte avancée technologie possible dans le domaine

de la traçabilité logistique des produits et dans la transparence des stocks, avec une

meilleure gestion des flux de personnes ou de produits mais se heurte encore à un

obstacle de taille : la liberté individuelle.

En effet, la RFID utilisée également au niveau marketing pour recenser les habitudes de

consommation des clients ou les procédures d’affaires entre partenaires, suscite l’émoi

des association de défenseurs des droits des citoyens et des institutions juridiques de la

propriété industrielle, pour délimiter la frontière de l’accès à l’information à caractère

privé des individus et des entreprises. En effet, cette technologie apparaît comme outil

de puissant pour sonder en profondeur les faits et gestes des individus et manque de

cadres juridiques, normes et réglementations suffisantes pour protéger les libertés

civiles de chaque citoyen. L’autre effet pervers est celui de l’utilisation de cette

application dans la veille stratégique des entreprises afin d’obtenir des informations à

caractère confidentiel sur les brevets, secrets de fabrication et stratégies d’affaires des

concurrents.

C’est un problème encore majeur qui bien que commençant à être cadré par les

institutions gouvernementales dans chaque pays, reste encore en développement à

l’heure actuelle.

Page 30: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page30

D) L’informatique omniprésente change les mentalités

L’ubiquitous computing est un concept qui date des années 1970 et regroupe un

ensemble de technologies dont les systèmes multi-agents, la RFID et bon nombre

d’autres technologies internet pour exprimer une vision nouvelle de l’informatique :

L’accès instantané à l’information.

En effet le concept est d’inclure un individu qui se situe dans un environnement

géographique et qui circule avec un appareil prenant la forme d’un assistant personnel

digital et tactile et lui informant de toutes les opportunités qui peuvent se présenté en

fonction du comportement, des habitudes, du mode de vie de chaque individu.

Le principe est de programmer ce « gadget » pour qu’il analyse tout seul la personnalité

les actions de chacun afin de lui faciliter le quotidien.

Évidemment cet optique utilise le principe de concepts et de relation s’inscrivant dans

l’environnement d’évolution de l’individu et permet une réflexion avancée en

construisant des ontologies permettant cette facilité d’échange d’informations et

confort d’usage.

Un très bel exemple de ce principe a été observé entre 2002 et 2004 dans les hôpitaux

du Danemark en collaboration étroite avec le laboratoire de recherche en technologie

d’Aalborg au niveau de la gestion des patients.

En effet jusqu’alors, l’afflux en constante augmentation de malades, blessés, et patients

admis aux urgences et soins intensifs devenait préoccupant quand à la surpopulation

des hôpitaux et de la qualité de travail des infirmières auprès de chaque patient pour

vérifier de manière optimale l’évolution de leurs conditions de santé.

Jusqu’alors selon les tests du laboratoire d’Aalborg, montraient que les allées et venues

des infirmières jusqu’au terminal de saisie des informations sous poste informatique,

engendrait une perte de temps de 3 min par patient et que parfois le manque de

coordination des services et entre les relève de gardes pouvait augmenter le temps de

traitement de chaque patient.

L’idée trouvée fut tout d’abord de recourir à des petits chariots roulants à bonne

hauteur sur lesquels les infirmières disposait d’ordinateurs portable, permettant ainsi de

pouvoir être plus autonome quand à l’enregistrement des données d’évolution et des

traitements ingérés au patients et des analyses faites ou restantes à effectuer.

L’avantage était la réduction de la perte de temps dû à l’aller-retour des infirmières

entre leur service et les chambres des malades. Ce qui pouvait être critique dans la

Page 31: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page31

gestion des urgences et salles de soins intensifs ou la surveillance minute après minute

pouvait avoir une incidence vitale sur la vie du patient et l’évolution favorable de son

état.

Exemples à droite des terminaux classiques fixes, à gauche des chariots mobiles avec

ordinateurs portables

Hors après de multiples tests visant à analyser la perception du systèmes par le

personnel des hôpitaux (pris entre 30 et 45 ans avec tout type d’expérience des outils

informatiques), il s’est avéré que le matériel était encombrant pour effectuer des

traitements ou pour le passage entre les lits dans les chambres où l’espace exigu

empêchait de procurer les soins dans des conditions d’ergonomie et de confort pour les

infirmières.

L’équipe de chercheurs du laboratoire d’Aalborg ont alors réfléchit un à un système sous

forme d’assistant personnel digital de poche qui permettait de proposer une interface

intuitive et simple de gestion afin d’intégrer les dossiers de clients, les analyses faites, à

faire sans avoir à pousser un chariot et sans réduire leur mobilité dans les chambres lors

de la procuration de soins.

Les premiers tests effectués dans le laboratoire avec des infrastructures identiques à

celles d’une section d’un service d’hôpital, ont démontré encore 9 problèmes majeurs

dont le principal était la compréhension de l’interface. En effet, le personnel quelque

soit son expertise en utilisation informatique à révélé un manque de logique dans la

présentation des informations des données qui étaient formalisés de manière

incohérente par rapport à la pratique des infirmières en temps normal et ne respectait

Page 32: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page32

pas les étapes de traitement des patients dans le même ordre logique que le

raisonnement humain.

Une reprogrammation a été donc nécessaire afin d’inclure ce facteur en analysant

pendant 1h près de 38 personnes afin de comprendre leur parcours, leur comportement

et assimiler les étapes de traitement des patients de manière identique sur l’appareil

mobile.

Ceci abouti au bout de 2 ans de pouvoir implanter en situation réelle cet assistant

mobile de poche, qui utilisait un clip de ceinture afin de permettre de garder les mains

libres pour les interventions et de se connecter dans un rayon de 10m aux patients par

l’intermédiaires d’étiquettes RFID intégrées dans les bracelets des patients. Ce qui

permettait instantanément aux infirmières de savoir quels patients étaient présents

dans chaque chambre, quels médicaments, traitements, soins, avec été prodigué et

restaient à être pourvus. L’assistant par une interface très simple autorisait les

infirmières simplement en tapotant du doigts sur un menu d’avoir accès à l’historique

de l’état du patient et de vérifier par des couleurs rouges ou vertes de caractères, les

variations des tests positives ou négatives , effectuées sur leur état de santé et pouvoir

réagir en cas de forte différence ou dégradation de santé de manière plus rapide. Elles

pouvaient également saisir en tout temps des observations ou des remarques

pertinentes au moyen d’un stylet tactile qui leur permettait ainsi d’enregistrer des

annotations ou recommandations ultérieures éventuelles sous forme de mémo stocké

sur l’assistant personnel.

Affichage-type d’un assistant sans fil27

Le système en place permettait de mettre à jour automatiquement les données d’autres

infirmières lors de relève de garde à partir du système d’information qui actualise les

Page 33: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page33

données en temps réel en fonction des informations saisies par le personnel de l’hôpital

et des données enregistrées par les infirmières sur leur assistant mobile.

Cet exemple illustre bien l’adéquation que l’ubiquitous computing permet à l’utilisation

humaine des applications en permettant une meilleure analyse du contexte dans lequel

évolue un individu avec une technologie en main et de pouvoir proposer une utilisation

qui suggère un comportement optimale en fonction de l’environnement dans lequel il

s’inscrit. Cependant bon nombre de limites sont encore présentes notamment au

niveau de l’harmonisation des utilisations d’applications et de l’utilisation des standards

eux-mêmes qui diffère à un niveau qui dépasse les frontières des pays.

III - Limites et perspectives d’un Internet en pleine mutation

Si le web sémantique est un formidable chantier d’application pour l’avenir au niveau du

quotidien individuel que pour les modèles d’affaires d’entreprises, de nombreuses

interrogations subsistent.

A) L’intégration des modèles conceptuels de données

L’un des problèmes majeurs existant au niveau de la création d’ontologies, est

l’intégration de concepts de modèles conceptuels différents ou n’utilisant pas la même

linguistiques du fait de langue maternelle du pays et d’une pluralité de langues parlées

au niveau mondial.

De nombreux projet comme celui d’IBM Thinking Ontologies ou de DOLCE Projet du

centre de recherche de Trente en Italie ont réfléchit à une façon de redéfinir les

ontologies de manière à permettre un « alignement » des termes, éléments, classes,

attributs par rapports à des domaines d’application en définissant des correspondances

et des outils de traduction linguistiques de termes sémantiques d’un pays à un autre

afin de permettre l’interaction entre ces ontologies.

Ce projet entrevu dès 1999, consiste à décrire une ontologie supérieure, une sorte de

langage universel qui permettrait à n’importe quelle ontologie de communiquer avec une

autre via des termes standardisé qui permettrait de dépasser la barrière linguistique ou

contextuelle propre à chaque ontologie. Définit par le laboratoire de recherche en

technologies et sciences cognitives de Trente en Italie, le DAML+OIL est vu comme

tremplin à la redéfinition d’instances, classes, substituts, relations afin de faire converger

en un même point toutes les ontologies et permettre leur échange et intégration.

Page 34: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page34

Dolce souvent vu comme le mythe de l’ontologie universelle est pour l’instant étudiée

afin de voir les points de connexions entre ontologies, leur qualité de contenu et de

fonctionnement et définir des ontologies catégorielles. Celles-ci se basent sur un domaine

en particulier d’un univers (pour la médecine le domaine génétique, bio-moléculaire,

etc..) et permettent à plusieurs ontologies d’un même domaine de l’utiliser comme

intermédiaire pour communiquer via une structure et une abstraction commune.

Le projet vise à définir une hiérarchie d’ontologies également : ontologie de domaine,

core-ontology et top-ontology. La core-ontology étant encore plus basique que

l’ontologie de domaine permettant à l’entendement humain d’être comprise, la top-

ontology qui se situe au niveau de l’univers (science, finance, économie…).

Dolce permet de définir des classes d’ontology de manière itérative de l’ontologie la plus

spécialisée à l’ontologie la plus globale. Cette catégorisation va permettre d’harmoniser

les ontologies entre elles pour améliorer leur alignement et la traduction d’éléments

synonymes afin d’accroître l’interopérabilité entre ontologies28

.

Néanmoins, les limites constatées sont une « librairie » d’éléments, classes, définis sous

formes de framework, standards qui reste limitée et pauvre. Dolce se sert des ontologies

dites matérielles et plus spécialisées pour alimenter sa propre ontologie et permettre

l’échange commun de données. Elle ne peut être utilisée qu’à un stade intermédiaire pour

rassembler des ontologies de domaines simples mais se limite à un échange très

sommaire d’informations et de processus entre ontologies. Elle utilise le SPARQL pour

permettre la traduction des requêtes considérées comme similaires ou pouvant opérer

entre elles entre ontologies mais cela reste à un niveau encore trop limité pour le moment

pour envisager une communication plus détaillée et aboutie.

Schéma explicatif du projet

Page 35: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page35

Ainsi si les protocoles tels que SPARQL , les plug-ins Watson Gateway de logiciels

tels que Protégé permettent d’effectuer l’intégration de raisonnement entre concepts

de deux ou plusieurs ontologies, la fusion des base de connaissance reste difficile à

établir, car la description des métadonnées supporte une pluralité de sens au niveau du

web sémantique qui n’est pas différenciable par les outils d’analyse et de

conceptualisation, tant qu’un sens commun, une entité commune n’est pas instauré et

compréhensible de manière standard.

C’est ainsi que l’on constate que 90% des outils tels que Watson ou et Poweraqua,

Power Magpie donne un sens erroné au terme « assumption », lorsque quasiment

toutes les revues écrites académiques cernent le sens commun et authentique.

La « désambigüisation » des concepts est un des domaines de travaux actuels. Des

chercheurs autrichiens de Vienne sont depuis 200629

sur un projet d’outil

d’annotation qui permet de réfléchir à la manière dont doivent être perçus les

concepts avant d’être incorporés dans des ontologies, en s’intéressant à la manière

dont ils sont catégoriser, la nature des informations, attributs, inférence devant

accompagner chaque notion, chaque services d’entreprise au niveau des ontologies

d’entreprise. La difficulté est également de permettre une plateforme logicielle qui

établissent les échanges et similarités de concepts pour soit éliminer les redondances

entre ontologies soit permettre l’échange d’information et les relations entre les

attributs d’ontologies différentes au sein d’un même modèle fonctionnant grâce à des

standards XML,HTML,JAVA,OWL,RDF.

B) Le traitement des données incertaines

Autre frein observé au niveau de la gestion de la connaissance et du fonctionnement des

ontologies et de l’analyse des informations au niveau sémantique et plus globalement de

la compréhension des informations porte sur l’incertitude, l’improbabilité.

En effet, le web sémantique s’appuie sur des concepts, des processus dont le sens est

formalisé, commun, irréfutable ou à très forte probabilité quand à la nature des

information que les concepts et leurs attributs renferment.

Hors, ne pas pouvoir prévoir d’un ouragan s’abat en Floride à telle heure, tel jour,

détruisant les principales plateforme pétrolière maritimes, est synonymes de millions de

dollars de pertes pour les industries qui opèrent dans ce domaine et a une incident encore

plus vaste sur l’inflation du baril de pétrole et la consommation des ménages ensuite.

Page 36: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page36

Ce type d’événement définit une première catégorie d’informations incertaines : les

données bien définies mais imprévisibles. Ceci est du au caractère aléatoire et spontané,

insondable d’informations.

Le second type d’information, tout autant problématique concerne les concepts, les

données, sur lequel le doute se porte à la fois sur le contenu de l’information, sur son

champ d’action, sur la source qui fournit l’information mais aussi sur la fiabilité.

Cet type de données peu ainsi révéler une erreur de saisie, mais également porter sur une

pluralité de sens quand au concept en lui-même sur lequel des avis divergents feignent de

se ranger à un avis commun, ou encore le manque d’expérience ou d’avis concernant un

fait, un données ne permet pas de qualifier, certifier l’exactitude d’une information, parce

qu’elle touche un domaine trop pointu ou émergent sur lequel la réflexion de chercheurs,

d’analystes, n’ont pas encore pointé dessus et une signification réelle, une élaboration de

métadonnées restent à produire.

Il s’agit dans ce cas soit de créer une probabilité fondée sur l’ « endorsement » ou

ralliement, c’est-à-dire sur le nombre et la qualité des personnes exprimant un même

point de vue sur une information, ce que l’on appelle la technique des « logiques floues »,

ou encore en utilisant des avis de personnes ayant l’expertise du domaine du concept et

permettant de créer des métadonnées qui autoriseront à donner une meilleur probabilité à

la certitude et exactitude des données. Le modèle conceptuel de ces probabilités

s’effectue alors de manière inversée, en partant de l’information la plus incertaine pour

apporter une clarification à son sens à la véracité attribuable à celle-ci pour remonter

jusqu’au concept et au domaine d’incertitude de l’information et pouvoir ainsi créer la

fonction de croyance ou belief fonction.

A mi-chemin de la conceptualisation, un autre souci plus subjectif lui aussi pose

problème quand au véritable sens d’une information : l’ambigüité. En effet, une

information peut changer totalement de signification selon le contexte ou le domaine

d’application. Un titre de journal qui annonce « Microsoft a dit bonjour au logiciel

libre » peut être compris au Québec comme « Microsoft a fermé la porte au monde du

logiciel libre », tandis que les autres francophones comprendront que « Microsoft accepte

de collaborer avec le monde des logiciels libres ». La même information en fonction de

son contexte économique, culturel peut amener à une compréhension erronée ou

imprécise de l’information ce qui instaure une improbabilité que l’information soit fiable

et exacte dans le sens commun où elle est voulue au départ.

Page 37: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page37

Modèle conceptuel de Fischer en 2005 sur le traitement de l’incertitude

C’est ainsi qu’au niveau des architecture d’entreprises, en 1987, un employé d’IBM

nommé John Zachman, mis en place un cadre de travail sur l’incohérence au niveau des

systèmes d’information des architectures d’entreprise en proposant un cadre avec des

entrées horizontales et verticales définissant les 6 différentes questions à se poser sur les

informations (qui, pourquoi, où, comment, quand et quoi) ainsi que 6 modèles possibles

de représentation des différentes perceptions de concepts dans l’entreprise. Ce modèle fut

très utilisés pour la transversalité qu’il offrait au niveau de la réflexions sur les

incohérences de systèmes30

.

Modèle de Zachman31

Le cadre Zachman

Données - Quoi ?

Activités - Comment ?

Emplacement - Où ?

Portée (contextuelle) Planificateur

Liste des éléments importants pour l'activité

Liste des processus exécutés par l'activité

Liste des lieux où est exercée l'activité

Modèle métier (conceptuel) Modèle de données conceptuelles

Modèle métier Modèle logistique

Modèle système (logique) Modèle de données logiques Architecture de programmes Architecture SI distribuée

Modèle de technologie (physique)

Modèle de données physiques

Modélisation de systèmes (fonction informatique)

Architecture technologique

Représentation détaillée

(hors contexte) Définition des données Programmes Architecture réseau

Le fonctionnement "réel"

de l'entreprise Données métier réelles Code du programme Réseau physique réel

Source : BPMS / 2007

Page 38: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page38

Le cadre Zachman (suite)

Personnel -

Qui ?

Temps -

Quand ?

Motivation - Pourquoi

?

Portée (contextuelle)

Planificateur

Listes des organisations

importantes pour l'activité

Liste des évènements

significatifs pour le métier

Liste des objectifs

métiers stratégiques

Modèle métier

(conceptuel) Modèle hiérarchique Modèle temporel Modèle d'objectifs

Modèle système (logique) Interface homme / document Structure de traitement Modèle de règle métier

Modèle de technologie (physique)

Matrice organisation / processus

Structure de contrôle Modélisation des règles

Représentation détaillée (hors contexte)

Architecture de sécurité Définition du calendrier Spécification des règles

Le fonctionnement "réel"

de l'entreprise Organisation métier réelle Planning Stratégie réelle

Source : BPMS / 2007

Autre méthode utilisée pour le traitement de l’incertitude, le processus MDA ou

Model Driven Architecture, qui fut créé sur les base du langage de modélisation des

objects OCL, créé en 1995 par Cook et Warmer chez IBM, et qui travaillèrent par la suite

dans l’Object Management Group pour construire un modèle qui tendrait vers

l’abstraction des éléments afin de pouvoir mieux assigner du sens et une perception

unique des objets. Ce modèle considérait les programmes informatiques eux-mêmes

aussi comme des abstractions et définit plusieurs niveaux partant de l’aspect général

d’une donnée vers un modèle expressif et contextuel. Cela passe par un changement

d’état des concepts en y ajoutant un degré de sens et de raisonnement pour accéder à

un modèle MDA final. Les étapes intermédiaires passent par l’enrichissement de sens

des concepts et l’ajout de métadonnées de haute qualité pour pouvoir cerner le

contenu de l’information sans avoir à l’analyser en profondeur32.

Enfin, il est à noter que les agents intelligents sont souvent utiliser pour leur capacité à se créer

leur propres fonctions de croyances et à utilisés les logiques floues en adaptant le langage des

ontologie en langage Pr-OWL qui raisonne en utilisant des algorithmes de calculs pour définir

dans des tableaux des probabilités quant à l’exactitude des informations et à leur fiabilité.

C) E-gouvernement : un enjeu international

Dès 1998, le Secrétariat Général du Trésor du gouvernement du Canada a instauré une

administration compétente nommée Service Canada pour gérer les services en ligne aux

citoyens et faciliter leurs demandes dans les deux langues : français et anglais.

L’e-gouvernement bien au-delà de voir l’aspect Internet des ministères a pour finalité de

permettre une meilleur coordination des systèmes administratifs afin d’offrir une meilleur prise

en charge des citoyens dans leur demandes officielles.

Page 39: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page39

L’objectif essentiel se situe à 3 niveaux essentiellement :

- Du gouvernement vers les administrations publiques et collectivités

- Entre administrations et entre ministères

- Des administrations publiques vers les citoyens

Concernant le plus ce dernier niveau, il a été important d’abandonner l’utilisation de services

organiser en silo épars qui entraînaient une rigidité et une lenteur des services rendus aux

citoyens et constituer des base de connaissances disparates sans connexions entre elles et se

limitant à une application précise et sans lien avec les autres applications externes.

Il a fallu réorganiser cette structure sous forme de « grappes » qui regroupe en rubriques, puis

en domaine principaux les services des différentes administration afin de permettre un

regroupement des personnels affectés et d’instaurer une coordination commune.

L’objectif est à un niveau supérieur concernant le gouvernement en lui-même car les ministères

sont très réticents face au changement, appuyés par le lobbying de principale société comme

Bombardier, Industrielle Alliance qui sont des exemples de poids lourds du Produit Intérieur

Brut national au Canada et donc la résistance au changement met un frein au déploiement de

nouvelles technologies afin d’améliorer les systèmes administratifs et gouvernementaux.

Mis à part cette résistance au changement, cette nouvelle architecture de l’information

nécessite de réviser en profondeur les processus comme c’est le cas pour le vote électronique.

En effet, ce cas d’application de gouvernement électronique a soulevé d’énormes débats

concernant la réglementation de ce type de service, qui se différenciait des procédures de votes

et de décomptage manuels. La sécurité fut ainsi au cœur de la réingénierie des processus en

Angleterre par exemple, où des problèmes se posaient quand à la préservation de l’anonymat

et à la gestion de la fraude et de défaillances informatiques des machines à voter.

Il fallu également créer un cadre de responsabilisation des autorités locales en charge de ce

type d’événements politique et définir le rôle précis de chacun pour veiller au bon déroulement

des votes33.

Des applications professionnelles voient le jour parmi les administrations européennes,

notamment les pionniers que furent la Finlande, Belgique et Italie. Elles touchent le domaine

des affaires électroniques avec notamment la disparition de la carte d’identité papier au profit

d’une carte électronique à puce assurant une sécurité accrue. Les entreprises y ont vu un intérêt

substantiel lors de signatures de contrat. Étant donné la valeur juridique reconnue depuis 2001

de la signature électronique, la combinaison avec une pièce d’identité du même format, permet

d’authentifier les transactions professionnelles. C’est ainsi que les compagnies européennes ont

fait la demande d’un accord avec la société Adobe pour utiliser le format PDF dans les contrats

d’entreprise et pouvoir vérifier de manière sure l’identité des contractants avec la signature et

Page 40: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page40

l’eID, nom de la futur carte d’identité qui est en réflexion depuis 200534.Le sujet du dédouanage

ou de la défiscalisation en ligne a été entrevue comme futurs services aux particuliers et

entreprises à venir.

Le potentiel est énorme lorsque l’on sait que par exemple 45% des européens ont consultés au

moins une fois des informations sur les sites de l’administration publique en ligne, avec la

Finlande en tête (62%), et que la Suède par exemple est en tête des utilisation professionnelles

des administrations en ligne avec un taux de 94% constaté sur l’année 2005,selon le cabinet

d’analyses statistiques Eurostat35.

Cependant l’absence d’uniformisation des législations et des réglementations internationales

opèrent des obstacles à la collaboration entre les gouvernements nationaux, notamment en

Amérique du Nord où affecté par la culture, les pratiques disparates des gouvernements, des

difficultés d’échanges d’information et de correspondances de normes s’établit entre Canada,

États-Unis et Mexique. D’autant plus que le manque de transparence bloque les échanges et

empêche des services d’êtres mis en place.

La solution doit passer par l’élargissement de standards tels que l’ISO 15489 concernant les

documents électroniques ou l’amélioration de l’éthique au niveau de la gouvernance des

nations afin d’accélérer ce changement de mentalité et restructurer de manière homogène les

fonctionnements de gouvernement en ligne entre les continents.

Le président Obama a essayé d’entrevoir une possible entente et intégration du Canada au sein

de la NAFTA ou ALENA (Association de Libre 2change Nord Atlantique) afin de travailler sur une

plus grande collaboration du commerce continental et harmoniser les procédures, ce qui aura

nécessairement des répercussions sur la vision d’e-gouvernement entre Canada et États-Unis.

Ce document ne présente qu’un bref aperçu des possibilités et un excellent document émanant

de la société Gemalto, leader mondial de la sécurité informatique, explique de manière très

détaillée par secteur et applications les avancés récentes au niveau européen sur

l’administration en ligne, que vous pourrez parcourir avec le lien suivant :

http://www.gemalto.com/brochures/download/wp-egov2_0_fr.pdf.

Page 41: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page41

Conclusion

Internet a connu durant les années 1990 un progrès essentiellement technique. Le web

sémantique et les nouvelles technologies, d’e-gouvernement, d’informatique omniprésente,

nous ont montré en quoi Internet convergeait vers un progrès désormais organisationnel à tous

les niveaux, que ce soit au niveau fondamental de la connaissance, avec une perception

nouvelles des concepts et la recherche essentielle du sens, de la qualité des informations et de

l’interopérabilité des services webs en réseau.

L’apparition d’outil permettant une plus grande flexibilité et rapidité de traitement des

informations permet de remodeler les processus d’affaires électroniques et de faciliter

l’émergence de standards et cadres de travaux communs afin de développer un monde

d’affaires plus collaboratif et basé sur l’interaction, l’échange d’information et une meilleure

qualité des informations, et une meilleur compréhension de l’utilité de développer toujours plus

les infrastructure en technologies de l’information afin de parer à la complexité et densité des

flux de données qu’intègres les systèmes et bases de données de manière exponentielle.

La collaboration passe également par l’adaptation des réseaux à une logique d’affaires, à un

comportement social afin de faciliter l’intégration de solutions nouvelles dans l’atteinte des

objectifs professionnelles, publiques, ou privés.

Un meilleur partage de l’expérience sur les connaissances permettra de développer sans aucun

doute d’ici une vingtaine d’années un Internet plus autonome, coopératif, simple d’accès et

qualitatif. En ce sens ils se décisifs de toujours adapter la technologie par rapport à une finalité

commune et non prendre celle-ci pour un but en soi. Internet, quelque soit l’ampleur

grandissante qui lui sera attribuée ne devra pas occulter de nos esprits qu’un progrès du

commerce électronique et d’Internet passe d’abord par une réflexion sur les besoins, les

faiblesses, l’analyses de nos ressources et un cadre de travail et de planification précis afin

d’atteindre ce but et utiliser internet comme tremplin de développement d’opportunités

d’affaires.

Page 42: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page42

Bibliographie et Webographie

1 Semantic Web, d’après une entrevue entre le magazine Scientific American et Tim

Berners-Lee en mai 2001 :

http://www.sciam.com/article.cfm?id=the-semantic-web

2 Article Extensible Markup Language (XML) 1.0 (Second Edition),W3C Recommendation,

6 October 2000:

http://www.w3.org/TR/2000/REC-xml-20001006

3 “Fact system”, université de Manchester, Ian Horrock:

http://www.cs.man.ac.uk/~horrocks/FaCT/

4 Présentation du projet Enersearch :

www.ontoknowledge.org/downl/3review-del28.ppt

5 Voir l’article « Sears peut-elle se réinventer? » :

http://www.polytech.unice.fr/~hugues/MIS/EDHEC1/Etude%20de%20cas%20SEARS.pdf

6 “Service Oriented Architecture Standards”,Jim Rubert :

http://www.w3.org/2007/01/wos-papers/boeing

7 Plus de détails dans l’article Service Oriented Enterprise téléchargeable à l’adresse suivante :

http://www.zdnet.fr/livres-blancs/0,39035134,60243299p-39002695q,00.htm

8 « Réussir une transformation bancaire », d’après une interview réalisée en 2006 auprès du

vice-président de la direction du centre de l’excellence de l’Architecture Orientée Service du

réseau Nordea, M.Siamak Amjadi :

http://www.atelier.fr/applications-it/7/23102007/accenture-bea-soa-banque-35430-.html

Page 43: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page43

9 D’après l’article “Swedish Railways Implements JBoss Enterprise SOA Platform For Improved Performance and Customer Service”: http://www.jboss.com/pdf/SwedishRailroads_casestudy.pdf

10 schéma extrait de l’article “Methodology for Development and Employment of Ontology

based Knowledge Management Applications”, rédigé en 2002 par York Sure, Steffen Staab et

Rudi Studer membres de l’ Institut für Angewandte Informatik und Formale

Beschreibungsverfahren aus Karlsruhe: http://lsdis.cs.uga.edu/SemNSF/SIGMOD-Record-

Dec02/Sure.pdf

11 Présentation du logiciel plus en détails: http://watson.kmi.open.ac.uk/Overview.html

12 Schéma extrait de l’article « Toward a New Generation of Semantic web Applications », rédigé par Mathieu d’Aquin, Enrico Motta, Marta Sabou, Sofia Angeletou, Laurian Gridinoc, Vanessa Lopez, and Davide Guidi, Open University, paru en mai 2008 sur le site IEEE computer

Electronic.

13 Information relevée sur le site internet du logiciel : http://protege.stanford.edu

14 Artificial Intelligence: A Modern Approach by Stuart Russell and Peter Norvig, 1995 Prentice-

Hall, Inc : http://www.cs.berkeley.edu/~russell/aima1e/chapter02.pdf

15 “A framework for dynamic knowledge exchange among intelligent agents”,publié au

American Association for Artificial Intelligence (AAAI) Symposium Control of the Physical World

by Intelligent Agents, New Orleans, LA, USA, November 1994 :

http://www.cengeloglu.com/pub1.html

16 « Multi-agents et CORBA », rédigé par Philippe Merle Jean-Marc Geib, Laboratoire

d’Informatique Fondamentale de Lille en France :

: www2.lifl.fr/~merle/papers/95_GANYMEDE.ps.gz

17 D’après l’article «On the Architectures of Complex Multi-Agent Systems », Huaglory Tianfield *,

Jiang Tian, de l’université de Glasgow en Ecosse et Xin Yao, de l’université de Birmingham

au Royaume-Uni, publié en 2003 :

Page 44: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page44

http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.58.393

18 Next-link project : http://www-cdr.stanford.edu/html/NextLink/NextLink.html

19 Schéma extrait de l’article « Traffic Signal Using Smart Agent System », publié en 2008 dans

l’American Journal of Applied Sciences, rédigé par Cheonshik Kim et You-Sik Hong, chercheurs

de l’université d’Anyang en Corée du Sud:

http://www.scipub.org/fulltext/ajas/ajas5111487-1493.pdf

20 L’avenir de la RFID, centre de recherche public Henri Tudor, paru le 29 novembre 2005 par le journal

Quotidien:

http://www.tudor.lu/cms/henritudor/content.nsf/id/WEBR-7DSGJN?opendocument&language=fr

21 « RFID, mode d’emploi »,livre blanc, mai 2005, Stéphane Boss,responsable de la distribution

Microsoft :

http://www.logistique.com/image/stock-distribution/Microsoft-Distribution-RFID.pdf

22 RFID et logistique, site internet ZDnet :

http://www.zdnet.fr/actualites/informatique/0,39040745,39139364,00.htm

23 RFID, Normes et Standards, Xavier Barras, directeur EPCglobal France : http://www.tracabilite.org/Media/pdf/documentation/presentations/Salon06/ME1_GS1_Xavier_BARRAS.pdf

24 Site internet Atelier : http://www.atelier.fr/article.php?artid=28474

25 D’après le livre “Ubiquitous computing in the real world: lessons learnt from large scale RFID deployment”, rédigé par Shin’ichi Konomi et George Roussos, publié le 8 Novembre 2006.

26 D’après « Group Transport Planning and London Travel Report 2005 », émanant du Transport for London et de la note 25 précédente.

Page 45: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page45

27 Capture extraite de l’article : “Ubiquitous computing in the real world: lessons learnt from

large scale RFID deployment”, rédigé par Shin’ichi Konomi et George Roussos, publié le 8

Novembre 2006.

28 D’après les recherches suivantes :

Semantic Integration: A Survey Of Ontology-Based

“Approaches” (Natalya F. Noy, Stanford Medical Informatics, Stanford University,

SIGMOD Record, Vol. 33, No. 4, December 2004):

http://www.sigmod.org/sigmod/record/issues/0412/13.natasha-10.pdf

WonderWeb Deliverable D17, The WonderWeb Library of Foundational Ontologies,

Preliminary Report (Claudio Masolo, Stefano Borgo, Aldo Gangemi, Nicola Guarino, Alessandro

Oltramari, Luc Schneider, ISTC-CNR):

http://www.loa-cnr.it/Papers/DOLCE2.1-FOL.pdf

29 Présentation d’outils d’annotation sémantique donnée faite au “2nd International Workshop on Enterprise and Networked Enterprises Interoperability”,ENEI’2006 – Vienna – September, 4 2006: http://www.loria.fr/~nacer/ENEI06/10-Invited-Talk.pdf

30 Article publié le 4 avril 2008 sur le site internet JDN Solution :

http://www.journaldunet.com/solutions/acteurs/classement/08/bpms/0404-zachman.shtml

31 Tiré de BPMS,2007.

32 École de technologie supérieure Département de Génie logiciel et des TI de l’université UQAM de Montréal, « Document thématique OCL et MDA » :

https://cours.ele.etsmtl.ca/academique/mgl/mgl806/Cours/Theme06_OCL.pdf 33

Page 46: Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Page46

Voir l’article: “Using Business Process Re-engineering (BPR) for the Effective Administration of Electronic Voting”,rédigé par Alexandros Xenakis et Ann Macintosh, International Teledemocracy Centre, Napier University, Edinburgh Scotland UK:

http://www.ejeg.com/volume-3/vol3-iss2/XenakisAlexandrosandMacintoshAnn.pdf

34 Article paru sur le site Pcimpact le 10 avril 2005 :

http://www.pcinpact.com/actu/news/La_carte_didentite_garante_des_formats_PDF_en_Belg.h

tm

35 « E-gouvernement 2.0 »,Gemalto, septembre 2007 :

http://www.gemalto.com/brochures/download/wp-egov2_0_fr.pdf