Evaluer crédibilité information 11-2010

71
Evaluer la crédibilité d’une ressource sur internet Alexandre Serres URFIST de Rennes Novembre 2010 Support sous Licence Creative Commons

description

URFIST

Transcript of Evaluer crédibilité information 11-2010

Page 1: Evaluer crédibilité information 11-2010

Evaluer la crédibilité d’une ressource sur

internet

Alexandre SerresURFIST de Rennes

Novembre 2010

Support sous Licence Creative Commons

Page 2: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

2

PLAN

1/ Introduction : contextes, ruptures et continuités de l’évaluation de l’information

2/ Complexités et notions-clés de l’évaluation

3/ La crédibilité 4/ Démarche d’évaluation de

la crédibilité

Page 3: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

3

PLAN

1/ Introduction : contextes, ruptures et continuités de l’évaluation de l’information Contexte socio-politique Contexte socio-technique :

quels changements avec le web 2.0 ?

Une triple illusion à combattre Permanence des difficultés de

l'évaluation

Page 4: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

4

1/ Introduction : les nouveaux contextes de l’évaluation de l’information

Quatre éléments : Renversement du modèle de la

validation Complexité de l’offre

informationnelle Crise de la confiance Nouvelles modalités d’évaluation

avec le web social

Page 5: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

5

Introduction : le contexte socio-politique de la crédibilité « Société de défiance généralisée »,

selon D. Schnapper (Le Monde, 15 juillet 2010) Contradiction historique des démocraties

entre : « L’individu démocratique », en critique

permanente des institutions Et nécessité de la confiance en autrui

Contradiction entre : doute radical adhésion sans limites

La raison face aux « sirènes du relativisme absolu » 

Question cruciale : en qui, en quoi avoir confiance ?

Page 6: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

6

Contexte socio-technique : la question de (la) confiance

locale globale

verticale

horizontale

Confiance scientifique

Confiance Internet

Source : Geoffrey Bilder, Journal of Electronic Publishing, 2006

Page 7: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

7

Contexte socio-technique : quels changements avec le web 2.0 ?

Nouvelles valeurs et représentations : Tyrannie de l'instant Règne de la popularité, du buzz… « L'évaluationnite » :

omniprésence de l'évaluation, du jugement, du vote, de l'avis...

recours à l'affectif :

> nouveaux rapports à l'information ?

Page 8: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

8

Dérives et effets pervers de la rhétorique de Facebook

??

Page 9: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

9

Contexte socio-technique : quels changements avec le web 2.0 ?

Nouvelles infopollutions : confusion autorité/popularité :

Cf Technorati dévalorisation des critères d'expertise, de

fiabilité propagation encore plus rapide des rumeurs,

de la désinformation « effet de meute » :

sagesse ou folie des foules ? usurpations d'identités, de représentativité

“astroturfing” dérives de l'économie de la recommandation

Page 10: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

10

Contexte socio-technique : quels changements avec le web 2.0 ?

Nouvelles pratiques informationnelles : Peu d'attention portée à l'évaluation

de l'information chez les jeunes Nouvelles modalités d'évaluation :

pratiques collaboratives fortes potentialités du collaboratif

Vérification collective de l'information

lutte plus forte contre infopollutions cf rectifications sur Wikipedia

Page 11: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

11

Contexte socio-technique : quels changements avec le web 2.0 ?

Dans les outils et les techniques : Essor des outils de filtrage, de validation,

d'identification... Cf Web of Trust

Intérêt des outils collaboratifs : réseaux de confiance

Rôle des métadonnées : Web sémantique

Rôle de la statistique : Qualité et quantité

Page 12: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

12

Contexte socio-technique : quels changements avec le web 2.0 ?

Dans les modèles de l'autorité et de la crédibilité : Remise en cause du modèle

traditionnel de l’auteur Dissémination des expertises :

éclatement des monopoles du savoir Nouvelles expertises :

collectif vs expert

Page 13: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

13

Introduction : triple illusion à combattre

Illusion sociale : confiance excessive dans la communauté :

limites des réseaux de confiance : Illusion technique :

confiance excessive dans les outils : limites des outils : par rapport à la fiabilité d'une information

dérive techniciste des modèles du filtrage collaboratif et de l'économie de la recommandation

modélisation implicite des comportements Illusion épistémologique :

Vision « objectiviste » de l’information avec le web sémantique

limites de la formalisation des descriptions par métadonnées Information comme interaction, construction

Page 14: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

14

Introduction : permanence des difficultés de l'évaluation

Ce qui ne change pas : Complexité de l'évaluation :

confusion des objets de l'évaluation complexité des notions mobilisées confusion des notions et critères

Multiplicité des cultures et compétences

Nombreuses connaissances nécessaires Imbrication des cultures

Difficultés de l'évaluation du document numérique

Page 15: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

15

Introduction : du côté des pratiques informationnelles des jeunes

« la culture informationnelle des jeunes ne s'est pas améliorée avec l'augmentation de l'accès à la technologie »

(enquête britannique: UCL, JISC, Estève-Bouvet, Isabelle (trad.).

Comportement informationnel du chercheur du futur.

Page 16: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

16

Introduction : du côté des pratiques informationnelles des étudiants

Confiance trop grande dans les résultats des moteurs de recherche

Méconnaissance ou confusion des critères d’évaluation Facilité d’utilisation d’un site considérée comme

critère de crédibilité Difficultés à évaluer l’information Négligences dans le référencement Pratiques de plagiat

Page 17: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

17

En conclusion de l’introduction…

En résumé, l’évaluation de l’information est une opération à la fois : Beaucoup plus cruciale qu’avant

internet Beaucoup plus importante dans les

études universitaires Plus difficile Encore sacrifiée et méconnue

Page 18: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

18

PLAN

2/ Complexité et notions-clés de l’évaluation 2.1 Rappel des difficultés de

l’évaluation de l’information 2.2 Quatre notions-clé à

distinguer

Page 19: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

19

2.1 Complexités de l’évaluation de l’information

Ne pas occulter la complexité de l’évaluation de l’information : Pas de « recettes » Pas d’outils-miracles

Démarche de questionnement : Nombreuses connaissances nécessaires Apprendre à discerner, à distinguer… Evaluation de l’information = apprentissage

du jugement critique

Page 20: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

20

2.1 Complexités de l’évaluation de l’information

Double distinction à opérer : Entre les objets de l’évaluation :

Qu’est-ce qu’on évalue dans une ressource ? Source, auteur, information, organisation de

l’information, facilité d’usage, présentation… ? Entre les critères de l’évaluation :

Selon quels critères on évalue ? Critères de crédibilité, d’autorité, de qualité, de

pertinence, d’usage ?

Imbrication des objets et des critères >> mais double confusion assez fréquente

Page 21: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

21

2.1 Distinguer les objets de l’évaluation de l’information

La structuration : du document, du site..

Cohérence, qualité, présentation, facilité de repérage…

L’usage : Lisibilité, graphisme,

« utilisabilité » du site…

Confusion fréquente des objets à évaluer :

Par ex. entre fiabilité de source et facilité d’accès

Dans toute ressource, au moins quatre objets à évaluer : La source,

l’auteur… Fiabilité,

crédibilité, réputation, etc.

> connaissance des circuits de l ’édition...

L’information : Qualité de

l’information, validité, fiabilité…

> connaissances disciplinaires

Page 22: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

22

2.1 Distinguer les notions et critères

Des « allants-de-soi » peu explicités : « Évaluer la qualité et la pertinence de

l'information », compétence D4.3 du nouveau B2i Adultes

Mais qu’est-ce que la qualité de l’information ? La crédibilité ? L’autorité d’une ressource ? La pertinence ? Importance de bien distinguer ces notions,

qui ne se recouvrent pas

Page 23: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

23

2.2.1 Quatre notions à distinguer : la crédibilité

Crédibilité = « Caractère, qualité rendant quelque chose susceptible d'être cru ou digne de confiance » Synonyme de fiabilité

Rôle-clé de la confiance : Crédibilité toujours à construire Plus proche d’un sentiment que d’une

qualité factuelle Crédibilité d’une ressource :

Qualité perçue, à partir de différents indices

Page 24: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

24

2.2.1 Quatre notions à distinguer : la crédibilité

Relations avec autres notions : Crédibilité comme première condition de

l’autorité Crédibilité comme élément de la qualité

de l’information mais pas de recouvrement entre qualité et

crédibilité Crédibilité différente de la véracité, ou de

la vérité Crédibilité différente de la pertinence

Page 25: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

25

2.2.2 Quatre notions à distinguer : “l’autorité cognitive”

« Il n'y a pas de si grand philosophe qui ne croie un million de choses sur la foi d'autrui et qui ne suppose beaucoup plus de vérités qu'il n'en établit (...) Il faut donc toujours, quoi qu'il arrive, que l'autorité se rencontre quelque part dans le monde intellectuel et moral. Sa place est variable mais elle a nécessairement sa place. » (Tocqueville, De la démocratie en Amérique, 1840)

Page 26: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

26

2.2.2 Quatre notions à distinguer : “l’autorité cognitive”

Selon Patrick Wilson : « une relation d’influence de pensée, impliquant au minimum deux personnes, l’une accordant à l’autre sa confiance parce qu’elle maîtrise un domaine spécifique de compétences »

Diversité des autorités cognitives : Personnes, livres, organisations, outils…

Autorité cognitive fondée sur la crédibilité, la réputation, l’expertise

Mais autorité plus forte que la crédibilité : Notion d’influence choisie, de reconnaissance

d’une expertise Idée de connaissance de « seconde main »

Page 27: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

27

2.2.2 Quatre notions à distinguer : l’autorité

Notion « d’autorité informationnelle » (E. Broudoux)

Quatre types d’autorités informationnelles : L’autorité énonciative :

liée à un auteur, à un collectif… ; L’autorité institutionnelle :

Éditeur, organisation, source… L’autorité du support :

Liée au type de document ; L’autorité de contenu :

« plausibilité intrinsèque » du texte

Page 28: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

28

2.2.2 L’autorité informationnelle en contexte pré-numérique (Broudoux)

D’après Evelyne Broudoux, 2007

Page 29: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

29

2.2.2 L’autorité informationnelle en contexte numérique (Broudoux)

D’après Evelyne Broudoux, 2007

Page 30: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

30

2.2.3 Quatre notions à distinguer : la qualité de l’information

Trois grandes approches de la qualité : « Qualité documentaire » :

Ensemble de critères, liés aux caractéristiques formelles du contenu d’une ressource

Qualité de l’information, au sens info-news Voir AQIT

Qualité des données (info-data) : « La définition de la qualité est propre à l’utilisateur,

c’est-à-dire elle est relative à la satisfaction de ses besoins en termes de choix et d’appréciation des facteurs de la qualité » (Harrathi et Calabretto)

> Confondue avec la pertinence

Page 31: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

31

2.2.3 Quatre notions à distinguer : la qualité de l’information 4ème approche de la qualité :

approche « usagers », selon Robert S. Taylor (1986) Jugements de valeur permanents de l’usager,

dans l’interaction avec ressources Cinq valeurs :

l’exactitude (accuracy) la complétude (comprehensiveness) l’actualité de l’information (currency) la fiabilité (reliability) la validité (validity).

> qualité comme critère à la fois documentaire et d’usage

Page 32: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

32

2.2.3 Quatre notions à distinguer : la qualité de l’information

Qualité documentaire liée à la crédibilité et à l’autorité, mais à distinguer également :

Ressource crédible : de plus ou moins bonne qualité Ressource de bonne qualité, sans avoir une grande

crédibilité de réputation Qualité documentaire varie selon le

domaine : Information juridique, économique… Sur la qualité de l’information médicale, voir le

Netscoring Quelques critères « universels », communs à

tous les domaines : Critères de l’information professionnelle

Page 33: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

33

2.2.3 Quatre notions à distinguer : la qualité de l’information

L’information, selon les critères de l’information professionnelle : identifiée, « sourcée » fiable précise, exacte, complète apportant du nouveau fraîche, actualisée accessible ayant un impact, un effet bien structurée, bien organisée, bien

rédigée Qualité documentaire de l’information :

Seule vraiment formalisable pour l’évaluation

Page 34: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

34

2.2.4 Quatre notions à distinguer : la pertinence

« Qualité de ce qui est adapté exactement à l'objet dont il s'agit. »

Notion complexe, nombreux modèles, nombreuses théories

Au fondement de la recherche documentaire : "Degré de corrélation entre une

question et la réponse apportée » approche précise mais réductrice de la

pertinence Nécessité d’élargir la notion

Différentes catégories de pertinences

Page 35: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

35

2.2.4 Quatre notions à distinguer : trois catégories de pertinences

La « pertinence-système » : pertinence de la représentation du document (indexation...) et

recherche d'information elle-même.

les outils de recherche La « pertinence-utilisateur » : trois types

pertinence de la formulation de la requête : l’utilisateur + les outils (interfaces)

pertinence de la présentation des résultats : uniquement les outils

pertinence du document par rapport au besoin : uniquement l’utilisateur

La « pertinence-thème » : pertinence du contenu du document par rapport au thème

évaluation de l’information

Page 36: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

36

2.2.4 Quatre notions à distinguer : la pertinence

Dans l’évaluation de l’information, pertinence = adéquation d’une ressource à :

un besoin précis : De quel type d’information ai-je besoin ?

un contexte précis : Dans quel but se fait la recherche d’information ?

un usage précis : Pour quel type d’usage ? Usage facilité ou non ?

un individu précis : Quel rapport avec le niveau, le degré de

connaissance du sujet, les représentations, les opinions… ?

Impossibilité de formaliser l’évaluation de la pertinence

Page 37: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

37

2.2.5 Quatre notions à distinguer : en conclusion

Bien distinguer les combinaisons entre les notions. Une ressource peut être :

crédible, de qualité, mais non pertinente : Ex. d’une thèse en Licence

peu crédible, mais de qualité et pertinente : Ex. d’un site personnel inconnu, mais de qualité et pertinent

crédible, mais de mauvaise qualité et non pertinente: Ex. d’un article de revue de mauvaise qualité

non crédible et de mauvaise qualité mais pertinente Ex. d’un site sectaire pour un dossier sur les secte

Pas de superposition entre ces trois ensembles de critères

Pour l’usager, primauté de la pertinence sur tous les autres

Page 38: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

38

PLAN

3/ Différentes facettes de la crédibilité : Typologies de la crédibilité Critères et pratiques de la

crédibilité chez les usagers Facteurs de la confiance

Page 39: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

39

3.1 Typologies de la crédibilité

Deux typologies de la crédibilité : selon les objets de crédibilité :

Source, auteur, support, document selon les types de crédibilités :

(Fogg et Tseng, 1999)

Page 40: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

40

3.1 Typologies de la crédibilité : selon les objets

Quatre objets de crédibilité à mesurer : Crédibilité de la source :

Réputation, sérieux, notoriété, fiabilité de l’éditeur, de l’organisation, du média, de l’hébergeur du site…

Première crédibilité à évaluer, car conditionne largement les autres ;

Crédibilité de l’auteur : Degré de confiance dans un auteur, lié à son

expertise, sa notoriété ; Crédibilité essentielle sur internet, avec l’auto-

publication : Ex. des blogs

Page 41: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

41

3.1 Typologies de la crédibilité : selon les objets

Crédibilité du support : Image de sérieux, de fiabilité… du support, du

média, du type de document… : Ex. : crédibilité plus forte d’une revue scientifique,

par rapport à une revue de vulgarisation, ou un blog…

Type de crédibilité difficile à mesurer sur internet Crédibilité du document :

Image de sérieux et de fiabilité de la ressource elle-même

Liée à la présentation, à la structuration, au type d’expression, au type d’information…

Mais différent de la fiabilité de l’information

Page 42: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

42

3.1 Typologies de la crédibilité : selon les facteurs de la crédibilité

Crédibilité présumée : > représentations

Confiance accordée a priori à quelqu’un, à une source, en fonction des représentations, des croyances, des hypothèses des usagers…

Confiance plus forte pour un ami que pour un vendeur…

Crédibilité réputée : > réputation

Confiance accordée selon la réputation, la notoriété, l’affiliation d’une source à une autorité…

Confiance plus forte pour un site universitaire que pour un site commercial

Typologie de Fogg et Tseng, 1999

Page 43: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

43

3.1 Typologies de la crédibilité : selon les facteurs de la crédibilité

Crédibilité de surface, ou apparente : > apparence, présentation :

Présentation d’une personne, d’une ressource, d’un site web

Ex. : registre de langue, couverture d’un livre, graphisme d’un site web…

Comprend la crédibilité du support et du document Rôle très important dans les pratiques des usagers

Crédibilité d’expérience : > usage

Liée à l’expérience personnelle d’une personne, d’une ressource, d’un site…

Comprend l’usage, ou « l’utilisabilité »Typologie de Fogg et Tseng, 1999

Page 44: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

44

3.2 Critères et pratiques de la crédibilité

Plusieurs études sur les critères spontanés d’évaluation

Nombreuses variables, différents clivages selon les publics

Clivage grand public / public expert Etude de Stanford (Fogg, 2002)

2500 personnes concernées, tous horizons Evaluation de la crédibilité d’une centaine de sites,

appartenant à 10 catégories thématiques Mise en évidence de 18 critères d’évaluation Prédominance très nette des critères de

présentation

Page 45: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

45

3.2 Critères et pratiques de la crédibilité : étude de Stanford, 2002

Page 46: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

46

3.2 Critères et pratiques de la crédibilité

Variable du niveau d’étude : Etude de Ziming Liu et Xiaobin Huang (2005) Comparaison entre étudiants de premier cycle

et étudiants avancés Etudiants de premier cycle :

critères concernant l'auteur (réputation, affiliation…) (>81 %) ;

apparence (layout) (à 21,1 %) ; réputation du site web.

Etudiants de second cycle : Plus d’importance aux critères de contenu (véracité,

qualité de l’information, etc.)

Page 47: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

47

3.2 Critères et pratiques de la crédibilité : étude de Liu et Huang

Page 48: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

48

3.2 Critères et pratiques de la crédibilité

Variable interculturelle : Même étude de Ziming Liu et Xiaobin Huang Comparaison d’étudiants chinois et américains

Convergences dans les crédibilités présumée et réputée :

Présence de références Signalement sur un site respecté Publication en parallèle dans une revue

imprimée

Page 49: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

49

3.2 Critères et pratiques de la crédibilité

Différences, dans l’importance accordée aux critères :

Chez étudiants chinois : Fréquentation d’un site Présence de tableaux et graphiques Longueur du document

Chez étudiants américains : Contenu informatif Affiliation de l’auteur

Page 50: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

50

3.2 Critères et pratiques de la crédibilité : la variable interculturelle

Aspects jugés les moins crédibles par les étudiants américains et chinois. Étude de Liu et Huang

Page 51: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

51

3.2 Critères et pratiques de la crédibilité : la variable interculturelle

Rapports inverses aux crédibilités : Pour les étudiants chinois :

Crédibilités apparentes, présumée et de réputation : plus importantes

Crédibilité de contenu : sert à éliminer une ressource

Pour les étudiants américains : Crédibilité de contenu : la plus importante Crédibilités de surface, de réputation et

présumée : conditions minimales, servent à éliminer

Page 52: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

52

3.2 Critères et pratiques de la crédibilité

Nombreuses variables, complexité du jugement de crédibilité

Intérêt et limites de l'évaluation de la crédibilité importance à l'université rapport crédibilité/pertinence

Page 53: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

53

3.3 Les facteurs de la confiance

Méta-étude britannique sur la construction de la confiance (Pickard, 2010): Panorama des modalités de la confiance des usagers

Dépouillement de plus de 220 références d’études

Page 54: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

54

3.3 Les facteurs de la confiance

Identification précise des multiples « facteurs de la confiance »

Trois grandes catégories : les facteurs externes :

Liés à la source, au dispositif sociotechnique, à la présentation… des sites web

« signes extérieurs de crédibilité » Les facteurs internes :

Liés au contenu des ressources Facteurs liés à l’état cognitif des

usagers

Page 55: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

55

3.3 Les facteurs de la confiance

Users’ trust in information resources in the Web environment: a status report

Facteurs externes, intervenant dans la confiance des usagers

Page 56: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

56

3.3 Les facteurs de la confiance

Users’ trust in information resources in the Web environment: a status report

Facteurs internes, intervenant dans la confiance des usagers

Page 57: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

57

3.3 Les facteurs de la confiance

Users’ trust in information resources in the Web environment: a status report

Facteurs cognitifs, intervenant dans la confiance des usagers

Page 58: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

58

PLAN

4/ Démarche d’évaluation de la crédibilité

Page 59: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

59

4.1 Démarche pour l’évaluation

Evaluer = apprendre à questionner Développer son esprit critique Apprendre à discerner entre les

critères Distinguer entre les composantes

d’une ressource : Source Contenu Présentation Usage

Page 60: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

60

4.1 Méthodologie : 6 principes pour une démarche d’évaluation de l’information

Savoir (se) questionner : identifier l'objet de la recherche Bien définir ses besoins d’information bien cerner le sujet traduire concepts en mots-clés

Bien utiliser les outils de recherche : Mode avancé Utiliser les opérateurs de filtrage

Bien identifier les ressources trouvées : Bien décoder les URL Identifier les sources, les auteurs, les documents

Page 61: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

61

4.1 Méthodologie : 6 principes pour une démarche d’évaluation de l’information

Evaluer la pertinence de la ressource : Par rapport aux besoins, au contexte, au

niveau Evaluer la crédibilité et l’autorité :

De la source Du support De l’auteur Du contenu

Evaluer la qualité de l’information : Fiabilité, exactitude… recouper, critiquer, comparer...

Page 62: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

62

4.2 Méthodologie : bien identifier les résultats

Identifier : Le site web :

Savoir décoder les URL Identifier le nom, le statut de l’organisation,

de l’hébergeur... L’auteur de la ressource :

Nom, statut, coordonnées... La nature du document :

Vulgarisation, opinion, recherche… Type de document : rapport, article,

ouvrage…

Page 63: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

63

4.2 Savoir décoder les résultats de Google

Type de documents

Date du document

Nationalité du site

Origine, type de site

Type de ressource

Taille du document

Nombre de citations

Nom de l’auteur

Page 64: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

64

4.3 Méthodologie : juger de la pertinence des ressources

La ressource trouvée correspond-elle : Au sujet ?

Est-elle pertinente sur le sujet ? Est-elle crédible ? A mes besoins ?

Par rapport au type d’informations demandées A la tâche demandée ?

La ressource peut-elle être utile pour un dossier, une note de lecture, un mémoire… ?

A mon niveau ? A mes connaissances ?

Document trop spécialisé ? A une certaine facilité d’usage ?

Ressource plus ou moins compliquée à utiliser ?

Page 65: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

65

4.3 Méthodologie : juger de la pertinence des ressources

Pour des recherches universitaires, primauté des critères de crédibilité, d’autorité et de qualité, qui font partie de la pertinence Voir l’importance de la crédibilité de la

source Sauf pour les documents « contre-

exemples » Pour des recherches « pratiques »,

primauté des critères d’usage

Page 66: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

66

4.4 Méthodologie : évaluer la crédibilité

Crédibilité de la source : Quel est le sérieux de l’éditeur, de l’organisation, du

média, de l’hébergeur du site… ? Quelle réputation, quelle notoriété ?

Faire des recherches sur la source Crédibilité de l’auteur :

Quelle expertise, quelles autres publications ? Quelle notoriété, quelles recommandations, quel

réseau ? Quelles intentions ? Pourquoi publie-t-il ?

Partager ses connaissances, se promouvoir, vendre, défendre un point de vue, divertir... ?

Utiliser les moteurs de recherche de personnes, Google...

Page 67: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

67

4.4 Méthodologie : évaluer la crédibilité

Crédibilité du document : La nature du document est-elle précisée,

visible ? (article, communication de congrès…)

L’auteur est-il clairement indiqué ? Le document comporte-t-il des références,

indique-t-il ses sources ? Le document est-il bien structuré, cohérent,

clair ? Est-il bien rédigé ? (quelle qualité

d’expression ?) Est-il clairement daté ? (date de création, de

mise à jour…)

Page 68: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

68

4.4 Méthodologie : évaluer l’autorité de l’auteur

Observer la notoriété, l’influence : Pour les chercheurs :

le nombre de publications, les titres… Le nombre et l’origine des citations

Ex. sur Google Scholar, ou avec Publish Or Perish

Pour les auteurs de blogs, de ressources : le nombre de liens, de citations

Ex. sur Wikio

Mais rester critique face aux indicateurs de popularité !

Page 69: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

69

4.4 Méthodologie : évaluer la crédibilité

TP sur l’évaluation de la crédibilité

Page 70: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

70

Références bibliographiques

BROUDOUX, Evelyne. Construction de l'autorité informationnelle sur le web. In R. Skare, N. W. Lund et A. Vårheim. A Document (Re)turn: Contributions from a Research Field in Transition. Frankfurt : Peter Lang, 2007. Disp. sur : http://archivesic.ccsd.cnrs.fr/docs/00/12/07/10/PDF/AutorInfo.pdf.

FOGG, B. J., & TSENG, H. ”The elements of computer credibility”. Proceedings of the SIGCHI conference on Human Factors in Computing Systems, 1999, p. 80–87

FOGG, B. J., SOOHOO, Cathy, DANIELSON, David R. How do people evaluate a web site's credibility ? Results from a large study [En ligne]. Stanford, California : Persuasive Technology Lab Stanford University, 2002. 105 p. Disp. sur : < http://www.consumerwebwatch.org/pdfs/stanfordPTL.pdf >

HARRATHI, Rami, CALABRETTO, Sylvie C. « Un modèle de qualité de l'information ». In : EGC'2006. Lille : [s.n.], 2006. p. pp. 299-304. Disp. sur :http://apmd.prism.uvsq.fr/public/Publications/Articles/Un%20modele%20de%20qualite%20de%20l%20information_Harrathi,%20Calabretto.pdf >

Page 71: Evaluer crédibilité information 11-2010

A. Serres, URFIST Rennes, 2010

71

Références bibliographiques

LIU, Ziming, HUANG, Xiaobin. « Evaluating the credibility of scholarly information on the web: A cross cultural study ». The International Information & Library Review [En ligne]. Juin 2005, Vol. 37, n°2, p. 102. Disp. sur : < http://dx.doi.org/10.1016/j.iilr.2005.05.004

PICKARD, Alison Jane, GANNON-LEARY, Pat, COVENTRY, Lynne. Users’ trust in information resources in the Web environment: a status report [En ligne]. Northumbria University : JISC (Joint Information Systems Committee), 2010. Disp. sur : < http://ie-repository.jisc.ac.uk/470/2/JISC_User_Trust_final_report.pdf >

SCHNAPPER, Dominique. « En qui peut-on avoir confiance ? ». Le Monde [En ligne]. 15 Juillet 2010. 

UCL (University College London), JISC (Joint Information Systems Committee), Estève-Bouvet, Isabelle (trad.). Comportement informationnel du chercheur du futur. Information behaviour of the researcher of the future [En ligne]. Londres, Paris : UCL (University College London), JISC (Joint Information Systems Committee), 2008. Disp. sur : http://www.jisc.ac.uk/media/documents/programmes/reppres/gg_final_keynote_11012008.pdf ; Trad. en français disp. sur : http://www.savoirscdi.cndp.fr/fileadmin/fichiers_auteurs/PDF_manuels/Le_comportement__informationnel_du_chercheur_du_futur.pdf >