J’ai le livre en titre à lire et à commenter… Voici mes notes de lecture. En vrac, sans classement… Désolé si ce n’est pas facile à suivre. Au final, je dois produire un résumé et une appréciation pour une revue scientifique… Je n’ai pas la prétention que ces notes soient déjà un bon résumé… Ce sont des éléments que je juge important ou dont je veux me souvenir en vue d’un travail final dans lequel je tenterai de faire du sens de l’ensemble. Je publierai probablement ce résumé ici aussi, plus tard, si le journal le permet.
Référence exacte du livre dont il est question:
Barats, C. (Ed.) (2013). Manuel d’analyse du Web en Science Humaines et Sociales. Paris: Armand Colin. Collection « U ».
La première partie regroupe quatre chapitres et trois textes plus courts (des « Zoom »!) qui abordent des sujets très précis en lien avec un ou des chapitres. Les textes regroupés dans cette première partie du livre sont supposés aborder des questions interdisciplinaires qui se posent en amont de la recherche.
Chapitre 1: Le Web comme dispositif: comment appréhender le complexe?
Auteur:
Laurence Monnoyer-Smith
Université de Technologie de Compiège
Ce chapitre se positionne d’abord dans le champs des sciences de l’information et de la communication. Je le note, car c’est un champs dont j’ignore tout ou presque…
(p.12) Saisir ou essayer d’appréhender le Web, c’est s’attaquer à une réalité techniquement complexe et socialement construite. Le Web est un objet sociotechnique. L’étudier, c’est donc un peu comme étudier la poule et l’oeuf… (Ça, c’est mon interprétation!) L’aspect technique du Web influence et structure les interactions et les relations desquelles le Web (en tant qu’objet étudié) découle lui-même et qui amènent ou motivent l’évolution et le développement des aspects techniques. Pourtant, selon l’auteur, s’attarder simultanément aux relations qui tissent le Web et au contraintes techniques qui le contraignent tout en le rendant possible est essentiel… Cela permettrait d’éviter 2 écueils.
- La tendance à la réification: C’est la tendance à considérer le Web comme un objet neutre, une réalité externe à ses utilisateurs que l’on peut manipuler ou utiliser.
- La tendance à la naturalisation: C’est la tendance à considérer le Web comme un résultat fini, unidimensionnel et à l’interpréter d’un bloc, sans prendre en compte l’hétérogénité et le caractère évolutif et « interactionnel » de ses acteurs et de ses composantes.
(p.14) Au final, le Web est donc un composite, un ensemble complexe et hétérogène de pratiques, d’organisations, de savoirs, de normes et de machines qui instancie le web et l’ensemble des « formes sociosémiotique » (j’aimerais formuler cette expression dans mes mots, mais je n’y arrive pas!) que l’on peut voir à l’écran. Selon, l’auteure, les sciences de l’information et de la communication tentent de « faire science et sens » (j’aime bien cette expression de l’auteure!) du web dans sa globalité et propose de s’y attarder en recourant au concept de « dispositif » qu’elle présentera par la suite…
Par rapport à l’expression »sociosémiotique ». Je me demande vraiment pourquoi on ajoute le « socio »? Est-ce que les systèmes de signes de communication étudiés en sémiotique ne sont pas par définition « socio ». Sinon, quelle communication est possible avec ces signes? En bref, cette expression m’agace, je ne la comprends pas. C’est peut-être que je suis externe au champs…
Le reste du chapitre s’attarde au concept de dispositif, à ses quatre dimensions et à comment elles permettent de décrire et comprendre le Web. Je retiens que les dimensions proposées sont supposées permettre d’être critique à l’égard du dispositif « Web » et, surtout, de prendre en compte sa nature résolument évolutive et adaptative.
Je remarque que le chapitre se termine sur une liste de référence importante qui permettra aux intéressés de pousser plus loin leur réflexion.
Dans l’ensemble, ce second chapitre était plus facile à lire. Plusieurs raisons peuvent expliquer cela, mais la principale est la proximité. Il m’était facile de rattacher les propos des auteurs à des connaissances antérieures ainsi qu’à des expériences vécues. C’est décidément un chapitre que je ferai lire à mes étudiants dès qu’ils commenceront à réfléchir à utiliser le Web dans le cadre de leurs projets recherches.
Chapitre 2: Enjeux éthiques de la recherche sur le Web
Auteurs:
Guillaume Latzko-Toth
Université Laval
Serge Proulx
Université du Québec à Montréal
Ce chapitre fait exactement ce que le titre annonce et présente certains enjeux associés à la recherche sur et à propos du Web. Dès les premières lignes du chapitre, les auteurs expliquent l’intérêt pour l’éthique de la recherche sur et via internet sommairement, mais très clairement. Tout d’abord, le fait qu’Internet facilite grandement l’accès aux terrains de recherche l’a rendu très populaire en recherche. Ensuite, Internet contribue au décloisonnement ou au brouillage des lignes de démarcation entre des catégories sur lesquelles se fondait autrefois le jugement éthique des chercheurs comme vie privée vs sphère publique. Aussi la recherche en ligne tend à estomper les cadres spatiotemporels. La recherche sur et à propos d’Internet aurait ainsi provoqué l’apparition de nombreuses zones grises qui justifient l’intérêt pour l’éthique de la recherche Web.
Dans le reste du chapitre, les auteurs posent d’abord le contexte en présentant différents cadres règlementaires et normatifs provenant du Canada, des États-Unis et de la France. Ils décrivent ensuite cinq propriétés de l’information sur le Web (recherchabilité, ubiquité,persistance, mutabilité et invérifiabilité) qui contribuent à la spécificité du média Internet et ont d’importantes conséquences pour l’éthique de la recherche sur et via Internet. La troisième et dernière partie du chapitre présente plus directement certains enjeux de la recherche sur et via le Web en lien avec l’étape de la collecte de données, la mouvance des notions de publicité et privacité, la nécessité ou non d’obtenir un consentement et, finalement, le paradoxe de l’attribution ou le difficile équilibre entre le respect de la vie privée et celui de la propriété intellectuelle.
Comme dans le chapitre précédent, les auteurs fournissent une abondante liste de références pertinentes.
Zoom — Pas d’éthique au pays d’Astérix? Quelques réflexions sur la situation française
Auteur:
Fabienne Greffet
Université de Lorraine
Dans ce court texte, l’auteure réfléchie aux impacts de la situation française en matière d’éthique en sciences sociales et questionne une éventuelle transposition des pratiques actuellement en vigueurs dans les pays anglosaxons.
Ce texte est court et j’en aurais pris un peu plus, surtout au début alors qu’elle réfléchie à partir de son point de vue « français » aux dérives que le système en place dans les pays anglosaxons peut entrainer.
Ensemble, ce « Zoom » et le chapitre 2 amènent à une première réflexion intéressante sur l’éthique de la recherche sur et via le Web en science social, en éducation et probablement dans d’autres sujets comme la psychologie.
Chapitre 3: À la recherche de la « mémoire » du web: sédiments, traces et temporalités des documents en ligne
Auteurs:
Olivier Ertzsceid
Université de Nantes, IUT de La Roche-sur-Yon
Gabriel Gallezot
Université de Nice Sophia Antipolis
Brigitte Simonnot
Université de Lorraine
Dans ce chapitre, les auteurs tentent d’analyser l’évolution du Web pour réfléchir aux effets de cette évolution sur les pratiques de recherche. Déjà, dès l’introduction, ils annoncent que ces changements remettent en question trois principes fondateurs du Web qui en faisaient une incroyable archive ou un lieu de mémoire collective.
D’abord, la notion de traces s’actualise différemment sur le Web… Il y a d’abord les traces explicites « qui relèvent d’une volonté expresse de diffuser ». Celles-ci peuvent généralement être édités et sont, d’une certaine manière, sous le contrôle de l’individu. Il y a ensuite les traces implicites qui sont souvent recueillies « à l’insu de l’internautes lors de ses interactions en ligne » et qui témoignent d’un contact entre l’utilisateur et une application sans que l’utilisateur puisse exercer du contrôle sur cette trace. Il y a finalement des traces hybrides qui « sollicitent une action délibérée mais que l’internaute ne pourra effacer ».
Le Web a évolué. Au départ, les protocoles à la base du Web permettaient simplement d’accéder à un document. Il n’y avait pas vraiment de ‘mémoire » de cette interaction. Les applications peuvent cependant se souvenir de ces interactions sous formes de « logs », cependant elle ne se souviennent jamais de tout. Les traces sont donc parfois décontextualisées et, de plus, elles échappent souvent à l’internaute…
Les auteurs nous rappellent ensuite que les traces collectées par les outils et applications sur le web ne sont probablement pas une réponse aux pertes potentielles d’objectivité liées aux entretiens ou à d’autres stratégies de collectes de données courantes en SHS puisque ces traces « reflètent d’abord les critères sélectionnés par ceux qui en organisent la collecte et, d’autre part, ne fournissent pas d’éléments contextuel suffisants… » Ces traces ne sont de plus pas toujours vraiment authentiques ou totalement libre, car les applications contraignent souvent les utilisateurs ou les orientent de par leurs interfaces, leurs fonctionnalités, etc.
La deuxième partie du chapitre discute du Web en tant que ressources pour le chercheur, ressource qui est grandement influencée par l’évolution du Web. Ainsi le web peut être une base bibliographique, un entrepôt de documents ou une incroyable base de données factuelles.
La troisième partie parle rapidement de l’industrie de la recommandation dans laquelle nous externalisons notre mémoire. Difficile de se soustraire à cette mémoire enregistré par un tiers que l’on ne contrôle pas et à qui l’on doit faire confiance…
Dans la dernière partie, les auteurs envisagent le Web en tant que corpus de données. Ils expliquent d’abord qu’un corpus de données, pour être exploitable, doit pouvoir être circonscrit. Le Web permet cependant la création et la consultation de corpus gigantesque qui posent au oins deux grandes questions aux chercheurs:
- Comment y avoir accès et avec quelles règles?
- Comment savoir si ce corpus est complet lorsque le corpus dépend surtout de société « commerciale » et non scientifique? Cette mémoire qu’est le Web a, en quelque sorte, échappé à la société…
Zoom — Archiver Twitter. un patrimoine superflu?
Auteur:
Olivier Ertzscheid
Université de Nantes, IUT de La Roche-sur-Yon
Ce texte est court, mais soulève quelques questions très importantes en utilisant le cas de Twitter et de son archivage par la Bibliothèque du Congrès comme exemple.
Le texte présente d’abord quelques dates importantes en lien avec la problématique choisie.
Dès la seconde partie, l’auteur questionne la décision d’archiver Twitter et se demande si cette décision étend le périmètre de l’archivistique ou si elle le redéfinie. Auparavant, la décision d’archiver un document relevait de l’obligation (ex.: support arrivés en fin de vie) ou du choix (ex.: document jugé digne d’intéret ou ayant une certaine valeur patrimoniale). Dans la cas de Twitter, il n’y a ni a pas d’obligation et personne n’a vraiment fait de choix… L’archivage de Twitter dépendrait plutôt d’une autre logique. L’auteur propose d’ailleurs trois raisons soutenant l’archivage de Twitter…
- La simplicité… Il est plus simple de récupérer la totalité de Twitter que de l’étudier pour faire une sélection. Le travail de questionnement et les autres activités propres à l’archivistique se déplace donc en aval.
- Le graphe social… L’archive constituée est riche sur le plan social et permet de reconstituer le graphe relationnel de chaque individu. Ces informations sont contenues autant dans les tweets eux-même que dans la liste de personne suivJe n’ai pas étudié en lettre. Je ne suis pas non plus un ies ou qui suivent un individu.
- L’archive elle-même… Twitter, comme archive, se suffit à lui-même et n’a pas besoins d’autre source. On peut l’analyse pour lui-même. De plus, les possibilités d’exploitation sont presque incalculables.
La définition de ce qu’est une archive entre donc, selon cet auteur, dans une zone de turbulence. Plusieurs questions sont soulevés par l’auteur qui devront être adressées comme l’impact sur les usagers de Twitter, la nécessité d’avoir encore des archives publiques.
Chapitre 4: Genres de discours et web: existe-t-il des genres web?
Auteur:
Dominique Maingueneau
Université Paris-Sorbonne
Si la question posée en titre semble simple, le texte de ce chapitre l’est un peu moins. Pour l’apprécier et profiter pleinement de la réflexion de l’auteur, il faut, je crois, être spécialiste ou adepte de l’analyse du discours. Or, ce n’est pas du tout mon cas. La première partie du chapitre m’a donc un peu échappé. On y présente les genres de discours « classiques ». C’était pour moi du nouveau et c’était présenté beaucoup trop rapidement pour que je puisse réellement comprendre. Je crois qu’il me manquait certains savoirs essentiels que le texte ne fournissait pas. Je m’en suis mieux cependant un peu mieux tiré dans la seconde partie du chapitre puisque je connais le Web. Je ne le connais pas sous l’angle des genres de discours, mais tout de même… L’auteur explique dans cette partie comment les caractéristiques du Web on permit la redéfinition des genres ou à tout le moins le recadrage des genres pour s’adapter aux Web.
Zoom — Qui parle dans les blogs?
Auteur:
Malika Temmar
Université de Picardie, Université Paris Est Créteil
Comme dans les Zooms précédents, celui-ci est en lien avec le chapitre qui vient immédiatement avant. Dans ce cas, même si ce n’est pas explicite, on continue à se situer dans une logique d’analyse du discours. Encore une fois, il me manque l’expérience et les savoirs pour bien apprécier le travail de l’auteur. Il me semble que l’auteur fait cependant une erreur importante en confondant les blogueurs avec ceux qui émettent des commentaires. Le blogueur a beaucoup plus de contrôle sur le site puisqu’il décide quotidiennement de quoi traiteront les billets et comment ils le traiteront. Étant moi-même blogueur, je pense qu’une analyse qui ne prend pas en compte cette distinction passe à côté de son but. Il aurait probablement été plus souhaitable que l’auteurs regarde plusieurs blogues pour comparer leurs auteurs… Alors seulement elle aurait pu parler des blogueurs. Dans ce cas, on a regardé un seul blogue, donc un seul blogueur. Outre cette erreur d’appellation ou d’attribution du titre de blogueur, l’auteur a cependant raison sur le fait qu’il y a souvent plusieurs personnes qui parlent sur un même blogue et que la question de savoir qui ils sont peut être intéressante…
La seconde partie est intitulée « Contenus et usages du web: objets et cadres d’analyse » et elle regroupe quatre chapitres et autant de « Zoom ». Les textes de cette partie sont supposés présenter des stratégies d’analyse et réfléchir à la nature des données « Web » ainsi qu’à la composition du corpus.
Chapitre 5: Approches textométriques du Web: corpus et outils
Auteurs:
Christine Barats
Université Paris Descartes et Université Paris Est Créteil
Jean-Marc Leblanc
Université Paris Est Créteil
Pierre Fiala
Université Paris Est Créteil
J’annonce en débutant que je ne suis pas du tout familier avec les approches et les outils présentés dans ce chapitre. Je n’ai jamais croisé d’analyse textométrique en éducation ou dans le domaine des technologies éducatives. Malgré les petites critiques qui vont suivre, notez que j’ai trouvé intéressant de découvrir ces approches nouvelles pour moi.
Bien que l’on annonce un ouvrage « délibérément pédagogique », je dois avouer que j’ai été largué plus d’une fois. Je crois qu’il faut déjà savoir comment faire avant de lire le chapitre, car on explique pas vraiment… Ensuite, je n’ai malheureusement pas saisi l’importance ni l’utilité des analyses présentés. Je crois que l’exploitation des exemples aurait pu être plus extensive et détaillée. On aurait aussi pu accorder plus d’importance à l’interprétation des schémas et aux conclusions qu’on en tire ainsi qu’aux retombées potentielles de ce type d’analyse pour aider les débutants ou les chercheurs d’autres champs à comprendre.
Franchement, après avoir lu ce chapitre, je ne suis pas convaincu de l’utilité de ce type d’analyse. De plus, j’ignore si c’est inhérent aux types d’analyses présentées, mais j’ai été un peu surpris qu’on nous parle d’analyse statistique sans jamais nous parlé des postulats de base ni de la puissance. On nous donne aussi très peu d’indices de la force des conclusions que l’on peut tirer de ces analyses… Vraiment, j’ai l’impression d’être passé à côté de beaucoup de choses!
Zoom — Termes et outils d’analyse textométriques
Auteurs:
Christine Barats
Université Paris Descartes et Université Paris Est Créteil
Jean-Marc Leblanc
Université Paris Est Créteil
Pierre Fiala
Université Paris Est Créteil
Ce « Zoom » accompagne très bien le chapitre précédent en ce sens qu’il s’agit de véritable glossaire de la textométrie. on y présente quelques définitions et plusieurs outils informatiques utilisés par les expert de ce domaine. La partie glossaire, bien que courte, m’a été fort utile!
Chapitre 6: Approches sémiologiques du web
Auteurs:
Julia Bonaccorsi
Université Paris Est Créteil
blablabla