Je répercute et me permets d’éditer sur mon blogue un post rédigé d’abord sur LinkedIn. C’était normal de le publier là en premier parce qu’il est une réaction à un post lu sur LinkedIn, mais ce qui devait être au départ une simple republication est devenu un début de réflexion et je veux absolument garder des traces… Donc je le recopie ici!
Donc… Ce matin j’ai croisé un post très intéressant de Fidel Navamuel qui décortique une étude sur l’IA et l’apprentissage…
Premier fait qui m’intrigue: L’étude (une méta analyse) a répertorié plus de 800 textes, mais n’a retenu que 20 études à la fin… Je ne suis pas trop surpris. Je savais qu’on surfait sur une vague et que la recherche disponible avait souvent été vite faite… Après tout, ChatGPT a été rendu public en novembre 2022 et faire de la recherche en éducation n’est pas toujours facile… Il faut d’abord trouvé des ensiegnants désireux de participer, qui maitrise le sujet et ensuite suivre de nombreuses r`gles éthiques… Ça ne se résume pas qu’à ça, mais disons que ça vous donne une petite idée. Ce n’est pas nécessairement facile, ni rapide. Imaginez faire une méta analyse sur le sujet actuellement… Une sorte de château de carte fragile.
Mais c’est à la mode les méta analyses. Tellement que parfois je me demande qui fait encore de la recherche traditionnelle en 2026?
Il faut être très critique vis-à-vis des premières recherches sur l’IA. Pas qu’elles soient fausses. La majorité sont probablement bien réelles et conduites par des chercheurs éthiques et bien intentionnés. Mais les premières recherches sur un sujet que personne ne maitrise encore sont souvent un peu superficielles, plus descriptives. On hésite encore sur le bon cadre théorique. On ne sait pas encore tout à fait quelles variables sont dignes d’intérêt. Il n’y a pas trop de fondations solides sur lesquelles construire.
Bref, on est les premiers à fouiller un sujet!
Avec le recul, on interprète souvent les résultats de ces premières recherches différemment ou alors, avec le temps, des angles morts apparaissent. Springer Nature a récemment rétracté un article déjà publié et cité des milliers de fois à cause d’incohérences rendues évidentes par d’autres chercheurs…
En plus, plusieurs chercheurs utilisent l’IA depuis quelques temps et, avant qu’on apprennent que c’était possible, ils ont publié des articles avec des fausses références. Des hallucinations réalistes produites par l’IA. Et oui, même les chercheurs se font parfois prendre. Et il y a quelques temps, on ne savait pas trop à quel point c’était important de tout vérifier ce que l’IA produit.
Il faut être critique et savoir prendre autant de recul que possible.
Fidel Navamuel appelle d’ailleurs à la prudence en explicitant ensuite une idée forte que j’exprime souvent depuis quelques mois. Dans mes mots, on construit l’avion en plein vol! Dans les mots de Fidel: « on déploie l’IA plus vite qu’on ne la comprend ». Je ne suis pas surpris. Il était bien trop tôt pour faire une méta analyse.
Sans surprise, cette recherche semble ensuite montrer que c’est d’abord l’enseignement qui est le plus facilement et positivement modifié… Ça correspond à ce que j’ai pu observé cette année.
Mais en même temps, doit-on être surpris?
On sait depuis un moment que l’intégration du numérique passe d’abord par l’appropriation de l’outil par les enseignants qui l’utilisent en premier lieu dans leur vie privé, ensuite dans leur travail « de bureau » (planification, création de matériel, formation continue, etc.) et seulement plus tard dans la classe. C’est un cycle connu (rechercher le modèle de Raby si vous vous ne connaissez pas.)
Laissons le temps à tout le monde d’apprendre comment ça fonctionne d’abord…
Je ne suis pas surpris non plus que les premiers résultats en lien avec l’IA et l’apprentissage ne soient pas toujours positifs… Les premiers enseignants et chercheurs, souvent des enthousiastes, vont essayer des choses. À nous de rester critiques et d’apprendre de leurs erreurs quand ils en font.
Margarida Romero écrivait (source):
Le développement rapide de ces outils dépasse largement la capacité des systèmes éducatifs à les intégrer de manière réfléchie. On observe un décalage entre le potentiel technologique et la capacité pédagogique d’aider les apprenants à en faire un usage approprié selon le contexte et leurs besoins d’apprentissage. L’enjeu n’est pas tant d’interdire ou de généraliser l’IA, mais de garantir que son utilisation soutienne réellement les apprentissages, en préservant l’effort intellectuel et les objectifs pédagogiques.
Je crois qu’avec l’IA, même la capité des chercheurs à intégrer le nouvel outil est dépassé…
La synthèse de Fidel ne remplacera pas une bonne lecture critique du rapport par vous-même. C’est ce que je vais faire de mon côté. Mais je vous conseille minimalement d’aller lire son texte. Il pointe plusieurs questions/sujets de réflexion intéressants!
Lien vers l’étude discutée dans ce billet.
