Étudiant au doctorat en sciences et technologies de l’information, Mohammad Mahmoud
Hassan Ennab a effectué sa soutenance de thèse le 10 avril 2025. Sous la direction de recherche de Hamid Mcheick, sa thèse a pour titre « A hybrid convolutional-fuzzy model for interpretable AI in healthcare : Improving transparency and accuracy in chronic disease management ».
Sous la présidence de Fehmi Jafaar, le jury d’évaluation était composé de Chamseddine Talhi (ÉTS) et Haïfa Nakouri (UQAC).
Résumé de la thèse
L’intégration de l’intelligence artificielle (IA) dans le domaine de la santé a révolutionné les capacités diagnostiques, en particulier dans l’imagerie médicale et la prédiction des maladies. Cependant, l’adoption généralisée de l’IA dans les environnements cliniques est considérablement freinée par des défis liés à l’interprétabilité, à la transparence et à la confiance dans les processus de prise de décision pilotés par l’IA. Cette thèse vise à relever ces défis critiques en introduisant des cadres novateurs qui améliorent l’interprétabilité, la convivialité et la fiabilité des systèmes d’IA en santé, avec un accent particulier sur l’amélioration de la gestion des maladies chroniques grâce à des informations plus transparentes et exploitables.
À travers une analyse approfondie des modèles de prédiction basés sur l’IA, y compris ceux développés pendant la pandémie de COVID-19, ainsi qu’un examen exhaustif des modèles d’IA en santé présenté dans le chapitre 3, cette recherche identifie les principales limites des techniques d’interprétabilité actuelles. Ces limites incluent l’incapacité à équilibrer efficacement la précision prédictive et la compréhension utilisateur, ainsi que les défis liés à l’intégration des résultats de l’IA dans les flux de travail cliniques. Pour combler ces lacunes, deux cadres novateurs ont été conçus : un modèle hybride convolutionnel-flou, qui fournit une interprétabilité au niveau des pixels en combinant la puissance prédictive des réseaux neuronaux convolutionnels (CNNs) avec l’explicabilité de la logique floue, et un modèle statistique conçu pour intégrer l’interprétabilité dans les flux de travail de l’IA, garantissant une prise de décision plus transparente et responsable. Ces cadres améliorent non seulement la transparence diagnostique, mais permettent également aux cliniciens de disposer d’informations claires et exploitables pour prendre des décisions éclairées, en particulier dans la gestion des maladies chroniques, où la surveillance à long terme et l’interprétabilité sont essentielles pour un traitement efficace.
Une validation expérimentale approfondie a été réalisée en utilisant des ensembles de données d’imagerie médicale du monde réel afin d’évaluer l’efficacité du modèle convolutionnel-flou conçu. Une analyse comparative exhaustive avec les techniques d’interprétabilité de pointe, telles que Grad-CAM, a démontré la performance supérieure du modèle convolutionnel-flou, en atteignant un équilibre amélioré entre interprétabilité et précision diagnostique. Les résultats confirment les hypothèses de recherche, affirmant que l’approche du modèle convolutionnel-flou améliore significativement la transparence, favorise l’adoption clinique et garantit une évolutivité dans diverses applications de santé, en mettant particulièrement l’accent sur son rôle dans la détection précoce et la surveillance des maladies chroniques.
En outre, cette thèse examine les implications éthiques, réglementaires et pratiques du déploiement des systèmes d’IA interprétables dans les environnements cliniques, en soulignant l’importance d’aligner les modèles d’IA sur les normes du secteur et les attentes des cliniciens en matière de confiance et de fiabilité. Malgré les contributions significatives, certaines difficultés telles que la complexité computationnelle et l’intégration dans les flux de travail cliniques sont reconnues. Les recherches futures viseront à optimiser l’efficacité computationnelle et à élargir l’applicabilité des modèles conçus à diverses modalités d’imagerie médicale.
En comblant le fossé entre les avancées technologiques et l’application clinique, cette recherche contribue au domaine en évolution de l’IA explicable en santé, en posant une base solide pour le développement de systèmes d’IA qui privilégient la transparence, la confiance et de meilleurs résultats pour les patients, en particulier dans le contexte de la gestion des maladies chroniques, où l’interprétabilité et la fiabilité à long terme sont essentielles pour un succès clinique durable.
Félicitations à Mohammad Ennab pour la soutenance de sa thèse de doctorat!