Local : Espace étudiant (près du MAGE-UQAC)
Panel de discussion et présentations d’experts portant sur les enjeux de la sécurité de l’intelligence artificielle. L’activité mettra en lumière des perspectives issues du milieu académique et du secteur industriel, tout en favorisant les échanges entre spécialistes et participantes et participants.
Panel d’experts :
Modérateur :
Jonathan Roy est professeur en cybersécurité à l’Université du Québec à Chicoutimi (UQAC) et cumule plus de 20 ans d’expérience, tant en industrie qu’en milieu académique, dans la conception, la sécurisation et l’évaluation de systèmes logiciels. Avant de rejoindre le monde universitaire, il a dirigé des initiatives en architecture de sécurité pour de grandes organisations issues de divers secteurs, développant une expertise en sécurité d’entreprise, en infrastructures infonuagiques et en gestion des risques. Il s’intéresse à l’utilisation de l’intelligence artificielle explicable (XAI) pour automatiser des tâches clés en cybersécurité des systèmes logiciels et des systèmes d’IA, notamment l’évaluation des risques, la priorisation des vulnérabilités et l’identification des incidents.
Intervenants :
Dr Adel Abusitta
Professeur adjoint au département de génie informatique et logiciel de Polytechnique Montréal. Ses principaux domaines d’expertise sont la cybersécurité basée sur l’IA, l’IA sécurisée, la sécurité de l’IdO et l’analyse des logiciels malveillants. Dr Abusitta a travaillé à la conception et à la mise en œuvre d’un système d’analyse de données basé sur l’IA pour détecter les intentions malveillantes, en collaboration avec Recherche et développement pour la défense Canada (RDDC). Il a également participé à la conception et à la mise en œuvre de méthodologies, de techniques et de modèles novateurs pour la détection précoce, la prévention et l’atténuation des cyberattaques. Avant de rejoindre Polytechnique Montréal, le Dr Abusitta a occupé le poste de chercheur et de consultant en cybersécurité axée sur les données à l’Institut de valorisation des données (IVADO). Il a travaillé en étroite collaboration avec des partenaires industriels afin d’identifier les meilleures pratiques pour synthétiser les données sensibles tout en préservant la confidentialité de l’apprentissage automatique sans compromettre la précision.
Titre de la présentation (la présentation sera en anglais) : Arsenalisation du langage : exploitation des failles de sécurité dans l’IA générative
Les plateformes tierces d’IA générative, qui s’appuient sur des grands modèles de langues (LLM), offrent des outils puissants pour créer des chatbots personnalisés, adaptés à des tâches spécialisées dans divers domaines. Des plateformes telles que l’écosystème GPT d’OpenAI et d’autres services basés sur les LLM ont permis le développement rapide d’agents IA dédiés à des tâches spécifiques, avec plus d’un million de GPT personnalisés créés à l’échelle mondiale.
Si ces technologies offrent des avantages significatifs en termes de productivité, d’automatisation et d’accessibilité, elles introduisent également un risque critique et souvent négligé : les vulnérabilités de type « porte dérobée » injectées lors du processus de personnalisation.
Dans cette présentation, nous démontrons comment de telles attaques peuvent aboutir et montrons que les techniques traditionnelles de mitigation des portes dérobées, telles que le nettoyage ou la désinfection des entrées, ne parviennent pas à répondre de manière adéquate aux défis uniques posés par les systèmes d’IA générative. Ces systèmes permettent la création de portes dérobées hautement furtives, extrêmement difficiles à détecter à l’aide des défenses conventionnelles. Nous montrerons également que même si tous les tests de détection et de nettoyage des portes dérobées sont réussis, l’attaque par porte dérobée peut tout de même être déclenchée. Nous conclurons en présentant des recommandations et en esquissant des pistes de recherche prometteuses pour atténuer ces risques et renforcer la sécurité des plateformes d’IA générative.
________________________________________
Vincent Bureau
Expert en gouvernance des données et de l’IA, Vincent est spécialisé dans l’opérationnalisation des cadres normatifs et réglementaires. Son expérience en gestion des données et comme Data Protection Officer lui permet une approche pratique. Vincent intervient dans le cadre des conférences concernant la confiance numérique au Canada et à l’international. Il est expert pour le Conseil National de Recherches Canada et la grappe nationale en cyber sécurité IN-SEC-M. Vincent détient quatre maîtrises en télécom., droit public, gestion de projet et marketing, ainsi que plusieurs certifications dont DAMA-Certified Data Management Professionals, IAPP-Certified Information Privacy Professional, ISACA-Certified Data Privacy Solutions Engineer, ISO 27701 Lead implementer, PMI-Project Management Professional. Il est fondateur de DPOsolutions et chargé de cours à l’UQAC.
Titre de la présentation : Gouvernance de l’IA : maîtriser les risques, créer de la valeur
Le bilan 2025 de l’intelligence artificielle est une large adoption, des bénéfices inégales, avec un accroissement des risques informationnels et sécuritaires. 2026 est attendu comme celle de l’efficacité et du retour sur investissement alors que les cadres normatifs se mettent en place. Nous passerons en revue les attentes concernant l’IA et les risques identifiés, avant de proposer une feuille de route d’une IA responsable.
________________________________________
Schallum Pierre
Conseiller sénior en IA responsable, éthique et innovation à l’Institut intelligence et données de l’Université Laval, Schallum Pierre est titulaire d’un doctorat en philosophie de l’Université Laval et d’un postdoctorat réalisé à Polytechnique Montréal. Il mène des travaux de recherche à l’intersection de l’éthique des données, de la vie privée et de la gouvernance des systèmes d’intelligence artificielle. Ses recherches portent notamment sur les enjeux de cybersécurité, de protection des renseignements personnels et de conformité réglementaire, en particulier dans le contexte de la Loi 25 et de la Loi 5 au Québec.
En charge du programme PARI-CNRC à l’IID, il intervient auprès d’organismes évoluant dans des secteurs névralgiques : services financiers, défense et sécurité nationale, santé et sciences de la vie, administration publique. Son approche intègre conformité réglementaire, gestion des risques algorithmiques et éthique des données pour répondre aux défis complexes de la gouvernance IA. Membre actif du comité international ISO/IEC JTC 1/SC 42 sur l’intelligence artificielle, il contribue directement à l’élaboration des normes mondiales encadrant le développement responsable de l’IA. Il siège également au comité d’éthique du CHU de Québec – Université Laval. Ses contributions sont régulièrement publiées dans Technologie et innovation, la Revue Défense Nationale et Les Techniques de l’Ingénieur.
Titre de la présentation: Éthique et sécurité de l’IA : fondements et mise en œuvre
À l’heure où l’intelligence artificielle s’insère dans toutes les sphères de l’activité humaine, son déploiement soulève des enjeux majeurs de sécurité, de vie privée et de responsabilité que les seules approches techniques ne suffisent pas à résoudre. Cette présentation explore les sept principes fondamentaux de l’IA responsable comme socle d’une cybersécurité durable, en les replaçant dans le contexte de la Loi 25 et en mettant en lumière leurs impacts sociaux et environnementaux. Elle propose enfin une feuille de route concrète pour intégrer ces exigences dans la mise en œuvre opérationnelle des systèmes d’IA.