Enseigner l’éthique de l’ingénierie et de l’informatique avec des deepfakes
Comment le « priming éthique » affecte-t-il la manière dont les étudiant·e·s perçoivent les deepfakes (sur le plan émotionnel, au niveau de l’attention et en termes de jugement moral), et quelles implications cela a t il pour l’enseignement de l’éthique professionnelle ?
Durée : juillet 2022 – juillet 2023
Statut : terminé
Niveau de formation : niveau tertiaire
Thème : artificial intelligence AI, digital ethics
Mots-clés : sensibilité éthique
Situation initiale
L’essor des deepfakes soulève des enjeux pédagogiques spécifiques, tant pour les potentiel·le·s consommateur·trice·s de deepfakes que pour leurs producteur·trice·s éventuel·le·s. Puisque la production et l’utilisation des deepfakes dépendent généralement de multiples contributions de la part d’une grande diversité d’acteur·trice·s, ils illustrent de manière évidente le « problème des nombreuses mains » dans l’éthique de l’ingénieur·e (van der Poel, Royakkers et Zwart, 2015), dans lequel l’attribution d’une responsabilité individuelle devient extrêmement difficile dans des contextes collectifs. De plus, la capacité de la technologie à créer une séparation entre les personnes qui produisent des deepfakes et celles qui sont affectées par leur production accroît le risque que les producteur·trice·s se sentent exempt·e·s des obligations sociales traditionnelles envers autrui (Hoffman, 2000 ; 2008).
À l’heure actuelle, la formation des ingénieur·e·s et des informaticien·ne·s semble mal équipée pour faire face aux défis susmentionnés. En effet, des résultats de recherche issus de programmes d’ingénierie (tant à l’international qu’en Suisse) indiquent que, loin de susciter un engagement éthique au cours des études, les étudiant·e·s en ingénierie semblent au contraire se désengager progressivement des préoccupations éthiques (Cech, 2014 ; Tormey et al., 2015 ; Lönngren, 2020). Bien qu’il existe des efforts pour développer des supports d’éthique pouvant être utilisés pour enseigner autour des deepfakes (voir, par exemple, https://mediaethicsinitiative.org/ ou l’AMLD de l’EPFL), comme dans le domaine de l’éthique de l’ingénieur·e plus largement, la conception d’études de cas et d’autre matériel pédagogique n’est habituellement pas fondée sur des preuves concernant la manière dont les individus apprennent l’éthique, ni même sur la façon générale dont ils apprennent (voir Hess et Fore, 2019).
Objectifs
Notre étude vise à comparer les effets d’un sujet d’enseignement en informatique — en particulier les deepfakes — intégrant à la fois des aspects techniques et éthiques, avec un enseignement purement technique chez des étudiant·e·s en ingénierie. Deux effets principaux sont d’intérêt :
- l’impact du contenu pédagogique sur l’attention et l’engagement émotionnel des étudiant·e·s face à des représentations authentiques et deepfakes d’une personne ; et
- le jugement moral des étudiant·e·s dans des situations éthiquement ambiguës.
Méthode
Nous avons utilisé un modèle expérimental pour évaluer deux approches pédagogiques possibles visant à utiliser les deepfakes pour développer la sensibilité morale et le raisonnement moral chez les étudiant·e·s (Bebeau, 2002). Dans les deux conditions, les étudiant·e·s ont visionné trois vidéos : une vidéo authentique, une vidéo deepfake de haute qualité et une vidéo deepfake de faible qualité. Trois types de données ont été collectés : (i) les données d’attention via le suivi oculaire (eye tracking), (ii) les réactions émotionnelles via un logiciel de reconnaissance faciale émotionnelle, et (iii) le jugement moral via un protocole inspiré de l’« Entretien sur le jugement moral » de Kohlberg. Dans la condition témoin et la condition expérimentale, les étudiant·e·s ont reçu un priming différent : dans la condition témoin, il·elle·s étaient orienté·e·s à évaluer la qualité des vidéos en termes de compétence technique, tandis que dans la condition expérimentale, il·elle·s devaient évaluer la qualité des vidéos en tenant compte à la fois de la compétence technique et des considérations éthiques. Les participant·e·s à l’étude étaient des étudiant·e·s en ingénierie ayant suivi au moins un cours d’apprentissage automatique.
Résultats
À l’issue du projet, un rapport méthodologique exhaustif a été rédigé, décrivant une approche pour étudier les effets de la formation éthique et technique dans le contexte des deepfakes. Le rapport documente une méthodologie de recherche multimodale visant à analyser les effets sur trois dimensions principales : la capacité des participant·e·s à reconnaître les deepfakes, leur attention et leurs réactions émotionnelles envers les personnes affectées par les deepfakes, ainsi que leur jugement moral dans des situations éthiquement ambiguës.
Mise en œuvre de la translation
Les résultats de la recherche offrent de nombreuses opportunités d’application pratique dans l’enseignement de l’éthique en ingénierie. Les universités peuvent les utiliser pour repenser les programmes, particulièrement en informatique, en intégrant l’éthique dans les cours sur l’utilisation de l’IA. Les enseignant·e·s pourraient nécessiter une formation pour mettre cela en œuvre efficacement ; des ateliers peuvent les aider à enseigner l’utilisation responsable de l’IA. Les résultats appuient également le développement de supports pédagogiques tels que des manuels, des ressources en ligne et des études de cas, permettant une combinaison d’apprentissage cognitif et émotionnel. De nouveaux cours pourraient intégrer des discussions éthiques dans les programmes techniques existants. Des collaborations avec des institutions et organisations dans le domaine de l’IA et de l’éthique peuvent élargir l’impact par des pratiques partagées. Les résultats peuvent aussi alimenter les lignes directrices éthiques dans l’industrie, en contribuant à la mise à jour des codes de conduite pour les travaux liés à l’IA. Enfin, des conférences publiques, séminaires et ateliers peuvent engager un public plus large dans des discussions sur les deepfakes, l’éthique de l’IA et l’usage responsable des technologies.