Des experts réclament des balises pour encadrer le recours à l'IA en politique
Temps de lecture :
4 minutes
Par La Presse Canadienne, 2024
OTTAWA — Une femme vêtue d’une chemise gris-marron est assise à côté d’un homme, comme si elle écoutait attentivement quelqu’un hors du cadre. Elle a les bras croisés sur une table – mais aussi un troisième bras qui soutient son menton...
Des électeurs y ont regardé à deux fois en parcourant le programme d'un candidat à la mairie de Toronto, l'été dernier, et en voyant l'image de cette mystérieuse «femme à trois bras».
Il était évident que l'entourage d'Anthony Furey avait utilisé l'intelligence artificielle (IA) – et il l'a confirmé plus tard. L'incident constitue un exemple très médiatisé de la façon dont l’IA a fait son entrée dans la politique canadienne.
Mais cet usage peut aussi être exploité de manière beaucoup plus subtile. Sans aucune règle en place, le citoyen ne saura pas dans quelle mesure l'IA est utilisée, déclare la coauteure d'un nouveau rapport sur «les utilisations politiques de l'IA au Canada».
«Nous n'en sommes qu'aux débuts, et nous sommes encore dans cette période étrange où il n'y a pas de règles sur la divulgation de l'IA, et il n'y a pas encore de normes sur la divulgation des utilisations de l'IA générative», déclare Elizabeth Dubois, professeure agrégée au département de communication de l'Université d'Ottawa. «On ne sait pas forcément tout ce qui se passe.»
Dans un rapport publié mercredi, Mme Dubois décrit les façons dont l'IA est utilisée au Canada et aux États-Unis – pour les sondages, la prévision des résultats des élections, la préparation de stratégies de lobbying et la détection de publications abusives sur les réseaux sociaux pendant les campagnes.
L'IA générative, une technologie permettant de créer du texte, des images et des vidéos, s'est généralisée avec le lancement de ChatGPT d'OpenAI à la fin de 2022.
De nombreux Canadiens utilisent déjà la technologie dans leur vie quotidienne, et elle est également utilisée pour créer du contenu politique, comme du matériel de campagne. Aux États-Unis l’année dernière, le Parti républicain a publié sa première publicité d’attaque générée par l’IA — «un montage photographique d’images synthétiques accompagnées de clips audio imitant des bulletins d’information», lit-on dans le rapport.
Il est parfois évident que l’IA a été utilisée, comme dans le cas de la «femme à trois bras». Lorsque le Parti de l'Alberta a partagé en ligne une vidéo de soutien d'un citoyen en janvier 2023, les gens sur les réseaux sociaux ont rapidement souligné que ce n'était pas une personne réelle, indique le rapport. La vidéo a été supprimée.
Mais le recours à l'IA peut être difficile à identifier si le contenu semble réel, souligne la professeure Dubois. L'absence de règles et de normes établies sur l'utilisation et la divulgation de l'IA constitue un «réel problème», dit-elle. «Si on ne sait pas ce qui se passe, alors on ne peut pas garantir que ça se produira d'une manière qui soutienne des élections équitables et des démocraties fortes, n'est-ce pas?»
Dangereux hypertrucage
Nestor Maslej, directeur de recherche à l'Institut pour l'intelligence artificielle centrée sur l'humain de l'Université de Stanford, convient qu'il s'agit d'une «préoccupation tout à fait valable».
L’IA pourrait notamment nuire réellement aux élections en utilisant l'hypertrucage. Ces fausses vidéos existent depuis des années. M. Maslej cite des exemples très médiatisés de fausses vidéos de l'ex-président américain Barack Obama tenant des propos désobligeants, ainsi qu'une fausse vidéo du président ukrainien Volodymyr Zelensky qui se rend aux Russes.
Ces exemples «se sont produits dans le passé, lorsque la technologie n’était pas aussi bonne et aussi performante, mais la technologie ne fera que continuer à s’améliorer», rappelle le professeur Maslej.
Le chercheur souligne que les nouvelles versions de l’IA générative rendent plus difficile encore la détection des images ou des vidéos fausses. Il existe également des preuves que les humains ont du mal à identifier les sons générés de manière synthétique, note-t-il.
Cela ne veut pas dire que l'IA ne peut pas être utilisée de manière responsable, souligne M. Maslej, mais elle peut également être utilisée dans des campagnes électorales à des fins malveillantes. Les recherches montrent qu’«il est relativement facile et peu coûteux de mettre en place des pipelines de désinformation liés à l’IA», dit-il.
Tous les électeurs ne sont pas également vulnérables. Les personnes qui ne sont pas aussi familières avec ces types de technologies pourraient être «beaucoup plus susceptibles d'être confuses et de prendre pour réel quelque chose qui est en fait faux», note M. Maslej.
Une façon de mettre en place des garde-fous consiste à intégrer des «filigranes» pour rendre le contenu de l’IA plus identifiable, dit-il.
Quelle que soit la solution retenue par les décideurs politiques, «le moment est venu d’agir», insiste M. Maslej. «Il me semble que l'ambiance politique canadienne est parfois devenue un peu plus clivante et conflictuelle, mais on pourrait espérer que tous les intervenants comprennent toujours que quelque chose comme la désinformation sur l'IA peut créer une atmosphère pire pour tout le monde.
«Si nous attendons qu'il y ait, je ne sais pas, une sorte d'hypertrucage du (premier ministre Justin) Trudeau qui ferait perdre les élections aux libéraux, alors je pense que nous allons ouvrir une très vilaine boîte de Pandore politique.»
Certaines utilisations malveillantes de l’IA sont déjà couvertes par la loi en vigueur au Canada, souligne la professeure Dubois. L’utilisation de vidéos hypertruquées pour usurper l’identité d’un candidat, par exemple, est déjà illégale en vertu de la loi électorale actuelle.
«D'un autre côté, il existe des utilisations potentielles qui sont nouvelles ou qui n'entrent pas clairement dans les limites des règles existantes, dit-elle. Et là, il faut vraiment que ce soit une sorte de cas par cas, dans un premier temps, jusqu'à ce que nous trouvions les limites de la manière dont ces outils pourraient être utilisés.»
Anja Karadeglija, La Presse Canadienne