WASHINGTON (AP) – Facebook et Instagram exigeront que les publicités politiques diffusées sur leurs plateformes indiquent si elles ont été créées à l’aide de l’intelligence artificielle, a annoncé mercredi leur maison mère.

Selon la nouvelle politique de Meta, des étiquettes reconnaissant l’utilisation de l’IA apparaîtront sur les écrans des utilisateurs lorsqu’ils cliqueront sur les publicités. Cette règle entrera en vigueur au cours de l’année prochaine et sera appliquée dans le monde entier. Aucune date précise n’a été fixée.
Microsoft a dévoilé mardi ses propres initiatives pour l’année électorale, notamment un outil qui permettra aux campagnes d’insérer un filigrane numérique dans leurs publicités. Ces filigranes sont destinés à aider les électeurs à comprendre qui a créé les publicités, tout en garantissant que les publicités ne peuvent pas être modifiées numériquement par d’autres sans laisser de traces.
Le développement de nouveaux programmes d’intelligence artificielle a rendu plus facile que jamais la création rapide de sons, d’images et de vidéos réalistes. Entre de mauvaises mains, cette technologie pourrait être utilisée pour créer de fausses vidéos d’un candidat ou des images effrayantes de fraude électorale ou de violence dans les bureaux de vote. Associés aux puissants algorithmes des médias sociaux, ces faux pourraient induire les électeurs en erreur et les troubler à une échelle jamais vue.
Meta Platforms Inc. et d’autres entreprises technologiques ont été critiquées pour ne pas avoir fait davantage pour répondre à ce risque. L’annonce faite mercredi par Meta, le jour même où les parlementaires de la Chambre des représentants ont tenu une audition sur les “deepfakes”, n’est pas de nature à apaiser ces inquiétudes.
Alors qu’en Europe, les autorités travaillent à l’élaboration d’une réglementation complète sur l’utilisation de l’IA, aux États-Unis, le temps presse pour que les législateurs adoptent une réglementation avant les élections de 2024.
Au début de l’année, la Commission électorale fédérale a entamé un processus visant à réglementer les deepfakes générés par l’IA dans les publicités politiques avant les élections de 2024. La semaine dernière, l’administration du président Joe Biden a publié un décret visant à encourager le développement responsable de l’IA. Entre autres dispositions, il exigera des développeurs d’IA qu’ils fournissent au gouvernement des données sur la sécurité et d’autres informations sur leurs programmes.
La députée démocrate Yvette Clarke, de New York, est à l’origine d’un projet de loi qui obligerait les candidats à étiqueter toute publicité créée à l’aide de l’IA et diffusée sur n’importe quelle plateforme, ainsi que d’un projet de loi qui exigerait l’apposition d’un filigrane sur les images synthétiques et qui érigerait en infraction la création de deepfakes non étiquetés incitant à la violence ou décrivant une activité sexuelle. Selon M. Clarke, les mesures prises par Meta et Microsoft constituent un bon début, mais ne sont pas suffisantes.
“Nous nous trouvons à l’aube d’une nouvelle ère de guerre de désinformation facilitée par l’utilisation de nouveaux outils d’intelligence artificielle”, a-t-elle déclaré dans un communiqué envoyé par courriel. “Le Congrès doit mettre en place des garde-fous pour protéger notre démocratie, mais aussi pour endiguer la vague de contenus trompeurs générés par l’IA, qui peuvent potentiellement tromper le peuple américain”.
Les États-Unis ne sont pas le seul pays à organiser un scrutin important l’année prochaine : Des élections nationales sont également prévues dans des pays tels que le Mexique, l’Afrique du Sud, l’Ukraine, Taïwan, l’Inde et le Pakistan.
Des publicités politiques générées par l’IA ont déjà fait leur apparition aux États-Unis. En avril, le Comité national républicain a publié une publicité entièrement générée par l’IA, destinée à montrer l’avenir des États-Unis si M. Biden, un démocrate, est réélu. Elle utilisait des photos fausses mais réalistes montrant des vitrines barricadées, des patrouilles militaires blindées dans les rues et des vagues d’immigrants semant la panique. L’annonce a été étiquetée pour informer les téléspectateurs de l’utilisation de l’intelligence artificielle.
En juin, la campagne présidentielle du gouverneur de Floride Ron DeSantis a partagé une publicité d’attaque contre son adversaire des primaires du GOP, Donald Trump, qui utilisait des images générées par l’IA de l’ancien président serrant dans ses bras le Dr Anthony Fauci, expert en maladies infectieuses.
“Il est devenu très difficile pour l’observateur occasionnel de comprendre : Qu’est-ce que je crois ici ?”, a déclaré Vince Lynch, développeur d’IA et PDG de la société d’IA IV.AI. M. Lynch estime qu’une combinaison de réglementation fédérale et de politiques volontaires de la part des entreprises technologiques est nécessaire pour protéger le public. “Les entreprises doivent prendre leurs responsabilités”, a déclaré M. Lynch.
La nouvelle politique de Meta s’appliquera à toute publicité pour une question sociale, une élection ou un candidat politique qui comprend une image réaliste d’une personne ou d’un événement qui a été modifiée à l’aide de l’IA. Une utilisation plus modeste de la technologie – pour redimensionner ou affiner une image, par exemple – sera autorisée sans qu’aucune information ne soit communiquée.
Outre les étiquettes informant le spectateur qu’une publicité contient des images générées par l’IA, des informations sur l’utilisation de l’IA dans la publicité seront incluses dans la bibliothèque de publicités en ligne de Facebook. Meta, dont le siège se trouve à Menlo Park, en Californie, précise que les contenus qui ne respectent pas cette règle seront supprimés.
Google a dévoilé en septembre une politique similaire d’étiquetage de l’IA pour les publicités politiques. En vertu de cette règle, les publicités politiques diffusées sur YouTube ou d’autres plateformes de Google devront divulguer l’utilisation de voix ou d’images modifiées par l’IA.
Parallèlement à ses nouvelles politiques, Microsoft a publié un rapport indiquant que des pays tels que la Russie, l’Iran et la Chine tenteront d’exploiter la puissance de l’IA pour interférer avec les élections aux États-Unis et ailleurs, et avertissant que les États-Unis et d’autres pays doivent se préparer.
Des groupes travaillant pour la Russie sont déjà à l’œuvre, conclut le rapport du géant technologique basé à Redmond, dans l’État de Washington.
“Depuis au moins juillet 2023, des acteurs affiliés à la Russie ont utilisé des méthodes innovantes pour engager des audiences en Russie et en Occident avec des contenus multimédias inauthentiques, mais de plus en plus sophistiqués”, écrivent les auteurs du rapport. “Au fur et à mesure que le cycle électoral progresse, nous nous attendons à ce que l’habileté de ces acteurs s’améliore et que la technologie sous-jacente devienne plus performante.

