Crédit photo: Pixabay / Artapixel
Meta (Facebook, Instagram) va obliger les campagnes politiques à être transparentes sur l'utilisation de l’intelligence artificielle (IA) dans les publicités, un sujet qui suscite beaucoup d'inquiétude à l'approche de la présidentielle américaine de 2024.
"Les annonceurs devront divulguer chaque fois qu'une pub électorale, politique ou sur des sujets de société contient une image ou une vidéo photoréaliste, ou un son audio réaliste, qui a été créé ou modifié numériquement pour représenter une personne réelle comme disant ou faisant quelque chose qu'elle n'a pas dit ou fait",
a annoncé le géant des réseaux sociaux dans un communiqué mercredi.
Cette nouvelle règle va s'appliquer l'année prochaine, dans le monde entier.
Elle porte aussi sur les publicités qui représentent
"une personne d'apparence réaliste qui n'existe pas ou un événement d'apparence réaliste qui ne s'est pas produit"
ou
"un événement réaliste qui se serait produit, mais qui n'est pas une image, une vidéo ou un enregistrement audio fidèle de l'événement".
Dans ces trois cas, Meta
"ajoutera des informations sur la publicité".
Les annonceurs n'auront pas besoin de signaler les modifications numériques sans incidence sur le message, comme certains recadrages ou corrections des couleurs sur une photo.
Distinguer le vrai de l'IA
L'essor de l'IA générative, qui permet de produire des textes, images et sons sur simple requête en langage courant, facilite la création de toutes sortes de contenus, y compris des "deepfakes"
ces photos ou vidéos manipulées à des fins trompeuses.
De Washington à Bruxelles, les autorités essaient d'encadrer cette nouvelle technologie, inquiète à l'idée des enjeux pour la démocratie, notamment.
Le président américain Joe Biden a signé un décret fin octobre qui impose des règles et orientations aux entreprises du secteur, sur la sécurité et l'utilisation de leurs outils d'IA.
Le démocrate de 80 ans a mentionné avoir vu une vidéo deepfake de lui.
"Je me suis demandé quand est-ce que j'ai bien pu dire ça?"
, a-t-il raconté, s'émouvant à l'idée que des personnes mal intentionnées n'arnaquent des familles en se faisant passer pour des proches.
La Maison Blanche voudrait notamment que les sociétés développent des outils pour identifier facilement les contenus produits avec de l'IA.
Microsoft a aussi présenté mercredi une série d'initiatives pour
"aider à protéger les élections",
dont un outil pour les candidats politiques qui permettra de marquer en filigrane (numérique) leurs contenus, et donc de les authentifier.
Le groupe informatique va en outre constituer une équipe afin d'aider les responsables de campagnes politiques à mieux appréhender l'usage de l'IA, ainsi qu'un centre visant à soutenir
"les gouvernements démocratiques dans le monde dans la mise en place de processus électoraux sécurisés et résilients".
"Au cours des 14 prochains mois, plus de deux milliards de personnes dans le monde auront l'occasion de voter lors d'élections nationales"
, a souligné Brad Smith, le président de Microsoft, dans un communiqué.
Meta est déjà dans le collimateur des autorités, de la protection des données personnelles à celle des enfants.
"Comme toujours, nous supprimons les contenus qui enfreignent nos règlements, qu'ils aient été créés par l'IA ou par une personne",
rappelle l'entreprise mercredi.
"Nos partenaires indépendants chargés de la vérification des faits examinent et évaluent les fausses informations virales et nous n'autorisons pas la diffusion d'une publicité si elle est classée comme fausse, altérée, partiellement fausse ou manquant de contexte".
L'AFP fait partie des dizaines de médias rémunérés par Meta dans le monde, au titre de son programme de vérification des contenus.
#Réseaux sociaux
#Meta
#Pubs
#Politique
#IA
#Désinformation
#Médias