Des entreprises américaines à la pointe de l'intelligence artificielle (IA) se sont engagées à rendre cette technologie plus sûre et plus transparente, notamment en travaillant à des systèmes de marquage des contenus créés avec de l'IA pour réduire les risques de fraude et de désinformation.
La Maison Blanche a annoncé vendredi que sept entreprises Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI avaient accepté de respecter plusieurs principes dans le développement de l'IA.
Cela permettra à la créativité liée à l'IA de prospérer tout en réduisant les dangers liés aux fraudes et aux supercheries.
Les fausses photographies et les montages perfectionnés (deepfake) existent depuis des années, mais l'IA générative, capable de produire du texte et des images sur simple requête en langage courant, fait craindre un déferlement de faux contenus en ligne.
Ceux-ci peuvent servir à fabriquer des arnaques ultra crédibles ou encore à manipuler l'opinion. Une perspective particulièrement inquiétante à l'approche de l'élection américaine de 2024.
Jusqu'à présent, les principales entreprises concernées se sont montrées plutôt réticentes à l'idée d'ajouter de telles marques sur les contenus créés avec leurs programmes.
Elle doit être techniquement robuste, mais aussi facile à voir pour les utilisateurs.
Les tensions politiques au Congrès rendent de nouvelles lois sur l'IA peu probables dans l'immédiat, mais le gouvernement a indiqué travailler à un décret exécutif.