Les députés européens ont adopté mercredi des règles pour encadrer les systèmes d'intelligence artificielle (IA) comme ChatGPT, une législation unique au niveau mondial.
Ce système a révélé l'énorme potentiel de l'IA mais aussi ses risques.
"Commencement"
Nous devrons être très attentifs à cette évolution de la technologie à l'avenir et être prêts à répondre aux nouveaux défis qui pourraient en découler.
Les images, textes ou vidéos générés artificiellement (deep fakes) devront être clairement identifiés comme tels.
Le texte interdit aussi les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine, ou encore l'identification biométrique à distance des personnes dans les lieux publics.
Sur ce dernier point, les États ont toutefois obtenu des exemptions pour certaines missions des forces de l'ordre comme la prévention d'une menace terroriste ou la recherche ciblée de victimes.
"Règles floues"
Mais le monde de la tech s'est montré circonspect.
Boniface de Champris, un responsable Europe du CCIA, un lobby du secteur estime:
Nombre de ces nouvelles règles restent floues et pourraient ralentir le développement et le déploiement d'applications innovantes.
De leur côté, l'Observatoire des multinationales (France), Corporate Europe Observatory (Belgique) et LobbyControl (Allemagne) redoutent que les lobbys affaiblissent la mise en œuvre des règles entourant l'IA.
La composition du conseil consultatif de la nouvelle agence européenne pour l'IA reste également floue.
Les 27 États de l'UE devraient approuver le texte en avril avant que la loi ne soit publiée au Journal officiel de l'UE en mai ou juin.