Intelligence artificielle: la communauté scientifique balance entre optimisme et méfiance

11:2029/05/2023, lundi
MAJ: 29/05/2023, lundi
AA
Crédit photo: Richard A. Brooks / AFP
Crédit photo: Richard A. Brooks / AFP

“Intelligence artificielle, oui, mais…“, cette affirmation pourrait constituer le prologue d'un sujet qui n’en finit pas de faire couler de l’encre, et pour cause, on n’hésite plus à qualifier l’évolution fulgurante de l’IA de grande révolution scientifique, comparable à la rationalité présocratique et la découverte de la structure de l’ADN en passant par les révolutions de la physique, et c’est peut-être en cela que réside la polémique étant donnée les possibilités incalculables de cette nouvelle technologie.

Comme toute grande découverte qui affecte directement le quotidien même des humains, la question éthique s’impose, afin de réfléchir aux dérives probables. Et en matière d’IA, les contours de la peur sont de plus en plus nets avec les sorties médiatiques des figures pionnières de cette technologie, dont les opinions forment un curieux mélange d’optimisme et d’alarmisme ramenant à notre postulat de départ.


Mais qui a peur de l’intelligence artificielle ? La réponse à la question varie en fonction de celui qui doit y répondre. Pour une large majorité du public, le ChatGPT & Co sont une prouesse permettant des réponses faciles à des questions complexes. Pour les étudiants, c’est un outil idéal pour rédiger une dissertation, voire un mémoire sans trop suer en recherche et en rédaction (ou l’antisèche idéal pour passer un examen tout dépend de la moralité). Or, il n’en va pas de même pour les chercheurs, spécialistes et autres régulateurs qui multiplient les mises en garde face à une technologie qui semble prendre tout le monde de court, tant elle risque d’affecter profondément, et plutôt vers le pire, une société déjà mise à mal par les actuelles crises économique, climatique, épidémique, géopolitique…


Sam Altman, le créateur de ChatGPT, a plaidé, lors de son audition par le Sénat américain, qu’
“il faut une régulation mondiale“
pour conjurer les dérives d’une technologie qui pourrait
“causer de graves dommages au monde“
en bouleversant le marché du travail ou en menaçant carrément la démocratie en manipulant par exemple les résultats des élections, sans parler de la désinformation dont l’IA est capable, en générant des textes et des images et des vidéos si réalistes qu’il serait vraiment très difficile d’en déceler l’origine, et dont le réel danger est de manipuler, à terme, les opinions. Le patron de Google, Sundar Pichai, a affirmé en avril dernier
“qu’à terme, il faudra élaborer une régulation mondiale“
mais que
“nous n’en sommes qu’au début“
.

Si la technologie de l’IA n’en est encore qu’à ses débuts, l’alarmisme, lui, atteint des sommets inquiétants, notamment en mars dernier lorsque des instances de régulation et plus de 1 000 personnalités de rang mondial avaient appelé à un moratoire de six mois sur la recherche en IA. Parmi ces personnalités, il y a celle du milliardaire américain Elon Musk (qui développe sa propre compagnie d’IA). Yoshua Bengio, un des pionniers de l’IA, a écrit que c'est à cause de
"l'accélération inattendue"
des systèmes d'IA que
"nous devons prendre du recul"
, rapporte la chaîne britannique BBC.

Dr Geoffrey Hinton, psychologue cognitif et informaticien anglo-canadien, un autre père fondateur de l’IA, a claqué la porte de Google, annonçant sa démission dans une déclaration au New York Times. Le septuagénaire a affirmé que désormais, une part de lui regrette d'avoir travaillé sur l’IA.
“Je regrette le fait que ce soit aussi avancé (en allusion à la situation de l’IA aujourd’hui) qu’elle l’est en ce moment, et ma participation à cela“
, a déclaré Hinton, évoquant les risques hypothétiques à long terme. Du pionnier au prophète de l’apocalypse, l’évolution de la pensée de Hinton marque un point crucial dans le monde de la technologie.

Les applications possibles de l’IA sont quasiment illimitées tant elles pourraient mener à des percées scientifiques en recherche médicale, pharmaceutique, informatique, pédagogique, etc. Mais une peur inhérente se lit entre les bruits de couloir qui courent entre les murs des majors de la technologie mondiale, la peur d’avoi
r “ouvert la boîte de Pandore“
et d’avoir créé des
“risques profonds pour la société et pour l’humanité“
, comme l’ont écrit les pro-moratoire sur le développement de nouveaux systèmes d’IA dans une lettre ouverte qui a été suivie par d’autres missives d’alerte, écrites par des spécialistes en la matière.

Hinton a même évoqué l’usage militaire de l’IA sur les champs de bataille, dont le Pentagone finance la plupart des recherches depuis les années 80. Le terme
“soldats robots“
est lâché, rappelant les scénarios apocalyptiques de la culture pop où les cyborgs du film Terminator entament une extermination systématique de la race humaine en déclenchant la troisième guerre mondiale.

“Le département américain de la Défense, et probablement Vladimir Poutine, aimeraient fabriquer des soldats robots"
, le pire à propos des robots soldats est que si un grand pays veut envahir un pays plus petit, ils doivent se soucier de combien de Marines doivent mourir, mais s’ils envoient des robots soldats, ils n’auront plus à se soucier du nombre de morts, les gens qui financent les politiciens vont dire :
"c’est génial, vous allez envoyer ces armes coûteuses",
le complexe militaro-industriel aimerait beaucoup l’idée de
"robots soldats“
, a prédit Hinton dans une interview accordée au New York Times.

Si les philosophes commencent à aborder l’aspect éthique du développement de l’IA étant donné les applications illimitées de cette technologie et ses résultats prometteurs pour le genre humain, il n’en demeure pas moins qu’il faudrait défendre le principe de modération des perfectionnements et des applications plutôt que de les interdire purement et simplement. Si l’humanité a appris des usages de l’atome pour faire de l’énergie, dont les bienfaits sont indéniables, elle en a aussi fabriqué la bombe qui permet d’annihiler toute forme de vie sur la planète. L’homme a réussi à maintenir la vie malgré l’existence du nucléaire, pourra-t-il en faire autant avec l’IA, l’avenir le dira, si nous sommes encore là.


À lire également:


#ChatGPT
#dérives
#Ethique
#Geoffrey Hinton
#Intelligence artificielle (IA)
#Régulation
#Sam Altman
#technologie