L’intelligence artificielle continue d’effrayer pas mal de monde même si cette révolution scientifique qu’est l’intelligence artificielle a toujours des avantages pour l’humanité. Des voix s’élèvent pour ralentir les recherches en intelligence artifcielle, surtout du côté de l’entreprise OpenAI qui a diffusé ChatGPT.
Des experts ont signé une tribune pour demander de suspendre pendant un moment des recherches en intelligence artificielle. Ces experts sont convaincus que les technologies comme ChatGPT peuvent présenter de graves risques pour la société. Dans une interview accordée par le chercheur Raja Chatila à la chaine de television Française TF1, Il soutient une approche plus éthique de l’intelligence artificielle.
Toutes les innovation technologiques ont provoqué des inquietudes avant de pouvoir s’imposer et de se rendre incontournables. Le ChatGPT et ses répliques provoquent aujourd’hui des peurs. Et c’est pour ça que les plus grands experts de la recherche en intelligence artificielle tirent une sonnette d’alarme pour une meilleure organisation de la recherche en intelligence artificielle.
Dans une tribune signée par ces éminents chercheurs, ils écrivent: “course incontrôlée pour developer et déployer des systèmes d’IA toujours plus puissants, que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable.” Les signataire de la tribune en fait, demandent un moratoire sans attendre. Ils appellent tous les laboratoires d’IA à suspendre immédiatement, pendant au moins six mois, la formation des systèmes d’IA plus puissants que le GPT-4, la dernière version du robot ChatGPT de l’entreprise californienne OpenAI, rendue publique depuis au milieu du mois de Mars dernier. La tribune vise surtout à la prudence et non pas au freinage de l’innovation. Et aux scientifiques de s’interroger s’il est nécessaire d’automatiser toutes les tâches, y compris celles qui sont épanouissantes.
Raja Chatila, directeur de recherche au CNRS, est président d’une initiative internationale pour l’éthique dans l’intelligence artificielle au sein de l’institut des ingénieurs en électricité et électronique (IEEE) depuis 2016. Il est spécialiste des systèmes intelligents et de la robotique. Il fait partie des signataires de cette lettre ouverte, publiée à la fin du mois de Mars sur le site de l’institut américain Future of Life.
Dans la tribune donc Raja Chatila et ses collègues scientifiques demandent à l’entreprise OpenAI de mettre en pause ses recherches pour une durée de six mois. En quoi est-il urgent d’agir? Dans son interview donc sur TF1 la chaine française, Raja Chatila répond à cette question.
Le scientifique parle d’un carton rouge, en quelque sorte, qui a été levé. Il emprunte subtilement le terme utilisé dans le football pour faire sortir un joeur qui a commis une faute très lourde dans le jeu. M. Chatila explique que l’idée de cette lettre ouverte est d’alerter sur la course effrénée visant à developper des systèmes toujours plus performants, alors que ces technologies peuvent présenter des risques beaucoup plus graves pour la société. Le scientique propose de pousser la réflexion beaucoup plus loin en amont afin de prendre des mesures nécessaires pour limiter les consequences négatives. Il doute de l’impact de la lettre mais il persiste et signe, il fallait l’écrire cette lettre et exiger la suspension des recherches. Pour lui la demande est bien claire. Elle s’adresse à l’entreprise responsable de la diffusion de ChatGPT de faire une pause.
Chatila n’est pas dupe. Il sait que l’entreprise en question à savoir OpenAI peut évidemment refuser. Mais il est convaincu que la tribune aide en pointant du doigt les responsabilités. L’expert affirme que dénoncer ne suffit pas toujours à faire changer les choses. Mais parfois le fait de dénoncer suffit pour faire bouger les lignes. Il a donc espoir que l’entreprise OpenAI peut entendre cet appel, même si Chatila reste bien conscient que ce n’est pas dans six mois que la solution sera trouvée puisque de toute façon les solutions à envisager concernent les systèmes à venir et non des systèmes déjà diffusés. Selon lui les scientifiques ont un objectif. Celui d’éveiller les consciences. Il faut que des gens prennent la mesure des conséquences négatives que peut avoir cette technologie si elle n’est pas mieux encadrée, notamment d’un point de vue éthique. La satisfaction de M.Chatila est que tout le monde en parle maintenant et pour lui c’est une avancée.
A la question du journaliste en quoi ChatGPT est-il dangereux puisqu’il s’agit d’une intelligence artificielle qui produit des textes déjà écrit d’une main humaine.
Le scientifique explique que ce sont des intelligences artificielles génératives, ce qui veut dire qu’elles peuvent produire des textes pour ChatGPT ou des images pour d’autres, à partir d’une base de données phénoménale sur internet qui a été la base d’apprentissage de ces systèmes.
ChatGPT peut dire n’importe quoi sans aucune réserve. Il ne comprend pas ce qui est écrit. Mais le texte reproduit par la machine n’a rien de faux, et c’est en cela, dit-il, qu’il est extrêmement dangereux. Car le problème, il reste difficile, voire impossible de distinguer si ce qui est écrit est exact ou pas. Et l’expert Chatila de conclure que cela pose problèmes en termes de droit d’auteur et de désinformation.
Les problèmes restent entiers et effrayant. En Belgique, selon le Figaro, une jeune père de famille s’est suicidé à la fin du mois de Mars après avoir passé six semaine de discussion avec un robot GPT-J développé par OpenAI. C’est -à- dire que la tribune des experts a un sens.