Les scientifiques ont produit une liste de 20 menaces que présente l’intelligence artificielle. Cette liste produit ces menaces par ordre de gravité qu’elles peuvent engendrer. Ce ne sont pas seulement ces menaces développées par des chercheurs de l’Université de Londres qui inquiètent. Le ton est alarmiste de partout. Des appels fusent de toute part. Certaines expertises du secteur vont jusqu’à comparer les risques que présente IA aux dangers d’une guerre nucléaire. C’est vous dire à quel point ces menaces sont prises au sérieux.
Dans nos éditions passées, nous avons rédigé deux articles qui expliquent des menaces plus graves et dangereuses et des menaces moins graves. Donnons-nous la peine de rappeler un tout petit peu des menaces moins graves par rapport à celles que nous avons égrainé dans l’édition qui a ouvert cette série de menaces.
L’intelligence artificielle donne une capacité de s’emparer des robots militaires ou des armes. L’IA peut offrir ses services à l’escroquerie. L’autre menace dans cette catégorie de menaces de gravité moyenne est la corruption de données. Cette technique permet par l’IA à modifier ou introduire volontairement des données fausses pour y infiltrer des mouchards afin de prendre le contrôle des données personnelles d’une personne ou d’une entreprise. Nous avons aussi parlé des cyberattaques pour lancer des attaques spécifiques et massives, des drones d’attaque autonomes sont sur la liste des menaces. Ils peuvent être détournés à l’aide de l’IA pour l’utilisation militaire.
Sur la liste des menaces moins graves, souvenez-vous, figure aussi le refus d’accès. Il y a la reconnaissance faciale pour fabriquer de fausses photos d’identité toujours dans la recherche de prendre possession des données personnelle de quelqu’un. Et enfin la manipulation de marché qui peut faire baisser ou monter artificiellement une valeur mais également provoquer un crash boursier.
Nous atteignons maintenant la dernière catégorie de la liste des 20 menaces sélectionnées par des scientifiques londoniens et c’est la catégorie qui porte la qualification de menaces de faibles intensités.
Au top de cette dernière catégorie s’affiche l’exploitation de préjugés. Elle consiste à prendre avantage des détours qui existent des algorithmes notamment sur You Tube pour influencer les spectateurs ou sur Google pour peaufiner le profil des produits à vendre ou dénigrer des concurrents.
Des robots cambrioleurs. Nous en avions parlé tout au début. Ils sont très effrayant mais pas dangereux tant que ça. La technique est utilisée pour introduire des robots autonomes dans les boîtes aux lettres ou les fenêtres pour récupérer des clés et ouvrir des portes. Les dommages sont assez faibles et ces cas se produisent sur une faible échelle.
Le blocage de détection par IA. Ici l’intelligence artificielle permet de déjouer le tri et la collecte des données dans le but d’effacer des preuves ou de cacher des informations criminelles. Comme par exemple la pornographie.
De fausses critiques rédigées par IA. Elle s’emploie à produire des faux avis sur un site comme Amazone ou un autre site Le clerec ou encore Tripadvisor pour nuire ou promouvoir un produit.
La traque assistée par IA. Il s’agit d’utiliser des systèmes d’apprentissages pour pister la position et l’activité d’une personne.
Enfin la contrefaçon. C’est fabriquer de faux contenus comme des tableaux et de la musique par exemple pour les vendre sous une fausse paternité. La force de nuisance reste toujours minime dans la mesure où les tableaux et musiques connus sont peu nombreux.
Même si cette liste ne semble pas alarmiste, certains n’hésitent pas à parler de l’extinction de l’humanité à cause de l’intelligence artificielle. « Réduire les risques de l’extinction de l’humanité en raison du développement des IA devrait être une priorité mondiale aux côtés d’autres risques tels que les pandémies et la guerre nucléaire.» Cette phrase apocalyptique qui met les risques du développement de l’intelligence artificielle au même plan que des pandémies et la guerre nucléaire a été cosignée par 350 leaders et des scientifiques de l’industrie de l’IA.
Pour la crédibilité de cette inquiétude, les cadres de Google, de Microsoft et aussi de l’OpenIA alors qu’ils font partie prenante du développement de ces IA. Ce message qui a été publié sur le Center for all Safety donne le ton à la demande de moratoire sur le développement des IA signée par plus de 1000 experts du numérique dont Elon Musk.