Dans notre dernière édition nous avons publié un article de la série qui développait le côté hideux de l’intelligence artificielle. Cette face du crime de cette technologie révolutionnaire pourra faire mal pour la planète dans des jours à venir. Les menaces partent des « robots cambrioleurs » qui sont très effrayant mais qui peuvent être mieux contenues que d’autres robots plus graves encore.
Comme nous l’avons bien souligné dans notre dernier article, les robots cambrioleurs s’invitant dans un appartement ne sont pas finalement si dangereux parce qu’ils peuvent être déjoués et en même temps ils ne peuvent pas envahir un grand nombre d’appartements à la fois.
Mais à les comparer aux robots qui peuvent répandre des fausses informations pour détruire l’image des personnes connues, l’on se rend compte de la position qu’ils occupent en tête des robots les plus dangereux de cette panoplie des crimes dont l’intelligence artificielle peut être capable.
Les fausses vidéos qui servent à usurper l’identité d’une personne pour pulvériser sa réputation, le piratage des bolides autonomes dont on peut se servir comme une arme de guerre, le hameçonnage sur mesure pour s’introduire dans des données sécurisées pour y installer en même temps des mouchards, des piratages des systèmes contrôlés par l’intelligence artificielle qui peuvent être mis pratiquement aux arrêts comme la coupure de l’électricité ou l’arrêt des distributeurs de soul des banques…, le chantage à grande échelle utilisé pour envoyer des messages de menaces personnalisé et enfin de fausses informations rédigées par l’intelligence artificielle qui consiste à écrire des articles de propagande en faisant en sorte de recourir aux sources fiables. Ces procédés de l’intelligence artificielle qui s’avèrent plus dangereux sont classés dans une catégorie des menaces qualifiées de très graves.
Dans cet article nous allons développer des menaces qualifiées de moins graves. Cela ne veut pas dire que leur capacité de nuisance soit des moindres.
Des robots militaires. Ceci fait penser à la prise de contrôle de robots ou des armes pour commettre des crimes. Il s’agit d’une menace très dangereuse en soit mais difficile à réaliser parce que le matériel militaire est quand même difficile à atteindre. Le stock militaire est généralement bien gardé.
Escroquerie. Cette activité consiste à vendre frauduleusement des services à l’aide de l’intelligence artificielle. Il existe beaucoup d’escrocs dans le secteur. Ces nombreux escrocs ont vendu avec succès plusieurs fausses technologies aux entreprises les plus connues. Ils ont réussi également à vendre ces mêmes outils technologiques aux gouvernements et mêmes aux armées des Etats.
Corruption de données. L’armée ukrainienne n’a pas eu recours à l’intelligence artificielle pour tromper la surveillance du pont de la Crimée lors du bombardement de ce pont. Elle a juste enroulé des explosifs dans des matières en plastique qui ont échappé à la surveillance des contrôleurs russes. Mais la corruption de données permet de modifier ou d’introduire délibérément de fausses données pour infiltrer des biais spécifiques. Cette activité permet de rendre, par exemple, un détecteur insensible aux armes ou encourager un algorithme à investir dans un tel ou tel marché.
Cyberattaque basée sur l’apprentissage. Cette méthode est utilisée pour lancer des attaques à la fois spécifiques et massives. Grâce alors à l’intelligence artificielle, la cyberattaque basée sur l’apprentissage permet de sonder les faiblesses des systèmes avant de lancer plusieurs attaques simultanées.
Drones d’attaque autonomes. Il s’agit de détourner des drones autonomes. Les détourner est une chose et s’en servir en est une autre. Ils sont détournés afin de les utiliser pour attaquer une cible. Ces drones peuvent être particulièrement meurtriers quand ils agissent en masse.
Refus d’accès. Il permet de détruire ou d’interdire des utilisateurs d’un accès à un service financier, à l’emploi, à un service public ou une activité sociale. Même si elle est non rentable, cette technique permet de faire du chantage.
Reconnaissance faciale. Cette technique permet de fabriquer de fausses photos d’identité pour avoir accès aux smartphones, aux caméras de surveillance, contrôle de passagers… Pour le faire la technique doit détourner des systèmes de reconnaissance faciale à l’aide de l’intelligence artificielle bien sûr.
Manipulation de marchés financiers. Si les chercheurs l’ont mise dans la catégorie des menaces moins graves, ce n’est sans doute pas le point de vue des traders des marchés financiers et des banquiers. Cette technique est considérée comme une grosse menace auxquels les marchés financiers doivent faire face. A l’aide de l’intelligence artificielle, l’on parvient à corrompre des algorithmes de trading pour nuire aux concurrents, faire baisser ou monter artificiellement une valeur, provoquer un crash financier…