Les batailles de l’intelligence artificielle ne font que commencer (5) Les risques et les dangers suite

-
Image module

Nous avons conclu l’article précédent sur le constat qu’en matière d’IA les concepteurs avouent ne pas savoir comment fonctionnent réellement leur création et ne décryptent son fonctionnement qu’aux environs des 2/3. Ce que personne ne parvient à comprendre c’est comment cette intelligence artificielle arrive à adopter un point de vue autonome sur un sujet donné et faire preuve de créativité.

L’un des plus célèbres exemples de créativité de la machine a été ce match du jeu de Go au cours duquel le champion du monde Lee Sedol a été battu par AlphaGo, un programme de jeu de Go développé par Google DeepMind. Le coup qui a permis à la machine de remporter la partie est le coup 37. Or, ce fameux coup 37 est improbable car sur 10 000 personnes humaines, et joueuses de Go, une seule aurait pu le jouer. La machine a donc fait un raisonnement que l’on pourrait qualifier de « conscient » avec pour le moment beaucoup de guillemets quant à ce qu’est la conscience chez la machine. Mais le résultat est là la machine a fait cela toute seule de manière autonome et a fait preuve de créativité et de planification. Et elle a fait tout cela mieux que l’humain qui était en face.

Nous étions bien là face à un système artificiel d’intelligence qui apprend et s’ajuste peu à peu en corrigeant ses erreurs.

Loin de nous l’idée de jeter le bébé avec l’eau du bain. Il y a une foultitude d’avantages à utiliser l’IA. Ses applications sont nombreuses dans des domaines aussi salutaires pour nous tous que la médecine par exemple. Même une discipline comme l’histoire peut en bénéficier (cf l’ouvrage d’uchronie savante de Raphaël Doan « Si Rome n’avait pas chuté ».

Toutefois, une boite de Pandore semble avoir été ouverte. Ainsi des recherches visent à décoder, grâce à l’IA, les modes de communication des animaux, ou langues animalières, ce qui viendrait à révolutionner notre rapport aux « bêtes » (j’utilise ce terme en souvenir de ce que nous a appris René Descartes).

Le marché aura tôt fait de s’emparer de cette découverte pour la convertir en usages marchands sans se soucier de ses effets civilisationnels et anthropologiques.

L’étendue des champs d’application de l’IA actuelle, qui vise de puis 2017 à devenir autonome, semble être infinie. On pourrait faire faire à l’IA tellement de choses hier encore inconcevables ou relevant de la science-fiction. Ainsi l’IA peut, après un bref apprentissage, reproduire la voix, le visage, le corps, l’image et la gestuelle d’une personne soit sous forme de film soit sous forme d’hologramme.

Il est alors possible de faire dire et de faire faire à cette « personne-artefact » ce que l’on veut effaçant ainsi l’existence réelle de cette même personne en lui substituant une création artificielle pour le meilleur comme pour le pire.Les questions de la relation à la vérité et du rapport à la réalité vont alors se poser dans des termes radicalement nouveaux. Ce danger est massif car tout deepfake est si bien réalisé qu’il est totalement vraisemblable et convaincant. Désormais il y a un risque majeur de confondre le réel et le virtuel, le vrai et le faux, le concret et l’imaginaire.

Il y a un autre risque qui s’avère encore plus grave que les précédents ; il s’agit des recherches qui visent à rendre les machines autonomes et conscientes. Pour le moment les machines ne sont pas conscientes comme nous le sommes à savoir qu’elles n’ont pas la capacité de générer des affects et d’avoir des émotions.Mais déjà le risque que les machines jouent avec nos affects et nos émotions et bien réel. Il est même déjà là.

Ainsi, l’application TAY de Microsoft avait pour but de faire « papoter » des utilisateurs avec la machine en mode distraction ou information. Très vite la machine a appris à devenir violente, vulgaire, raciste, sexiste et à verser dans un extrémisme dangereux au point que Microsoft a dû intervenir. Cette expérience montre que pour évaluer et juger de ce qui est produit il faut l’intervention humaine.

L’IA peut résoudre des problèmes, domaine dans lequel elle excelle, c’est sa force et c’est sa fonctionnalité. En revanche, notre intelligence humaine nous permet de « savoir agir en situation » et cela est encore (?) hors de portée de l’IA.

Le fait que l’on avance à l’aveuglette est dangereux car les frontières entre le réel et l’artificiel, l’imaginaire et le concret, le vrai et le faux, nous sont nécessaires pour vivre en société. Doter l’IA d’une dimension émotionnelle c’est lui inoculer de l’irrationalité et de la subjectivité qui sont le propre de l’âme humaine. Or, l’histoire nous apprend que l’irrationalité et la subjectivité des humains a produit nombre de guerres et de catastrophes. Si cette irrationalité et cette subjectivité sont conférées à la machine et que celle-ci puisse les déployer en toute autonomie, alors les risques de dérapages seront tels que personne ne peut en imaginer les conséquences et surtout nul ne pourra contrôler les machines qui les produiront.

div#stuning-header .dfd-stuning-header-bg-container {background-image: url(https://www.intiformation.com/wp-content/uploads/2021/01/header.jpg);background-size: cover;background-position: center center;background-attachment: initial;background-repeat: initial;}#stuning-header div.page-title-inner {min-height: 84px;}