Pourquoi l’IA Devrait avoir peur de nous


L’intelligence artificielle rattrape peu à peu la nôtre. I.A. les algorithmes peuvent désormais nous battre systématiquement aux échecs, au poker et aux jeux vidéo multijoueurs, générer des images de visages humains impossibles à distinguer des vrais, écrire des articles de presse (pas celui-ci !) et même des histoires d’amour, et conduire des voitures mieux que la plupart des adolescents.

Mais l’IA n’est pas encore parfait, si Woebot est un indicateur. Woebot, comme Karen Brown l’a écrit cette semaine dans Science Times, est une application pour smartphone alimentée par l’IA qui vise à fournir des conseils à faible coût, en utilisant le dialogue pour guider les utilisateurs à travers les techniques de base de la thérapie cognitivo-comportementale. Mais de nombreux psychologues doutent qu’une A.I. algorithme peut jamais exprimer le genre d’empathie nécessaire pour faire fonctionner la thérapie interpersonnelle.

« Ces applications altèrent vraiment l’ingrédient essentiel qui – des tonnes de preuves montrent – est ce qui aide dans la thérapie, qui est la relation thérapeutique », Linda Michaels, une thérapeute basée à Chicago qui est coprésidente du Psychotherapy Action Network, un groupe professionnel , a déclaré au Times.

L’empathie, bien sûr, est une voie à double sens, et nous, les humains, n’en exhibons pas beaucoup plus pour les bots que les bots ne le font pour nous. De nombreuses études ont montré que lorsque les gens sont placés dans une situation où ils peuvent coopérer avec une IA bienveillante, ils sont moins susceptibles de le faire que si le bot était une personne réelle.

« Il semble qu’il manque quelque chose en ce qui concerne la réciprocité », m’a dit Ophélie Deroy, philosophe à l’université Ludwig Maximilian de Munich. « En gros, nous traiterions un parfait étranger mieux que l’IA. »

Dans une étude récente, le Dr Deroy et ses collègues neuroscientifiques ont cherché à comprendre pourquoi. Les chercheurs ont associé des sujets humains à des partenaires invisibles, parfois humains et parfois A.I. ; chaque paire a ensuite joué un dans une gamme de jeux économiques classiques – Trust, Prisoner’s Dilemma, Chicken and Stag Hunt, ainsi qu’un qu’ils ont créé appelé Reciprocity – conçu pour évaluer et récompenser la coopération.

Notre manque de réciprocité envers A.I. est généralement supposé refléter un manque de confiance. C’est hyper-rationnel et insensible, après tout, sûrement juste pour lui-même, peu susceptible de coopérer, alors pourquoi devrions-nous le faire ? Le Dr Deroy et ses collègues sont parvenus à une conclusion différente et peut-être moins réconfortante. Leur étude a révélé que les gens étaient moins susceptibles de coopérer avec un bot même lorsque le bot était désireux de coopérer. Ce n’est pas que nous ne faisons pas confiance au bot, c’est que nous le faisons : le bot est garanti bienveillant, un ventouse majuscule, alors nous l’exploitons.

Cette conclusion a été confirmée par les rapports ultérieurs des participants à l’étude. « Non seulement ils avaient tendance à ne pas rendre les intentions coopératives des agents artificiels », a déclaré le Dr Deroy, « mais quand ils ont fondamentalement trahi la confiance du bot, ils n’ont pas signalé de culpabilité, alors qu’ils l’ont fait avec les humains. » Elle a ajouté: « Vous pouvez simplement ignorer le bot et il n’y a aucun sentiment que vous avez rompu une obligation mutuelle. »

Cela pourrait avoir des implications dans le monde réel. Lorsque nous pensons à l’IA, nous avons tendance à penser aux Alexas et Siris de notre monde futur, avec qui nous pourrions former une sorte de relation faussement intime. Mais la plupart de nos interactions seront des rencontres ponctuelles, souvent sans paroles. Imaginez que vous conduisez sur l’autoroute et qu’une voiture veut fusionner devant vous. Si vous remarquez que la voiture est sans conducteur, vous aurez beaucoup moins de chances de la laisser entrer. Et si l’A.I. ne tient pas compte de votre mauvais comportement, un accident pourrait s’ensuivre.

« Ce qui soutient la coopération dans la société à n’importe quelle échelle, c’est l’établissement de certaines normes », a déclaré le Dr Deroy. « La fonction sociale de la culpabilité est précisément d’obliger les gens à suivre des normes sociales qui les amènent à faire des compromis, à coopérer avec les autres. Et nous n’avons pas évolué pour avoir des normes sociales ou morales pour les créatures et les robots non sensibles. »

C’est, bien sûr, la moitié de la prémisse de « Westworld ». (À ma grande surprise, le Dr Deroy n’avait pas entendu parler de la série HBO.) Mais un paysage sans culpabilité pourrait avoir des conséquences, a-t-elle noté : « Nous sommes des créatures d’habitude. Alors, qu’est-ce qui garantit que le comportement qui se répète, et où vous montrez moins de politesse, moins d’obligation morale, moins de coopération, ne colorera pas et ne contaminera pas le reste de votre comportement lorsque vous interagissez avec un autre humain ? »

Il y a aussi des conséquences similaires pour l’IA. « Si les gens les traitent mal, ils sont programmés pour apprendre de ce qu’ils vivent », a-t-elle déclaré. « Une A.I. qui a été mis sur la route et programmé pour être bienveillant devrait commencer à ne pas l’être pour les humains, car sinon il sera coincé dans la circulation pour toujours. (C’est l’autre moitié de la prémisse de « Westworld », en gros.)

Et voilà : le vrai test de Turing est la rage au volant. Lorsqu’une voiture autonome se met à klaxonner sauvagement par derrière parce que vous l’avez coupée, vous saurez que l’humanité a atteint le summum de la réussite. D’ici là, espérons-le, la thérapie par l’IA sera suffisamment sophistiquée pour aider les voitures sans conducteur à résoudre leurs problèmes de gestion de la colère.


Vous aimerez aussi...