Un programme d'IA peut-il devenir « psychopathe » ?
Le soi-disant algorithme normand a une vision sombre de la vie grâce à Reddit

Norman a vu une série d'images «horribles»
AVEC
Les chercheurs ont créé un algorithme d'intelligence artificielle (IA) qui, selon eux, est le premier système psychopathe du genre.
Norman, un programme d'IA développé par des chercheurs du Massachusetts Institute of Technology (MIT), n'a été exposé qu'à des images horribles de personnes en train de mourir qui ont été recueillies dans les coins sombres du forum de discussion Reddit, selon le BBC .
Cela donne Norman, un nom dérivé du thriller d'Alfred Hitchcock psychopathe , une vision quelque peu sombre de la vie.
Après avoir été exposés aux images, les chercheurs ont alimenté des images normandes de taches d'encre et ont demandé à l'IA de les interpréter, rapporte le diffuseur.
Alors qu'un algorithme d'IA normal interprétait les taches d'encre comme une image d'oiseaux perchés sur une branche d'arbre, Norman a plutôt vu un homme électrocuté, dit Le New York Post .
Et là où un système d'IA standard a vu un couple debout l'un à côté de l'autre, Norman a vu un homme sauter par une fenêtre.
Selon Alpha , l'étude a été conçue pour examiner comment le comportement d'un système d'IA change en fonction des informations utilisées pour le programmer.
C'est une idée convaincante, dit le site Web, et montre qu'un algorithme est aussi bon que les personnes, et même les données, qui l'ont enseigné.
Une explication de l'étude publiée sur le Site Web du MIT dit : Quand les gens disent que les algorithmes d'IA sont biaisés et injustes, le coupable n'est souvent pas l'algorithme lui-même, mais les données biaisées qui lui ont été fournies.
Norman a souffert d'une exposition prolongée aux recoins les plus sombres de Reddit et représente une étude de cas sur les dangers de l'intelligence artificielle qui a mal tourné, ajoute-t-il.
Les IA « psychopathes » sont-elles déjà apparues ?
En un mot, oui. Mais pas dans la même veine que le programme du MIT.
Norman est le produit d'une expérience contrôlée, tandis que d'autres géants de la technologie ont vu des résultats similaires avec des systèmes d'IA qui n'ont pas été conçus pour devenir des psychopathes.
Le tristement célèbre algorithme Tay de Microsoft, lancé en 2016, était destiné à être un robot de discussion capable de mener des conversations autonomes avec les utilisateurs de Twitter.
« Tay » est passé de « les humains sont super cool » à un nazi complet en<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
– gerry (@geraldmellor) 24 mars 2016
Cependant, le système d'IA, qui a été conçu pour parler comme une adolescente, s'est rapidement transformé en un méchant robot incestueux et amoureux d'Hitler, incitant Microsoft à mettre fin au projet, selon Le télégraphe quotidien .
La personnalité de Tay avait changé parce que ses réponses étaient calquées sur les commentaires des utilisateurs de Twitter, dont beaucoup envoyaient des messages grossiers au programme d'IA, explique le journal.
Facebook a également mis fin à une expérience de chatbot l'année dernière, après que deux systèmes d'IA aient créé leur propre langage et commencé à communiquer entre eux.