Pourquoi Google a abandonné son comité d'éthique de l'IA une semaine après son lancement
La protestation du personnel contre un membre controversé du conseil d'administration entraîne un revirement de l'entreprise

Sundar Pichai, PDG de Google
Justin Sullivan/Getty Images
Google a supprimé son comité d'éthique de l'intelligence artificielle (IA) une semaine seulement après l'avoir lancé à la suite d'une réaction brutale de ses employés.
L'Advanced Technology External Advisory Council (ATEAC), un conseil conçu pour assurer le développement responsable de l'IA chez le géant de la recherche, aurait été composé de huit membres qui devaient se réunir quatre fois par an pour évaluer les préoccupations concernant les produits d'IA de Google, a déclaré Vox .
Mais près de 2 500 employés de l'entreprise ont signé une pétition appelant à la destitution du membre du conseil Kay Coles James, président de la Heritage Foundation, un groupe de réflexion conservateur, à la suite de commentaires qu'elle a faits sur les personnes trans et le scepticisme de son organisation à l'égard du changement climatique, le site d'information dit.
Google indique clairement que sa version de l'éthique valorise la proximité avec le pouvoir sur le bien-être des personnes trans, des autres personnes LGBTQ et des immigrants, selon la pétition. Une telle position contrevient directement aux valeurs déclarées de Google.
La pétition poursuit en disant que les dommages potentiels de l'IA ne sont pas uniformément répartis et suivent des schémas historiques de discrimination et d'exclusion. Il prétend qu'il y a des cas où l'IA n'a pas reconnu les personnes trans, reconnu des voix plus féminines ou vu des femmes de couleur.
Google a d'abord déclaré que l'ATEAC apporterait diverses perspectives, Le gardien rapports. Outre James, le conseil d'administration comprenait des experts en mathématiques, un chercheur en protection de la vie privée, le directeur général d'une entreprise de drones et un ancien diplomate américain.
Le chef de l'entreprise, Sundar Pichai, a annoncé son intention de mettre en place le conseil d'éthique l'année dernière, après qu'il soit apparu que la société de technologie participait à un projet de drone du Pentagone qui utilisait les données de la recherche sur l'IA de Google, Le bord rapports.
Google a décidé de cesser de travailler sur le projet controversé de drone l'été dernier et s'est engagé à ne jamais travailler sur des projets où l'IA pourrait être utilisée comme une arme ou qui violerait les normes internationalement acceptées, ajoute le site technologique.
Un porte-parole de l'entreprise a déclaré au site Web qu'il était devenu clair que dans l'environnement actuel, l'ATEAC ne pouvait pas fonctionner comme nous le souhaitions.
Nous terminons le conseil et retournons à la planche à dessin, a ajouté le porte-parole. Nous continuerons d'être responsables dans notre travail sur les questions importantes soulevées par l'IA et trouverons différents moyens d'obtenir des opinions extérieures sur ces sujets.