Lucie : Corentin, tu connais Norman ?
COCO : fait des vidéos ?
Lucie : Non, Norman le … psycho. Début juin, des ingénieurs du MIT ont fait sensation, et fait flipper pas mal de monde, avec une expérience inédite. Ils ont entraîné une intelligence artificielle à devenir une psychopathe. Elle doit d’ailleurs son nom au tueur psychopathe Norman Bates du film «Psychose» (1960) d’Alfred Hitchcock.
[Musique psychose, donc ?]
Plus concrètement, Norman est une IA d’annotation d’images. D’habitude, on entraîne ce genre de programme en lui faisant voir un très grand nombre d’images qui sont annotées. Par exemple, la base de données contiendra 100 images de chiens, accompagnées d’une légende indiquant qu’il s’agit de chiens.
COCO : De cette manière, l’IA est ensuite capable de distinguer les chiens d’autres animaux.
Lucie : Voilà. Sauf qu’avec Norman, les scientifiques se sont essayés à une méthode un peu différente. On lui a proposé une base de données de tâches d’encre, le genre utilisé pour les tests de Rorschach. Sauf que les légendes accompagnant ces images étaient toutes très négatives. Du genre : “un homme en train d’être électrocuté”, “un homme qui saute d’un balcon”, etc. Une fois entraîné, on a demandé à Norman de décrire lui-même des tâches d’encre, en comparant les résultats avec les réponses d’une IA plus classique. Et logiquement, le résultat fait très peur. A chaque tâche d’encre, Norman répondait un truc atroce, et impliquant généralement la mort de quelqu’un.
COCO : mais ça sert à quoi ce genre d’expériences, à part nous faire peur ?
Lucie : A faire peur, justement. Sur le site dédié à cette expérience, les scientifiques expliquent qu’ils ont voulu faire une étude de cas sur le danger des biais des intelligences artificielles. Le problème de Norman, ce n’est pas d’être une IA, mais d’avoir été entraîné sur des mauvaises données. Et c’est un enjeu qui est crucial pour l’utilisation des intelligences artificielles, alors qu’elles sont de plus en plus exploitées pour des choses très sérieuses.
Par exemple, si on utilise une IA capable de déterminer si une personne est solvable pour un crédit immobilier, comment peut on être sûr que cette IA n’ait pas des préjudices contre les personnes non-blanches ? Comment contrôler la qualité d’une base de données ? Et qu’est-ce qu’une base de données de qualité, d’ailleurs ? Le problème est plus complexe qu’il en a l’air. Et il se résume à une question : dans une société sexiste et raciste, et globalement injuste, comme être sûr qu’on ne produit pas d’IA qui reproduit, voire aggrave, ces injustices?
[ON NE CHANGE PAS, CELINE DION]
COCO : donc le but de cette expérience est de nous faire comprendre que les intelligences artificielles sont imparfaites …
Lucie : Exactement. Et qu’on ne devrait pas se jeter sur elles comme la solution à tous nos problèmes. Ce sont des sujets sur lesquels beaucoup de scientifiques alertent depuis des années. Mais ce sont aussi des sujets complexes. D’où l’intérêt d’expériences marquantes comme celles de Norman. Ca fait des bons titres d’articles, donc les internautes cliquent, et finissent par en apprendre davantage sur le fonctionnement et les enjeux des intelligences artificielles.
De nombreux scientifiques ont compris l’intérêt de faire des études “drôles” ou un peu effrayantes pour attirer l’attention du public sur les enjeux de l’intelligence artificielle. Un autre exemple récent, que j’aime bien : des chercheurs de Standford ont entraîné un programme à produire lui-même des “memes”. L’intelligence artificielle a été confrontée à une base de données de plein de vieux memes, avec des images et du texte en gras et blanc. On lui a ensuite demandé de faire ses propres oeuvres. Le résultat était plutôt catastrophique, et drôle : mon préféré, c’est un meme où l’on voit un homme qui sourit, et où il est écrit “Voici mon visage que j’ai des dents”. La conclusion de l’étude, c’est qu’il est très compliqué pour une intelligence artificielle de comprendre les sentiments humains, et de les reproduire. L’humour, ça s’apprend en société, pas dans un ordinateur.
Dans le même genre, je vous conseille aussi le travail de la chercheuse Janelle Shane, qui se spécialise dans l’intelligence artificielle absurde. Elle demande à ses programmes d’inventer des noms de Pokémon, des monstres de donjon et dragons ou de recettes de cuisine. C’est très drôle, parce que les résultats sont systématiquement absurdes. Mais au delà du rire, ces travaux sont instructifs : on comprend qu’une intelligence artificielle est, la plupart du temps, assez bête.
COCO : Oh oh ! Intelligence, bête, je crois que je l’ai Lucie. En tout cas merci de nous avoir fait découvrir le côté clickbait des IA. Et on se retrouve très vite !
Cette intelligence artificielle vous fait peur, et c’est pour votre bien
Des scientifiques se sont mis en tête de créer une intelligence artificielle complètement psychopathe et qui voit la mort partout. Ça ne sert à rien, pensez-vous ? Eh bien, détrompez-vous ! Lucie Ronfaut du « Figaro Tech » nous montrera que c’est surtout un moyen d’attirer l’attention sur les biais de cette technologie.
0:00
6:25
Vous êtes sur une page de podcast. En cas de difficulté pour écouter ce document sonore, vous pouvez consulter sa retranscription rapide ci-dessous.