L’IA fait partie des technologies un peu flippantes qu’on n’a pas trop trop envie de voir dominer le monde. On était déjà pas chaud après avoir vu 2001 : L’odyssée de l’espace, mais quand on voit toutes les merdes que les technologies avancées sont capables de faire aujourd’hui, bah… On est toujours pas chauds, quoi !

1. Les logiciels de reconnaissance faciale racistes

Février 2019, Nijeer Parks, un Afro-américain de 31 ans est arrêté pour des crimes qu’il n’a pas commis. Parmi les chefs d’accusation : vol à l’étalage, possession illégale d’armes et de stupéfiants, détention de faux papiers d’identité, ou encore, abandon de la scène de crime et résistance à l’arrestation. Emprisonné 11 jours, il risque bien plus. Heureusement, l’accusé à un solide alibi : ce jour-là, il est à 48 km du lieu des crimes, en train d’envoyer de l’argent à sa fiancée depuis un Western Union.

Alors pourquoi a-t-il été inquiété ? Eh bien… À cause d’un logiciel d’intelligence artificielle dédié à la reconnaissance faciale. Le rapport de police explique qui la seule preuve utilisée est « une forte comparaison de profil entre la photo du faux permis de conduire et la sienne, trouvée dans une base de données ». Pourtant… Les deux hommes n’ont physiquement rien à voir, à l’exception de leur couleur de peau. L’IA semblant considérée que « toutes les personnes de couleurs sont identiques », n’en est malheureusement pas à sa première action raciste : Parks est le troisième homme noir à faire les frais de ces biais et à être accusé à tort. Une étude de 2019 montre d’ailleurs que les algorithmes de reconnaissance faciale sont beaucoup moins précis pour les visages noirs et asiatiques.

Il s'est lui-même rendu à la police pour établir son innoncence

Posted by Slate.fr on Friday, April 30, 2021

2. Le chatbot microsoft qui diffuse des messages de haine...

Brillante idée de Microsoft en 2016 : le lancement du chatbot (un robot conversationnel) Tay pour interagir avec les internautes de Twitter. Sa spécificité : il est conçu pour apprendre de ces échanges avec les humains. Une expérience de courte durée, puisqu’il n’aura fallu que quelques heures pour que le truc vrille complet et commence à écrire des horreurs telles que « Les féministes devraient toutes brûler en enfer ». Nice.

3. ... et qui devient nazi !!!

… Et ce n’est pas tout, puisque Tay a ensuite commencé à déclarer que « Hitler aurait fait un meilleur boulot que le singe actuel » avant de nier l’existence de l’Holocauste. Belle vitrine de l’apprentissage machine, non ? Fort heureusement, Tay a été mis hors circuit au bout de quelques heures seulement. Certainement la meilleure idée de tout le projet.

4. L'algorithme de Facebook qui confond des personnes de couleurs et des singes

En 2021, un outil de recommandation utilisé par Facebook a demandé aux internautes s’ils souhaitaient voir « plus de vidéos sur les primates », après le visionnage d’une vidéo du Daily Mail montrant des personnes noires. Même si le message a été supprimé et que Facebook a rapidement présenté ses excuses, ça passe très mal. Ouais… Ça ne passe juste pas du tout même.

Le réseau social évoque "une erreur inacceptable"

Posted by Franceinfo on Saturday, September 4, 2021

5. L'application photo de Google, et encoreeee du racisme

Lalalalala du racisme, en veux-tu,, en voilààààà. Décidément, les logiciels d’Intelligence Artificielle ont un sérieux problème avec la mixité. En 2015, l’application « Photos » de Google reproduit le même schéma qu’évoqué dans le point précédant en assimilant un couple d’Afro-américains à… Des gorilles. En réponse, le concepteur a simplement supprimé les catégories « gorilles », « chimpanzé » et « singe » de l’algorithme. En surface, ça fonctionne. Au fond, ça ne résout en aucun cas la question des biais racistes. Y’a encore du taff.

(Source)

6. L'IA sexiste d'Amazon

Amazon est un des pionniers du recrutement assisté par IA. Problème : les ingénieurs qui ont bossé sur l’algorithme ont omis quelques détails, comme le fait que la machine soit biaisée en faveur des hommes (quelle surpriiiiise). Techniquement : l’intelligence artificielle est entrainée avec des données déjà biaisées. Les employés de la boîte, au moment de la conception, étant principalement des hommes, l’algorithme considère que le sexe est un critère principal de sélection. Si même les algorithmes commencent à être machos, on n’est pas sorti de l’auberge, je vous le dis !

Amazon avait entraîné son IA avec les profils d'employés majoritairement masculins.

Posted by Numerama on Wednesday, October 10, 2018

7. L'IA qui confond crâne chauve et ballon

Pour une fois, c’est drôle. En 2020, lors d’un championnat écossais de football, l’IA d’une caméra censée suivre le ballon, a finalement suivi… La tête chauve de l’arbitre de touche. Les spectateurs ont dû passer un sacré moment.

?? La caméra ne cessait de montrer cet arbitre à la place de la balle, suscitant l’exaspération des "supporters à distance" !

Posted by Le Journal du Geek on Monday, November 2, 2020

8. Alexa qui conseille à une petite fille de s'électrocuter

Tout part d’un challenge TikTok aussi con que dangereux, consistant à brancher à moitié son chargeur de téléphone, et à déposer une pièce de monnaie sur la partie visible des broches. Conséquences possibles de ce mouv stupide : électrocutions, incendies et multiples dommages corporels. Et justement… Fin 2021, une petite fille de 10 ans joue avec l’assistante vocale Alexa, lui demandant de lui donner des défis rigolos à relever (s’allonger sur le dos et se retourner en tenant une chaussure sur son pied, par exemple). Et.. Vous voyez ou je veux en venir ? La baffle a fini par lui demander de réaliser cette tendance Tiktok aberrante. Heureusement, la mère de l’enfant était à côté et l’en a empêché. Autrement, les conséquences auraient pu être terribles.

"Branche à moitié un chargeur de téléphone dans une prise murale, puis touche les broches avec une pièce de monnaie"

Posted by NEON on Wednesday, December 29, 2021

Bon, heureusement, y’a aussi des IA qui nous font bien marrer ! En ce moment, c’est le générateur d’images Dall-e qui a la côte. Honnêtement… On comprend pourquoi !

Sources : la revue IA