L’intelligence artificielle utilisée par différents réseaux ou applications pour détecter des contenus «indésirables» finit parfois par être très peu intelligente et censure sans fondement.

Cela a été constaté après qu’une étude a révélé que YouTube avait supprimé plusieurs vidéos d’échecs, considérant que “blanc contre noir” était un message raciste.

Ce n’est pas la seule fois que l’IA fait ces erreurs ridicules, récemment, sur Facebook, ils ont censuré une publicité qui avait une photo d’oignons parce que «l’intelligence» la considérait comme un corps nu. Auparavant, en 2018, les systèmes automatisés de Facebook avaient supprimé un message contenant des extraits de la déclaration d’indépendance des États-Unis comme contenant des discours de haine.

Le bogue YouTube a été découvert par des chercheurs de l’Université Carnegie Mellon en Pennsylvanie, aux États-Unis, qui ont analysé les raisons pour lesquelles une chaîne d’échecs populaire sur YouTube a été bloquée l’année dernière pour avoir prétendument contenu “du contenu nuisible et dangereux”. La conclusion était que le système d’intelligence artificielle de la plate-forme a examiné les conversations dans les vidéos, trouvé des phrases telles que «blanc contre noir» (références évidentes aux pièces du jeu) et catalogué ce contenu dans le discours de haine.

En juin 2020, la chaîne YouTube du joueur d’échecs croate Antonio Radic (connu sous son alias Agadmator) a été bloquée alors qu’il présentait une vidéo avec le maître de la discipline Hikaru Nakamura.

Dans un premier temps, Google n’a pas expliqué les raisons de la décision. Le canal a été rétabli après 24 heures et Radic soupçonnait que les références aux puces du jeu avaient été le déclencheur du verrouillage.

«S’ils s’appuient sur l’intelligence artificielle pour détecter un langage raciste, ce genre d’accidents peut se produire», a déclaré l’un des chercheurs de l’Institut des technologies du langage, à l’université qui a réalisé l’étude. Pour corroborer cela, le scientifique a divulgué près de 700 000 commentaires sur les chaînes YouTube axées sur les échecs.

Après avoir examiné manuellement une sélection de 1 000 commentaires que l’intelligence artificielle de YouTube avait classés comme discours de haine, ils ont constaté que 82% d’entre eux avaient été mal classés en raison de l’utilisation de mots tels que «noir», «blanc», «attaque» et «menace». , terminologie courante dans le jeu de société.

Ref: https://www.mendozapost.com