🔴 L’IA pourrait confondre le chat d’échecs avec des bagarres racistes | Dresser son chien


«The Queen’s Gambit», la récente mini-série télévisée sur un maître d’échecs, a peut-être suscité un intérêt accru pour les échecs, mais un mot pour le sage: parler des médias sociaux sur les couleurs des pièces de jeu pourrait conduire à des malentendus, du moins pour la détection des discours de haine Logiciel.

C’est ce qu’une paire de chercheurs de l’Université Carnegie Mellon soupçonnent d’être arrivé à Antonio Radić, ou « agadmator », un joueur d’échecs croate qui héberge une chaîne YouTube populaire. En juin dernier, son compte a été bloqué pour contenu « nuisible et dangereux ».

YouTube n’a jamais fourni d’explication et a rétabli la chaîne dans les 24 heures, a déclaré Ashiqur R. KhudaBukhsh, scientifique du projet à l’Institut des technologies linguistiques (LTI) de la CMU. Il est néanmoins possible que le discours «noir contre blanc» lors de l’interview de Radić avec le grand maître Hikaru Nakamura ait déclenché un logiciel qui détecte automatiquement le langage raciste, a-t-il suggéré.

« Nous ne savons pas quels outils YouTube utilise, mais s’ils s’appuient sur l’intelligence artificielle pour détecter un langage raciste, ce type d’accident peut se produire », a déclaré KhudaBukhsh. Et si cela arrivait publiquement à quelqu’un d’aussi haut niveau que Radić, cela pourrait bien arriver tranquillement à beaucoup d’autres personnes qui ne sont pas si connues.

Pour voir si cela était faisable, KhudaBukhsh et Rupak Sarkar, un ingénieur de recherche du cours LTI, ont testé deux classificateurs de discours de pointe – un type de logiciel d’IA qui peut être formé pour détecter les indications de discours de haine. Ils ont utilisé les classificateurs pour filtrer plus de 680000 commentaires recueillis sur cinq chaînes YouTube populaires axées sur les échecs.

Ils ont ensuite échantillonné au hasard 1 000 commentaires qu’au moins un des classificateurs avait signalés comme discours de haine. Lorsqu’ils ont examiné manuellement ces commentaires, ils ont constaté que la grande majorité – 82% – n’incluait pas le discours de haine. Des mots tels que noir, blanc, attaque et menace semblent être des déclencheurs, ont-ils déclaré.

Comme avec d’autres programmes d’IA qui dépendent de l’apprentissage automatique, ces classificateurs sont formés avec un grand nombre d’exemples et leur précision peut varier en fonction de l’ensemble d’exemples utilisés.

Par exemple, KhudaBukhsh a rappelé un exercice qu’il a rencontré en tant qu’étudiant, dans lequel le but était d’identifier les «chiens paresseux» et les «chiens actifs» dans une série de photos. De nombreuses photos de dressage de chiens actifs montraient de larges étendues d’herbe car les chiens qui couraient étaient souvent au loin. En conséquence, le programme a parfois identifié des photos contenant de grandes quantités d’herbe comme exemples de chiens actifs, même si les photos n’incluaient aucun chien.

Dans le cas des échecs, de nombreux ensembles de données d’entraînement comprennent probablement peu d’exemples de discussions sur les échecs, conduisant à des erreurs de classification, a-t-il noté.

Cet article a été republié à partir des matériaux suivants. Remarque: le matériel peut avoir été modifié pour sa longueur et son contenu. Pour plus d’informations, veuillez contacter la source citée.

éduquer mon chien

Chien Dressage Note moyenne : 4.8 (98%) sur 137 votes

Laisser un commentaire