MENU
THEMES

PARTAGER CETTE PAGE SUR LES réseaux sociaux:

Les ratés de la modération par l’intelligence artificielle

Publié le: 18/03/2021  |  Par: Guide Informatique  
Les ratés de la modération par l’intelligence artificielle

Ce n’est pas un secret, les réseaux sociaux reposent en partie sur l’intelligence artificielle pour modérer le contenu. Et c’est bien connu, l’intelligence artificielle peut commettre des erreurs. Des marques de textiles aux vidéos sur les échecs, des marques et créateurs font les frais quotidiennement des erreurs des algorithmes.


Compte tenu de leur pouvoir sur la société, les réseaux sociaux ont une grande responsabilité afin de s’assurer que leurs plateformes soient correctement modérées. Hors cette tâche est inhumaine tant le volume de contenu est conséquent. C’est pourquoi ces plateformes reposent sur des intelligences artificielles. Malheureusement, ces dernières peuvent commettre des erreurs, pénalisant des marques et des créateurs de contenu.


Mighty Well, une entreprise de textile commercialisant des vêtements pour les personnes en situation de handicap, a tenté de publier une publicité pour l’un de ses produits phares, un pull sur lequel il est écrit : “Je suis immunodéprimé, merci de me laisser de l’espace”. Cette publicité a été refusée par Facebook, car elle violerait les termes de la plateforme. Ce refus est dû à une erreur de l’intelligence artificielle qui a analysé le texte sur le pull et l’a classifié comme un produit médical. Hors, le réseau social interdit les publicités pour les médicaments et tout autre appareil ou service de santé. Après avoir fait appel, Mighty Well est finalement parvenu à diffuser sa publicité. 


Il ne s’agit cependant pas d’un cas isolé. Six autres entreprises ont déclaré avoir vécu une situation similaire, parfois de façon hebdomadaire. Après avoir été contactée, une représentante de Facebook s’est exprimée sur le sujet : “Nous voulons aider les marques de textile destinées aux personnes en situation de handicap à trouver et à se connecter avec leurs consommateurs sur Facebook. Plusieurs des publicités concernées n’auraient pas dû être bloquées par notre système et sont maintenant validées. Nous nous excusons pour cette erreur et nous travaillons à l’amélioration de notre système afin que les marques ne rencontrent plus ce problème à l’avenir.”


Facebook n’est évidemment pas la seule plateforme a rencontré ce type de problème. C’est également le cas d’Amazon, de TikTok ou encore de YouTube. Ce dernier a bloqué une chaîne dédiée aux échecs, expliquant que cette dernière diffuse du contenu dangereux et blessant. La chaîne en question était pourtant l’une des plus importantes dédiées aux échecs sur la plateforme, avec plus d’un million d’abonnés. Après une plainte du YouTubeur en question, la chaîne a été restaurée en 24 h, sans la moindre explication sur la raison de ce blocage. Pour les experts, cela est dû à l’emploi de termes tels que “noir”, “blanc”, “attaque”, “menace”, qui font partis du lexique courant des échecs, mais qui sont traités comme des indicateurs d’un contenu potentiellement néfaste par les intelligences artificielles. 


Ces histoires nous rappellent à quel point l’intelligence artificielle est loin d’être parfaite. Et alors que les algorithmes apprennent de jour en jour, des marques et des créateurs de contenu se voient pénalisés, parfois de façon conséquente, par des erreurs d’algorithme.

Actualités dans la même thématique ...

Réagir à cet article