Connecte-toi avec nous

TIC

Techonologies / Trafic d’êtres humains, cartel de la drogue et appel au génocide: pas besoin d’aller sur le dark web, Facebook s’occupe de tout

Publié

sur

Depuis plusieurs jours, un consortium de médias américains révèle des informations très embarrassantes (et c’est peu dire) au sujet de Facebook. Leur base de travail: des milliers de documents internes à l’entreprise divulgués par une lanceuse d’alerte, Frances Haugen. Voici trois des éléments les plus scandaleux qui ressortent de ces Facebook Papers.

1. Une plateforme très utile pour les trafiquants d’être humains

Selon CNN, Facebook est au courant que des trafiquants d’êtres humains utilisent ses plateformes depuis 2018. Un an plus tard, l’information est même arrivée aux oreilles d’Apple, qui a menacé de retirer Facebook de l’App Store si rien n’était fait pour régler le problème.

Voyant dans cette possible suppression des « conséquences potentiellement graves », l’entreprise de Marc Zuckerberg s’est réellement mise au travail. Suffisant pour rester sur la boutique d’applications d’Apple. Mais pas pour mettre les trafiquants totalement hors-jeu.

Un rapport de janvier 2020 diffusé au sein de l’entreprise aurait indiqué que « notre plateforme permet les trois étapes du cycle de vie de l’exploitation humaine (recrutement, facilitation, exploitation) ». Un autre rapport, du début de cette année, soulignerait le fait que « des lacunes subsistent dans notre détection des entités sur la plateforme qui pratiquent la servitude domestique ». La servitude domestique étant « une forme de trafic de personnes dans le but de travailler à l’intérieur de maisons privées en utilisant la force, la fraude, la coercition ou la tromperie ».

Pas plus tard que la semaine dernière, CNN a encore trouvé sur Instagram des comptes actifs qui semblaient proposer des travailleurs domestiques à la vente. Ceux-ci ont été désactivés une fois que la chaîne américaine en a parlé.

2. Quartier libre pour un cartel international

Le Cartél Jalisco Nueva Generación (CJNG) est une organisation criminelle fondée au Mexique et active dans le monde entier. Son principal business: le trafic de drogue. Une de ces plateformes de prédilection: Facebook.

Il y a un mois, le Wall Street Journal avait déjà révélé que le cartel utilisait Facebook pour publier des images et d’autres contenus dans le but de menacer ses ennemis. Et qu’elle se servait de ses réseaux sociaux pour recruter de nouveaux membres. Dans la foulée, l’entreprise avait réagi, supprimant certaines images et comptes, et assurant investir dans de nouvelles technologies d’intelligence artificielle et d’autres ressources pour identifier et supprimer de manière proactive ce type de contenu sur les plateformes.

Visiblement, Facebook est encore loin du compte. Ce lundi, CNN a dégoté des images de décapitation (entre autres atrocités) réalisées et publiées par des membres du Cartél Jalisco Nueva Generación. Là encore, le réseau social a eu tôt fait de supprimer une bonne partie du contenu signalé.

« Au cœur de ces histoires se trouve une prémisse qui est fausse », a déclaré un porte-parole de Facebook dans une déclaration à CNN. « Oui, nous sommes une entreprise et nous faisons du profit, mais l’idée que nous le faisons au détriment de la sécurité ou du bien-être des gens ne comprend pas où se trouvent nos propres intérêts commerciaux. »

S’il faut que des médias mènent des enquêtes pour que Facebook réagisse par la suite, tout porte à croire que le CJNG continuera à utiliser ses plateformes à toutes fins qu’il juge utiles.

3. Appels à la haine ethnique

Les Facebook Papers permettent aussi de mettre au jour un des principaux problèmes de Facebook en termes de modération: l’usage des langues. Visant depuis toujours à s’étendre dans le monde entier, le réseau social est actuellement présent dans plus de 190 pays. Il compte plus de 2,8 milliards d’utilisateurs mensuels, qui publient des contenus dans plus de 160 langues. Et c’est là que le bât blesse.

Reuters révèle que Facebook n’engage pas des modérateurs en suffisance pour qu’ils puissent identifier les contenus interdits publiés dans toutes les langues utilisées sur ses plateformes. Cela s’avère très dangereux lorsque des conflits locaux éclatent et que les employés de Facebook ne connaissent ni la langue des belligérants ni les enjeux réels de leurs oppositions.

Dans une analyse publiée l’année dernière sur le forum interne de Facebook concernant les moyens utilisés par l’entreprise pour identifier les abus sur son site, un employé a signalé des « lacunes importantes » dans certains pays exposés à des risques de violence réelle, notamment le Myanmar et l’Ethiopie.

En 2018, des experts de l’ONU enquêtant sur une campagne brutale de meurtres et d’expulsions contre la minorité musulmane rohingya du Myanmar ont déclaré que Facebook était largement utilisé pour diffuser des discours de haine à leur égard. Cela a incité l’entreprise à augmenter ses effectifs dans les pays vulnérables, a déclaré un ancien employé à Reuters. Mais, une fois de plus, Facebook n’en fait pas assez.

En 2020, par exemple, il s’est avéré que l’entreprise ne disposait toujours pas d’algorithmes de filtrage pour détecter les discours haineux en oromo et en amharique, deux langues éthiopiennes. Ce mois-ci, Reuters a ainsi trouvé des messages en amharique désignant différents groupes ethniques comme l’ennemi et les menaçant de mort. Rappelons que l’Ethiopie est, depuis près d’un an, le théâtre d’un important conflit opposant le gouvernement et les forces rebelles de la région du Tigré. Des milliers de personnes ont été tuées suite à ces affrontements ultra-violents.

Facebook est confronté à un problème similaire en Inde. Cette année, des employés ont donné des exemples de « récits alarmistes et antimusulmans » diffusés sur leur site en Inde, notamment des appels à l’éviction de l’importante minorité musulmane de ce pays. « Notre manque de classificateurs en hindi et en bengali signifie qu’une grande partie de ce contenu n’est jamais signalée ou traitée », indique le document. Des messages internes ont également mis en lumière l’absence d’algorithmes de filtrage en ourdou et en pachto pour débusquer les contenus problématiques publiés par des utilisateurs au Pakistan, en Iran et en Afghanistan.

Publicité

NOS PARTENAIRES

Publicité
Social Media Auto Publish Powered By : XYZScripts.com