Menu

News

Non seulement Facebook récupère en toute illégalité vos données privées pour les mettre à disposition d’autres entreprises mais en plus, on apprend que le réseau social sert de support aux extrémistes et racistes birmans auteurs du massacre des Rohingyas ! 

On a donc le droit d’appeler au massacre d’une ethnie minoritaire sur Facebook, mais attention, si vous postez une photo d’une femme aux seins nus, celle-ci sera supprimée et votre compte restreint, voire supprimé car cette photo ne correspondrait pas au règlement interne et à la charte de la firme yankee.

Alors que le patron de Facebook s’est expliqué devant le Congrès américain sur le scandale de l’exploitation des données personnelles des utilisateurs à des fins politiques ou commerciales, le réseau social est accusé en Birmanie d’avoir attisé la haine contre la minorité musulmane des Rohingyas 

Le 1er juillet 2014 à Mandalay, dans le centre de la Birmanie, une foule en colère se rassemble devant une échoppe tenue par des musulmans, marquant le début de deux jours d’émeutes interreligieuses. Elles feront deux morts et une dizaine de blessés. A l’origine de ces violences : un post sur Facebook d’un blogueur birman, relayé des milliers de fois, qui accuse deux hommes de confession musulmane d’avoir violé une femme bouddhiste, précisant leur identité et leur adresse. L’accusation de viol sera ensuite démentie par le gouvernement birman.

Selon une étude de 2017, 85% du trafic internet passe par Facebook en Birmanie, dont l’application est installée par défaut sur tous les portables.

Quatre ans plus tard, ce drame n’a toujours pas été oublié. Et Facebook continue d’être utilisé laisser se propager les rumeurs et les messages de haine malgré les risques de violences, dénoncent plusieurs organisations de la société civile birmane. Dans une lettre ouverte à Mark Zuckerberg la semaine dernière, elles critiquaient le manque d’efficacité dans la surveillance du contenu du site, en réponse aux déclarations, dans une interview, du patron de Facebook. Quelques jours plus tôt, il avait en effet vanté la rapidité avec laquelle, en septembre 2017, l’entreprise avait bloqué des rumeurs d’attaques imminentes de bouddhistes et de musulmans, avant même qu’elles ne se propagent. « Ce système, c’était nous. Nous vous avons signalé ces messages », ont rectifié les groupes birmans, en rappelant que les posts propageant ces rumeurs ont été supprimés en réalité après quatre jours, leur laissant amplement le temps de diffuser leur message.

Une modération peu efficace
Le lendemain de l’envoi de cette lettre, les signataires ont eu la surprise de recevoir un e-mail personnel de la part de Mark Zuckerberg, dans lequel il reconnaissait s’être mal exprimé et assurait de l’engagement de Facebook dans la lutte contre les discours de haine. «Mais Facebook s’appuie principalement sur ses utilisateurs et sur la société civile pour faire remonter les contenus problématiques», regrette Victoire Rio, analyste des réseaux sociaux à Rangoun, et coauteure de la lettre. «C’est insuffisant, surtout qu’il est fréquent que des contenus que nous jugeons être de claires violations des règles communautaires ne sont pas reconnus par l’entreprise comme telles», ajoute celle qui a signalé, à plusieurs reprises, des messages qu’elle considérait comme abusifs.

Les appels à la violence contre le Rohingyas sur Facebook ont augmenté de 200% après le mois d’août 2017

Selon Mark Zuckerberg, des douzaines de «relecteurs» parlant le birman ont été embauchés récemment. Un nombre trop faible pour les organisations birmanes, qui demandent à l’entreprise d’investir davantage dans son effort de modération. «L’Allemagne en compte 1200 pour 40 millions d’utilisateurs. Or, étant donné les risques de dérapage dans le pays, il semble logique que l’équipe de modération pour la Birmanie soit au moins proportionnelle», souligne Victoire Rio: soit environ 800 personnes pour les 27 millions d’utilisateurs.


Eliza Hunt – Le Temps [Suisse]




 
Top