Les travailleurs de Facebook accusent l’entreprise de préjugés contre les Arabes et les musulmans


Actualités BuzzFeed / Getty Images

Plus tôt ce mois-ci, un ingénieur logiciel Facebook égyptien a écrit une note ouverte à ses collègues avec un avertissement: «Facebook perd la confiance des utilisateurs arabes.»

Facebook a été une «aide formidable» pour les militants qui l’ont utilisé pour communiquer pendant le printemps arabe de 2011, a-t-il dit, mais pendant le conflit israélo-palestinien en cours, la censure – qu’elle soit perçue ou documentée – a rendu les utilisateurs arabes et musulmans sceptiques quant à la situation. Plate-forme. Pour preuve, l’ingénieur a inclus une capture d’écran de Gaza Now, un média vérifié avec près de 4 millions d’adeptes, qui, une fois aimé sur Facebook, a suscité un message contextuel «décourageant» indiquant: «Vous voudrez peut-être revoir غزة الآن – Gaza Maintenant, pour voir les types de contenu qu’il partage habituellement. »

«J’ai fait une expérience et essayé d’aimer autant de pages d’informations israéliennes que possible, et » pas une seule fois « je n’ai reçu un message similaire », a écrit l’ingénieur, suggérant que les systèmes de l’entreprise avaient des préjugés contre le contenu arabe. «Tous ces incidents résultent-ils d’un biais de modèle?»

Ryan Mac / BuzzFeed News / Via Facebook

Même après avoir appuyé sur le bouton J’aime, on a demandé aux utilisateurs de Facebook s’ils étaient sûrs de vouloir suivre une page pour Gaza Now, ce qui a incité un employé à demander s’il s’agissait d’un exemple de préjugé anti-arabe.

Le message a suscité une cascade de commentaires de la part d’autres collègues. L’un d’eux a demandé pourquoi une publication Instagram de l’acteur Mark Ruffalo sur le déplacement des Palestiniens avait reçu une étiquette d’avertissement de contenu sensible. Un autre a allégué que les publicités d’organisations musulmanes collectant des fonds pendant le Ramadan avec un «contenu totalement inoffensif» ont été suspendues par l’intelligence artificielle de Facebook et les modérateurs humains.

«Nous avons pu voir nos communautés migrer vers d’autres plates-formes.»

«Je crains que nous ne soyons à un point où la prochaine erreur sera la paille qui brise le dos du chameau et nous pourrions voir nos communautés migrer vers d’autres plates-formes», a écrit un autre employé de Facebook à propos de la méfiance des utilisateurs arabes et musulmans.

Alors qu’il y a maintenant un cessez-le-feu entre Israël et le Hamas, Facebook doit maintenant faire face à un nombre important d’employés qui se disputent en interne pour savoir si le plus grand réseau social du monde affiche des préjugés anti-musulmans et anti-arabes. Certains craignent que Facebook applique de manière sélective ses politiques de modération autour du contenu associé, d’autres pensent qu’il les applique de manière excessive, et d’autres encore craignent qu’il ne soit biaisé d’un côté ou de l’autre. Une chose qu’ils partagent : la conviction que Facebook gâche une fois de plus les décisions d’application autour d’un événement politiquement chargé.

Bien qu’une certaine censure perçue sur les produits de Facebook ait été attribuée à des bogues, y compris celui qui empêchait les utilisateurs de publier des histoires Instagram sur le déplacement des Palestiniens et d’autres événements mondiaux – d’autres, y compris blocage des journalistes basés à Gaza de WhatsApp et le suivi forcé de millions de comptes sur une page Facebook soutenant Israël n’ont pas été expliqués par l’entreprise. Plus tôt ce mois-ci, BuzzFeed News a également rapporté qu’Instagram avait par erreur interdit le contenu sur la mosquée Al-Aqsa, le site où les soldats israéliens se sont affrontés avec des fidèles pendant le Ramadan, car la plateforme a associé son nom à une organisation terroriste.

«Cela ressemble vraiment à une bataille ardue d’essayer d’amener l’entreprise dans son ensemble à reconnaître et à déployer des efforts réels plutôt que des platitudes vides pour répondre aux véritables griefs des communautés arabes et musulmanes», a écrit un employé dans un groupe interne pour discuter des droits de l’homme.

La situation est devenue tellement enflammée au sein de l’entreprise qu’un groupe d’une trentaine d’employés s’est réuni plus tôt ce mois-ci pour déposer des recours internes afin de restaurer le contenu sur Facebook et Instagram qui, selon eux, avait été bloqué ou supprimé de manière inappropriée.

«C’est un contenu extrêmement important à avoir sur notre plate-forme et nous avons l’impact qui vient des médias sociaux présentant la réalité sur le terrain au reste du monde», a écrit un membre de ce groupe à un forum interne. « Les gens du monde entier comptent sur nous pour être leur objectif sur ce qui se passe dans le monde. »

La perception de préjugés contre les Arabes et les musulmans a également un impact sur les marques de la société. Sur les magasins d’applications mobiles Apple et Google, les applications Facebook et Instagram ont récemment été inondées de notes négatives, inspirées par le déclin de la confiance des utilisateurs en raison de «l’escalade récente entre Israël et la Palestine», selon un message interne.

Travaillez-vous chez Facebook ou dans une autre entreprise technologique ? Nous aimerions recevoir de vos nouvelles. Approcher [email protected] ou alors via l’un de nos canaux de ligne de pointe.

Dans un mouvement signalé pour la première fois par Nouvelles NBC, certains employés ont contacté Apple et Google pour tenter de supprimer les avis négatifs.

«Nous répondons aux protestations des gens contre la censure avec plus de censure? C’est la cause première ici », a écrit une personne en réponse à la publication.

« C’est le résultat d’années et d’années de mise en œuvre de politiques qui ne sont tout simplement pas à l’échelle mondiale. »

«C’est le résultat d’années et d’années de mise en œuvre de politiques qui ne sont tout simplement pas à l’échelle mondiale», ont-ils poursuivi. «À titre d’exemple, selon les définitions internes, des parties importantes de certaines populations sont considérées comme des terroristes. Une conséquence naturelle est que nos systèmes d’application manuelle et nos automatisations sont biaisés. »

Le porte-parole de Facebook, Andy Stone, a reconnu que la société avait commis des erreurs et a noté que la société dispose d’une équipe sur le terrain avec des locuteurs de l’arabe et de l’hébreu pour surveiller la situation.

«Nous savons que plusieurs problèmes ont eu un impact sur la capacité des gens à partager sur nos applications», a-t-il déclaré dans un communiqué. «Bien que nous les ayons résolus, ils n’auraient jamais dû se produire en premier lieu et nous sommes désolés pour tous ceux qui ont estimé qu’ils ne pouvaient pas attirer l’attention sur des événements importants ou qui pensaient qu’il s’agissait d’une suppression délibérée de leur voix. Cela n’a jamais été notre intention – et nous ne voulons jamais faire taire une communauté ou un point de vue en particulier.

Chris Hondros / Getty Images

Des manifestants anti-gouvernementaux au Caire tiennent une pancarte faisant référence à Facebook, qui a joué un rôle déterminant dans l’organisation des manifestants sur la place Tahrir, le 4 février 2011.

Entreprises de médias sociaux y compris Facebook ont ​​longtemps cité leur utilisation lors des soulèvements de 2011 contre les régimes répressifs du Moyen-Orient, populairement connus sous le nom de printemps arabe, comme preuve que leurs plates-formes ont démocratisé l’information. Mai ElMahdy, une ancienne employée de Facebook qui a travaillé sur la modération de contenu et la gestion de crise de 2012 à 2017, a déclaré que le rôle du réseau social dans les mouvements révolutionnaires était l’une des principales raisons pour lesquelles elle a rejoint l’entreprise.

«J’étais en Égypte à l’époque de la révolution et j’ai vu à quel point Facebook était un outil majeur pour nous mobiliser», a-t-elle déclaré. « Jusqu’à présent, chaque fois qu’ils veulent se vanter de quelque chose dans la région, ils mentionnent toujours le printemps arabe. »

Son passage dans l’entreprise, cependant, a gâché ses opinions sur Facebook et Instagram. Alors qu’elle supervisait la formation des modérateurs de contenu au Moyen-Orient à partir de son poste à Dublin, elle a critiqué l’entreprise pour être «centrée sur les États-Unis» et ne pas avoir embauché suffisamment de personnes possédant une expertise en gestion dans la région.

«Je me souviens qu’une personne a mentionné lors d’une réunion que nous devrions peut-être supprimer le contenu qui dit« Allahu akbar »parce que cela pourrait être lié au terrorisme.»

« Je me souviens qu’une personne a mentionné lors d’une réunion, peut-être que nous devrions supprimer le contenu qui dit ‘Allahu akbar’ parce que cela pourrait être lié au terrorisme », a déclaré ElMahdy à propos d’une réunion il y a plus de cinq ans à propos d’une discussion sur un terme religieux musulman et exclamation qui signifie «Dieu est grand».

Stone a déclaré que cette phrase n’enfreignait pas les règles de Facebook.

Jillian C. York, directrice de la liberté d’expression internationale pour la Electronic Frontier Foundation, a étudié la modération de contenu au sein du plus grand réseau social du monde et a déclaré que l’approche de l’entreprise en matière de respect des lois concernant les Palestiniens a toujours été aléatoire. Dans son livre Valeurs du silicium: l’avenir de la liberté d’expression sous le capitalisme de surveillance, elle note que les mésaventures de la société – y compris le blocage de comptes de journalistes et d’un compte de parti politique en Cisjordanie – avaient conduit les utilisateurs à vulgariser un hashtag, #FBCensorsPalestine.

«Je suis d’accord que cela pourrait être pire maintenant juste à cause du conflit, ainsi que de la pandémie et de l’augmentation ultérieure de l’automatisation», a-t-elle déclaré, soulignant comment la capacité de Facebook à embaucher et à former des modérateurs humains a été affectée par le COVID-19.

Ashraf Zeitoon, ancien chef de la politique de la société pour la région du Moyen-Orient et de l’Afrique du Nord; ElMahdy; et deux autres anciens employés de Facebook dotés d’une expertise en matière de politique et de modération ont également attribué le manque de sensibilité au contenu palestinien à l’environnement politique et au manque de pare-feu au sein de l’entreprise. Chez Facebook, ceux qui gèrent les relations gouvernementales au sein de l’équipe des politiques publiques pèsent également sur les règles de Facebook et sur ce qui devrait ou ne devrait pas être autorisé sur la plate-forme, créant ainsi de possibles conflits d’intérêts où les lobbyistes chargés de satisfaire les gouvernements peuvent faire pression sur la façon dont le contenu est modéré.

Cela a donné un avantage à Israël, a déclaré Zeitoon, où Facebook avait consacré plus de personnel et d’attention. Lorsque Facebook a embauché Jordana Cutler, ancienne conseillère du Premier ministre israélien Benjamin Netanyahu, pour superviser la politique publique dans un pays d’environ 9 millions d’habitants, Zeitoon, en tant que chef des politiques publiques pour le Moyen-Orient et l’Afrique du Nord, était responsable des intérêts de plus de 220 millions de personnes dans 25 pays et régions arabes, y compris les territoires palestiniens.

Les employés de Facebook ont ​​fait part de leurs préoccupations concernant le rôle de Cutler et les intérêts dont elle accorde la priorité. Dans une interview de septembre avec le Jerusalem Post, le journal l’a identifiée comme «notre femme sur Facebook», tandis que Cutler a noté que son travail «consiste à représenter Facebook en Israël et à représenter Israël sur Facebook».

«Nous avons des réunions chaque semaine pour parler de tout, du spam à la pornographie en passant par les discours de haine, l’intimidation et la violence, et comment ils se rapportent aux normes de notre communauté», a-t-elle déclaré dans l’interview. « Je représente Israël dans ces réunions. Il est très important pour moi de veiller à ce qu’Israël et la communauté juive de la diaspora aient une voix lors de ces réunions. »

Zeitoon, qui se souvient s’être disputé avec Culter sur la question de savoir si la Cisjordanie devrait être considérée comme des «territoires occupés» dans les règles de Facebook, s’est dit «choqué» après avoir vu l’interview. «En fin de compte, vous êtes un employé de Facebook, et non un employé du gouvernement israélien», a-t-il déclaré. (Les Nations Unies définissent la Cisjordanie et la bande de Gaza comme étant occupées par Israël.)

Le dévouement des ressources de Facebook à Israël a modifié la dynamique politique interne, ont déclaré Zeitoon et d’autres. ElMahdy et un autre ancien membre de l’organisation des opérations communautaires de Facebook à Dublin ont affirmé que les membres israéliens de l’équipe des politiques publiques faisaient souvent pression sur leur équipe sur le retrait du contenu et les décisions politiques. Il n’y avait pas de véritable homologue qui représentait directement les intérêts palestiniens pendant leur séjour sur Facebook, ont-ils déclaré.

«Le rôle de notre équipe de politique publique dans le monde est d’aider à s’assurer que les gouvernements, les régulateurs et la société civile comprennent les politiques de Facebook, et que nous, à Facebook, comprenons le contexte des pays dans lesquels nous opérons», a déclaré Stone, le porte-parole de l’entreprise. . Il a noté que la société dispose désormais d’un membre de l’équipe politique «axé sur la Palestine et la Jordanie».

Cutler n’a pas répondu à une demande de commentaire.

ElMahdy s’est spécifiquement souvenu des discussions au sein de l’entreprise sur la manière dont la plate-forme traiterait les mentions de «sionisme» et de «sioniste» – des expressions associées au rétablissement d’un État juif – en tant que substituts du «judaïsme» et du «juif». Comme de nombreuses plates-formes de médias sociaux grand public, les règles de Facebook accordent des protections spéciales aux mentions de «juifs» et d’autres groupes religieux, permettant à l’entreprise de supprimer les discours de haine qui ciblent les gens en raison de leur religion.

Les membres de l’équipe politique, a déclaré ElMahdy, ont fait pression pour que «sioniste» soit assimilé à «juif», et des directives accordant des protections spéciales au terme de colons ont finalement été mises en pratique après son départ en 2017. Plus tôt ce mois-ci, the Intercept a publié les règles internes de Facebook aux modérateurs de contenu sur la façon de gérer le terme «sioniste», suggérant que les règles de l’entreprise ont créé un environnement qui pourrait étouffer le débat et la critique du mouvement des colons israéliens.

Dans un communiqué, Facebook a déclaré reconnaître que le mot « sioniste » est utilisé dans le débat politique.

«Dans le cadre de nos politiques actuelles, nous autorisons le terme ‘sioniste’ dans le discours politique, mais supprimons les attaques contre les sionistes dans des circonstances spécifiques, lorsqu’il y a un contexte pour montrer qu’il est utilisé comme un substitut pour les Juifs ou les Israéliens, qui sont des caractéristiques protégées dans notre discours de haine. politique », a déclaré Stone.

Majdi Fathi / NurPhoto via Getty Images

Des enfants tiennent des drapeaux palestiniens sur le site d’une maison à Gaza qui a été détruite par les frappes aériennes israéliennes le 23 mai 2021.

Comme Facebook et Instagram des utilisateurs du monde entier se sont plaints que leur contenu sur les Palestiniens avait été bloqué ou supprimé, l’équipe de croissance de Facebook a rassemblé un document le 17 mai pour évaluer comment les conflits à Gaza ont affecté le sentiment des utilisateurs.

Israël, qui comptait 5,8 millions d’utilisateurs de Facebook, avait été le premier pays au monde à signaler du contenu conformément aux règles de l’entreprise en matière de terrorisme.

Parmi ses conclusions, l’équipe a conclu qu’Israël, qui comptait 5,8 millions d’utilisateurs de Facebook, avait été le premier pays au monde à signaler du contenu selon les règles de l’entreprise en matière de terrorisme, avec près de 155 000 plaintes la semaine précédente. Il était troisième en signalant le contenu dans le cadre des politiques de Facebook en matière de violence et de violations de la haine, devançant des pays plus peuplés comme les États-Unis, l’Inde et le Brésil, avec environ 550000 rapports d’utilisateurs au total au cours de la même période.

Dans un groupe interne de discussion sur les droits de l’homme, un employé de Facebook s’est demandé si les demandes d’Israël avaient un impact sur la prétendue application excessive du contenu arabe et musulman par l’entreprise. Alors qu’Israël comptait un peu plus de deux fois le nombre d’utilisateurs de Facebook que les territoires palestiniens, les habitants du pays avaient signalé 10 fois plus de contenu en vertu des règles de la plate-forme sur le terrorisme et plus de huit fois le nombre de plaintes pour violations de haine par rapport aux Palestiniens. utilisateurs, selon l’employé.

«Quand je regarde tout ce qui précède, je me suis demandé», ont-ils écrit, y compris un certain nombre de liens internes et un article de presse de 2016 à propos de la conformité de Facebook aux demandes de retrait israéliennes, «est-ce que nous« réduisons systématiquement, délibérément et systématiquement les voix des Palestiniens au silence? »»

Pendant des années, des militants et des groupes de la société civile se sont demandé si la pression du gouvernement israélien par le biais de demandes de retrait avait influencé la prise de décision sur le contenu de Facebook. Dans son propre rapport ce mois-ci, le Centre arabe pour l’avancement des médias sociaux a suivi 500 suppressions de contenu sur les principales plates-formes sociales pendant le conflit et a suggéré que «les efforts de la Cyber ​​Unit du ministère israélien de la Justice – qui au cours des dernières années a soumis des dizaines de milliers de cas à entreprises sans aucune base légale – est également à l’origine de nombre de ces violations signalées.

«Conformément à notre processus mondial standard, lorsqu’un gouvernement signale un contenu qui n’enfreint pas nos règles mais qui est illégal dans son pays, après avoir procédé à un examen juridique, nous pouvons en restreindre l’accès localement», a déclaré Stone. «Nous n’avons pas de processus spécial pour Israël.»

Alors que la pression externe s’intensifiait, l’équipe informelle d’environ 30 employés de Facebook déposant des plaintes internes a tenté de trier une situation que ses dirigeants n’ont pas encore abordée publiquement. La semaine dernière, ils ont reçu plus de 80 appels concernant des suppressions de contenu concernant le conflit israélo-palestinien et ont constaté qu’une «grande majorité des annulations de décision [were] à cause de faux positifs de nos systèmes automatisés », en particulier autour de la mauvaise classification des discours de haine. Dans d’autres cas, des vidéos et des photos sur la police et les manifestants avaient été prises par erreur en raison «d’intimidation / harcèlement».

«Cela a créé une plus grande méfiance à l’égard de notre plate-forme et réaffirmé les préoccupations des gens face à la censure», a écrit l’ingénieur.

Cela affecte également la minorité d’employés palestiniens et palestiniens américains au sein de l’entreprise. Plus tôt cette semaine, un ingénieur qui s’est identifié comme «musulman palestinien américain» a écrit un article intitulé «Un plaidoyer pour la Palestine» demandant à ses collègues de comprendre que «défendre les Palestiniens n’équivaut pas à de l’antisémitisme».

«J’ai l’impression que ma communauté a été réduite au silence dans une sorte de censure sociale; et en ne faisant pas entendre ma voix, je me sens complice de cette oppression », ont-ils écrit. «Honnêtement, il m’a fallu un certain temps pour même mettre mes pensées en mots parce que je crains vraiment que si je parle de ce que je ressens, ou que j’essaie de sensibiliser mes pairs, je puisse recevoir une réponse malheureuse qui est extrêmement décourageante. « 

Bien que les dirigeants de Facebook aient depuis mettre en place un groupe de travail spécial pour accélérer les appels de retrait de contenu concernant le conflit, ils semblent satisfaits de la gestion par l’entreprise du contenu arabe et musulman pendant l’escalade de la tension au Moyen-Orient.

« Nous venons de dire à environ 2 milliards de musulmans que nous avons confondu leur troisième site le plus sacré, Al Aqsa, avec une organisation dangereuse. »

Dans une mise à jour interne publiée vendredi dernier, James Mitchell, un vice-président qui supervise la modération du contenu, a déclaré que s’il y avait eu «des rapports et une perception de sur-application systémique», Facebook n’avait «identifié aucun problème systémique en cours». Il a également noté que la société avait utilisé des termes et des classificateurs avec une «précision de haute précision» pour signaler le contenu d’un éventuel discours de haine ou d’incitation à la violence, ce qui leur permettait de les supprimer automatiquement.

Il a déclaré que son équipe s’était engagée à faire un examen pour voir ce que l’entreprise pourrait faire mieux à l’avenir, mais n’a reconnu qu’une seule erreur, « l’application incorrecte du contenu contenant la phrase » Al Aqsa « , que nous avons corrigée immédiatement. »

Des documents internes vus par BuzzFeed News montrent que ce n’était pas immédiat. Un article distinct du début du mois a montré que sur une période d’au moins cinq jours, les systèmes automatisés et les modérateurs de Facebook ont ​​«supprimé» quelque 470 messages mentionnant Al-Aqsa, attribuant les suppressions au terrorisme et aux discours de haine.

Certains employés n’étaient pas satisfaits de la mise à jour de Mitchell.

«Je trouve également profondément troublant que nous ayons des classificateurs de précision de haute précision et pourtant nous venons de dire à ~ 2 milliards de musulmans que nous avons confondu leur troisième site le plus sacré, Al Aqsa, avec une organisation dangereuse», a écrit un employé en réponse à Mitchell.

«Au mieux, cela envoie un message à ce grand groupe de notre public que nous ne nous soucions pas assez de faire en sorte que quelque chose d’aussi basique et important pour eux soit correct», ont-ils poursuivi. « Au pire, cela a contribué à renforcer le stéréotype ‘les musulmans sont des terroristes’ et l’idée que la liberté d’expression est restreinte pour certaines populations. » ●



Vous aimerez aussi...