Le centre de crise de Facebook se démène pour lutter contre les fausses nouvelles électorales

Le 7 octobre, lors du premier tour de l’élection présidentielle au Brésil, les employés de Facebook ont remarqué quelque chose de suspect sur le réseau social.

Un article publié sur Facebook a prétendu à tort que l’élection avait été retardée en raison de protestations. Les spécialistes des données et l’équipe d’exploitation de l’entreprise se sont démenés pour mettre fin à la désinformation avant qu’elle ne se propage par voie virale.

Ces employés travaillaient en face à face dans le nouveau ” centre de crise ” de Facebook, une opération que le géant des médias sociaux a lancée en septembre pour éradiquer les fausses nouvelles, la désinformation et les faux comptes en temps réel.

“Nous savons que lorsqu’il s’agit d’élections, chaque moment compte vraiment “, a déclaré Samidh Chakrabarti, directeur des élections et de l’engagement civique sur Facebook.

Alors que le temps presse avant le second tour des élections au Brésil et les élections de mi-mandat aux États-Unis, Facebook tente de prouver au public et aux législateurs qu’il est mieux préparé à combattre l’ingérence électorale sur son réseau. Il y a beaucoup en jeu non seulement pour la démocratie, mais aussi pour Facebook, qui a vu des Russes, des Iraniens et des Américains exploiter le réseau social pour diffuser des canulars et semer la discorde.

“Vous portez cette responsabilité. Vous avez créé ces plates-formes. Et maintenant, ils sont utilisés à mauvais escient. Et c’est à vous de faire quelque chose. Ou nous le ferons “, a déclaré la sénatrice Dianne Feinstein, démocrate californienne, à Facebook, Twitter et Googlelawyers l’an dernier lors d’une audition du Congrès sur l’ingérence de la Russie dans l’élection présidentielle américaine de 2016.

Alors que les dirigeants du géant des médias sociaux ont déclaré que les choses évoluent rapidement, Facebook doit également trouver un équilibre entre le fait qu’il censure certaines voix. L’entreprise de technologie, qui a essayé d’éviter d’être “l’arbitre de la vérité”, a examiné le comportement des faux comptes au lieu de leur contenu pour décider s’il fallait les démanteler.

Et avec plus de 2 milliards d’utilisateurs actifs par mois dans le monde, Facebook compte à la fois sur l’homme et la machine pour contrôler les grandes quantités de contenu qui circulent non seulement sur son site, mais aussi sur d’autres applications qu’il possède comme WhatsApp et Instagram.

Malgré ses efforts, d’autres fausses nouvelles liées à l’élection présidentielle brésilienne se sont encore diffusées sur Facebook et WhatsApp, soulignant les difficultés auxquelles fait face le plus grand réseau social du monde. La semaine dernière, le tribunal électoral brésilien a ordonné à Facebook de retirer les liens vers 33 faux reportages sur la candidate à la vice-présidence Manuela D’Ávila.

“Facebook a un défi très difficile à relever pour pouvoir faire face au problème qui consiste, d’une part, à empêcher que de fausses informations ne tombent entre les mains d’électeurs qui pourraient être induits en erreur, mais, d’autre part, à protéger la liberté d’expression là où ils ne sont pas considérés comme prenant parti “, a déclaré Richard Hasen, professeur en sciences politiques et en droit à UC Irvine.

Facebook War Room

De l’extérieur, le centre de crise de Facebook ressemble à une salle de conférence typique sur le campus de Menlo Park, en Californie, de l’entreprise de technologie. Mais à l’intérieur, l’espace ouvert, les drapeaux, les horloges, les écrans de télévision, les affiches et les étiquettes bleues et blanches à côté des écrans d’ordinateur indiquent que ce n’est pas une salle de réunion ordinaire.

Un panneau rouge-blanc et bleu apposé sur la porte donne son nom à la chambre.

Mercredi, Facebook a invité les journalistes à venir jeter un rare coup d’œil sur le travail de l’entreprise pour contrecarrer l’ingérence électorale.

Entouré d’écrans de télévision diffusant des nouvelles et de tableaux de bord affichant des données en temps réel, une vingtaine d’employés de Facebook se relaient dans la salle de guerre à tout moment. Ils font partie de différentes équipes au sein de l’entreprise, notamment des spécialistes des données, des ingénieurs, des avocats et des experts en sécurité, qui travaillent ensemble pour lutter contre l’ingérence électorale. Au total, environ 20 000 employés travaillent à la sécurité et à la sûreté sur Facebook, ce qui représente sa ligne de défense contre l’ingérence électorale.

A côté des drapeaux brésilien et américain, des horloges affichant l’heure dans les deux pays sont accrochées au mur. Le temps presse lorsqu’il s’agit de répandre la désinformation, et Facebook pense qu’il n’y a pas de substitut à l’interaction face à face.

M. Chakrabarti a déclaré que les travailleurs présents dans la salle de guerre gardent une trace des données telles que le volume de contenu politique étranger et les rapports des utilisateurs sur la suppression des électeurs. Ils surveillent également d’autres sites de médias sociaux, dont Twitter et Reddit, tout en restant en contact avec les employés des autres bureaux Facebook et leurs partenaires.

Si l’équipe détecte quelque chose qui sort de l’ordinaire, elle sera placée sur un “tableau de situation” et les scientifiques des données étudieront le problème avant de le transmettre aux spécialistes des opérations pour déterminer comment appliquer les règles de Facebook, y compris celles contre les discours haineux, les fausses nouvelles et le spam.

Selon les experts, il est trop tôt pour dire si les efforts de Facebook pour mettre fin à l’ingérence électorale ont été efficaces.

Il n’est pas clair non plus si le centre de crise de Facebook demeurera une installation permanente. Puisqu’il est si nouveau, les cadres ont dit qu’ils sont encore en train d’évaluer dans quelle mesure il fonctionne bien.

Mais même si l’espace physique se dissout, les dirigeants de Facebook ont noté que leur travail pour protéger la démocratie ne sera jamais terminé.

“Ce sera vraiment une course aux armements permanente “, a déclaré Katie Harbath, directrice de l’équipe de Facebook chargée de la politique mondiale et de la sensibilisation des gouvernements. “C’est notre nouvelle norme parce que les mauvais acteurs vont essayer d’être plus sophistiqués dans ce qu’ils font.”

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*