Voici comment Elon Musk peut arrêter les raids racistes sur Twitter
Dans cette illustration photo, l’image d’Elon Musk est affichée sur un écran d’ordinateur et le logo twitter sur un téléphone portable à Ankara, en Turquie, le 06 octobre 2022.
Muhammed Selim Korkutata | Agence Anadolu | Getty Images
Lorsque le PDG de Tesla et SpaceX, Elon Musk, a pris le contrôle de Twitter, il s’est présenté au siège le 19 octobre. Le 27 février 2022, des trolls et bigots en ligne ont attaqué le réseau social, le polluant d’un déluge d’épithètes racistes et autres propos haineux.
Mais une nouvelle étude du Network Contagion Research Institute (NCRI) à but non lucratif et de Rutgers a révélé que l’équipe de sécurité de Twitter a mieux réagi à ce “raid” que la société ne l’a fait lors d’un événement similaire en avril 2022.
Selon le PDG du CNRI, Adam Sohn, un raid se produit lorsque de mauvais acteurs en ligne s’engagent dans une activité coordonnée pour tenter de perturber les plateformes de médias sociaux, souvent pour nuire à des personnes marginalisées ou à des cibles spécifiques.
GamerGate est peut-être l’attaque la plus infâme et s’est produite en 2014 lorsque les trolls 4Chan qui faisaient partie de la communauté du jeu vidéo ont transmis des attaques misogynes contre les femmes de l’industrie. Ils ont spécifiquement ciblé une femme et critique qui a dénoncé les tropes sexistes dans les jeux. Leur campagne a été menée sur de nombreuses plateformes sociales, dont Twitter et Reddit, et comportait des menaces de viol et de mort dans le monde réel, ainsi qu’une alerte à la bombe visant le critique.
L’utilisation de tactiques de raid communautaire en ligne motivées par le complot est également bien connue.
Certaines personnes se livrent à de soi-disant “fausses” activités sur les réseaux sociaux juste pour voir si elles peuvent s’en tirer. (“pour le lulz”).
L’analyste du CNRI, Alex Goldenberg, a déclaré que si l’action de Twitter en réponse au discours de haine de la semaine dernière était efficace, la société aurait également pu le prévoir et l’empêcher.
Quelques heures avant le déluge de discours de haine, il a déclaré : « Nous avons déterminé que cette campagne de trolls en ligne particulière est motivée par une activité coordonnée et inauthentique provenant spécifiquement de 4Chan. Là, nous avons vu l’augmentation des mentions n-slur ainsi que des mentions Twitter. .”
Le NCRI utilise des logiciels et des systèmes d’apprentissage automatique sophistiqués pour surveiller de grandes quantités de contenu sur les réseaux sociaux et pour suivre la montée de la haine et des menaces contre les groupes marginalisés en ligne, notamment les Noirs, les Juifs, les Hindous et les Musulmans.
Il met à disposition des outils de recherche et publie des rapports, des recommandations de sécurité et des avertissements, parfois directement diffusés sur les réseaux sociaux, sur les endroits où les menaces augmentent et sont susceptibles de se propager dans le monde physique. Selon Sohn, l’espoir du CNRI est d’utiliser ces informations pour éviter un préjudice réel de ces efforts en ligne.
Le CNRI avait précédemment prédit une augmentation de la violence contre les Américains d’origine asiatique à mesure que la pandémie de Covid se déroulait et identifiait une menace imminente d’un groupe antigouvernemental (les Boogaloo Boys) contre les forces de l’ordre. Ils ont également mis en garde contre la montée des communautés encourageant l’automutilation, principalement la coupure, sur Twitter.
Qu’est-ce que le CNRI a trouvé cette fois ?
Le CNRI a constaté que dans les 12 heures qui ont suivi l’arrivée de Musk au siège de Twitter, l’utilisation de l’épithète anti-noir (le mot n) sur le réseau social a augmenté de près de 500 % par rapport à la moyenne précédente. CNRI publié cette étude rapide le lendemain matin, alors que l’accord de Musk était officiellement conclu.
Pour la nouvelle étude, le CNRI a revu les données historiques. La société a découvert que lorsque Musk a révélé pour la première fois qu’il avait accepté d’acheter Twitter pour 54,20 $ par action, en avril 2022, une attaque similaire a eu lieu.
En comparant les deux événements, le CNRI a constaté que Twitter avait fait un meilleur travail pour arrêter l’attaque cette fois.
“Alors que près de la moitié des comptes qui ont récemment diffusé n-slur ont été suspendus, moins de 10 % des comptes ont été suspendus lors du raid précédent, ce qui suggère qu’il s’agit d’un problème historique avant l’achat avec un historique d’application incohérente.”
Malgré la forte réponse de Twitter au discours de haine, certains dégâts ont déjà été causés.
Certains annonceurs ont suspendu leurs dépenses sur Twitter pour le moment jusqu’à ce qu’ils obtiennent une meilleure indication de la manière dont Musk tiendra sa promesse de le garder “chaleureux et accueillant” et d’empêcher qu’il ne devienne un “paysage d’enfer gratuit”.
Parmi ceux qui ont quitté Twitter jusqu’à présent figurent Shonda Rhimes, créatrice de “Grey’s Anatomy”, “Bridgerton” et d’autres émissions de télévision à succès, la chanteuse et compositrice lauréate d’un Grammy Sarah Bareilles, et l’acteur et producteur de “This Is Us” Ken. Oline.
D’autres attendent de voir où Musk et ses équipes emmènent le produit, mais ont menacé de s’en aller en fonction des résultats.
L’icône du basket-ball LeBron James a exprimé son inquiétude face à la montée des tweets racistes, et Musk lui a répondu sur Twitter avec un lien vers un fil de l’actuel responsable de la sécurité du réseau social, Yoel Roth. Le dirigeant de longue date de Twitter a déclaré que leurs équipes avaient pris des mesures pour éradiquer les comptes responsables de la majeure partie des attaques.
L’examen du CNRI confirme que les mesures prises par Roth et l’équipe de sécurité ont été efficaces.
À l’avenir, le NCRI aimerait voir davantage d’utilisation de la “détection automatisée des anomalies”, technologie couramment utilisée dans la cybersécurité pour surveiller les performances du réseau, ou pour détecter quand quelqu’un pourrait essayer de pirater les systèmes d’une entreprise, a déclaré Goldenberg, du NRCI. meilleur analyste du renseignement. .
La détection d’anomalies appliquée aux médias sociaux permettra à Twitter de prendre des mesures préventives dès qu’un raid planifié est détecté.
Goldenberg et Sohn ont comparé cette technologie à un détecteur de fumée ou à un détecteur de monoxyde de carbone pour les problèmes sociaux qui se font en ligne.
Alors que Musk se présente comme un absolutiste de la liberté d’expression, son bilan en matière de défense des droits des autres est mitigé. Plus récemment, il a reconnu la nécessité d’équilibrer les idéaux de la liberté d’expression avec la confiance et la sécurité sur Twitter.
Une chose qu’il ne promet pas de faire publiquement est de s’occuper de ses propres tweets.
Musk a l’habitude de publier des théories du complot sans fondement, des commentaires et des blagues qui sont largement interprétés comme sexistes, anti-LGBTQ, racistes ou antisémites. De manière mémorable, il a publié des mèmes d’Hitler sur son compte Twitter largement suivi.
Juste après avoir repris Twitter, Musk a partagé une théorie du complot anti-LGBTQ sans fondement sur une invasion de domicile et une attaque contre Paul Pelosi, mari de la présidente de la Chambre Nancy Pelosi. Musk a ensuite supprimé le tweet sans explication.
Il compte actuellement 113,7 millions d’abonnés répertoriés sur la plateforme, un nombre qui augmente rapidement.