Catégories: Sport
|
1 mai 2024 18 h 13 min

« Paris 2024: IA contre le cyberharcèlement athlétique »

Partager

Alors que la date des Jeux olympiques et paralympiques de Paris (26 juillet – 8 septembre) approche, la protection des athlètes contre le cyberharcèlement est une priorité pour les autorités françaises et le Comité international olympique (CIO). Les athlètes sont de plus en plus visés par des insultes, des moqueries et même des menaces de mort en ligne. Ces attaques se répandent à travers les réseaux sociaux comme X, Instagram, Facebook et TikTok, ainsi que dans les commentaires d’articles de presse et de vidéos YouTube.

Kirsty Burrows, qui dirige l’unité du CIO dédiée à la sécurité dans le sport, déclare que la menace est tellement répandue et normalisée qu’il est difficile de quantifier son ampleur. Elle souligne que si un athlète est la cible d’une attaque en ligne à la veille d’une compétition, il peut se sentir menacé même dans un environnement physique sécurisé. Par conséquent, il est nécessaire de soutenir les athlètes en neutralisant ces menaces.

Pour ce faire, le CIO a l’intention d’utiliser une intelligence artificielle (IA) qui sera en mesure de supprimer les messages malveillants des comptes des athlètes sur les réseaux sociaux en temps réel, dans plus de trente-cinq langues et dialectes. L’outil sera également disponible pour les entraîneurs et les officiels, soit plus de 2 000 personnes en plus des 15 000 athlètes olympiques et paralympiques. Tous ceux qui le souhaitent pourront utiliser ce dispositif, qui sera recommandé à tous par défaut, précise Mme Burrows.

Pour la première fois, un certain système sera mis en place tout au long des Jeux pour atténuer le contenu nuisible avant même qu’il ne soit lu. « Notre prévisions est de recevoir un demi-milliard de messages sur les plateformes sociales, a affirmé Kirsty Burrows. Si vous consacrez une seconde à chaque message [dans une configuration strictement humaine], cela prendra seize ans pour tous les traiter. Si nous ne prêtons pas attention à la cyber-sécurité, nous sommes en faute. » Dans la situation où un participant sportif pourrait lire les commentaires désobligeants avant qu’ils soient supprimés, trois professionnels de la psychologie seront disponibles au village des compétiteurs.

En même temps, le ministère des sports suit cette situation, et affirme aux athlètes français et internationaux qui le désirent qu’ils peuvent contacter Bodyguard, une société française spécialisée dans la protection des comptes de réseaux sociaux. Déjà utilisé par la Fédération française de tennis et la Ligue de football professionnel, Bodyguard utilise l’IA pour masquer les messages considérés comme toxiques – ces messages ne seront visibles que pour leur créateur – mais aussi pour les émojis ou autres symboles (comme une banane pour insulter un sportif noir, par exemple). Pour déjouer les algorithmes qui identifient les messages haineux, les internautes « réinventent leur manière de s’exprimer », précise le fondateur et président de Bodyguard, Charles Cohen. « Ils ont saisi comment les filtres marchent et essaient de les feinter », ajoute-t-il.

Il vous manque encore 39,43% de cet article à lire. Le reste est pour les abonnés.