Les médias doivent apprendre à vivre avec deux nouveaux intervenants sur les espaces ouverts de leurs sites ou sur les réseaux sociaux: les trolls et les robots ou bots. Quelques règles relevant de l’éthique peuvent servir.
Le troll est un pollueur de discussion en ligne. Par jeu ou dans un but politique il aime paralyser ou détourner une conversation. Le bot est un programme qui envoie automatiquement des dizaines de messages quasi identiques sur les réseaux sociaux pour tenter de noyer un débat sous un point de vue unique. Faire face à ces intrus, c’est d’abord rappeler que la responsabilité des médias ne se limite pas aux productions des journalistes ou des signataires de tribunes libres. Ce qui s’écrit sous le label du média l’engage. Les commentaires sous ses publications ne sont pas des lieux d’expression libre où tout est permis. Laisser passer des commentaires ou des propos qui appellent à la haine ou à la violence contre des individus ou des groupes peut tomber, dans certains pays, sous le coup de la loi. A charge pour le juge, pour éviter que de telles dispositions légales ne soient parfois utilisées pour faire taire des critiques ou des opposants, de dire si le délit d’appel à la haine ou la violence est constitué. Avant même que la justice soit saisie, il est de la responsabilité éditoriale des rédactions de ne pas tolérer de tels propos. L’article 9 de la Charte d’éthique mondiale des journalistes adoptée en juin 2019 par la Fédération Internationale des Journalistes propose un cadre à cette vigilance responsable : « Le/la journaliste veillera à ce que la diffusion d’une information ou d’une opinion ne contribue pas à nourrir la haine ou les préjugés et fera son possible pour éviter de faciliter la propagation de discriminations fondées notamment sur l’origine géographique, raciale, sociale ou ethnique, le genre, les mœurs sexuelles, la langue, le handicap, la religion et les opinions politiques ». Il est nécessaire que les utilisateurs soient informés des règles qui encadrent leur liberté de commentateur. Pour s’en assurer, certains médias limitent l’accès aux commentaires aux utilisateurs qui ont acceptés le code de conduite disponible en ligne. Si un commentaire ne respecte pas ce code, il doit être supprimé, et cette décision doit être expliquée très clairement.
Robots et trolls Les bots ou robots peuvent inonder les sites de commentaires inappropriés ou noyer la discussion sous une avalanche de messages. Ils peuvent aussi reproduire en grand nombre une infox sur Twitter ou Facebook au risque de piéger les journalistes qui considèrent désormais les réseaux sociaux comme une source d’information. Des réseaux sociaux investissent pour lutter contre les robots. Des logiciels sont capables par exemple de détecter des comptes qui ne font que republier des twitts d’autres comptes, sans jamais rien publier d’original. D’autres peuvent analyser les similitudes techniques, lexicales et grammaticales, ou géographiques entre des dizaines de comptes, pour identifier une série de robots et les éliminer. Rares sont les médias qui mettent en œuvre eux-mêmes ces techniques. Mais leur responsabilité est de confier d’abord leur production aux réseaux sociaux qui le font. Les trolls, on l’a dit, arrivent souvent par leur ton et leur mauvaise foi à rendre tout échange impossible sur un sujet. La chercheuse Donara Barojan les définit ainsi : « Un troll est une personne qui initie intentionnellement un conflit en ligne ou qui offense d’autres utilisateurs pour distraire et semer les divisions en publiant des articles incendiaires ou hors sujet dans une communauté en ligne ou un réseau social »*. La tentation est grande de les faire taire en les éliminant, mais comme ils ont souvent bien plus de sept vies… Alors les rédactions devraient réfléchir aux conclusions d’autres recherches**. Elles ont montré que la lutte contre les trolls ou les discours incendiaires passaient aussi par un contre discours. Que lorsqu’un journaliste répondait aux commentaires, ceux ci sont moins agressifs, ce qui contribue à limiter leur propagation ou leur répétition. A charge pour les rédactions qui en ont le temps et les moyens de mettre en place ces dialogues. Et pour le journaliste qui s’y engage de n’y développer que des arguments factuels et éviter à son tour de livrer des opinions ou des commentaires.
Transparence des inscriptions Lors d’un récent colloque organisé par l’Alliance of Independent Press Councils of Europe (AIPCE) il a été expliqué que la parade à ces attaques est de demander aux utilisateurs de s'inscrire avec leur nom complet s’ils veulent pouvoir accéder à l’espace des commentaires ou publier sur les pages d’un média. En principe, cela empêche les trolls et les bots de poster des messages. En principe seulement : certains robots sont programmés pour utiliser des identités volées ou parfaitement imitées. Des participants ont aussi fait remarquer que l'enregistrement de l'utilisateur avec son nom complet est un problème dans les pays autoritaires. Une solution est que l’éditeur connaisse le nom de l’utilisateur, et que celui-ci ait la possibilité d’apparaître anonymement. Mais il semble difficile pour un média de vérifier si tous les noms proposés correspondent à des profils réels ou faux. Il n’y a donc pas – pas encore ? - de solution technique absolue, ont constaté les conseils de presse européens réunit par l’AIPCE. Ils ont conclut que « le seul moyen qui reste à l'éditeur lorsqu’il est confronté à une action organisée agressive et discriminatoire est de fermer les commentaires ».
Pierre Ganz
*https://www.meta-media.fr/2018/12/24/comprendre-les-bots-les-botnets-et-... . ** https://www.lemonde.fr/blog/internetactu/2014/04/18/faut-il-combattre-le...