Désinformation : qui est responsable ?

Désinformation : qui est responsable ?

Dans le cadre de la commission d’enquête lancée en mars dernier par le Sénat sur l’utilisation de TikTok et son exploitation des données, plusieurs intervenants se sont interrogés sur les risques liés à la véracité des informations que les internautes lisent sur les réseaux sociaux et sur l’utilisation de l’intelligence artificielle par ces derniers.

Rédactrice en chef et vice-présidente en charge des partenariats Europe et Canada de NewsGuard, Chine Labbé a rappelé que TikTok est « aujourd’hui bien plus qu’un lieu de divertissement », mais « un endroit où les utilisateurs vont chercher des informations (…) où circulent de nombreuses infox, y compris sur des sujets politiques, sociaux et géopolitiques. » Cette désinformation atteindrait des niveaux alarmants chez les adolescents. Selon l’étude réalisée par NewsGuard sur les sujets liés au Covid-19 (en 2021) et à la guerre en Ukraine (en 2022), « un utilisateur de TikTok tomberait sur des contenus faux en scrollant en moins de 40 minutes ». Si l’on prend la recherche, « près de 20 % des vidéos apparues dans les résultats contiennent de fausses informations ». Selon Chine Labbé, qu’il s’agisse de scroll ou de recherche, « ce sont les algorithmes qui déterminent ».

102 millions de vidéos retirées

Pour sa part, TikTok explique que « la modération de la plateforme repose sur l’examen de vidéos par l’intelligence artificielle, qui est efficace pour repérer des contenus haineux, violents ou racistes mais beaucoup moins pour la mésinformation ou la désinformation ». Le réseau social prend pour exemple que sur 102 millions de vidéos retirées au premier trimestre 2022, « seulement 1 % concernaient l’intégrité et l’authenticité » dans lesquelles est comprise la mésinformation. « L’algorithme a tendance à valoriser l’engagement dont les contenus faux font davantage réagir ». Si Chine Labbé est évidemment consciente que « l’objectif zéro contenu faux est impossible », il est néanmoins essentiel de demander davantage de transparence, notamment avec une labellisation des sources et des contenus qui circulent, dont ils ignorent l’origine. Christian Gerin, président de la Fédération française des agences de presse, qui ne s’est pas exprimé dans le cadre de la commission d’enquête mais dans le cadre d’une newsletter adressée aux agences adhérentes de la FFAP, parmi lesquelles figure TOUTécrit, mentionne à juste titre que l’intelligence artificielle bouleverse les métiers et requiert une vigilance particulière de notre part, puisque les agences de presse sont le premier maillon dans la chaîne de l’information. « Associée au développement des réseaux sociaux, l’IA peut constituer un risque pour l’information du public, indique-t-il. Nous avons une responsabilité. Nous devons réagir vite, en concertation avec nos clients et sensibiliser les pouvoirs publics, afin de proposer des garde-fous. Plus que jamais, notre agrément d’agence de presse doit faire office de label ».

« Opacité stratégique »

Les chiffres communiqués par Romain Badouard, maître de conférences en sciences de l’information et de la communication à l’Université Panthéon-Assas, lors des auditions par le Sénat, sont d’ailleurs parlants. Insistant sur l’importance du « shadow banning »1 sur les réseaux sociaux, il mentionne que TikTok emploierait entre 10 000 et 20 000 modérateurs (15 000 en ce qui concerne Facebook), mais cela serait insuffisant au regard du volume astronomique de contenus. C’est pourquoi TikTok a parié sur l’IA et les algorithmes pour supprimer ceux qui sont illégaux. D’après les rapports publiés par TikTok, 85 à 95 % d’entre eux le sont automatiquement par l’IA, avec une marge de 5 % d’erreur.
Concernant le « shadow banning », l’universitaire regrette qu’aucun rapport ne donne d’informations concrètes, dans la mesure où, selon lui, ce mécanisme représente un nouveau régime d’exercice de la censure « comme on n’en a pas connu avant ». Si le DSA2 impose une transparence de la recommandation, rien n’existe sur la notion de transparence de « l’invisibilisation ». Dans ce contexte, le chercheur relève chez les plateformes une « opacité stratégique » visant à ne donner accès qu’aux seules données auxquelles elles veulent laisser l’accès au public. S’il estime qu’il n’est nul besoin de créer une nouvelle instance de régulation, l’ARCOM assumant déjà cette fonction, il s’interroge sur l’intervention de la justice quant à la question de la modération.

Sources : cet article a été rédigé à parmi des informations publiées par Fédération française des agences de presse dans sa newsletter de juin 2023.   

1 Pratique consistant à rendre des contenus invisibles aux autres usagers.
2 Le DSA (Digital Service Act) du 19 octobre 2022 est, avec le Règlement sur les marchés numériques (DMA), l’un des grands chantiers numériques de l’Union européenne. Le DSA et le DMA prévoient de limiter la domination économique des grandes plateformes et la diffusion en ligne de contenus et produits illicites. Le premier est entré en application le 2 mai 2023 et le second le 25 août dernier.

En savoir plus : Commission d’enquête du Sénat