Politique

La désinformation de la Commission européenne échoue – POLITICO

L. Gordon Crovitz, ancien éditeur du Wall Street Journal, est co-PDG de NewsGuard.

L’Europe a raté une belle occasion.

Annonçant le mois dernier un nouveau code anti-désinformation, la vice-présidente de la Commission européenne, Věra Jourová, a attiré l’attention sur le fait que “la Russie arme la désinformation dans le cadre de son agression militaire contre l’Ukraine”. Elle a également souligné comment le Kremlin l’utilisait plus largement comme un outil contre les démocraties.

Jourová a raison sur l’urgence du défi auquel nous sommes confrontés en matière de désinformation, en particulier de la part de la Russie. Cependant, plutôt que d’aborder la question de manière exhaustive, le nouveau code européen prend du recul par rapport au combat en cours, capitulant une fois de plus directement devant les plates-formes de la Silicon Valley.

Le Code de pratique renforcé sur la désinformation, qui a été annoncé en juin, continue d’inoculer les plateformes des dommages connus qu’elles causent, car chacun a maintenant été autorisé à choisir les sections du code auxquelles il sera lié. Le résultat est que les grandes plates-formes – à l’exception de Microsoft – ont toutes refusé de suivre les étapes clés de «l’autonomisation des utilisateurs» qui limiteraient fortement la propagation de la désinformation.

En tant que NewsGuard, le personnel de la Commission nous a demandé de devenir signataire de ce code révisé, censé renforcer la version originale de 2018, qui n’avait pas réussi à faire la différence dans la lutte contre la désinformation. Et tout au long de ce processus, mes collègues ont eu une vue d’ensemble de jusqu’où Facebook, Google/YouTube, Twitter, TikTok et d’autres iront pour échapper à la responsabilité de la désinformation qu’ils distribuent et promeuvent via leurs algorithmes.

NewsGuard est une organisation qui évalue les sources d’actualités et d’informations sur la façon dont elles adhèrent aux critères apolitiques de base de la pratique journalistique. Nous avons accepté de devenir signataire, en espérant que les plateformes mettront des outils comme le nôtre à la disposition de leurs utilisateurs, afin qu’ils sachent exactement qui leur fournit des informations. Cela donnerait enfin aux utilisateurs la possibilité de savoir quelles sources sont généralement fiables et lesquelles ne le sont pas.

L’objectif de la Commission pour le code révisé stipulait que “les utilisateurs devraient avoir accès à des outils pour comprendre et signaler la désinformation et naviguer en toute sécurité dans l’environnement en ligne”. Il a encouragé les plates-formes à donner accès à des “indicateurs de fiabilité, axés sur l’intégrité de la source”, soulignant comment cela “peut aider les utilisateurs à faire des choix éclairés”.

Cependant, ce n’est pas ce qui a été réalisé. Comme nous avons dû accepter de garder confidentielles les négociations sur le code révisé, je ne peux pas détailler l’obstruction systématique qui a eu lieu au cours de ces huit mois, alors que les représentants de la plate-forme ont édulcoré les engagements d’autonomisation des utilisateurs paragraphe par paragraphe, mot par mot. Et à la fin, à part Microsoft, ils ont quand même refusé de signer.

La disposition clé à l’origine de ce refus invitait les plateformes à « permettre aux utilisateurs de leurs services d’accéder à des indicateurs de confiance (comme des marques de confiance axées sur l’intégrité de la source et la méthodologie derrière ces indicateurs) développés par des tiers indépendants. ”

Et conformément à cette disposition, les services qui fournissent de tels indicateurs, y compris NewsGuard, ont promis que « les sources d’information [would be] examinées de manière transparente, apolitique, impartiale et indépendante, en appliquant des critères entièrement divulgués de la même manière à toutes les sources et en permettant des audits indépendants par des autorités de régulation indépendantes ou d’autres organismes compétents.

Ils ont également convenu de “fournir des mécanismes de conformité et de correction et de respecter le droit des éditeurs d’être entendus, notamment de s’engager dans le processus d’évaluation avant l’application des indicateurs et de mettre leurs réponses à la disposition des consommateurs après la publication des évaluations”.

Commissaire européen aux valeurs et à la transparence Věra Jourová à Bruxelles | Thierry Monasse/Getty Images

Cette disposition d’autonomisation des utilisateurs est essentielle, car elle va au-delà des étapes échouées que les plates-formes proposent déjà. Par exemple, alors que les plateformes prétendent utiliser des vérificateurs de faits, cela ne réduit pas la désinformation car, par définition, la vérification des faits n’a lieu qu’après que le mensonge se soit répandu sur Internet.

En revanche, la recherche montre que les gens consomment et partagent moins de désinformation lorsqu’ils ont une idée de la fiabilité de leurs sources. Une étude publiée par des analystes de l’Université de New York et de l’Université de Princeton en mai a révélé que parmi les 10 à 20 % d’utilisateurs dont les régimes d’actualités incluaient un pourcentage significatif de sites non fiables, l’accès aux classements de NewsGuard a conduit à une “amélioration significative de la qualité des informations”. ”

Le chercheur de Princeton, Andrew Guess, a déclaré à Nieman Lab : “Il est vraiment rare de trouver des effets durables sur le comportement des gens comme nous l’avons fait ici”, ajoutant que “Pour une intervention très subtile de ce type, je pense que c’est assez remarquable”. Fournir des outils de littératie à l’information contribue à saper les éditeurs de désinformation, en réduisant l’impact des canulars sur le COVID-19, les aliments génétiquement modifiés, les vaccins contre la rougeole, l’élection présidentielle américaine de 2020 – et même la désinformation russe.

Jourová avait de bonnes raisons de citer l’exemple de la propagande russe parmi les désinformations les plus nuisibles diffusées par les plateformes numériques. Il y a des années, le Kremlin avait déjà identifié la Silicon Valley comme son meilleur partenaire pour répandre des mensonges, son point de vente Russia Today (RT) fonctionnant si bien sur YouTube qu’il était la principale source d’informations sur la plate-forme dans de nombreux pays, y compris les États-Unis. Et quand elle est devenue la première chaîne d’information à atteindre 1 milliard de vues sur YouTube, un cadre supérieur de Google est même apparu sur RT, décrivant ses reportages comme “authentiques” et sans “agenda ni propagande”.

L’industrie de la désinformation du Kremlin avait répandu la fausse affirmation selon laquelle le gouvernement ukrainien était dirigé par des nazis bien avant son invasion du pays. Et NewsGuard a maintenant suivi des dizaines de fausses déclarations concernant la guerre, y compris que l’Ukraine est en train de massacrer son propre peuple.

Ainsi, lorsque la Russie a envahi l’Ukraine, la Commission européenne a fait un grand spectacle en exigeant des plateformes qu’elles abandonnent RT et Sputnik News en Europe. Cependant, les données montrent que ces deux sites ne sont qu’une petite partie des opérations d’information actives du président russe Vladimir Poutine.

Nos analystes ont jusqu’à présent identifié 236 sites Web diffusant de la désinformation sur la guerre, y compris des sites comme Pravda – qui est dirigé par un partisan de Poutine – et de nombreux autres prétendant être des groupes de réflexion indépendants, tout en omettant de divulguer la source de leur financement. Beaucoup d’entre eux opèrent également dans plusieurs langues, ciblant l’Europe et l’Amérique du Nord.

Les plateformes savent quel pourcentage de leurs utilisateurs obtiennent la plupart de leurs informations de sources non fiables. Et le partage de ces informations indiquerait clairement aux utilisateurs et au public à quel point les informations que les gens voient dans leurs flux proviennent de propagandistes et d’éditeurs de désinformation. Bien sûr, cela embarrasserait également les plateformes, c’est peut-être pour cela qu’elles refusent de fournir ces données aux utilisateurs ou aux chercheurs.

Facebook, YouTube et les autres plateformes ont conçu leurs produits pour maximiser l’engagement et augmenter les revenus publicitaires, quelle que soit la fiabilité des informations qu’ils diffusent. En vertu des lois de base sur la responsabilité, toute autre industrie serait tenue de concevoir des produits pour la sécurité en prenant des mesures raisonnables pour prévenir les dommages connus.

Ainsi, alors que les plateformes se vantent désormais d’avoir signé le code révisé de l’UE, elles le font sans mentionner les dispositions essentielles qu’elles ont ignorées. Peut-être qu’ils supposent que la pression est maintenant retombée. Mais à moins que des exigences plus strictes ne soient adoptées, ils continueront simplement à fonctionner comme d’habitude – omettant d’avertir leurs utilisateurs des sources de mensonges et continuant à être des complices utiles de Poutine et de ses propagandistes.

[Microsoft Edge uses NewsGuard technology to identify disinformation and is a sponsor of their news literacy program for schools and libraries. The company has signed on to the EU’s Strengthened Code of Practice on Disinformation.]




Source link

Articles similaires