FAQ

L’IA peut-elle aider à lutter contre les fausses nouvelles ?

L’intelligence artificielle (IA) et les fausses nouvelles semblent inévitablement liées. D’un côté, les critiques des technologies les plus récentes affirment que l’IA et les processus d’automatisation ont joué un rôle déterminant dans le déclenchement d’une apocalypse d’histoires manifestement fausses sur le public impuissant. D’un autre côté, certains des meilleurs esprits scientifiques de la planète, dans leur quête incessante de vérité, développent déjà de nouvelles solutions basées sur l’IA, capables de détecter les histoires trompeuses.

Seront-ils à la hauteur du défi ?

Des années après les luttes épuisantes contre les fausses nouvelles alimentées par la politique tant au niveau national qu’international, une nouvelle vague de manipulation massive des vérités et des faits réels a été observée lors des pandémies de 2020 et 2021. Bon nombre des plus grands acteurs du monde en ligne, tels que Facebook et Google, sont en première ligne dans la lutte contre les campagnes de désinformation. Ils ont déjà annoncé il y a quelque temps qu'ils allaient mettre en œuvre un puissant logiciel d'apprentissage automatique pour éliminer les contenus trompeurs sur leurs plateformes.

L’une des raisons fondamentales pour lesquelles les fausses nouvelles se sont rapidement transformées en épidémie est qu’elles sont présentées d’une manière plus attrayante ou plus engageante pour les lecteurs/téléspectateurs. Certaines IA reposent sur cette hypothèse, et leurs algorithmes d’apprentissage automatique sont déjà entraînés depuis des années à lutter contre le spam et les e-mails de phishing.

Cette méthode a été testée en 2017 par un collectif d’experts connu sous le nom de Fake News Challenge, qui se sont portés volontaires dans la croisade contre les fausses nouvelles. Leur IA fonctionnait grâce à la détection de position, une estimation de la perspective relative (ou position) du corps du texte d'un article par rapport au titre. Grâce à ses capacités d’analyse de texte, l’IA peut évaluer la probabilité que le message ait été écrit par un véritable humain plutôt que par un robot spammeur en comparant le contenu réel avec le titre. Mais c'était seulement le début.

Le 18 mai 2021, Google a expliqué comment l’application du traitement du langage naturel et des modèles de recherche pourrait ouvrir la voie à des algorithmes intelligents capables de réellement comprendre ce que disent les gens. Leurs technologies d'IA les plus récentes incluent LaMDA (modèle de langage pour les applications de dialogue) et MUM (Multitask Unified Model), un modèle d'IA capable de comprendre des questions humaines complexes en croisant du texte avec des images. Ces mêmes technologies avancées utilisées pour comprendre et analyser les signaux linguistiques pourraient également être utilisées pour faire la distinction entre la vérité et la fiction et détecter les modèles linguistiques humains les plus complexes utilisés pour écrire des mensonges et des canulars.

Une autre méthode comprend une comparaison rapide et automatisée de toutes les informations similaires publiées sur plusieurs médias, afin de vérifier dans quelle mesure les faits présentés sont différents. La crédibilité elle-même du média pourrait être évaluée en analysant des paramètres tels que la fiabilité des sources utilisées, les politiques de rédaction et de correction et les normes éthiques.

Idéalement, si un site Web spécifique diffuse de fausses nouvelles, il pourrait être signalé comme source peu fiable par des groupes chargés de vérifier l'intégrité des sites d'information tels que The Trust Project, et exclu des fils d'actualité. Google Actualités va probablement utiliser cette méthode, puisqu'il a été annoncé qu'il tirerait du contenu de certaines « sources d'information fiables » encore à définir. De cette façon, les gens seront éloignés des contenus extrêmes – comme ce qui s’est passé sur YouTube avec les habitants de la Terre plate – et dirigés vers des « sources faisant autorité » correctement définies.

JournalismAI est un autre projet mondial mené par la London School of Economics qui vise à améliorer le dialogue entre les journalistes et les agences de presse afin d'exploiter tout le potentiel de l'IA. L’IA dans le journalisme pourrait être utilisée pour atténuer les inégalités subies par les communautés journalistiques des zones défavorisées et améliorer la qualité globale de l’information dans les communautés les moins desservies.

Enfin, d’autres algorithmes plus simples pourraient être utilisés pour analyser un texte et rechercher des erreurs flagrantes de grammaire, de ponctuation et d’orthographe, repérer des images fausses ou fabriquées et recouper les composants sémantiques déconstruits d’un article avec des sources fiables.