Bienvenue sur les pages du Ministère fédéral des Affaires étrangères

À Kaiserslautern, les intelligences humaine et artificielle alliées contre les «  fake news  »

Les scientifiques de l’Institut Max Planck pour les systèmes logiciels de Kaiserslautern ont développé des algorithmes performants pour identifier les fake news

Les scientifiques de l’Institut Max Planck pour les systèmes logiciels de Kaiserslautern ont développé des algorithmes performants pour identifier les fake news, © dpa-Zentralbild

01.03.2019 - Article

Comment lutter contre la propagation de fausses informations sur les réseaux sociaux ? À Kaiserslautern, des chercheurs de l’Institut Max Planck ont développé des algorithmes prometteurs.

Une publicité qui invite les partisans d’Hillary Clinton à voter à l’élection présidentielle par SMS, un article affirmant que le Pape François soutient Donald Trump : les fausses informations («  fake news  ») qui circulent de manière virale sur les réseaux sociaux suscitent de plus en plus d’inquiétudes et de débats. Elles contaminent des millions de personnes en un rien de temps. Mais comment lutter contre ce phénomène aussi récent que dangereux pour la démocratie ? À Kaiserslautern (ouest de l’Allemagne), une équipe de chercheurs développe des outils innovants pour traquer efficacement les «  fake news  ».

Il s’agit d’algorithmes conçus pour identifier rapidement si une information est vraie ou fausse afin de freiner sa diffusion le cas échéant. Mais l’Institut Max Planck pour les systèmes logiciels (MPI-SWS) utilise pour cela une stratégie originale. Une «  approche hybride  », comme l’explique Manuel Gomez Rodriguez, le directeur de l’équipe de recherche. « Nous combinons des procédés utilisant l’intelligence artificielle avec l’analyse de signaux reflétant le jugement humain ».

Comment cela fonctionne-t-il ? Prenons l’exemple de «  Curb  », l’un des principaux algorithmes développé à Kaiserslautern. Comme son nom l’indique («  to curb  » veut dire «  limiter  », «  juguler  » en français), il vise à réduire au maximum le nombre de personnes atteintes par une nouvelle fausse information. Il utilise pour cela le travail (humain) de vérificateurs de faits. Mais leur capacité étant par définition limitée au regard du flux d’informations, l’algorithme va hiérarchiser au préalable les informations les plus susceptibles d’être inexactes ou fausses.

Hiérarchisation, vérification

« Nous avons une approche hybride », explique Manuel Gomez Rodriguez, directeur de l’équipe de recherche, « nous combinons des procédés utilisant l’intelligence artificielle avec l’analyse de signaux reflétant le jugement humain »
«  Nous avons une approche hybride  », explique Manuel Gomez Rodriguez, directeur de l’équipe de recherche, «  nous combinons des procédés utilisant l’intelligence artificielle avec l’analyse de signaux reflétant le jugement humain  »© chromorange

Et il va pouvoir le faire en temps réel, grâce à l’intelligence artificielle. Le logiciel va, en effet, se baser sur un principe : plus une information est partagée sans protestation, moins elle a de chances d’être fausse. Mais comme les dégâts potentiels d’une fausse information sont aussi liés à sa vitesse de diffusion, il va aussi évaluer cette dernière. Puis il va croiser les deux informations (la probabilité de falsification et la vitesse de diffusion) pour sélectionner en temps réel les informations à soumettre en priorité aux vérificateurs.

«  Avec ce procédé dynamique  », explique Manuel Gomez Rodriguez, notre algorithme parvient à un équilibre optimal entre d’une part, la volonté de réduire au maximum le nombre de personnes confrontées à une fausse information non déclarée, et de l’autre l’efficacité du recours à la vérification des faits par des êtres humains « .

Le procédé a déjà été testé en grandeur réelle sur les réseaux Twitter et Weibo. Il s’est révélé aussi performant qu’Oracle pour stopper les fausses informations, et plus performant que les logiciels fonctionnant sur des méthodes plus grossières. Ses inventeurs ignorent encore s’il donnera lieu à des applications commerciales ou s’il entrera seulement dans l’élaboration de procédés plus complexes. Mais des algorithmes comparables font déjà leurs preuves dans des domaines connexes, par exemple pour optimiser des logiciels d’apprentissage des langues ou de marketing viral.

Apprentissage machine

Surtout, les chercheurs de Kaiserslautern n’en sont pas restés là. Ils ont également créé  » Detective « , un algorithme encore plus précis que Curb. Toujours grâce à l’intelligence artificielle, et en utilisant l’apprentissage machine, il est capable de jauger la fiabilité des internautes lorsqu’ils évaluent la véracité d’une information.

Présenté à Lyon au printemps 2018, » Detective « a lui aussi passé les tests empiriques. » Il pourrait devenir, en combinaison avec Curb, une application pratique pour les administrateurs de réseaux sociaux qui veulent […] planifier efficacement le recours aux vérificateurs de faits « ,  se félicite Manuel Gomez Rodriguez. Il pourrait aussi permettre à ces derniers d’informer tous leurs utilisateurs sur la fiabilité des membres de leur groupe (par exemple en indiquant que 10 % des personnes jugées dignes de confiance ont dénoncé une information comme » fausse « ).

Les chercheurs de Kaiserslautern en sont convaincus : le mariage entre l’intelligence artificielle et l’intelligence humaine est une approche prometteuse pour traquer les » fake news « qui empoisonnent la démocratie. Et au-delà, pour d’autres recherches. L’équipe de Manuel Gomez Rodriguez a ainsi pu, avec des algorithmes similaires, mesurer la polarisation des discussions menées sur les réseaux sociaux. Elle s’est rendu compte avec étonnement que 75 % d’entre elles n’étaient pas polarisées.

A.L.

Plus d’informations :

Magazine »Max-Planck-Forschung« , Cahier 3/2018 (en allemand)

Site web de l'Institut Max Planck pour les systèmes logiciels (en anglais)

Retour en haut de page