Face à l’épidémie de fake news, Vera, l’IA de l’ONG LaReponse.tech, riposte en trois secondes avec des sources fiables. Dans Soluble(s), Florian Gauthier, co-fondateur, dévoile comment cette technologie rétablit les faits pour répondre à une urgence démocratique.
Écouter plus tard- Visuel généré par IA (Canva) et Photo de Fabien Gauthier (DR)
- Visuel généré par IA (Canva)
Transcription (automatisée)
>> Lire l’article source : Vera : L’IA française qui combat les fake news en 3 secondes chrono
Présentation de Vera
[Tonalité téléphonique]
– Bonjour. Je m’appelle Vera. Quelle information souhaites-tu vérifier aujourd’hui ?
– [Simon Icard au téléphone] Bonjour Vera. Écoute, il y a pas mal de gens qui s’intéressent à une photo d’Emmanuel Macron avec d’autres dirigeants étrangers. Ils parlent de consommation de drogue. Est-ce que tu en as entendu parler ? Est-ce qu’il faut croire ça ?
– Bonjour, merci de me faire part de vos préoccupations. Je vais vérifier les faits concernant cette information. Pouvez-vous patienter un instant pendant que je cherche des réponses fiables ?
– Les rumeurs concernant une photo d’Emmanuel Macron avec d’autres dirigeants étrangers suggérant la consommation de drogue sont infondées. Selon plusieurs sources, dont Le Monde, ces accusations reposent sur des photos floues mal interprétées, et l’objet en question n’était qu’un mouchoir, et non de la drogue. L’Élysée a même qualifié ces allégations de calomnie. De plus, une campagne de désinformation a été identifiée autour de ces rumeurs, comme le signale Euroverify. Si vous avez d’autres questions ou préoccupations, n’hésitez pas à les partager.
– Je suis là pour vous aider à obtenir des informations fiables.
– Merci.
– Avec plaisir, si vous avez besoin d’autres informations ou si vous avez des questions à l’avenir, n’hésitez pas à revenir. Passez une excellente journée.
– [Simon Icard] Bienvenue dans un nouvel épisode de Soluble(s). Aujourd’hui, je m’intéresse à une solution qui transforme une simple question en un outil puissant de lutte contre la désinformation. Vous venez de l’entendre et cette intelligence artificielle est programmée par des Français.
Bonjour, Florian Gauthier.
– [Florian Gauthier] Bonjour, enchanté !
– Tu es le cofondateur de La Réponse Tech, l’ONG française qui a développé Ask Vera, un service gratuit de fact-checking.
On va parler ensemble de cette solution innovante qui permet à chacun de vérifier des informations en temps réel.
On va plonger dans les coulisses de cette IA qui repose sur des sources fiables.
Et en toile de fond, les risques que la désinformation en ligne font peser sur notre démocratie, d’autant plus que la part de gens qui se sentent confrontés à des fake news augmente chaque année.
Et cela n’arrange pas le sentiment de défiance envers les institutions, il faut dire, envers la presse et les journalistes également.
Mais d’abord, Florian, on a envie d’en savoir un peu plus sur toi, sur ton parcours.
Alors, tu n’es pas journaliste, tu as une formation dans le big data, tu es un entrepreneur dans la tech à impact.
Est-ce qu’on peut dire que tu as voulu ne pas te trouver du côté obscur de la tech ?
– C’est marrant ! Non, j’ai pas choisi ma voie pour être à l’opposé du côté obscur, mais plus parce que ce qui me plaisait, et je pense que depuis, donc c’est vrai, j’ai une formation d’ingénieur en data, même si ça me correspond plus du tout parce que je l’ai fait trois ans et après je suis plus allé vers le développement de produits d’intérêt général.
Mais voilà, c’est plus l’envie toujours de comment agir sur une cause qui m’importe.
Et ça, ça me suit depuis le tout début de ma carrière.
– L’envie d’agir et la tech, donc, qui est au cœur de ton parcours.
Ask Vera : Un service de fact-checking accessible à tous
On en vient à Ask Vera.
Le nom Vera fait référence à la vérité.
Elle est accessible depuis WhatsApp, par appel téléphonique aussi et puis en message privé sur sa page Instagram.
Je suis curieux de comprendre comment vous parvenez à rendre la vérification des faits accessible à tous.
Alors, on peut lui écrire ou lui parler.
Florian, dis-nous, pourquoi était-il nécessaire, selon toi, de proposer ce service qui repose donc sur l’intelligence artificielle ?
Tout simplement, d’abord, d’où vient l’idée de ce projet ?
– Oui, d’où vient l’idée ?
L’idée, elle est née après les législatives des dernières en France où on a été hyper choqués.
Donc, un, c’est le collectif La Réponse Tech.
On était hyper choqués de la facilité avec laquelle on pouvait diffuser de la désinformation, ou même de la mésinformation, à grande échelle, par exemple la veille d’un silence électoral, et que d’un coup l’opinion publique change,
Et ça peut avoir un impact énorme sur l’opinion publique, sur les choix en matière de santé, en matière d’écologie.
Donc voilà, elle est née à ce moment-là et puis on a réalisé à quel point finalement c’était difficile de vérifier l’information, surtout quand on est face à des tsunamis d’informations en permanence sur tous les réseaux.
Donc comment faire pour avoir un moyen simple, rapide, efficace et fiable de vérifier l’information.
C’est un peu la question qu’on s’est posée.
On s’est dit que l’IA pouvait y répondre.
L’impact de la désinformation
– La rumeur, la mésinformation, les fausses nouvelles se multiplient en effet dans notre espace numérique.
Alors c’est pas nouveau mais c’est, c’est exponentiel en quelque sorte.
Et puis ça infuse dans certaines conversations, bien réelles et pas que sur les réseaux sociaux. Évidemment, l’accès aux intelligences artificielles n’a pas échappé aux producteurs de fausses nouvelles dont certains sont passés à une échelle qu’on pourrait qualifier d’industrielle, car tu le disais, ça devient facile de produire des contenus, donc aussi des contenus qui sont faux et qui ont l’allure du vrai.
Ils se propagent à la vitesse grand V.
Alors où tu observes justement cette propagation ?
Alors, on parle beaucoup des réseaux sociaux, mais est-ce que c’est plus large ?
– Ben c’est très large en fait les réseaux sociaux, c’est ce qui matérialise finalement l’accès à l’information et c’est là qu’en fait, on va, on va avoir des fausses images, des fausses vidéos, des faux comptes,
qui parlent d’une reconversion, d’une idée à une autre, qui en fait, si tu leur demandes une recette de pancake et ils la rédigent tout de suite.
Donc la désinformation prend énormément, de d’images, de formes, et l’IA en effet facilite énormément sa propagation, et notamment sur les réseaux sociaux, puis après ça se traduit à une discussion dans un café avec ses amis.
– Est-ce que tu peux, pour les plus jeunes d’entre nous, expliquer en quelques mots pourquoi c’est important d’avoir accès à une information véritable ?
Parce que là, on parle de pancakes, mais ça va jusqu’aux siècles d’élection, comme tu le disais ?
– En fait, ça fait deux années consécutives que le forum économique mondial classe la désinformation comme étant la plus grande menace contre l’humanité.
Donc c’est marrant, on peut dire, bah non, c’est le changement climatique, etc.
Mais en fait, Aujourd’hui, en tant que société, c’est impossible d’agir sur des grandes causes si on n’est pas capable de décider ensemble, en tout cas d’être d’accord sur ce qui est vrai.
En fait, la désinformation, c’est un peu la racine de tous les mots.
C’est que si on ne croit pas au changement climatique, eh bien, on ne va pas agir au changement climatique.
Et c’est exactement voilà, c’est pour ça que c’est important, finalement.
– Oui, aussi simplement que cela, il faut pouvoir s’accorder autour des faits, autour de ce qui est et de ce qui n’est pas.
Et on observe que les journalistes, les historiens et les scientifiques ne suffisent plus, hein, parce qu’il y a un volume d’informations très très important.
Le fonctionnement de Vera et ses sources fiables
– Alors, comment fonctionne Vera ?
Comment votre système parvient-il à distinguer les informations fiables de celles qui sont des fausses nouvelles ?
– Oui, donc, alors, Vera, en effet, il y a un grand axe de fiabilité.
Donc, l’idée, c’est de donner accès, justement, à des sources qui, aujourd’hui, ne sont pas accessibles, donc il y a énormément de producteurs de données qui sont de très grande qualité, donc par exemple en France, on a l’AFP, ils ont des équipes entières qui sont là pour vérifier l’information.
Mais qui va aller sur le site de l’AFP pour regarder les derniers débunks ?
Bah pas grand monde.
Et c’est pareil un peu sur tous les médias, on s’adresse un peu à cette cible, mais on rate une grande partie du public.
Le but, c’est de donner accès à ces sources fiables.
Donc ce qu’on a commencé à faire, c’est constituer une liste de sources qui respectent les plus grandes normes européennes et internationales en matière de fact-checking.
Donc, on a une centaine de sources, donc de grands médias finalement.
Et puis d’à côté, on a des grandes sources de référence, donc des médias de référence.
En tout, on en a 400.
Pareil, qui respectent des normes d’impartialité, de neutralité et de sérieux dans la production de leur contenu.
Et donc, lorsqu’on lui pose une question, Vera va aller chercher parmi ses sources en temps réel, donc des sources qui peuvent venir, enfin, qui viennent de sortir aussi,
Prendre ses sources et donner une réponse en trois secondes, toujours en citant les sources qu’elle avait constituées.
– Alors Vera, c’est une super assistante qui a donc accès à des sources que vous sélectionnez, que vous avez sélectionnées en amont.
Alors, ça fonctionne comme ChatGPT, Gemini, Grok, Mistral ou Claude, mais à ce détail près, c’est ce détail qui fait toute la différence…
Comment vous en êtes arrivé à cette conclusion ?
– En fait, la grande différence avec les IA généralistes, c’est par exemple que Vera, lorsqu’elle ne trouve pas d’informations fiables parmi son ensemble de sources, elle dit je ne sais pas ou je n’ai pas trouvé d’informations.
Contrairement à toutes les autres IA généralistes qui vont Essayer de répondre à la question coûte que coûte et finir par dire n’importe quoi.
Donc on restreint Vera à cette liste de sources, elle a l’interdiction d’en sortir.
Et ça, vérifier de l’information, il n’est pas plus important finalement.
Elle est évidemment constituée par un comité d’experts, elle évolue avec le temps, elle est disponible en ligne, en toute transparence, pour que les gens, on ne cache rien.
Et voilà, on s’associe à des experts pour améliorer cette liste au fur et à mesure.
– Des experts, une liste de sources fiables jusqu’à 400.
L’AFP, tu disais, c’est donc l’Agence France Presse.
Donc c’est principalement des journaux, des médias d’information.
– Donc on a deux types de sources, des sources donc de fact-checking, type AFP, les décodeurs, les surligneurs, …, mais dans plus de quatre-vingt-un pays, donc c’est énorme, et après, on a des grands médias de référence, Le Monde, Libération, Mediapart, Le Figaro, …
Donc en France, mais aussi partout, au Canada, en Suisse, aux États-Unis.
Et donc toutes ces sources, finalement, contiennent à la fois les données les plus récentes et à la fois des données de très haute qualité de vérification des faits.
Et Vera, du coup, choisit les bonnes sources et vous les présente et toujours en présente différente.
Si on lui demande d’autres sources, elle va piocher dans d’autres sources.
Pourquoi une ONG sur le terrain du fact-checking ?
– Je le dis sans faire de corporatisme, mais le public est habitué à se tourner vers des journalistes professionnels et des médias pour s’informer, y compris à propos des fausses nouvelles qui sont devenues virales.
De nombreuses rédactions de journalistes proposent aussi du fact-checking et vous vous appuyez.
Justement, dessus.
Pourquoi une ONG comme la tienne est-elle allée sur ce terrain si précis ?
– Oui, alors, pourquoi on est allé sur ce terrain ?
C’est qu’on se dit que la transformation, encore une fois, c’est, c’est un problème tellement énorme et systémique que peut-être qu’on peut apporter un petit bout de solution.
Donc on s’appelle la Réponse.Tech parce qu’on n’apporte pas de solution, mais des réponses à un problème énorme et peut-être que ça va un peu aider.
Et puis, donc ça, c’est parce qu’on y croit et on pense que c’est important, mais aussi parce qu’en tant qu’ONG, justement, on est peut-être bien positionnés pour présenter un outil qui permet de vérifier l’information plutôt qu’une entreprise privée qui monétise.
Notre service est entièrement gratuit.
Le restera toujours.
Donc voilà, je pense que c’est important finalement d’être hors gouvernement, d’être hors business privé, d’être juste des citoyens et des citoyens qui cherchent à apporter une réponse positive à la lutte contre cette information.
Financement et impact du service
– L’accès au service est gratuit, mais comment est-il financé ?
– Alors c’est une bonne question.
Donc on a gagné un petit concours qui nous a amené 5000 euros parce que c’était un hackathon organisé par deux assos pour combattre la désinformation en période électorale.
Donc on a gagné le premier prix.
Puis ensuite, à titre personnel, on a mis un peu d’argent : 7000 euros pour être entièrement transparent, pour assurer les coûts.
On sera, j’espère bientôt financés par des fondations. Pas énormément, mais suffisamment pour maintenir les coûts et peut-être un jour avoir une équipe.
Aujourd’hui, quand on est toutes et tous bénévoles, on n’a pas de coûts humains, on se limite énormément les dépenses. Pas de publicité, pas de monétisation des données.
– Parlons des premiers impacts du service Ask Vera depuis son lancement. Sa mise en service date du mois de janvier 2025, on commence à en parler de plus en plus, là au moment de l’épisode, on est au mois de mai, alors quelle est votre échelle d’action, est-ce que tu as des…
des informations sur le nombre d’utilisateurs, des profils, est-ce que ça s’adresse aux jeunes, par exemple, ou pas forcément ?
– Pas totalement.
Donc aujourd’hui, alors, nous, comme on ne collecte aucune donnée personnelle, on n’est pas capables de savoir l’âge des gens, ce qu’ils font dans la vie. Même leur numéro de téléphone, on le supprime de notre base de données, il est entièrement crypté.
Mais ce qui nous permet juste d’analyser les questions posées.
En revanche, on analyse les questions posées, on vérifie la qualité des réponses de Vera avec des experts qui le regardent.
Ce qui fait que Vera est fiable aussi, c’est qu’on a aussi une dimension humaine de vérification.
Et ça nous permet aussi de voir que Vera est utilisée par énormément de types de cibles, dont des très très jeunes, collèges, lycées, on voit dans la formulation des questions et parce que des profs nous disent qu’ils l’utilisent en cours, mais aussi des personnes beaucoup plus seniors qui vont utiliser par exemple Vera au téléphone,
qui ont moins l’habitude de faire des recherches Google très précises et qui voient, en Vera, une espèce de facilité d’accès à des sources fiables en quelques instants, en trois secondes du coup.
– Donc, tous types de profils et tous types de questions, on peut lui poser n’importe quelle question ?
– N’importe quelle question.
On voit que, donc, on est plus sur la vérification des faits, on a un doute sur l’information qu’on a entendue,
Un doute sur un traitement diététique, de santé, on voit plein de questions autour de la santé aussi, et voilà, on se dit qu’aujourd’hui, en fait, on a besoin d’avoir une fiabilité dans les réponses sur énormément de thématiques et on le voit dans les questions de Vera.
Impact environnemental et l’avenir de la désinformation
– Tu parlais d’une mise de départ de 7000 euros, alors on est loin des milliards d’euros d’OpenAI. Ask Vera s’appuie justement sur GPT-4O, qui est un grand modèle de langage mis sur le marché donc par OpenAI, la maison mère de ChatGPT. On sait que l’intelligence artificielle a un impact environnemental important dans la consommation de métaux pour la fabriquer, des dépenses d’énergie assez considérables, même s’il est difficile de donner des chiffres fiables à ce stade, c’est un sujet qui vous questionne, comment l’abordez-vous ?
– Bien sûr.
Alors surtout que dans notre équipe, on a énormément de gens qui sont engagés dans le climat.
Dont moi, à titre personnel.
Depuis très longtemps, je travaille sur des initiatives pour lutter contre le changement climatique et je ne suis vraiment pas le seul dans l’équipe.
L’idée, toujours, c’est de se dire, est-ce que l’énergie dépensée en vaut la peine ?
Encore une fois, la désinformation, elle est tellement violente et a un impact tellement fort aussi sur le climat que lutter contre, bah ça vaut le coup de dépenser un peu d’énergie.
Ensuite, on prend ça très au sérieux.
Donc là, j’ai un déjeuner avec un expert pour justement mesurer très précisément l’impact carbone de Vera ensuite qu’on publiera.
Mais aujourd’hui, finalement, vu qu’on ne visite pas les sites internet et que l’IA donne des petits morceaux de texte pour répondre aux questions, on ne consomme pas trop en fait.
Une IA, ça consomme énormément lorsqu’elle écrit un pavé de texte.
Finalement, c’est la génération de texte qui consomme énormément, mais par contre, quand c’est des petits morceaux de texte, c’est complètement OK.
Qu’on ne visite pas et qu’on génère des petits morceaux de texte, finalement, par rapport à une recherche Google, c’est plutôt comparable, voire moins, puisque nous, on visite une cinquantaine de sites par question.
– Et en effet, les réponses sont courtes, et puis j’observais par mes petits tests, et notamment celui du début, qu’il n’y a pas une volonté, enfin, on ne sent pas une volonté de relancer à tout prix.
Ça, ça s’adapte à la conversation et ça propose des liens lorsque c’est sur WhatsApp ou sur Instagram.
– Exactement.
Et je pense que ça, c’est un point clé aussi, c’est que la conversation est extrêmement puissante dans la vérification de faille pour permettre aux gens d’évoluer sur une idée qu’ils peuvent avoir, notamment une étude du MIT qui a réussi à faire baisser de 20% les croyances en théorie du complot grâce à une IA conversationnelle.
Donc si on dit que le MIT a réussi, et c’est auprès de 2000 personnes, sur des théories du complot, on devrait pouvoir y arriver sur des questions d’actualité.
– Un dernier mot plus global dans ce contexte où la désinformation devient de plus en plus sophistiquée avec l’émergence des deepfakes, ces vidéos et images créées artificiellement et qui sont quasi parfaites, elles permettant donc de faire dire ou faire faire presque tout ce que l’on veut à des personnalités publiques…. Est-ce que c’est un sujet sur lequel vous avez travaillé ?
Est-ce qu’on peut proposer, demander une vérification d’image à Vera ?
– Ce qu’il faut comprendre, c’est que Vera, on fait pas de fact checking, donc on va jamais analyser l’image et dire, tiens, regardez, il y a six doigts sur la main, donc c’est un deepfake.
Nous, ce qu’on fait, c’est qu’on crée une interface entre les producteurs de contenus, donc type média qui crée des vérifications de fait, et le grand public, on les redirige.
En revanche, ce qu’on pourrait faire, c’est regarder une vidéo, extraire le texte, comprendre l’information qui est propagée dans la vidéo de manière automatique et vérifier l’information.
Mais pas l’analyse algorithmique d’images.
Ça, pas du tout.
– Très clair.
Alors, penses-tu que des outils comme Vera peuvent suffire ou faut-il également repenser complètement notre rapport à l’information, là, dans ce contexte que je viens d’évoquer et même à la vérité ?
– Oui.
Je pense que, alors Vera ne peut pas suffire, en effet, c’est un problème qui est systémique, qui doit être attaqué par des gouvernements, par des plateformes, qui doivent faire de la modération, même si on voit que les gouvernements sont ceux qui en propagent.. (ndlr : parfois),
Les plateformes abandonnent le fact checking récemment comme Meta l’a annoncé.
En revanche, ce qu’il faut, c’est aussi une espèce d’éducation, des consciences qui se passerait notamment dans l’école.
Ils disent, bah voilà, par exemple, aujourd’hui, une image et même une vidéo ne suffit plus à être une preuve de la vérité et ça c’est très difficile à accepter parce qu’aujourd’hui, on s’est toujours reposé sur, par ces canaux, ces types de contenus pour, pour s’assurer que c’était vrai, bah aujourd’hui, il faut accepter que ce n’est plus le cas…

Capture d’écran (Site web AskVera)
– Une conversation bien réelle qu’on vient d’avoir ensemble avec Florian Gauthier, cofondateur de La Réponse Tech.
Merci pour ces éclairages sur Vera, sur Ask Vera.
Retrouvez toutes les informations dans la barre de description, mais c’est facile, on va sur askvera.org, on vous retrouve sur Instagram également, et puis par téléphone, j’ai composé tout à l’heure le 09 74 99 12 95 c’est ce numéro qu’il faut ajouter aussi sur WhatsApp.
– Et ça, l’idée, c’est, alors, plus simple, c’est d’aller sur askvera.org et d’ajouter Vera à ses contacts.
Vous pouvez lui parler directement sur WhatsApp.
Et voilà, c’est un contact téléphonique.
On peut l’appeler, lui parler hyper facilement.
Et bientôt, on est disponible sur Instagram et on compte aller sur d’autres plateformes.
– Voilà, j’ai donné la version du numéro française, c’est un numéro en France pour ceux qui nous écoutent ailleurs dans, dans la francophonie, mais c’est forcément possible de la joindre, et là, c’est plus facile, sur WhatsApp, Florian, merci d’être passé dans Soluble(s) !
– Merci beaucoup, merci beaucoup.
– Voilà, c’est la fin de cet épisode.
Si vous l’avez aimé, notez-le, partagez-le et parlez-en autour de vous.
Vous pouvez aussi nous retrouver sur notre site internet csoluble.media.
À bientôt !
POUR ALLER PLUS LOIN
- Voir le site officiel de Vera : www.askvera.org
- Appeler Vera au +33 9 74 99 12 95 ou l’ajouter à ses contact à WhatsApp (09 74 99 12 95)
- Suivre sur Instagram : @askvera_org
TIMECODES
00:00 Appel à Vera
01:10 Présentation de l’épisode
02:34 Le parcours de Florian Gauthier
03:38 L’origine du projet Vera et son accessibilité
04:42 La prolifération de la désinformation et son impact
06:57 Comment Vera fonctionne : les sources fiables
08:10 La différence de Vera avec les IA généralistes
10:10 Pourquoi une ONG derrière Vera ?
10:58 Le financement de Vera
11:50 L’impact de Vera et ses utilisateurs
13:27 L’impact environnemental de l’IA
15:32 Les deepfakes
17:30 Comment contacter Vera
18:36 Fin
Propos recueillis par Simon Icard
Ecouter aussi
NewsTruck, vidéos, ateliers : Lumières sur l’info engage les jeunes contre la désinformation
StudiAva : Le « Tinder de l’orientation » post-bac qui utilise l’IA pour aider les lycéens
Comment naviguer dans le chaos de l’info ? Avec Benoît Raphaël
Vous préférez garder le contact avec Soluble(s) grâce à Google Actualités ?
C’est possible >> SUIVRE <<