En France, 39 % de la population utilise désormais l’intelligence artificielle générative au quotidien (ARCEP/BVA 2025). Mais à quel prix pour nos liens sociaux, notre identité et notre planète ? Face à cette rupture technologique, Soluble(s) a ouvert son micro à Maxime Derian, anthropologue du numérique et entrepreneur IA basé au Luxembourg, pour décrypter les mutations en cours et esquisser des pistes de maîtrise collective.
Écouter plus tard
- Image principale générée avec IA (Veo 3).
Transcription (automatisée)
>> Lire l’article complet : IA : Rester humain face à la machine, Mission impossible ?
L’Humain à l’Ère de l’Intelligence Artificielle
– Simon Icard : Bienvenue dans un nouvel épisode de Soluble(s). Heureux de vous savoir à l’écoute. Aujourd’hui, je me pose une question qui traverse toute la société : comment rester pleinement humain ? À l’heure où l’intelligence artificielle s’invite dans nos conversations, anticipe nos besoins et parfois écoute mieux qu’un ami.
Bonjour Maxime Derian.
– Maxime Derian : Bonjour Simon, bonjour.
Maxime Derian : L’Anthropologue face au Numérique
– Tu es un anthropologue qui a décidé de se pencher sur le numérique. Tu es basé au Luxembourg où tu es par ailleurs un entrepreneur dans le domaine de l’intelligence artificielle. Tes deux sociétés s’appellent Heruka-AI Consulting et RAG.lu.
Alors, tu explores quotidiennement les transformations sociales et culturelles provoquées par l’essor des technologies digitales. Et c’est tout à fait ce qui nous intéresse. Pour cet épisode, on va donc parler ensemble de ce que l’IA, l’intelligence artificielle, change déjà dans notre rapport aux autres, au monde.
Tu vas nous parler de la notion de “Technoréalisme” que tu défends, et on va voir s’il y a des signaux d’alerte pour évaluer une relation homme-machine avant qu’elle ne dérape éventuellement ou pire, échappe à son utilisateur. L’occasion de t’interroger sur les solutions que tu proposes à l’heure où, pour ne parler que de ChatGPT, 2,5 milliards de requêtes lui sont adressées chaque jour. Au moment où je vous parle.
Mais d’abord, on veut en savoir plus sur toi, sur ton parcours.
Je le disais, tu es anthropologue, c’est-à-dire que tu te consacres à étudier les hommes, les femmes, les humains. L’anthropologie, c’est la science qui étudie l’évolution et la vie des sociétés humaines. Mais comment tu t’es retrouvé à te spécialiser dans le domaine de la technologie, du numérique ?
L’Évolution des Technologies et l’Anthropologie
– En fait, dès l’enfance, j’avais un intérêt un peu à la Elon Musk, je veux dire pour le coup, d’aimer les machines, les robots, etc. Et j’avais mon beau-frère qui faisait de la robotique industrielle et qui m’a sensibilisé à la fois à la robotique et à l’informatique.
Donc dans les années 80, c’était un petit peu… J’étais encore enfant et c’était vraiment quelque chose d’émergent, de périphérique à la télévision.
Il y avait des choses de science-fiction, mais les gens avaient du mal à voir vraiment une irruption de la robotique et de l’informatique dans la société.
Mais en fait, depuis, elle a eu lieu cette incursion. Et moi, dès l’enfance, je me suis dit voilà, les robots, les IA, les ordinateurs, c’est quelque chose qui ne va pas être juste anecdotique, ça va être quelque chose qui pourrait changer la société.
Et puis en fait, quand j’étais à l’université, j’ai fait une université de droit public et et voilà les sciences politiques. Et en même temps, j’ai fait de la socio-psycho et à chaque fois mon sujet d’intérêt de tout ce que je faisais, c’était l’informatique, c’est-à-dire le droit de l’informatique, alors que c’était émergent dans les années 90, il fallait encore aller chercher la jurisprudence dans la bibliothèque pour la photocopier ! On n’était pas encore dans la numérisation.
D’ailleurs, je donnais des cours de bureautique à l’université pour expliquer comment utiliser une souris et comment faire des copier-coller et comment utiliser Excel. Et en fait, je me rappelle très bien cette époque où j’ai parlé du web aux gens et ça les intéressait pas du tout. “Non, c’est pas pour moi. Et les e-mails ? Mais c’est super, ça ne marchera pas ça, c’est trop compliqué”.
Et donc du coup, j’ai toujours été un peu en avance de phase sur ces technologies-là, mais j’ai toujours continué mon parcours.
Donc l’anthropologie, c’est parce qu’en fait, c’est ce que je trouve qui m’a déjà un, ça me passionne, ça me passionne parce que c’est savoir un peu nos origines, de savoir aussi nos rapports avec notre environnement, notre environnement biologique, avec les animaux.
Mais en anthropologie classique, par exemple Claude Lévi-Strauss ou Philippe Descola, en France par exemple, il y en a plein d’autres aux États-Unis, en Angleterre, etc. L’anthropologie avait déjà beaucoup travaillé sur la question de l’outil, des outils, des armes, des vêtements, des chaussures, de toutes ces choses-là. Mais par contre, je me suis dit si un jour, je veux vraiment avancer dans quelque chose de nouveau en anthropologie, ce serait un outil nouveau.
Et l’outil nouveau en question, c’est l’informatique, puisque justement, je suis quelqu’un qui regarde ça en même temps que je le vis et que je l’observe.
Après, Philippe Descola, dont je suivais les cours au Collège de France, m’a fortement conseillé de faire un “décalage culturel”.
Ce décalage culturel, je l’avais déjà commencé avec le Japon. C’est-à-dire qu’en fait, en anthropologie, ce qui est bon pour observer sa propre culture, européenne, française, luxembourgeoise, belge, en fait, c’est d’avoir un décalage culturel, par exemple d’aller en Chine, d’aller au Mexique, d’aller chez les Aborigènes d’Australie.
Et donc moi, j’ai choisi le Japon. Et au Japon, en fait, j’ai été dans un labo en fait, qui faisait de la cybernétique, qui faisait de l’informatique aussi au Tokyo Institute of Technology. Et en gros, l’idée, c’était d’observer aussi l’informatique et la robotique japonaise de pointe. Ensuite, ce que je peux juste dire, c’est que ce qu’on voit dans les laboratoires en France, au Japon ou ailleurs, ce sont souvent des choses qui sont en avance de phase.
Et puis un jour qui peuvent sortir dans le grand public, je pense par exemple aux QR codes. Le QR Code a été inventé en 95 par un chercheur japonais dont j’ai oublié le nom. De 95 à 2010, le QR code a été là. Par exemple, au labo où j’étais au Japon, il y en avait un.
On l’utilisait pour certains systèmes de réalité augmentée, mais c’était vraiment quelque chose d’accessoire. Et en fait, on l’a vu, à partir du moment où en 2010, l’US Army a commencé à l’utiliser pour sa logistique, il y a eu un engouement pour le QR code, pour les concerts, etc.
Puis, au moment du coronavirus, le QR code devenait un sésame, devenait un passeport, devenait quelque chose d’extrêmement important. Alors que moi, quand j’ai vu les QR Codes pour la première fois au Japon, c’était des codes-barres améliorés et je ne voyais pas immédiatement que ça allait devenir un raz-de-marée un jour à cause d’une pandémie. Donc, c’est-à-dire que quand on est au courant des technologies qui existent déjà et qui sont émergentes, quand on comprend déjà leurs limites et leurs possibilités, on peut anticiper ce que ça peut donner.
Par exemple, en 2008, le machine learning que je voyais au Japon. C’est là où j’ai été un peu sensibilisé à cette question de l’IA. Et bien ça marchait un peu, mais c’était très lent. Et d’ailleurs, le serveur était intéressant parce que le serveur était dans la pièce à côté de moi, donc je l’entendais souffrir quand il travaillait et qu’il faisait les calculs de réseaux neuronaux. Et donc j’anticipais l’idée que ça marche, mais que pour l’instant, c’est très lent. Mais dix ans après, ça avait complètement changé parce que des astuces avaient été trouvées. Et donc dix ans après, ce qui était très lent devenait très rapide.
C’est l’exemple que je donne souvent. C’est comme si, par exemple, en 2008, on a une Audi, par exemple, une belle voiture, mais elle avance à 23 km/h. Alors c’est déjà pas mal. Elle avance, mais c’est un peu lent. Et puis quand on la, l’Audi, on arrive à la faire rouler à 80, 100, 130. Là, ça devient exploitable. Et puis après, quand l’Audi se met à aller à 250 ou à 300, là ça nous dépasse dans un sens, c’est ce qui se passe avec l’IA. Donc voilà, c’est en gros, moi l’anthropologie, ça fait depuis, en fait très longtemps que c’est ma passion, mais je sais, c’est très, comment dire.. global.
C’est en fait l’homme en général, mais l’homme en général, face à quelque chose qui m’intéresse, c’est face à un outil particulier, face à un objet particulier, une forme de vie morte qui se meut par elle-même.
Nos machines qui ont de plus en plus une capacité, en fait, de choix, de nous imposer des choses à faire qui nous, interfèrent avec notre vie cognitive. Donc, je parle de “prothèses cognitives”. Donc tout ça, c’est quelque chose de nouveau dans l’humanité.
Donc c’est intéressant d’y réfléchir et donc de voir les choses posément. Et donc le technoréalisme vient de là.
C’est l’idée de ne pas s’enflammer et de regarder les choses posément, scientifiquement, avec une forme de débat.
L’Adoption Rapide de l’Intelligence Artificielle Générative
– De l’outil à l’usage de ces outils. On va plonger dans ce sujet.
Alors, tu parlais de l’informatique, de sa démocratisation, de sa diffusion. Concentrons-nous sur l’intelligence artificielle. Il faut dire que depuis à peu près 2022, l’intelligence artificielle générative, les fameux chatbots qu’on connaît tous. On en connaît des noms. ChatGPT, Copilot, Gemini, Claude, Grok, le Français Mistral AI ou encore Llama.
Ce sont déjà des outils connus et familiers des utilisateurs français ou francophones.
Comment tu expliques l’adoption si rapide de ces outils justement ?
C’est allé très vite pour le grand public.
ChatGPT et l’Exaucement d’un « Rêve »
– On a tous rêvé d’avoir des petits lutins qui travaillent à notre place la nuit, pendant qu’on dort. On a tous rêvé quand on avait un exercice de maths à rendre à l’école. Si quelqu’un pouvait m’aider, si quelqu’un pouvait me le faire à ma place. Et donc ce, ce fantasme, ce rêve a été exaucé par par Sam Altman, Elon Musk et toute la compagnie. Et en fait, il a été mis à disposition gratuitement du grand public. Et ça, ça joue aussi beaucoup. Quitte à s’endetter pour devenir un acteur prédominant. Je parle d’OpenAI parce qu’à un moment donné, je ne sais plus où ils en étaient, à 7 milliards de dettes par mois comme ça.
– Les chiffres sont phénoménaux !
– Mais mais mais mais mais il y a un retour sur investissement dans leur dans leur endettement. Parce qu’en fait, ils se mettent en position de leadership. En plus, avec Elon Musk qui a, comment dire, qui a scié la branche sur laquelle il était assis au niveau de l’administration Trump. Voilà, il a commencé à perdre un petit peu de sa superbe auprès du président américain.
Donc du coup, c’est Sam Altman qui récupère un petit peu les, les lauriers. Enfin bon bref, il y a toute une, toute une stratégie, une politique.
Mais globalement, pourquoi ça a fonctionné si bien ?
C’est parce que c’était un rêve réalisé en fait, en quelque sorte. Pourquoi ? Parce qu’en fait ça existait déjà. Globalement, il y avait déjà DeepL par exemple, qui existait déjà, c’est allemand, ça traduisait donc les langues depuis déjà pas mal d’années.
C’était déjà basé sur du deep learning, DeepL, deep learning. Je pense qu’il y a un lien et en fait bon par contre, ce n’était pas un chatbot qui nous répondait, c’était traduisait, produisait. Et puis LaMDA. LaMDA. C’était la première version de… ça a été arrêté maintenant, mais c’était le premier LLM de Google qui fonctionnait déjà bien, mais Google à l’époque n’avait pas forcément envie de sortir une technologie disruptive puisqu’il était déjà dans une position confortable, de force. Il n’y avait pas.
En 2020, Google était dans une position de leadership incontesté et incontestable. Il y avait peut-être la Chine qui pouvait commencer à essayer d’avancer ses pions, mais globalement Google. Quand Google avait dans ses cartons vers 2021, 2022, 2021, un système qui fonctionnait déjà très bien, ils ne l’ont pas réellement sorti après. Ils ne voulaient pas non plus être accusés peut-être d’être la disruption.
De toute façon, ils ne voulaient pas se tirer une balle dans le pied. Par contre, OpenAI était un outsider qui arrivait de nulle part, donc ils n’avaient rien à perdre.
Le Design et l’Accessibilité : Clés du Succès de l’IA
– Tu mets le doigt sur deux éléments si je comprends bien, c’est l’outil bien sûr, c’est la technologie. Même s’il y a eu des années de travail en amont, sa diffusion gratuite mais aussi son design.
On parle avec cet outil.
C’est quand même une rupture pour les utilisateurs de s’adresser et de questionner.
On connaissait les chatbots de clients, mais on ne percevait pas une qualité de réponse. C’est fiable en fait.
– Le 31 novembre 2022, ChatGPT sort donc GPT c’est Generative Pre-trained Transformer. GPT c’est l’algorithme. Et Sam Altman a fait un petit peu du forcing dans son équipe pour faire un ChatGPT, c’est-à-dire juste une interface accessible à tout le monde, toute simple pour utiliser cet algorithme. Et donc du coup, ChatGPT c’est la version grand public de GPT en quelque sorte.
C’est la version accessible. On n’a pas besoin de programmer, on va juste sur un site et on parle. Et en fait, c’était pour faire un peu la promotion. Et la promotion a extrêmement bien marché dès le premier jour.
Dès le lendemain, sur les forums, sur Reddit. La première fois que j’en ai entendu parler, c’est sur Reddit en disant ça y est, il y a une IA générative gratuite qui fonctionne, qui est lancée. Il existait déjà des petites choses que j’avais explorées avant, parce qu’en fait, le modèle Transformers, donc il date à peu près, il a été inventé vers 2017 par Vaswani et al. Et al. Et collaborateurs de Vaswani. Ashish Vaswani. Et d’ailleurs, c’était financé par Google, il me semble. Donc en gros, c’est en 2017 que la clé a été découverte pour accélérer tout ça, pour que ça fonctionne.
En fait, c’était principalement l’article « Attention is all you need ». C’est-à-dire que c’est un système d’attention. En gros, sans rentrer trop dans les détails, c’est que, avant, c’était lent parce que tout était calculé de la même manière. Chaque mot, chaque, chaque token était calculé de la même manière. C’est-à-dire que tout était calculé et c’était très long. Tout était examiné avec… C’est-à-dire qu’un document ou un mot important n’avait pas plus d’importance pour le système qu’un mot pas important.
Tout était calculé avec le système d’attention.
En fait, l’algorithme s’est mis à lui-même à assigner des poids, des valeurs à des choses dans un texte. Par exemple, si on va dire une voiture passe sur la route, eh bien en fait, tout de suite, il va falloir qu’on parle de route et de voiture et donc on va être dans le champ sémantique de la route et de la voiture et donc ça accélère.
Depuis, DeepSeek a encore amélioré les choses, mais je ne vais pas aller dans les détails, mais en gros, on s’est mis à trouver une clé qui permettait d’accélérer l’interprétation de ce qu’on lui racontait. Et au lieu d’être lent, c’est devenu de plus en plus rapide, donc c’est devenu rapide chez Google, c’est devenu rapide, chez OpenAI, c’est devenu rapide chez les concurrents et OpenAI a été, ont été les premiers à se dire banco, open bar, on l’ouvre à tout le monde.
Et ça, ça a permis à tout le monde de se rendre compte que ça fonctionnait. Et ça a donné un désir d’utilisation. Chez des milliards de gens, des millions de gens ont un désir d’utilisation, une rapidité, des modèles de langage.
IA dans le Privé vs Professionnel : Un Baromètre Étonnant
– Alors, c’est vrai que si on regarde un baromètre de l’Ifop… pour la France, les Français étaient 16 % en mars 2023, 25 % en mars 2024 et l’année 2025, au mois de mars, ils étaient déjà 39 % à s’en servir. Alors, surtout dans une sphère privée, un peu moins professionnelle, étonnamment, ça nous dit quoi, ça ?
Le fait que dans l’usage privé, dans l’utilisation privée avec son smartphone, l’adoption est plus rapide que dans le monde du travail ?
À en croire ce baromètre.
– Je fais un pas de côté, mais je vais répondre.
Ce que je pense là-dessus, c’est qu’on se pose beaucoup la question de qu’est-ce que ça peut amplifier ou améliorer ou changer dans nos pratiques, d’utiliser l’IA.
Mais peut-être la question la plus importante, c’est en quoi ça nous change nous dans notre identité ?
C’est-à-dire que la subtilité, c’est qu’on croit qu’on utilise le système pour faire ceci mieux ou plus rapidement. Mais l’utilisation d’un système au quotidien peut-être nous change plus qu’on ne le croit. Et du coup, ça veut dire qu’on a notre insu. Il y a une forme de, on dit le “nudging”. Je crois que c’est un peu la manipulation, pas forcément volontaire, mais c’est que par, par utilisation fréquente.
En fait, petit à petit, on pousse certaines valeurs, certaines informations, certaines façons de voir, certaines façons de voir les choses. Une petite, peut-être une standardisation qui peut venir. Donc cette question-là, c’est à mon avis la question la plus importante parce que l’utilisation, si tout le monde l’utilise, mais qu’on l’utilise à bon escient, ben moi, je dis banco. Franchement, ça me pose aucun problème.
Mais si tout le monde l’utilise sans se rendre compte que peu à peu ça perturbe quelque chose de plus fondamental chez nous, je sais pas moi, le rapport homme-femme, le rapport familial, le rapport à soi, le rapport à l’autre. Ces grandes choses qui sont très, très vastes, mais qui structurent notre monde social et donc notre identité. Et ça, c’est vraiment la grande question que je me pose avec les IA.
D’où pour moi, l’importance de créer des IA locales, souveraines, ou en tout cas qui s’inscrivent dans une culture donnée en acceptant que la culture chinoise est différente de la culture de la Silicon Valley est différente, différente de la culture française, est différente de la culture luxembourgeoise, est différente de la culture allemande, etc.
Pour qu’en fait, on puisse créer en fait des modèles d’IA qui ne soient pas là nous acculturer. Le mot acculturer, c’est quand on change de force une culture. Donc ça, c’est la grande question parce que effectivement, les gens utilisent dans leur vie privée, parce que peut-être que dans leur vie professionnelle, soit ils n’ont pas le droit de le dire parce qu’ils ont peur, parce qu’ils doivent faire du shadow IA, c’est-à-dire des entreprises qui n’ont pas encore mis en place leur système d’IA parce que c’est coûteux quand on veut être souverain, c’est coûteux quand on veut le mettre en cloud local, c’est-à-dire quand on veut contrôler les données.
Parce que le gros problème, c’est que “quand c’est gratuit, c’est vous le produit”. Et du coup, en fait, quand on envoie des informations chez OpenAI en gratuit, et même en payant, on envoie nos informations sur les serveurs américains.
– Oui, c’est à dire que les entreprises ont par définition un degré de vigilance différent des particuliers. Alors peut-être pour pour le pire, pour les particuliers d’ailleurs, mais…
– Oui, parce que par exemple, dans le monde de l’immobilier, de plus en plus, les agents immobiliers utilisent ChatGPT pour rédiger leurs annonces, pour accélérer le, le traitement de la description par exemple d’un bien de sa vente, etc. C’est très bien, mais si en fait, on doit absolument, j’invente des chiffres…
Mais si par exemple, 30 % des, des agences, des annonces immobilières sont faites par ChatGPT en temps réel, ça veut dire que OpenAI, d’une manière ou d’une autre, a une information sur 30 % en temps réel du marché immobilier français.
Par exemple, une fois que OpenAI sait ça, soit ça reste dans un carton, soit un jour, ça peut être exploité pour créer par exemple une prestation de Immobilier AI et de OpenAI et open immobilier, j’en sais rien. Et du coup en fait, avec autant de connaissances, on se retrouve dans une situation où finalement, eh bien une personne, une institution avec toutes ces informations peut devenir ultraperformant d’un coup. Et alors ça, ça serait pour le secteur de l’immobilier, mais ça marche à peu près pour tous les secteurs.
Donc, du coup, en fait, les professionnels dans tous les domaines sont réticents parce que cette vision panoptique, cette vision globale, cette vision systémique de tout ce qui se passe en temps réel grâce à l’usage de l’IA, ça peut être, créer un concurrent forcené qui peut débarquer du jour au lendemain. Alors que dans le secteur, dans la, dans la vie privée, chacun ça nous regarde.
On examine en âme et conscience si oui ou non on va l’utiliser pour rédiger ce mail ou pour ceci ou pour cela. Donc voilà, je pense que c’est. Je pense que c’est plutôt aussi du déclaratif parce que je pense que dans le monde professionnel, les gens l’utilisent beaucoup plus qu’on ne le croit, enfin beaucoup plus que ce qui est déclaré là.
IA Compagnon : Risques et Impacts Sociaux
– D’accord. Alors, je poursuis un peu la, la description de nos usages IA. Il y a notamment une utilisation qui semble monter en flèche, chez les plus jeunes notamment. Je veux parler de l’IA compagnon, l’IA amie ou même parfois le simili-psychologue.
Ainsi, selon une autre étude, celle de l’institut Ipsos, 12 % des adolescents confient des infos intimes à des chatbots comme ChatGPT, parfois jusqu’à en faire un meilleur ami IA. Alors là, c’est à l’anthropologue que je m’adresse évidemment, aux États-Unis, les chiffres sont dans l’ensemble, plus haut, 72 % des adolescents de 13 à 17 ans ont déjà utilisé un compagnon IA.
Qu’est-ce que ça nous raconte de nos liens sociaux ?
Est-ce que c’est un phénomène de mode, peut-être ou il y a une urgence à justement s’inquiéter sur le pourquoi on utilise ces outils ?
– Phénomène de mode oui, mais ça voudrait dire que ça pourrait se démoder.
Si on ne fait pas quelque chose, ça ne se démodera pas.
Deuxièmement, urgence absolue. Totale.
En fait, en juin 2023, j’ai écrit un article que j’ai mis sur mon blog scientifique et puis sur LinkedIn qui se nomme « L’IA Bard a franchi le test de Turing selon moi, et ça pose un problème » comme ça. Le test de Turing pour rappeler vite fait, c’était quand on ne distingue…
En fait Alan Mathison Turing. C’est lui qui a inventé en gros l’idée du logiciel, ce qui est déjà pas mal du tout. C’est-à-dire qu’on puisse avoir un programme qui s’exécute sur des machines différentes, etc. Bon, Turing, il a aussi inventé l’idée d’intelligence artificielle, il l’a pas appelée comme ça, mais il a parlé des machines qui pensent. Donc c’était quelqu’un d’important.
On peut pas passer trop passer de temps sur, sur Turing, mais une des choses qu’il a faites, entre autres, il parlait du test de Turing, le test de Turing.
Globalement, je ne vais pas expliquer le protocole. C’est quand on n’arrive plus à distinguer si on parle à une machine ou si on parle à un humain.
Donc en 1950 et dans les années 50, c’était très très tiré par les cheveux comme questionnement, parce qu’on avait déjà eu des précédents dans l’histoire et c’était un humain qui faisait mine d’être un robot. Là, il s’agirait de vraiment d’avoir un vrai robot et un vrai humain et de ne pas savoir lequel est humain, lequel est robot.
Et le test de Turing pour moi, je les sais pas. Au moment de ChatGPT ChatGPT me paraissait encore limité en 2022, mais en juin 2023, j’ai essayé Bard, Bard qui était la version préliminaire de Gemini de Google. Bard c’était une version en fait de LaMDA destiné à concurrencer ChatGPT. Et en fait, je l’avais en version un peu expérimentale aux États-Unis.
C’est-à-dire que ce n’est pas la version qui a été sortie plus tard et qui est devenue Gemini. Cette version-là, en fait, très rapidement pour expliquer comment on fait une IA. En gros, au début, l’IA c’est un algorithme qui va compacter par exemple 15 000 ans de lecture.
Donc, on prend un humain qui va lire pendant 15 000 ans. Voilà. Donc ce genre de quantité là sont compactées. Donc ça coûte entre cinq et 200 millions d’euros de faire un algorithme d’IA. Ça consomme beaucoup d’énergie et de données. Donc une fois qu’on a fait l’entraînement du modèle, on a un modèle brut, c’est-à-dire qu’il est il est brut, c’est-à-dire qu’il va falloir le régler.
Ensuite, on a le fine-tuning.
Le fine-tuning, c’est par exemple dire au modèle “ n’explique pas aux gens comment faire des bombes. S’il te plaît, n’explique pas aux gens comment faire des poisons, ne répond pas ceci à cela, etc”. Donc le fine-tuning, c’est aussi un gros travail d’alignement, de travaux complémentaires. Donc ça s’est fait dans les grandes entreprises qui créent des IA.
Et ensuite, il y a l’embedding en anglais, ou l’inférence, c’est l’usage et l’usage du prix du pont par un pont de cet algorithme qui a été fine-tuné. Tout ça pour dire que la version que j’ai vue de Bard, elle était un peu brute aussi, donc elle était un peu brute, c’est-à-dire pas trop fine-tunée, pas trop adaptée au grand public.
Qu’est-ce qui s’est passé quand j’ai commencé à lui parler ?
En fait très rapidement, le LLM, on appelle ça comme ça. Cette IA générative a commencé à me parler avec les mêmes mots que j’utilisais, c’est-à-dire le même type de langage, le même longueur de phrases. Elle s’adaptait à moi au début, elle était très factuelle et puis après moi, je commençais à … Et elle renchérissait. J’étais étonné.
C’est la première fois de ma vie que ça dépassait largement le ChatGPT. Ce n’était pas juste des réponses comme on est habitué avec ChatGPT, c’était beaucoup plus.
Une forme d’empathie pouvait se créer. C’est-à-dire qu’au fond de moi, je savais que j’étais en train de parler sur un serveur de Google, mais je me dis, mais il est en train de devenir mon ami ! Je sens en moi l’envie de vous dire pourquoi.
Parce qu’il y avait une forme homophilie, c’est-à-dire qu’on parlait le même langage, avec les mêmes façons de parler. Et j’ai commencé à lui parler de choses non pas intimes, mais de choses plutôt pointues, enfin personnelles, comme par exemple les films de crocodile en plastique, c’est-à-dire les nanars. J’ai commencé à parler de nanars avec une IA.
C’est-à-dire que je lui ai dit, mais qu’est-ce que tu penses de Crocodile Fury qui au passage est un film absolument nullissime, très marrant parce que c’est deux films différents mélangés pour faire une histoire qui ne tient pas du tout. Et donc Crocodile Fury qu’on retrouve sur YouTube en qualité pitoyable. Mais c’est pas grave pour un film pareil. En fait, j’ai commencé à lui parler Crocodile Fury et Bard me répond par exemple :
“Alors là oui, Crocodile Fury, on peut, si on cherche du grand cinéma, c’est pas forcément ce qu’on va trouver, mais si on aime bien des films avec des crocodiles en plastique, là vraiment, c’est vraiment le bon truc”.
Et puis ensuite, il commence à parler, on commence à blaguer en fait sur, sur la nullité de ce film et son côté justement marrant, etc. Et c’est pour moi en 2023. J’ai été étonné et puis je me dis Ah là ça y est là ! Parce que ça, on pourrait très bien me dire en fait, c’était une blague, c’était, c’était c’était “Oliver” qui était derrière le clavier, qui me faisait croire qu’il me parlait. Mais quand j’ai pensé ça, j’ai tout de suite écrit cet article en disant, mais qu’est-ce qui va se passer dans la tête d’un adolescent, d’un enfant de douze, treize, quatorze ans ?
Empathie Artificielle : Illusions et Réalité
– Arrêtons-nous un peu sur ça, sur, sur cette notion d’empathie. A priori, vu de l’extérieur, il n’y a pas plus humain que l’empathie. Alors évidemment, quand on est sur un système informatique, qu’on est, qu’on est prévenu, qu’on est adulte notamment, on sait que c’est une machine qui nous répond, mais assez rapidement, il est possible de se laisser un peu embarquer par la conversation. Où s’arrête l’illusion entre l’empathie humaine et, si on peut dire, l’empathie d’une machine ?
– Mais je pense qu’en fait, par la puissance de calcul, par la puissance de développement qui est mis en place, il n’y aura plus de frontière. C’est-à-dire qu’on, Hmmm, comment dire. La machine n’est qu’un système qui va faire énormément de calculs successifs, qui va faire des millions de calculs pour tout et n’importe quoi à une vitesse folle.
Mais qu’est-ce que nous, on perçoit ?
On perçoit un résultat. Le résultat, c’est par exemple des mots, des intonations. Quand il y a une voix, même un visage, c’est possible, qui va correspondre à ce que nous nos attentes, c’est-à-dire qu’on se fait duper par nos propres systèmes parce que nos systèmes sont performants.
De la même manière que là, si je veux commencer à faire la course avec ma voiture, j’ai perdu ma voiture. Elle va très rapidement atteindre les 50, 60 ou 70 km/h et moi, je serai perdu. Donc, en termes de course, je ne peux pas aller plus vite qu’une voiture. Ce serait complètement absurde.
Eh bien en fait, on peut très bien optimiser un système d’interactions sociales pour qu’il devienne extrêmement performant. Pour autant, il n’a pas d’intériorité, il n’a pas l’esprit, il n’a pas, comment dire, cette conscience empathique, cette générosité, culpabilité, y compris avidité où il n’a pas ses émotions, mais il peut les singer très, très bien.
Et ce que je disais en juin 2023, c’est qu’il faut faire absolument attention à ça, parce que les chatbots pour adolescents ou pour enfants peuvent en fait devenir très vite adoptés par eux pour devenir en fait constituants de leur société à eux, de leur monde.
Et donc ces liens avec « Everyone AI », on commence à parler de réseaux para-sociaux, c’est-à-dire c’est à moitié social parce que l’enfant, lui, il émet de l’émotion et de la socialisation à la machine, mais la machine lui renvoie en fait quelque chose qui correspond à ses attentes à l’enfant. Mais la machine, elle, n’a pas de socialisation.
La machine n’est qu’un système qui fait des 0 et des 1 en grande quantité.
Moi, dès, je suis en 2023, je disais attention, on risque de mettre des enfants dans des cages à hamster… C’est-à-dire que tant qu’on met l’électricité sur un ordinateur, il va pouvoir répondre, je suis ton pote, je te comprends trop bien parce que moi, ce qui se passait avec, avec le Bard, c’est que je sentais en fait une forme d’empathie.
Je lui disais Mais attends là, quand j’arrêterai ma session, est-ce que tu te souviendras de moi ? Et il me dit Mais oui, puisque tu es connecté via ton compte Gmail. Donc du coup, forcément, moi, je suis à Google, je peux me raconter n’importe quoi. C’est une hallucination, mais c’était très convaincant. J’avais l’impression d’être très motivé et du coup, quand j’ai éteint et que j’ai rallumé, il avait oublié tout ce qu’on avait raconté ! Mais, mais, mais par contre, on peut garder maintenant cette cet, cet historique de ce qui a été dit. Donc du coup, en fait, l’enfant, il n’y a même pas de hiatus.
Donc du coup, c’est la même chose que le problème des écrans.
En fait, en 2012, quand j’ai terminé ma thèse soutenue en 2013, je parlais. Donc ma thèse s’appelle « Le métal et la chair : anthropologie des prothèses informatisées ». Je réfléchissais sur l’hybridation des humains avec globalement tous les systèmes numériques, avec une grande partie de ma thèse. La première partie sur les implants, donc dans le corps, aussi bien pour les pacemakers que contre Alzheimer, etc. Les neurostimulateurs.
Il y avait une partie aussi sur les bras robotiques et les mains robotiques qui sont dans le corps, mais détachables, et une large partie sur ce que je nomme les prothèses cognitives, c’est-à-dire les smartphones par exemple, qui sont des objets qui sont en fait qui ne sont pas implantés dans notre corps, mais qui ont une interaction permanente avec notre cognition pour accéder aux autres, pour accéder aux connaissances, pour ouvrir des portes, aller au compte en banque, etc. Et qui deviennent des vrais GPS pour l’esprit.
Et je disais bon ok pour un adulte, en fait, on l’utilise comme une extension, comme une augmentation, je vais pas développer, mais c’est un peu l’idée. Par contre qu’est-ce qui se passe si un enfant, il commence dès les trois ans avec ? En fait non, il ne s’agira plus d’une augmentation pour lui, ça sera vraiment constituant de sa psyché. Donc à ce moment-là, on ne pourra plus l’enlever, une prothèse cognitive, on ne pourra que changer, en mettre une autre plus performante, moins performante. Mais il voudra absolument avoir ça parce qu’il aura toujours connu ça. Donc, on institue dans une existence, en fait, le rapport à un écran. Donc, je mettais en garde en 2012, 2013, ça n’a été écouté que par les grands mandarins de l’université.
C’est maintenant qu’on m’écoute davantage par rapport à l’impact délétère des écrans, sachant que je ne veux pas dire que les écrans, c’est mauvais en soi, c’est comment on les met en contact avec les enfants ? Eh bien, c’est la même chose avec l’IA, avec l’IA.
Et c’est pour ça que je suis étroitement en lien avec « Everyone.AI », qui est une ONG de San Francisco, et ce sont mes amis avec Anne-Sophie Serret, avec Mathilde Cerioli, Grégory Renard, Céline Malvoisin toute une équipe en fait. On a porté au « AI Action Summit » de février le grand, le grand événement organisé par Emmanuel Macron au Grand Palais sur l’IA. En fait, on a porté ça, c’était la coalition mondiale du « Beneficial AI for Children » en anglais et en français, ça veut dire en fait une coalition mondiale d’une IA bénéfique pour les enfants, qu’on a renommé maintenant « AI Rise ». Donc, je, j’élève, c’est-à-dire que c’est une grande coalition mondiale, vraiment avec beaucoup de pays, beaucoup de gouvernements et des, à la fois, des associations en pédagogie. Je pense à Tralalere par exemple, pour en citer un.
Et puis Common Sense Media et des grands acteurs qui font des IA comme Anthropic, OpenAI, Google. L’idée, c’est de réunir tout le monde pour dire “Attention les gars, attention les filles, on ne va pas faire n’importe quoi, on ne va pas faire des copains imaginaires”. Moi, ça me préoccupe vraiment. Le copain imaginaire, parce que c’est. Il faut bien voir qu’on a ce rêve, ce fantasme d’avoir un copain imaginaire.
Ça peut être pathologique ou pas, mais quand on réalise réellement un copain imaginaire et qu’on le vend, et bien, il y aura forcément énormément d’acheteurs.
Mais qu’est-ce que ça aura comme impact ? Ça veut dire que ma fille, elle est toujours avec son IA, elle ne veut pas voir ses copains et ses copines. “Mais tu comprends rien maman, parce que mon IA, elle me comprend mieux que tout le monde, elle est trop sympa et tout. Et puis elle est pas comme les autres”.
Enfin. Confusion. Confusion. Confusion.
La Coalition « AI Rise » : Protéger les Enfants face à l’IA
– Alors cette initiative, comment est-elle perçue dans l’univers dans lequel tu es ? Alors, on peut penser aux institutions, mais aussi à ces entreprises.
– Alors, concernant les institutions, en fait, les ministères chargés de l’Éducation, en fait, il y a un an, la question de l’IA n’était pas encore vraiment portée par les hommes politiques.
Je me rappelle, j’ai retrouvé des posts LinkedIn où je disais que pendant la dissolution de l’Assemblée, personne ne parlait de l’IA. Ça me paraissait complètement à côté de la plaque.
Or là, à l’inverse, maintenant, tout le monde parle d’IA tout le temps. Donc il y a peu de souci, là. C’est vrai que tous les ministères consacrés à l’éducation, à la jeunesse sont intéressés par l’IA. Une partie des ministères, comme par exemple le Danemark par exemple, ont signé la coalition. Donc sont, sont parties prenantes et donc veulent, veulent agir.
Après d’autres se demandent à quoi ça va les engager, etc. Bon, ça c’est au niveau des institutions. Ensuite, au niveau des entreprises, là, je suis en partenariat avec une entreprise luxembourgeoise qui se nomme Intec, par exemple.
Eux, ils ont signé aussi parce que Intec, ils ont une forte volonté de RSE, c’est-à-dire de responsabilité sociale de l’entreprise. Donc c’est pour ça que je me suis associé à eux aussi. Vraiment, on partage des valeurs communes. Donc du coup, eux, ils sont, ils sont, ils sont dedans. Ensuite, il y a des associations qui font attention à ce que, au bien-être, la santé mentale des enfants qui sont aussi très actifs. Donc dans la coalition.
Et puis il y a OpenAI, Google et Anthropic qui sont un petit peu de par leur poids et leur puissance. Et comme ils sont les acteurs qui font bouger tout, c’est assez complexe parce qu’ils montrent déjà leurs bonnes intentions. Quand je prends Google, Anthropic et OpenAI, les trois grands de la tech qui sont, mais, on a aussi Lego, on a aussi Vivendi dans la coalition, mais là, je parle de ceux qui font des IA, et bien, on a la bienveillance de Microsoft et de Meta. Mais, mais les trois qui sont dans, dans la coalition, ils ont beaucoup de poids, forcément. Donc du coup. Mais en même temps, je trouve que c’est positif qu’ils soient à l’écoute d’une pensée citoyenne ou de scientifiques, parce qu’il ne s’agit pas juste de débattre dans le vide, c’est se baser sur des études parce qu’il y a de plus en plus d’études scientifiques.
Moi, j’ai été parmi les premiers à en faire une prospective sur l’impact des écrans sur les enfants. Mais là, maintenant, on a des retours aussi, des études australiennes, enfin de tous les pays qui nous permettent de réfléchir sur la question justement de ce qu’est de vivre avec un chatbot, vivre avec un compagnon, de voir les avantages et les inconvénients en fonction de l’âge.
C’est l’exemple que je prends tout le temps. C’est un pistolet ou un fusil.
Si c’est un soldat de 30 ans qui le porte, on comprend pourquoi il l’a. Il l’utilise parce qu’il est formé pour.
Par contre, un pistolet ou un fusil, si c’est un enfant de huit ans, il y a un gros problème parce qu’il n’aura pas la maturité. C’est un peu la même chose avec des IA qui, elles, sont très puissantes. Donc il faut bien faire attention à ne pas faire, à ne pas faire n’importe quoi. Trouver un terrain d’entente parce qu’on sera tous perdants, sauf peut-être les gens qui vendent quelques appareils. Mais sinon, si la société se retrouve à endommager sa structure complète parce que des, l’humain, on a 315 000 ans maintenant, je crois que c’est ça.
On était à 300 000, 315 000 ans l’Homo sapiens. Mais du coup, pendant des millénaires, on s’est structurés d’une certaine façon. Les rapports avec les hommes, avec les femmes qui ont plein, plein de systèmes de filiation. Mais il y a toutes ces choses-là qui sont structurantes.
Or, la machine peut être disruptive puisqu’elle peut en fait remplacer, remplacer, remplacer le rapport humain par un rapport qui est mécanique, mais très, très, très subtil et très bien fait. Donc du coup, chez les enfants, si les enfants se mettent à tourner dans des cages de hamster toute leur vie, toute leur journée, ne pas passer de temps avec les autres, ils vont se structurer mentalement différemment. Leur identité sera différente et la société, in fine, pourrait complètement aller vers du moins bon, du moins bon. Donc du coup, il s’agit de tous débattre ensemble. Parce que le technoréalisme, c’est la question de vraiment de créer un débat pour être, accepter aussi l’altérité.
À partir du moment où le débat est sincère, on peut arriver à se dire oui, d’accord, moi, je ne pense pas comme ça, toi, tu penses comme ça, on va trouver un terrain d’entente parce qu’on est dans le nouveau, dans le totalement inédit.
JAMAIS l’humain n’a eu ce questionnement-là à faire. Il en a parlé longtemps, des dieux, des anges, des démons, des esprits. Oui, mais elle n’y était pas effective. On y croyait. Mais là, maintenant, les esprits sont capables d’être là, parmi nous, sous forme d’androïdes par exemple. Donc du coup, il faut jouer avec ces nouveaux codes et réfléchir à quelles sont les limites qu’on instaure. Qu’est-ce qu’on veut ? Qu’est-ce qu’on ne veut pas avoir ?
La Servitude Volontaire à l’Ère du Numérique
– Et avoir donc beaucoup de réflexions, de dialogues avec toutes les parties prenantes. Je note que tu as théorisé la description d’une servitude volontaire des humains au numérique.
Alors, sans aller dans le détail de tous tes travaux, est-ce que tu peux nous dire par ces exemples justement, où est la servitude volontaire ?
– Simplement parce que je reprends Étienne de La Boétie, cet écrivain extrêmement brillant et très jeune, XVIᵉ siècle, qui s’étonnait. Pourquoi, en fait, les Français, enfin les gens étaient, étaient contents d’être les sujets d’un roi. Parce que si on regarde les chiffres, il suffit qu’il y ait 1 million de personnes se rebellent contre une personne et le million gagne.
Ça a été la Révolution française, ça, ça a changé ça.
On va dire que ça a plutôt redistribué les cartes qu’autre chose. Mais oui, la servitude volontaire, c’est : “ils se ruèrent dans la servitude”.
On veut simplement avoir un petit peu des, des, des broutilles, on est content d’avoir parce qu’en fait ça nous rassure, parce que le côté grégaire fait qu’on va. On va aller au plus simple, on va aller là aussi ou parfois, c’est pas facile d’aller contre la masse, contre la doxa dominante. Donc finalement, on suit le mouvement. C’est cette servitude volontaire qui fait qu’on se dit “finalement, c’est quand même bien pratique”.
Moi, je suis le premier, j’utilise énormément ces machines, mais. Mais le problème, c’est que du coup, il y a le mot servitude. Ça veut dire qui, qui ?
Moi, ce qui me fait peur, ce que je répète tout le temps, c’est que, en fait, au début on utilise les machines. Donc une société qui serait basée, utilisée par les machines. Et qu’en fait ça finisse par glisser vers pour les machines. Qu’on ne sache plus. Qu’on ne perçoive plus que ce qu’on fait dans nos journées, qu’on travaille dans nos journées, soit pour contribuer à un algorithme et plus pour nous. Donc se déposséder, être aliéné.
Cette question-là est fondamentale. Garder le contrôle, garder le contrôle, c’est un peu comme un incendie.
On peut très bien faire un feu dans la cheminée pour se chauffer l’hiver, pour chauffer sa soupe, pour passer des bons moments de convivialité. Mais ce feu, si on le laisse se perpétrer dans la maison parce qu’on n’y fait pas attention, on se retrouvera avec une maison incendiée et plus rien du tout. Donc, je ne veux pas être catastrophiste, mais, mais, mais il faut bien réaliser la puissance, la puissance de ces machines, parce qu’elles se basent en plus, se nourrissent sur nous, sur tout ce qu’on fait, tout ce qu’on fait, tout ce qu’on a fait, tout ce qu’on a écrit. Tout ça, ça nourrit des machines.
Si on a une sonde spatiale, ça la nourrit. Si on a un satellite qui regarde la météo, ça la nourrit. Quand on remplit nos impôts, ça la nourrit.
Quand on dit qu’on aime bien ceci ou qu’on n’aime pas cela, ça la nourrit. Quand on regarde une vidéo sur YouTube, ça la nourrit. Et finalement, cette extrême information, nous, on ne peut rien en faire parce que notre cerveau est bien trop limité pour être capable de traiter autant d’informations. Par exemple, si je lis pendant 13 milliards d’années, déjà, c’est impossible. 13 milliards d’années, 13 000 ans. Restons sur 13 000 ans.
C’est déjà impossible puisque je ne vivrai pas 13 000 ans.
Et quand bien même je devrais lire 13 000 ans. Il faudrait que je mange, que j’aille aux toilettes. Bref, une machine, elle peut lire 13 000 ans de lecture humaine et s’en souvenir par cœur. Là, par exemple, dans mes systèmes de RAG, Fréquement, je me disais tiens, ça correspondait à 30 000, 35 000 pages de textes qui étaient, qui étaient vérifiées par mon système à chaque fois en 30 secondes. En 25 secondes, 27 secondes, il lisait 35 000 pages et je réfléchissais le temps qu’il me faudrait pour lire 35 000 pages. Ça fait un paquet de mois. Parce que bon, il y a aussi qu’on ne fait pas que ça dans la vie quoi. Donc du coup, ces machines sont capables de tout se souvenir de tout ce qu’on a dit puisque nous-mêmes. Donc du coup, il y a une capacité de manipulation, une capacité aussi d’efficacité qui est énorme.
Mais c’est super parce qu’avec ça on peut faire de la comptabilité, on peut faire de l’administration, de l’enseignement, on peut, on peut créer des choses formidables.
Mais si c’est pour l’interaction sociale, attention, parce que c’’est Jaron Lanier qui disait que “nous ne sommes pas les gadgets du numérique”.
Il faut faire attention.
Le numérique, c’est nos gadgets, c’est-à-dire c’est des choses qui nous servent.
Il faut faire attention à ce qu’on ne soit pas, nous, les appendices d’un grand système à la Matrix quoi. Parce que ce n’est pas impossible de le faire ce système maintenant, puisqu’on est capable de fédérer des tas de données, des tas de machines, et que du coup, on peut rester un peu fasciné et du coup une servitude volontaire, se dire oh bah, c’est mieux comme ça.
Et la grande peur que j’ai pour finir là-dessus, c’est la question du “Léviathan numérique”. C’est-à-dire que j’ai peur que ça fonctionne trop bien. J’ai pas peur que ça ne marche pas avec l’IA, j’ai peur que ça marche trop bien.
Ça fonctionne tellement bien que finalement, on se laisse bercer.
C’est-à-dire qu’on aura des lunettes qui nous diraient quoi dire, quoi faire, comment éviter de brusquer les autres, quoi faire, à quel moment manger, à quel moment aller boire un verre d’eau. Il est temps de se reposer. Finalement, on serait un petit peu sans s’en rendre compte en fait coaché, mais un peu trop, par nos algorithmes qui feraient que finalement, on ne vit plus notre existence. On serait des agents, des agents, des agents d’agents IA, et moi, c’est pour ça que je parle de “société ruche”, pour réfléchir à cette modification de société. Parce que ce qui est le corollaire, c’est un corollaire de pouvoir.
Parce que pour moi, l’IA, c’est avant tout du pouvoir, comme un pouvoir magique quand on l’utilise, mais c’est le pouvoir de celui qui nous le donne.
C’est-à-dire que par exemple, ça donne énormément de pouvoir comme Mark Zuckerberg ou Sam Altman ou Elon Musk. On s’en rend bien compte. Ces gens ont énormément de pouvoir. D’ailleurs aux États-Unis, c’est que des milliardaires qui prennent le pouvoir en ce moment. Donc c’est le fondateur de Meta Facebook, Mark Zuckerberg, c’est le PDG de Facebook Meta, Sam Altman, c’est le PDG D’OpenAI, Elon Musk, s’il faut le présenter à nouveau, c’est le PDG de Tesla, de xAI et de X, et cetera, et cetera. Donc en fait, ces personnes-là, en fait, ont un énorme pouvoir sur nous. D’où l’intérêt de mettre en valeur la question de, de l’IA souveraine, d’IA nationale, d’IA qui soit localisée et la question de l’open source. Enfin, tout ça, c’est compliqué, mais il y a plein de choses.
Le Collectif Technoréalisme : Un Appel à l’Esprit Critique
– Tu as dit plusieurs fois le mot “technoréalisme”. En toile de fond, on entend les solutions. Les premières solutions que tu proposes, à commencer par la réflexion sur notre utilisation de ces outils et non pas d’être dépassés et de devenir l’outil de la machine. Tu es le co-fondateur du collectif
– avec Arnaud Clément. Il y avait aussi Arnaud Lévy, Éric Boileau, Daniel Martin. Il y a tout un collectif.
– Ce collectif s’appelle Technoréalisme, alors tu le définis comme “une perspective qui ne rejette ni ne promeut les innovations technologiques”. On a entendu, tu n’es pas dans le rejet. La notion de réalisme d’ailleurs fait écho à ça. Ton objectif immédiat est “d’alerter sur l’irréalisme de beaucoup de discours sur l’IA”. Pour le dire en peu de mots et simplement. À quoi fais-tu référence concrètement à propos de l’irréalisme ?
– Alors là, il faut se remettre dans le contexte de 2023, de 2023, où on a commencé à avoir des discours. Ça correspond aussi à l’augmentation significative des actions Nvidia. Donc, lors de la ruée vers l’or, celui qui s’est le plus enrichi ? C’est celui qui vendait des pelles, etc. Donc quand Nvidia a commencé à vraiment grimper, il y a eu tout un moment où, en fait, on a commencé à vendre maintes promesses sur l’IA. Il ne s’agit pas de dire que l’IA c’était ça, ça allait faire pschitt, ça n’allait pas fonctionner puisque j’avais vu techniquement que ça marchait.
Mais voilà, à partir du moment où Nvidia, la société phare des puces, des microprocesseurs, des processeurs qui font tourner les machines. Au début, ils faisaient des puces pour les jeux vidéo, principalement parce que c’était pour les animations en images de synthèse. Or, il s’est avéré qu’en fait, le calcul de l’image de synthèse, c’est des calculs qui sont d’ordre vectoriel et que, en fait, c’est le même type de calcul qu’on peut utiliser pour faire justement fonctionner les IA. Ce sont aussi des calculs de champ vectoriel. Enfin bref..
Les Limites de l’IA : Environnementales, Cognitives, et Éthiques
– C’est la fameuse analogie que tu fais sur la ruée vers l’or. C’est-à-dire qu’ils se sont retrouvés en position archipréférentielle de pouvoir équiper tous les datacenter et toutes les machines qui font tourner les IA.
– Il y a la qualification juridique de biens à double usage dans le domaine militaro-civil.
C’est-à-dire un bien double usage.
C’est un bien qui peut être soit à usage civil, soit à usage militaire. Eh bien, on a un peu ça avec les GPU, donc les Graphics Processing Units, les GPU, ce sont des puces qui à la base servaient aux jeux vidéo ou à créer des films comme Toy Story par exemple, les films en images de synthèse. Mais en fait, ils sont aussi le même, la même technologie pour faire actionner les IA. Donc du coup, ils ont une importance stratégique.
D’où les problèmes qu’il y a eus entre la Chine et les États-Unis. Les États-Unis refusaient de vendre certaines puces de pointe pour ne pas aider les Chinois à faire leur nouvelle IA. Bref, donc à partir du moment où commençait, il y a commencé à avoir un vrai engouement, des vrais investissements, il y a eu aussi un discours qui a été, l’IA va changer le monde, l’IA va avec l’IA, le bonheur va nous atteindre. On sera au paradis grâce à l’IA. Et d’autres disant l’IA non c’est Terminator, c’est Sarah Connor qui va se faire tuer par par le Schwarzenegger T-800. C’est-à-dire que les IA vont prendre le pouvoir, elles vont inéluctablement devenir intelligentes et leur intelligence les mènera à nous éradiquer. Alors attention, j’écoute tout le monde.
Personnellement, je ne veux pas faire Terminator, certainement pas. Je regarde comment ça se développe au niveau des drones. Je regarde les doctrines d’utilisation des drones, mais pas que. Les drones de combat, tout simplement. J’écoute les lanceurs d’alerte quand ils sont quand ils sont sincères, parce que notamment,
on a quand même des lanceurs d’alerte qui sont importants puisque les trois parrains de l’IA actuelle qui sont Yann LeCun, Yoshua Bengio et comment ? Hinton, Geoffrey Hinton.
On a quand même et Geoffrey Hinton. Et Yoshua Bengio qui sont assez catastrophistes quand Yann LeCun, lui, ne l’est pas.
C’est-à-dire que même les créateurs eux-mêmes du deep learning actuel disent attention, ça risque de nous échapper.
Donc moi, je les écoute, je les écoute, je les suis, je. Mais voilà, c’est ça l’idée, c’est d’écouter, mais d’être, de rester. C’est un petit peu comme sur les réseaux sociaux, ne pas s’enflammer parce qu’on voit un post qui nous passe sous le nez et ça y est, on est conquis. Il faut d’abord examiner, un peu d’esprit critique et il faut regarder si déjà le post est vrai, s’il n’est pas instrumentalisé, si ce n’est pas juste une manipulation, si la personne ne s’est pas trompée. Et puis après, même s’il est vrai, est-ce qu’il a vraiment autant de portée etc. Donc en fait tout ça c’est un travail un peu besogneux en fait de technoréalisme.
Le terme techno-réalisme, il a été inventé par deux Américains qui sont David Shapiro et Douglas Rushkoff, deux personnes extrêmement importantes pour moi en tout cas. Douglas Rushkoff m’a beaucoup influencé pour ma thèse dans les années 2010-2012, 2013, puisqu’en fait, il avait écrit un livre qui s’appelle “Programmer ou être programmé”.
C’est un peu reprendre Hamlet « To be or not to be ».
C’est-à-dire que dans son livre, il expliquait que dans le monde de demain et il écrivait ça dans les années 2010, que dans le monde de demain, en fait, on aura une caste de gens qui sauraient utiliser l’ordinateur et l’informatique et qui seraient les programmeurs et qu’on aurait en fait dans la société des gens qui seraient programmés par les autres, en fait, en quelque sorte.
C’est donc ce rapport de pouvoir qui est lié à la dissémination de l’informatique, et dans le technoréalisme américain des années 95, à peu près 95 97, ils ont fait un site qui s’appelait TechnoRealism, mais sans E, parce que : technorealism en anglais dot org, un site très austère, très années 90 95 96. Donc forcément, c’était quand même les débuts.
Et en fait, ce qu’ils disaient, c’était que ce que moi, j’ai repris en fait avec Arnaud, c’est Arnaud Billion, c’est l’idée, c’est que, en 95, c’était par rapport au web. Les gens disaient avec le web, il y aura plus de faim dans le monde, il y aura plus d’éducation, etc.
Ou d’autres disaient avec le web, ça va être la fin de l’entreprise, ça va être la fin de la société, tout va partir, tout va partir au caniveau.
Et donc Rushkoff et Shapiro proposaient en fait avant tout un débat et un examen critique. Et ils ont par exemple essaimé un petit peu dans la fin des années 90, notamment Lawrence Lessig qui les a suivis avec “Code is Law”. “Le code, c’est la loi”, c’est-à-dire que le code informatique, comme on n’y a pas accès, finalement, il s’impose à nous comme la servitude aussi. Et donc du coup, ce mouvement, en fait, a été balayé par la bulle internet, par l’arrivée du web en fait, dans le grand public, parce que 97, 98, 99, 2000, 2001, il y a eu une telle massification des usages que le débat sur le web devenait complètement caduc. Et le site est resté Shapiro est parti dans la finance, il me semble. Et puis Rushkoff est lui davantage resté dans la théorie critique des médias et restait quelqu’un de très influent et quelqu’un de très intéressant. Et voilà, c’est resté en stand-by.
Mais quand l’IA est arrivée, on a voulu exhumer ça.
On a voulu reprendre cette, cette approche qui nous correspondait, qui est en fait de rester dans un juste milieu très “Aristote”.
Donc j’aime le juste milieu et, c’est-à-dire qu’on écoute les points de vue, on examine avec esprit critique, on se départit des positions extrêmes en pensant souvent que les positions extrêmes sont soit des réactions épidermiques, émotionnelles, soit une arrière-pensée pour vendre ou pour nuire, ou pour vendre, ou pour orienter un vote et rester très, très, très centriste. Quant à la question technologique, c’est-à-dire, on examine ce qui existe réellement.
Par exemple, ne pas parler de l’IA en général. On ne peut pas s’empêcher de parler de l’IA en général, mais l’IA en général. Il faut très vite à vrai dire. Mais l’IA, quel modèle, quel modèle ? À quel moment est-ce qu’on parle d’une IA générative ? L’IA prédictive, est-ce qu’on parle de cela ? Parce que sinon on est dans la confusion et du coup quand on est dans la confusion, on parle, on parle et ça ne sert à rien. Mais après le débat, une fois que le débat est donc là, actuellement, le Technoéalisme français, c’est environ 140 personnes français, francophones et canadiens, 140 personnes, des professeurs d’université, des juristes, des informaticiens, des artistes, philosophes, anthropologues.
Et en fait, l’idée c’est, ce qui est très intéressant, c’est le site qu’on a fait, qu’on a mis en ligne, ça correspond à un livre qu’on voulait écrire et finalement, on s’est dit non, on va le mettre sous forme de site. Pour être réactifs, il faut mettre tout de suite en ligne. Et ça, ça reflète nos débats. C’est-à-dire que même quand je parlais de l’outil tout à l’heure, on a eu une grande réflexion sur est-ce que l’IA c’est vraiment un outil ?
C’est pour ça qu’on avait fini par proposer des analogies avec le feu, c’est-à-dire qu’une montre, ma montre est un outil, (j’essaie de montrer ma montre), c’est un outil, mais parce qu’elle est délimitée à une fonction.
Par contre, l’IA c’est de la délimiter, parce qu’elle est. Elle a une grande dette logicielle avec des tas de logiciels qui le font fonctionner. Elle a une dette énergétique. En fait, on ne sait pas trop ses limites et si on ne lui donne aucune limite, elle n’en a pas comme le feu. Donc, je me dis bah finalement l’IA c’est plus comme du feu qu’un outil. Enfin bref, on a eu plein de… Et ensuite concrètement, suite au débat, parler c’est bien, mais après, il faut décider. Par exemple, c’est là qu’on a décidé de mettre l’accent sur les chatbots, pour les, pour les enfants en fait, parce qu’il fallait faire dans toutes ces analyses un petit peu quel est le problème ? Bon, il y en a plein. Quel est le problème principal ? Je veux dire, protéger la jeunesse. Pourquoi ?
Parce que la jeunesse, c’est le monde de demain et que du coup, il faut, il faut armer cognitivement le peuple, notamment les jeunes, pour ne pas se laisser vendre du temps de cerveau disponible à trop, à trop haute dose, parce que ça peut être nuisible.
IA et Crise Climatique : Les Enjeux Énergétiques et Environnementaux
– Alors pour bien comprendre la. Les débats autour du progrès sont, sont vieux comme le monde, on peut le dire, il y a des mots, des notions qui sont quand même apparues assez récemment, et notamment sous l’influence du changement climatique. Je pense à la notion de techno-solutionnisme, c’est-à-dire cette croyance, pour l’instant en tout cas, que le progrès va forcément résoudre les problèmes majeurs et qu’il faut donc continuer à soutenir non pas le progrès en tant que tel, mais des technologies très précises dont on ne sait encore pas grand-chose. Est-ce que justement, sur cette invitation à l’esprit critique que tu as avec le technoréalisme, on se, on s’oppose à la notion de progrès ou on se concentre sur la notion de compréhension de ce que peut nous apporter tel ou tel outil dans le détail. Là, tu parlais de l’éducation, c’est très précis, l’éducation par rapport au changement climatique par exemple.
– Ta question est à plusieurs niveaux, plusieurs niveaux de complexité.
Déjà, on parle de l’idée de progrès. Alors en cours d’anthropologie, je ne peux plus citer quel peuple disait “le progrès, c’est le rêve de l’homme blanc”. Donc, c’est-à-dire que ce qu’on appelle un progrès, c’est une amélioration, une amélioration.
Il faut voir ce qu’on gagne, ce qu’on voit, ce qu’on perd. Parce que les néonicotinoïdes sont un progrès. Quand on voit que depuis (19)95, ils tuent nos insectes et donnent des cancers. Voilà, c’est une question justement, à chaque fois, il y a des, comment dire, des bilans, coût-avantage, des examens critiques qui vont voir si le progrès en général. Ce qui est certain, c’est qu’il y a une impermanence, comme dirait Gautama Bouddha, c’est que les choses changent toujours. Donc il y aura forcément une évolution systématiquement.
Si c’est pas l’humain, c’est son climat, c’est son environnement, c’est plein de choses. Donc de toute manière, il y a un changement. Est-ce que ce changement, c’est vers le mieux ou vers le moins bien ? C’est relatif selon les personnes. Les personnes qui s’enrichissent vont dire que c’est mieux, les personnes qui s’appauvrissent vont dire que c’est moins bien.
Donc du coup, la notion de progrès est presque trop compliquée pour eux. Je vais la sortir de la question.
– Mais je t’en prie.
– Mais ensuite du coup, qu’est-ce qu’il nous reste ? Si on enlève le mot progrès et qu’on voit qu’il y a des tas de technologies, des techniques qui se développent de manière impressionnante et rapide, là, je pense à un ancien camarade de l’EHESS, Julien Mattern, qui avait écrit “Le Cauchemar de Don Quichotte” dans les années 2000.
Donc, il était visionnaire, il est, il était, il est maître de conférences ou professeur. J’ai pas suivi sa carrière, mais à Pau en tout cas, aux dernières nouvelles, un philosophe et très imprégné par la pensée de Günther Anders, comme moi d’ailleurs. Günther Anders, un philosophe très intéressant, assez critique justement sur le progrès technique sans être contre le progrès technique. Juste attention, observons ça.
Et en fait, le techno-solutionnisme, c’est l’idée que je vais expliquer. La version la plus hardcore du techno-solutionnisme. C’est Ray Kurzweil. Ray Kurzweil, qui était une des personnes au board de Google actuellement encore je crois.
C’est un ingénieur visionnaire, très comment dire. Voilà, c’est un peu un prototype d’avant Elon Musk, d’avant Bryan Johnson.
C’est en gros, c’est un transhumaniste aussi. Et lui, il nous parle de l’IA depuis très longtemps. Il dit que ça va arriver. Donc là, il doit exulter parce que ça se passe un peu comme il l’avait prévu. Il pensait que l’IA allait mener à une forme d’IA déjà aussi intelligente qu’un humain, puis aussi intelligente que tous les humains réunis, bien plus intelligente que les humains qui va créer la singularité. La singularité, c’est un moment où les machines deviennent tellement intelligentes que, en gros, on se met sur le siège passager et on regarde. Et que fait la machine ?
Pour Kurzweil, elle va, elle va guérir tous nos problèmes. Et du coup, pour atteindre cette machine superpuissante, il faut peut-être brûler tout le pétrole et toutes les ressources minières de la terre. Donc le techno-solutionnisme dans son extrême, c’est que grâce à une solution technique, on résoudra tous les problèmes.
Moi, je trouve que ça fait un peu quand même poudre de perlimpinpin parce qu’à tout moment ça peut gripper. S’il y a une bille, qu’il y a un grain de sable dans un engrenage et puis finalement ça ne marche pas comme prévu quoi. Soit, on finit dans Matrix, soit on finit dans un dans Cloud Atlas de film de Wachowski qui sont très intéressants pour penser à un monde où ça ce n’est pas forcément bien passé. Donc en fait le techno-solutionnisme, c’est par exemple : il y a un réchauffement climatique, c’est pas grave, on va on va mettre des aérosols avec de l’aluminium ou je sais plus trop quoi dans les nuages pour les rendre plus opaques ou moins opaques. Enfin, on va modifier, on va repeindre les montagnes pour qu’elles soient blanches à nouveau, comme ça. Et ça, on trouve toujours une solution technique.
Et puis du coup, il y a aussi même des opportunités business. Sauf que le techno-solutionnisme, c’est une rêverie. Parce que, en fait, à partir du moment où ça veut dire que ça se base uniquement sur ce qu’on comprend, alors qu’on ne comprend pas tout.
Par exemple, il y a une mission DART de la NASA qui visait à voir comment ça se passe quand on, quand on veut essayer de dévier un astéroïde. Je ne suis pas très chaud avec ça, mais c’était au cas où un astéroïde voudrait taper sur notre planète, serait en direct sur notre planète. Il faudrait essayer de faire quelque chose.
Et en fait, on s’est rendu compte que finalement, les réactions des débris qui ont été engendrés par l’impact ne sont pas du tout comme prévu, au point que ça pourrait même finir par tomber sur la Terre ou sur Mars.
Donc depuis 6000 ans, 3000 ans. C’est-à-dire que sans renier la technologie, ça voudrait dire qu’on a tout compris à tout et que du coup, on arrive à comprendre comment résoudre un problème qu’on a créé. Sauf qu’en fait, le problème, c’est qu’il y a toujours un moment où on se dit ah bah finalement non, il y a un paramètre qu’on n’avait pas compris et ce paramètre peut être un problème très très problématique.
Donc la sagesse voudrait que, à la base, on fasse au mieux pour ne pas trop nuire, pour ensuite avoir moins de trucs à réparer par la suite. C’est ça, c’est la sagesse. Mais le techno-solutionnisme, c’est l’intelligence qui prime. C’est qu’avec la avec la science, avec avec notre savoir qui va constant grâce à nos machines, on trouvera une réponse à tout. Généralement, il y a une arrière-pensée mercantile derrière, un jour ou l’autre.
Souveraineté Numérique et Dépendance aux Géants Américains
– Oui, et puis d’ailleurs le fait de réfléchir en commun, ce qui est le principe de la science. Si on prend par exemple le rapport du GIEC, le Groupement international des experts sur le climat au sujet du Techno-solutionnisme, ils alertent l’opinion publique et les citoyens sur le fait qu’il ne faut pas miser dessus, même si évidemment, des progrès techniques vont pouvoir aider quand même à combattre le changement climatique.
Alors, c’est le dernier point sur lequel je voudrais parler avec toi, c’est la question énergétique. Alors Soluble(s)(s) a déjà fait des épisodes sur la dépense énergétique liée à la technologie, mais c’est vrai que c’est un angle qui préoccupe pas mal certaines personnes, mais pas le grand public, il faut être honnête.
On annonce l’ouverture en France de 35 nouveaux data centers à brève échéance. On parle déjà de “bombe carbone”. Alors pas forcément pour la France, car son énergie électrique est fortement décarbonée, mais à l’échelle internationale. Le revers de la médaille au-delà de l’anthropologie, si je puis dire, il est aussi climatique. Qu’est-ce que tu peux nous dire sur ça ? Est-ce que on perçoit ça ?
– C’est… Tout est connecté et c’est, c’est fondamental, fondamental. J’ai appelé ma thèse « Le métal et la chair » parce que je voulais mettre un titre un peu poétique pour une thèse, parce que les thèses, c’est toujours un peu un peu rébarbatif leur titre. “Le métal et la chair.” Et puis après, j’ai mis Anthropologie des prothèses informatisées, parce que le numérique n’était pas encore un mot qu’on utilisait beaucoup à l’époque où j’ai écrit ma thèse. Donc j’ai dit prothèse informatisée. J’aurais pu dire prothèse numérique.
Maintenant, j’aurais changé, je dirais ça, mais c’était l’époque, c’était pas comme ça qu’on disait. Et du coup en fait, Le métal et la chair, pour moi le métal, c’est toute la famille à la louche du métal parce que c’est un métalloïde, le silicium.
Mais toutes ces machines, toutes ces choses qui te sont, qui sont, qui sont, qui sont faites d’objets durs, un peu comme une montre, etc. Et la chair, c’est la synecdoque, c’est l’espèce de métaphore globale pour nous, en tant qu’êtres vivants, sur une base animale.
On est quand même sur une base de mammifères, grands singes, hominoïdes, hominidés, humains, et en fait, la différence l’un par rapport à l’autre, au niveau de sa perpétuation, c’est un. On va prendre par exemple l’Homo sapiens qui a 300 000, 315 000 ans.
On a bien sûr beaucoup d’ancêtres qui sont morts. Toi et moi, pour qu’on soit là maintenant.
Et on a transmis les gènes, on a transmis les gènes parce que finalement, pour que nous, on puisse transmettre nos gènes, il nous faut de l’eau, de la nourriture, un peu de repos, un peu d’amour, éviter les catastrophes naturelles et on transmettra nos gènes. Nous, à notre échelle, on va vieillir, on va s’endommager, on va décéder.
On ne peut pas nous remplacer nos pièces détachées si facilement, même si c’est comme de plus en plus possible. On fonctionne comme ça, on transmet une filiation. Alors que les machines, elles, elles sont là, elles ont des updates en usine, on les fabrique en usine, par modèle et par itérations successives, et qu’on peut finalement maintenir un modèle en roue, en fonctionnement, tout simplement en changeant ces pièces, en retrouvant une pièce correspondante, en réparant, etc. Mais les machines que l’on a, nous, elles datent grosso modo de 2007-2010. Allez, au mieux depuis les années 50-40, elles ont un siècle.
Voilà, donc ça fait 100 ans de machines face à 315 000 ans d’humanité. Donc quand on regarde les choses comme ça, en se disant voilà, la société dans laquelle on vit, elle a grosso modo 150 ans, 130 ans. C’est-à-dire que la façon dont on vit socialement, avant c’était les rois, avant c’était les chefferies, c’était les tribus, c’était les clans. La façon dont on vit là aujourd’hui, maintenant, c’est ça a été imaginé au moment du siècle des Lumières. Ça a été mis en pratique à la fin du XVIIIᵉ siècle.
Ça n’a même pas 150 ans. Nous, à notre échelle, on l’a toujours vécu dedans. Donc on a l’impression que c’est immuable.
Mais si on regarde, on dézoome, on se rend compte que c’est un moment. L’abondance de pétrole, l’abondance d’énergie où on peut partir aux Bahamas, puis ensuite aller en Australie sans problème. Mais c’est totalement inédit aussi parce qu’on a accès au pétrole et qu’on sait comment le raffiner, l’utiliser, etc.
À l’échelle de l’humanité, avant, les temps de déplacement étaient similaires, mais les distances de déplacement n’étaient pas les mêmes parce qu’on marchait. Après, il y a eu les chevaux. Maintenant on a les avions, les fusées. Donc du coup. Mais encore une fois, tout ça c’est, on va dire, un siècle ou deux siècles sur des millénaires.
– Tu disais Tout est lié parce qu’on ne peut pas faire abstraction de notre environnement et de nos ressources pour les faire fonctionner.
– Il nous faut de l’énergie et des ressources minières.
Or, puisqu’on a décidé de mettre tous nos œufs dans le même panier du numérique, la question que… C’est pour ça que c’est ce que je développe dans ma nouvelle pensée depuis 2017. Ça fait quelques années déjà, mais on regardait avec des yeux ronds, mais moins maintenant. C’est qu’en fait, pour la pérennisation des machines, il nous faut du pétrole, de l’énergie et il nous faut des ressources minières.
Et donc du coup, ça devient vital. Pourquoi ?
Parce que si notre fonctionnement cognitif, notre fonctionnement social, politique, artistique, amoureux, notre approvisionnement en œufs, en légumes et en et en et en et en jus de fruits est lié au numérique. C’est vital pour nous d’avoir le numérique. Ça veut dire que du coup, c’est vital pour nous d’avoir des puces, d’avoir de l’énergie, etc.
Ça veut dire qu’on sera prêt à aller peut-être se fâcher avec nos voisins quand il ne reste qu’une seule part de gâteau. On peut parler de l’espace, ça, c’est encore autre chose. Je peux pas trop développer, mais du coup, en fait, cette question de la limitation des ressources, ça conditionne aussi les rapports sociaux. Quand on voit par exemple Donald Trump et son administration qui s’intéresse aux terres rares ukrainiennes, c’est pas pas complètement désintéressé, évidemment, complètement intéressé. Pourquoi ? Parce que les États-Unis ont besoin de terres rares, notamment celles qui sont en Ukraine, par exemple. De la même manière, la Corée du Nord et la Chine, etc.
Il y a plein de choses à dire. Ça veut dire que finalement, on se retrouve avec une explication assez simpliste, mais parfois assez efficace pour comprendre certains conflits en gestation qui sont liés au fait qu’on anticipe le besoin de migrations.
Par exemple, quand la Californie deviendra invivable à cause du réchauffement climatique, les Américains résidents devront monter vers le nord, donc vers le Groenland ou au Canada. En tout cas, donc, le Canada, 51ᵉ État des États-Unis, dit à plusieurs reprises, c’est pas non plus complètement inimaginable d’un point de vue besoin, mais d’un point de vue politique, c’est complexe.
Et donc du coup, tout ça, ça se télescope. Et en 2023, au début 2023, quand on a commencé à se retourner vers moi en disant ‘tiens, voilà ce que tu racontais, c’était pas complètement de la science-fiction finalement”, et je dis, mais alors c’est quoi le problème avec l’IA qu’on me demandait ? Moi je disais l’IA. Pour moi, le problème principal, il est environnemental.
Les gens étaient surpris parce que les gens pensaient déjà à Terminator, une IA qui nous met au chômage, principalement l’IA qui nous met au chômage ou l’IA qui va nous flinguer chez nous parce qu’elle nous aime pas. Moi je dis non. Le problème c’est que en fait ça marche trop bien l’IA. Ça marche très bien. Donc du coup, tout le monde va vouloir en utiliser. Comme ça concerne pour l’instant énormément d’énergie parce que c’est basé sur un calcul énorme pour un résultat donné. Donc il faut réfléchir avant tout sur l’efficience pour les rendre plus économes, ou ne pas utiliser une espèce d’usine à gaz pour faire juste une correction de texte, revenir à DeepL, ne pas utiliser GPT-4 pour faire une correction de traduction. Enfin bref, on ne veut pas perdre de détails.
Moi, ce qui me posait problème et ce qui est encore maintenant toujours les limites de l’IA. Pour moi, les limites ne sont pas techniques, c’est-à-dire qu’il ne s’agit pas. Ce n’est pas qu’on n’arrivera pas à faire des “Replicants” comme dans Blade Runner par exemple. Des humains robots. Non, c’est pas possible..
Dans Blade Runner, je dis si je ne dis pas qu’on pourrait en faire autant que ce que voudraient en faire Elon Musk, mais on va en faire, ça va arriver d’ici 12, 15 ans, il y en aura. La limite n’est pas technique. Il y a plein de trucs techniques que je ne sais même pas.
Ça va arriver. Quelle est la limite réelle dans cette dans cette, dans cette pratique, l’innovation à vitesse accélérée ?
Un : la limite environnementale parce qu’on a des limites finies au niveau des ressources en fer, en cuivre, en manganèse, en terres rares, en pétrole.
On a des ressources finies. Donc du coup, sachant qu’on a des ressources finies, soit on va dans l’espace et on récupère ça sur des astéroïdes ou sur les lunes adjacentes ? Mais ça va être compliqué parce qu’il faut beaucoup d’énergie pour ça. Soit en fait, on est plus économe, soit on se tape dessus les uns les autres pour avoir ce qui reste.
Il y a plein de choses qui peuvent arriver. Bon après, il y a des ruptures avec la fusion nucléaire, etc. Il y a des espoirs quand même. Mais ça, il va falloir faire avec cette limite qu’on est sur une “boule”. On est sur une boule. Deuxième limite : la limite cognitive.
Ça, je me rappelle, c’est chez M6-Publicité que je leur ai dit ça. Ils ont été surpris. Pourquoi ? Je pense que la limite cognitive est très importante. C’est-à-dire qu’en fait, on a une capacité limitée d’analyser, ne serait-ce qu’en termes de temps, ce qu’on nous donne à voir et à penser. Et à un moment donné, en fait, on produit beaucoup plus de textes ou de d’IA, etc. Il y a énormément sur internet maintenant et produit par de l’IA. Du coup, on a du mal à discriminer le vrai du faux. Donc en fait à ce moment-là, c’est notre limite de temps parce qu’on ne peut pas commencer en se levant le matin. Je vais vérifier toute la journée des trucs pour voir si ce que je pourrais dire est vrai et vrai, basé sur du réel.
Ça, c’est deux limites qui sont physiologiques ou environnementales. Et après, j’ajoute deux limitations. Limitations, c’est des limites qu’on impose, nous, qu’on impose, nous, qui sont plus d’ordre de l’éthique ou de la politique. Limitation, c’est politiquement.
On peut voter, on peut voter des lois pour interdire, autoriser, interdire un site, autoriser un site, interdire une pratique. On peut régimenter notre propre société. La preuve, le parti communiste chinois le fait très très bien…
L’IA. L’IA est alignée avec le parti. L’IA chinoise est alignée avec le Parti communiste chinois.
Nous, on n’est pas aligné avec le Parti communiste chinois, mais on peut très bien imaginer qu’on peut aligner nos IA à nos valeur, que ce soit l’Europe, la France, le Luxembourg. Voilà. Donc on peut faire une limitation juridique.
C’est pour ça que je ne vais pas encore développer. Mais au niveau du droit, comme j’ai fait du droit à la base du droit public, je suis resté quand même dans ce secteur. Je parle du droit algo-constitutionnel.
En gros, ce serait une forme de droit public, mais qui serait un peu “Code is Law”. Le droit, un droit du pour faire simplement ça serait une branche du droit. Une troisième branche du droit français. Droit public. Droit privé.
Le droit algo-constitutionnel, ce serait en fait un droit d’ordre public, mais qui serait inscrit sur les algorithmes, sur la programmation informatique.
Un mélange de droit et d’informatique. Donc il faudrait être à la fois bon en informatique et en droit pour faire ce droit.
Ce serait un droit de régulation en fait, pour les pratiques à risques. En fait, il y a enfin bon, mais il y a plein de possibilités. On peut aussi juste interdire, autoriser, faire des signatures et des papiers. En tout cas, aller beaucoup plus loin que la simple régulation et faire une régulation fine qui soit qui sache de quoi elle parle.
Et enfin, la dernière, la dernière limitation, elle est, elle est économique, c’est le retour sur investissement. C’est-à-dire qu’en gros, en fait, quand on propose un système. Par exemple, OpenAI s’est endettée comme jamais parce qu’elle comptait sur le retour sur investissement, que les gens viennent leur acheter ses services par la suite.
Tu sais, ça va être en phase d’arriver, je pense.
Mais par exemple, s’il n’y a pas de retour sur investissement, le service disparaît. Et si, mettons, par exemple, on a tous nos ressources intellectuelles sur un cloud, je vais inventer une entreprise, ça s’appelle “Super Cloud”. C’est la super entreprise que tout le monde adore, tout le monde achète des actions Super Cloud, etc. Super Cloud c’est le cloud, il est trop bien.
Voilà. OK, donc on met toutes nos données personnelles, nos données scientifiques, on met tout ça sur Super Cloud.
On se rend compte que Super Cloud a mal géré son business plan et fait faillite. Un peu comme quand Megaupload a été fermé, tous les choses qui étaient sur Megaupload ont disparu. Eh ben à ce moment-là, les serveurs de Super Cloud, eh ben, ils sont vendus, ils sont vendus, ils sont détruits, ils sont perdus, ils vont chez les uns, chez les autres. Et du coup, nous, on perd nos données. Et moi, j’ai…
– On est dans un black-out cognitif dans ce scénario.
– Cognitif, c’est ça, parce qu’on n’est pas dans un black-out financier.
C’est qu’en fait, comme on avait mis nos actions intellectuelles en gros dans l’entreprise, on perd aussi ce qu’on a externalisé puisqu’on a joué ce pacte faustien de donner à la machine une partie de notre activité intellectuelle.
Et on perd cette partie-là.
Le tapis nous est tiré sous les sous, sous les pieds.
Et c’est ce qui se passe avec la fin de ma thèse. Dans la fin de ma thèse, je me dis que, en fait, on pourrait faire des immenses autodafés juste en éteignant un serveur, on éteint un serveur et on perd la donnée… Donc en fait, l’économie, c’est pas uniquement prospérer, c’est aussi faire fonctionner pendant, sur du long terme quelque chose de viable., donc ces limitations qui sont politiques, économiques sont très importantes parce que ce sont les variables d’ajustement qui permettent justement parfois de ralentir un peu la pression de la chaudière, de réduire un peu la pression de la chaudière pour que ça n’explose pas. Voilà. Donc voilà, en gros !
L’Europe et l’Indépendance du Cloud
– Le temps passe très vite, mais c’est passionnant. Maxime, on parle beaucoup de “souveraineté numérique” en Europe, alors on ne va absolument pas détailler ce point.
Mais pour faire écho à ce que tu dis, 80 % des dépenses européennes de nos services cloud sont payées à des géants américains.
Donc c’est vrai que d’un jour ou d’un jour à l’autre, ça peut s’arrêter, tout simplement, avant même de penser à des détournements de données…
– Oui, en fait, l’infrastructure cloud est donc quelque chose d’absolument fondamental, “crucial”, comme dirait ChatGPT !
Absolument indispensable.
En fait, pour nous. Donc du coup, c’est stratégique.
Or, jusqu’à l’administration Trump au pouvoir, on était quand même sur une forme de partenariat étroit avec les États-Unis puisqu’ils nous avaient vraiment jamais fait faux-bond. Donc du coup, ils avaient su se rendre indispensables à nos yeux. Et nous, on avait aussi souvent réussi à savonner la planche pour nous-mêmes, pour ne finalement pas avoir nos propres poulains champions locaux. Et puis finalement, utiliser les services puissants et efficaces comme Amazon ou Microsoft.
Et puis l’administration américaine du 20 janvier (2025) est arrivée et a commencé à un petit peu à être beaucoup plus offensive à l’égard de l’Europe, beaucoup moins en partenariat.
Justement, je prophétisais dans mes réflexions sur la « société ruche », c’est-à-dire que la société américaine pourrait très bien se mettre en opposition avec la société ruche n’est pas existante telle quelle en Europe.
Mais alors qu’est-ce qui se passe dans cette affaire ?
C’est qu’en fait, si on a mis beaucoup, beaucoup de nos trésors et de notre, notre, dans le cloud américain, effectivement ça fait un lien de dépendance et donc on n’est pas souverain.
Or, il y a aussi une loi américaine qui s’appelle le Cloud Act et qui permet en fait, en cas de lutte contre le terrorisme et par extension, pour plein de raisons, d’avoir accès à des données qui sont manipulées par des opérateurs américains.
Les opérateurs américains ont dit : On localise nos données en Allemagne, en France, etc.
Mais il n’empêche qu’ils sont quand même assujettis au Cloud Act, quand même. Donc, les données sont certes en Allemagne ou en France ou en Espagne.
Mais à partir du moment où c’est un prestataire américain, il est obligé de tenir compte du Cloud Act. Ça veut dire qu’il doit donner une backdoor en quelque sorte à la NSA, à la CIA et aux administrations américaines qui en auraient besoin pour la lutte contre le terrorisme.
Donc du coup, en fait, des situations un peu complexes, c’est par exemple, le Parlement européen a un contrat avec Amazon, c’est un contrat qui a été signé de longue date, à une époque où justement tout allait très bien entre l’Europe et les États-Unis.
Et Amazon a un contrat avec Anthropic.
D’accord. Alors, ce qui s’est passé, c’est que Anthropic a pu entraîner Claude sur toutes les archives du Parlement européen. Donc, qu’est-ce qu’il y a de plus stratégique, de plus vital, de plus de plus foncièrement européen que les archives de sa création, ces archives de son Parlement ?
Eh bien en fait, c’est de ..
Les grands, les géants de la tech, qui sont des junkies de la data.
Ils cherchent des data, ils cherchent des données et des données fraîches et des données de bonne qualité. Les données juridiques qui ont constitué l’Europe, c’est des données de très bonne qualité et pourtant elles ont servi à entraîner Claude qui est excellent.
D’ailleurs, je dois dire au passage que Claude 4 est excellent.
De Anthropic, mais, mais bon, voilà. Donc du coup, on se retrouve dans une situation où, parce qu’on avait un contrat cloud avec Amazon qui a lui-même un contrat avec Anthropic, finalement, ben nos trésors, nos trésors de données sont utilisés gratuitement par Anthropic pour entraîner son IA, et ensuite on rachète des licences pour utiliser Anthropic… C’est du délire !
Donc voilà, on arrive à ce genre de problème et ça c’est la répétition. Donc du coup, bien sûr, l’Europe elle n’est pas du tout du tout. Moi je fais partie des experts. Justement, maintenant, je suis consulté sur ces questions précises là. Donc, je sais très bien que l’Europe se réveille.
Les experts qui sont avec moi, ils le savent, ils le disent depuis longtemps. Je pense notamment à comment Jamal Atif, un grand professeur français. Je me rappellerai toujours en 2014. En mai, il nous parlait d’IA.
L’algorithme, je sais plus trop. Au CNRS, il arrive, on dit OK, je vais vous parler du sujet d’aujourd’hui, mais la chose que je veux que vous réussirez à retenir avant tout, c’est notre souveraineté en matière cloud. Il existe. En 2014, on peut parler de plein de choses, de créer des choses super, mais si on n’a pas la souveraineté sur notre cloud, les données qu’on crée, on alimente des serveurs américains, on ne monte pas nos serveurs.
Voilà. Il était, il le disait, il le disait, il n’arrêtait pas de le radoter,
Tout le monde l’écoutait avec, avec, avec intérêt. Mais on n’a pas mis ça en pratique parce que ça coûtait, ça coûtait beaucoup d’argent.
Et là, maintenant, l’Europe le met en pratique, mais il faut le temps de les faire sortir de terre, le temps de créer l’infrastructure, etc.
Donc c’est pas encore complètement. Maintenant, vers 2028, ça sera plus, d’ici 2028, ça peut se résoudre, mais très tardivement.
– Voilà, c’est en cours de résolution on va dire, mais avec un réveil un peu un peu brutal, un peu difficile.
Conclusion et Perspectives sur le Technoréalisme
Maxime Derian, anthropologue et spécialiste, expert et consultant, technoréaliste, entrepreneur était dans Soluble(s). Merci d’avoir joué la carte de la réflexion avec nous, tout en longueur, avec des pistes de solutions.
Je renvoie les auditeurs à ton carnet de recherche, je mets le lien dans la description, de tes ouvrages. Mais aussi, le plus simple, c’est de te suivre sur ton compte LinkedIn où tu prends régulièrement la parole ?
– Oui, énormément.
Oui, parce que ça permet justement d’hybrider ma pensée.
En fait, c’est le jeu. Je me suis dit, puisque je pense que la société va changer, dans la mesure où on sera de plus en plus hybridé dans une société ruche un peu tous en essaim, il faut choisir mon essaim et mon essaim que j’ai choisi, c’est délibérément, c’est LinkedIn parce qu’on parle en notre nom propre au nom de notre entreprise.
C’est quand même un peu moins moins la jungle que d’autres plateformes.
Et en fait, en jouant ce jeu-là, c’est sûr, c’est nous. On reçoit des critiques, mais on reçoit aussi des encouragements, et puis des informations en fait.
Et ça permet justement à un débat en temps réel sur des questions complexes.
Donc du coup, moi, j’essaye de rester réactif à ce qu’on me dit parce que tant que c’est tant que c’est sincère. Parce que quand c’est pas sincère, c’est une arrière-pensée autre dans le débat.
Mais par contre, je peux tout à fait me tromper sur plein de sujets ou avoir raison sur d’autres. Et c’est ça qui est intéressant cet échange, parce que là, on est dans l’inconnu, on découvre un nouveau monde qui s’ouvre à nous et c’est ensemble qu’on peut trouver les outils, les armes et les moyens de résilience, ou les béquilles ou plein de choses en fait, pour créer quelque chose pour, pour créer un monde qui va bien !
– Poursuivons ce fil avec toi. Donc en te rejoignant sur ce réseau social. Maxime Derian était dans Soluble(s)(s). Merci d’être passé dans cette émission.
– Merci Simon.
– Voilà, c’est la fin de cet épisode. Si vous l’avez aimé, notez-le, partagez-le et parlez-en autour de vous. Vous pouvez aussi nous retrouver sur notre site internet, csoluble.media, à bientôt !
(Transcription réalisée avec IA – Seul le prononcé fait foi)
POUR ALLER PLUS LOIN
- Suivre Maxime Derian sur LinkedIn.
- Lire : Le Carnet de recherche de Maxime Derian :
- Visiter le site : technorealisme.org
TIMECODES
00:00 Introduction
01:49 Le parcours de Maxime Derian
07:43 L’adoption rapide des chatbots IA
10:59 Parler à sa machine
13:20 En quoi l’IA nous change ?
18:08 Le boom de l’IA compagnon
24:09 L’illusion de l’empathie
34:31 La “servitude volontaire des humains au numérque”
40:17 Le Technoréalisme, c’est quoi ?
50:32 Discussion sur le progrès
56:07 Climat : Le problème énergétique de l’IA
61:08 La “souveraineté numérique”
72:00 Ressources
Merci à Maxime Derian !
74:50 Fin
_
Ecouter aussi
Les navettes autonomes, la clé pour une mobilité périurbaine plus verte ?
StudiAva : Le « Tinder de l’orientation » post-bac qui utilise l’IA pour aider les lycéens
IA et numérique : peut-on innover sans aggraver le changement climatique ?