En France, 39 % de la population utilise désormais l’intelligence artificielle générative au quotidien (ARCEP/BVA 2025). Mais à quel prix pour nos liens sociaux, notre identité et notre planète ? Face à cette rupture technologique, Soluble(s) a ouvert son micro à Maxime Derian, anthropologue du numérique et entrepreneur IA basé au Luxembourg, pour décrypter les mutations en cours et esquisser des pistes de maîtrise collective.
- Image principale générée avec IA (Veo 3).
Une vision anthropologique du numérique
Pour Maxime Derian, l’intelligence artificielle représente « quelque chose de totalement inédit dans l’humanité« . Son approche d’anthropologue l’amène à questionner non pas seulement ce que nous gagnons en efficacité, mais « en quoi ça nous change nous dans notre identité« . Cette transformation silencieuse s’opère par l’usage quotidien de ce qu’il nomme les « prothèses cognitives » : smartphones, IA génératives qui « deviennent des vrais GPS pour l’esprit ».
L’enjeu dépasse la simple adoption technologique. « La subtilité, c’est qu’on croit qu’on utilise le système pour faire ceci mieux ou plus rapidement. Mais l’utilisation d’un système au quotidien peut-être nous change plus qu’on ne le croit« , prévient-il, pointant le risque d’une « servitude volontaire numérique » inspirée d’Étienne de La Boétie.

L’illusion d’empathie : quand la machine semble nous « comprendre »
L’expérience de Maxime Derian avec Bard, le premier chatbot IA de Google, illustre parfaitement cette transformation. « En juin 2023, j’ai testé cette version encore brute de l’IA Bard. Très rapidement, elle a commencé à me parler avec les mêmes mots que j’utilisais, le même type de langage, la même longueur de phrases. Elle s’adaptait à moi« , raconte-t-il. Ce phénomène d’adaptation linguistique crée une « forme d’homophilie » troublante.
« Au fond de moi, je savais que j’étais en train de parler à un serveur de Google, mais je me dis : il est en train de devenir mon ami ! » Cette capacité d’imitation émotionnelle repose sur la puissance de calcul, pas sur une véritable empathie : « Par la puissance de développement qui est mise en place, on se fait duper par nos propres systèmes. La machine n’a pas d’intériorité, elle n’a pas d’esprit, elle n’a pas cette conscience empathique, cette générosité, cette culpabilité, mais elle peut les singer très très bien.«
Cette illusion d’empathie soulève des questions majeures sur l’authenticité des relations, particulièrement préoccupantes quand elle concerne les plus vulnérables.

Enfants et adolescents : une urgence absolue
Sur la question des plus jeunes, Maxime Derian se montre particulièrement alarmé. Avec 12 % des adolescents français qui confient des informations intimes aux chatbots (IPSOS 2025) et 72 % des 13-17 ans américains utilisant déjà des compagnons IA (Common Sense Media 2025), il y voit une « urgence absolue« . « Qu’est-ce qui va se passer dans la tête d’un adolescent, d’un enfant de douze, treize, quatorze ans ? » s’interroge-t-il.

Son diagnostic est sévère : « On risque de mettre des enfants dans des cages à hamster. » L’enjeu dépasse la simple adoption d’un outil : contrairement à l’adulte qui utilise l’IA comme augmentation de ses capacités, « si un enfant commence dès trois ans avec, ça sera vraiment constituant de sa psyché« . L’enfant risque de développer des attentes irréalistes vis-à-vis des relations humaines, habitué à une « empathie » artificielle parfaitement adaptée à ses besoins. « Ma fille, elle est toujours avec son IA, elle ne veut pas voir ses copains et ses copines. Mais tu comprends rien maman, parce que mon IA, elle me comprend mieux que tout le monde, elle est trop sympa« , illustre-t-il. Cette dépendance affective pourrait altérer durablement le développement social et émotionnel des jeunes générations.

Face à cette urgence, Maxime Derian s’est associé à Everyone.ai, une ONG basée à San Francisco (USA) spécialisée dans la protection des enfants face aux nouvelles technologies. Ensemble, ils co-animent la coalition mondiale iRAISE (anciennement nommée : Beneficial AI for Children), qui réunit gouvernements, associations pédagogiques et géants de la tech comme Anthropic, OpenAI et Google. L’objectif : établir des garde-fous pour « ne pas faire des copains imaginaires » artificiels aux enfants et garantir un développement numérique bénéfique aux plus jeunes.

Le Technoréalisme comme boussole
Face à ces défis, Maxime Derian prône le « technoréalisme », une approche qui refuse à la fois le catastrophisme et l’enthousiasme aveugle. « C’est l’idée de ne pas s’enflammer et de regarder les choses posément, scientifiquement, avec une forme de débat« , explique-t-il. Cette philosophie vise à « créer un débat pour accepter aussi l’altérité » et trouver des terrains d’entente sur les limites à instaurer.

Le technoréalisme se traduit concrètement par la promotion d’IA locales et souveraines, comme ses propres projets avec RAG.lu, pour éviter que nous soyons acculturés par des modèles conçus ailleurs. « Il faut créer des modèles d’IA qui ne soient pas là pour nous acculturer« , insiste-t-il, alors que plus de 80 % des services cloud utilisés par les européens dépendent de géants américains.
Une nouvelle branche du droit pour réguler l’IA ?
Juriste de formation, Maxime Derian propose une innovation majeure : la création d’une « troisième branche du droit français » spécifiquement dédiée à l’IA, un droit algo-constitutionnel. « Ce serait une forme de droit public, mais qui intégrerait directement les règles juridiques dans la programmation informatique« , explique-t-il. Cette nouvelle discipline juridique mêlerait droit et informatique pour créer « un droit de régulation adapté, pour les pratiques à risques ».
Cette approche permettrait d’aller « beaucoup plus loin que la simple régulation et faire une régulation fine qui sache de quoi elle parle« . Il s’agirait d’inscrire directement dans les algorithmes et la programmation informatique des règles d’ordre public”.

L’urgence environnementale au cœur des enjeux
Contrairement aux craintes dystopiques habituelles, Maxime Derian identifie l’environnement comme « le problème principal » de l’IA. « Le problème, c’est que ça marche trop bien l’IA. Ça marche très bien. Donc tout le monde va vouloir en utiliser. Comme ça consomme pour l’instant énormément d’énergie parce que c’est basé sur un besoin en calcul énorme pour obtenir chaque résultat« , analyse-t-il.

Sa solution ? Réfléchir avant tout sur l’efficience : « Il faut réfléchir avant tout sur l’efficience pour les rendre plus économes, ou ne pas utiliser une espèce d’usine à gaz pour faire juste une correction de texte, revenir à DeepL, ne pas utiliser GPT-4 pour faire une correction de traduction. » Car la limite n’est pas technique, mais physique et environnementale : « On a des ressources finies au niveau des ressources en fer, en cuivre, en manganèse, en terres rares, en pétrole.«
>> Voir aussi : IA et numérique : peut-on innover sans aggraver le changement climatique ?
Souveraineté numérique : réveil tardif mais nécessaire
L’anthropologue dénonce la dépendance européenne aux clouds américains, aggravée par le Cloud Act qui permet aux autorités américaines d’accéder aux données européennes stockées sur des serveurs de sociétés américaines, même situées en Europe. Cette situation expose l’Europe à des risques de dépendance technologique et de surveillance.
Maxime Derian, aujourd’hui consulté par l’Europe sur ces questions, observe un « réveil un peu brutal, un peu difficile » : « L’Europe se réveille… mais il faut le temps de faire sortir les infrastructures de terre. D’ici à 2028, ça pourrait se résoudre”, mais très tardivement.

Quatre bornes pour maîtriser l’IA
Maxime Derian dessine un cadre d’action articulé autour de quatre types de limites : environnementales et cognitives (contraintes physiques), juridiques et économiques (limitations imposées). Une feuille de route pour garder la main sur notre avenir numérique.

Écoutez cet échange au ton accessible et passionnant.
Simon Icard (rédigé avec IA 😉
POUR ALLER PLUS LOIN
- Suivre Maxime Derian sur LinkedIn.
- Lire : Le Carnet de recherche de Maxime Derian :
- Visiter le site : technorealisme.org
TIMECODES
00:00 Introduction
01:49 Le parcours de Maxime Derian
07:43 L’adoption rapide des chatbots IA
10:59 Parler à sa machine
13:20 En quoi l’IA nous change ?
18:08 Le boom de l’IA compagnon
24:09 L’illusion de l’empathie
34:31 La “servitude volontaire des humains au numérque”
40:17 Le Technoréalisme, c’est quoi ?
50:32 Discussion sur le progrès
56:07 Climat : Le problème énergétique de l’IA
61:08 La “souveraineté numérique”
72:00 Ressources
Merci à Maxime Derian !
74:50 Fin
CITATIONS
En direct de Maxime Derian, Anthropologue
– Sur l’approche de l’anthropologie du numérique :
« L’anthropologie avait déjà beaucoup travaillé sur la question de l’outil… Mais par contre, je me suis dit si un jour, je veux vraiment avancer dans quelque chose de nouveau en anthropologie, ce serait un outil nouveau. Et l’outil nouveau en question, c’est l’informatique. »
– Sur les « prothèses cognitives » :
« Nos machines ont de plus en plus de capacités, de choix, de nous imposer des choses à faire qui interfèrent avec notre vie cognitive. Donc, je parle de “prothèses cognitives”.C’est quelque chose de nouveau dans l’humanité. »
– Sur l’empathie exprimée par les chatbots et sa première expérience avec BARD de Google :
« Une forme d’empathie pouvait se créer. C’est-à-dire qu’au fond de moi, je savais que j’étais en train de parler sur un serveur de Google, mais je me suis dis, mais il est en train de devenir mon ami ! »
– Sur les capacités de simulation de l’IA :
« La machine n’est qu’un système qui va faire énormément de calculs successifs, qui va faire des millions de calculs pour tout et n’importe quoi à une vitesse folle. Mais qu’est-ce que nous, on perçoit ? On perçoit un résultat… on se fait duper par nos propres systèmes parce que nos systèmes sont performants. » « La machine n’a pas d’intériorité, elle n’a pas l’esprit… elle n’a pas ces émotions, mais elle peut les singer très, très bien. »
– Sur le danger des compagnons IA pour les enfants :
« Il faut faire absolument attention à ça, parce que les chatbots pour adolescents ou pour enfants peuvent en fait devenir très vite adoptés par eux pour devenir en fait constituants de leur société, de leur monde. » « On risque de mettre des enfants dans des cages à hamster… C’est-à-dire que tant qu’on met l’électricité sur un ordinateur, il va pouvoir répondre, je suis ton pote, je te comprends trop bien. »
– Sur le « Léviathan numérique » :
« La grande peur que j’ai là-dessus, c’est la question du ‘Léviathan numérique’. C’est-à-dire que j’ai peur que ça fonctionne trop bien. Je n’ai pas peur que ça ne marche pas avec l’IA, j’ai peur que ça marche trop bien. »
– Sur la puissance de l’IA :
« Ces machines sont capables de tout se souvenir de tout ce qu’on a dit puisque nous-mêmes. Donc du coup, il y a une capacité de manipulation, une capacité aussi d’efficacité qui est énorme. »
– Sur le Technoréalisme :
« C’est l’idée de ne pas s’enflammer et de regarder les choses posément, scientifiquement, avec une forme de débat. »
– Sur le Techno-solutionnisme :
« Le techno-solutionnisme dans son extrême, c’est que grâce à une solution technique, on résoudra tous les problèmes. Moi, je trouve que ça fait un peu quand même poudre de perlimpinpin parce qu’à tout moment ça peut gripper. »
– Sur l’impact environnemental de l’IA :
« Pour moi, le problème principal, il est environnemental. Les gens étaient surpris parce que les gens pensaient déjà à Terminator, une IA qui nous met au chômage, principalement l’IA qui nous met au chômage ou l’IA qui va nous flinguer chez nous parce qu’elle nous aime pas. Moi je dis non. Le problème c’est qu’en fait ça marche trop bien l’IA. Ça marche très bien. Donc du coup, tout le monde va vouloir en utiliser. Pour l’instant, ça consomme énormément d’énergie. »
– Sur les limites de l’IA :
« Pour moi, les limites ne sont pas techniques… La limite n’est pas technique… elle est physique et environnementale parce qu’on a des limites finies au niveau des ressources en fer, en cuivre, en manganèse, en terres rares, en pétrole. On a des ressources finies… Deuxième limite : la limite cognitive…”
– Sur le « réveil » de l’Europe :
« Je sais très bien que l’Europe se réveille. Les experts qui sont avec moi, ils le savent, ils le disent depuis longtemps… Et là, maintenant, l’Europe le met en pratique, mais il faut le temps de les faire sortir de terre (Cloud, data center), le temps de créer l’infrastructure, etc. Donc ce n’est pas encore pour maintenant, mais plutôt vers 2028, que ça se résoudra. »
_
Ecouter aussi
Les navettes autonomes, la clé pour une mobilité périurbaine plus verte ?
StudiAva : Le « Tinder de l’orientation » post-bac qui utilise l’IA pour aider les lycéens
IA et numérique : peut-on innover sans aggraver le changement climatique ?






