⭕ Compte-rendu – Petit-déjeuner débat du Cercle Rouge

Thème : IA, World Models, agentique, usages, souveraineté et responsabilité

Publié le 23/01/2026 | Par Edouard de Miollis
🎧
Écouter cet article (Audio IA)
Compte-rendu – Petit-déjeuner débat du Cercle Rouge du 20 janvier 2026

Thème : Intelligence artificielle, World Models, agentique, usages, souveraineté et responsabilité
Durée : env. 1h45

⭕ Le petit-déjeuner débat s’est ouvert par un mot d’accueil rappelant l’esprit du Cercle Rouge : un espace de réflexion transdisciplinaire, mêlant dirigeants, experts, praticiens et observateurs de long terme. Plusieurs nouveaux participants ont été présentés, issus notamment des secteurs de la restauration, de la mode, du droit, de l’international et du conseil.

Dès l’introduction, il a été posé un cadre clair : la rencontre n’avait pas pour objectif de promouvoir l’IA de manière naïve ou commerciale, mais d’en examiner lucidement les évolutions, les limites, les usages réels et les implications profondes pour les entreprises, l’éducation et la société.

1. Rappel du contexte technologique : de l’IA générative aux World Models

La première partie a été consacrée à une mise à niveau collective sur l’état de l’IA.
Les modèles de langage (LLM) comme ChatGPT, Gemini, Claude ou Mistral ont été rappelés comme des systèmes extrêmement performants sur le langage, la synthèse, le code et la génération de contenus, mais structurellement limités par leur absence de compréhension physique et causale du monde.

Cette limite a été illustrée par les exemples de génération vidéo (Sora) montrant des incohérences physiques (gravité inversée, bougies qui se rallument, trajectoires impossibles). Ces erreurs ne relèvent pas d’un bug mais de la nature même des LLM : ils prédisent des séquences probables (mots ou pixels) sans modèle interne de causalité.

C’est dans ce contexte qu’a été introduite la notion de World Models, portée notamment par Yann LeCun et d’autres chercheurs : une architecture visant non plus à prédire le mot suivant, mais l’état futur du monde en fonction d’actions possibles.

2. Présentation pédagogique des World Models (via podcast généré par IA)

Un podcast explicatif, généré par NotebookLM (Google), a été diffusé pour homogénéiser le niveau de compréhension des participants.
Il a permis de détailler l’architecture type des World Models :

  • un modèle du monde / simulateur, capable de simuler des futurs possibles ;

  • un module de coût, combinant coûts intrinsèques (sécurité, énergie, contraintes physiques) et apprentissage des risques futurs ;

  • un acteur, chargé de sélectionner la séquence d’actions minimisant le coût total.

L’architecture s’inspire explicitement des travaux de Daniel Kahneman avec une distinction entre :

  • un système 2 lent, délibératif, planificateur ;

  • un système 1 rapide, réflexe, appris par répétition.

Cette combinaison permettrait à une IA de planifier, d’anticiper, puis d’automatiser certains comportements, ouvrant la voie à des agents autonomes plus robustes (robotique, conduite autonome, agents logiciels).

Il a été clairement établi que World Models et LLM ne sont pas concurrents mais complémentaires :
les LLM excellent dans la connaissance et le langage ;
les World Models visent l’action et la prédiction causale.

3. Limites techniques actuelles et risques de sur-promesse

Plusieurs limites ont été soulignées :

  • accumulation d’erreurs dans les simulations à long horizon ;

  • difficulté à gérer l’incertitude et le chaos du réel ;

  • risque de “agent washing” marketing, où des systèmes simples seraient abusivement présentés comme des World Models ;

  • coûts énergétiques et matériels très élevés (calcul, GPU, refroidissement, capteurs).

Il a été rappelé que les World Models sont encore en phase de recherche avancée, loin d’un déploiement massif opérationnel fiable.

4. De l’IA conversationnelle à l’agentique en entreprise

Un retour d’expérience concret a été partagé sur l’adoption de l’IA dans les grandes organisations :

  • déploiement massif de ChatGPT “sécurisé” souvent sous-utilisé ou utilisé à des fins personnelles ;

  • difficulté majeure des collaborateurs à transformer un besoin métier en instruction exploitable (prompt) ;

  • nécessité de cartographier finement les processus métiers avant toute automatisation.

Une méthode progressive a été présentée :

  1. cartographie des métiers et processus ;

  2. transformation des étapes en prompts experts ;

  3. usage de méta-prompts générant eux-mêmes des instructions adaptées ;

  4. constitution d’une base de prompts métiers structurés ;

  5. déploiement progressif d’agents autonomes connectés aux systèmes existants.

Il a été souligné que l’agentique ne supprime pas l’humain mais déplace son rôle : supervision, arbitrage, responsabilité.

5. Formation, éducation et fracture cognitive

Un consensus fort a émergé sur le retard structurel de l’éducation formelle face à ces technologies.
Punir l’usage de l’IA est apparu contre-productif, à l’image de l’interdiction passée des calculatrices.

Plusieurs points clés ont été débattus :

  • nécessité d’apprendre à penser avec l’IA, non à déléguer la pensée ;

  • importance de la capacité à questionner, reformuler, critiquer ;

  • différence générationnelle marquée dans l’appropriation des outils ;

  • émergence d’une fracture cognitive, plus profonde que l’ancienne fracture numérique.

L’exemple pédagogique d’une enfant utilisant l’IA pour créer une chanson éducative sur l’IA a illustré un usage vertueux : l’IA comme exosquelette cognitif, non comme substitut.

6. Décision, pouvoir et responsabilité humaine

Un point central du débat a porté sur la décision.
Les participants ont insisté sur le fait que :

  • décider n’est pas calculer ;

  • une IA peut recommander, pas assumer ;

  • les préférences humaines, les valeurs, les intuitions échappent aux modèles.

Le risque identifié est celui d’une déresponsabilisation progressive des dirigeants, tentés de s’abriter derrière des recommandations algorithmiques.

7. Géopolitique, souveraineté et infrastructures

La dimension géopolitique a occupé une place majeure :

  • dépendance européenne massive aux technologies américaines (Cloud Act vs IA Act) ;

  • concentration des capacités de calcul, des puces et des plateformes ;

  • vulnérabilité stratégique en cas de restriction d’accès ;

  • enjeux énergétiques et de refroidissement (fonds marins, régions froides comme le Groenland, Scandinavie).

Il a été rappelé que l’IA est une industrie lourde, extractive, reposant sur des ressources rares, des réseaux, de l’énergie et des infrastructures critiques.

8. Usages malveillants, fraudes et risques systémiques

Des cas concrets de fraudes bancaires facilitées par l’IA ont été détaillés :

  • deepfakes en temps réel ;

  • faux documents indétectables ;

  • attaques à grande échelle sur les processus RH et bancaires.

Ces exemples ont mis en évidence l’asymétrie croissante entre capacités d’attaque et capacités de contrôle.

9. Critique épistémologique et philosophique des World Models

Une intervention de fond de Thibault Le Carpentier a apporté une critique épistémologique structurée :

  • rappel que la carte n’est pas le territoire ;

  • distinction entre environnement objectivé et milieu vécu ;

  • risque de naturalisation des modèles ;

  • multiplication des biais et du bruit dans les systèmes prédictifs ;

  • incapacité structurelle des World Models à produire de la sérendipité.

Il a été souligné que les grandes ruptures (ex. usage des GPU pour l’IA) sont issues d’accidents, d’erreurs, de détournements, que les modèles prédictifs ne peuvent anticiper.

10. Ouvertures et perspectives

Plusieurs pistes ont été évoquées :

  • rôle possible des petites nations agiles ;

  • innovations alternatives (stockage ADN, frugalité énergétique) ;

  • nécessité d’un imaginaire collectif lucide sur l’IA ;

  • importance de préserver un espace humain de jugement, d’erreur et de responsabilité.

⭕ Conclusion

Ce petit-déjeuner débat a mis en évidence que l’IA n’est plus un sujet technologique isolé, mais un fait civilisationnel total.
Les World Models représentent une avancée majeure, mais posent autant de questions qu’ils n’apportent de solutions.

La responsabilité humaine, la capacité critique, la souveraineté et l’éducation apparaissent comme les véritables enjeux structurants des années à venir.

Édouard de Miollis

← Retour aux analyses