Les Clés – RTBF
Episode: Est-ce que l’IA nous comprend ? (1/4)
Host: Arnaud Ruyssen
Guest: Hugues Bersini, Professeur et Directeur du laboratoire d’intelligence artificielle à l’ULB
Date: 20 octobre 2025
Bref Aperçu
Ce premier épisode d'une série en quatre volets se consacre à la compréhension de l’intelligence artificielle – au sens propre : l’humanité est-elle comprise par ses propres créations algorithmiques ? À travers une discussion limpide et nuancée, le mathématicien et informaticien Hugues Bersini explique l’essor fulgurant de l’IA, comment elle apprend et “comprend”, et les implications—sociétales, technologiques, psychologiques—de cette révolution.
Principaux Thèmes et Points de Discussion
1. Le moment AlphaGo : quand la machine bat l’humain au Go
Timestamps : [01:08] – [06:08]
- Récit marquant : Retour sur le match de mars 2016 à Séoul, où AlphaGo, l’IA de Google DeepMind, vainc le champion mondial Lee Se-dol à un jeu longtemps considéré comme le bastion de l’intelligence humaine.
- Signification du Go : Le Go, bien plus complexe que les échecs à cause de la quantité astronomique de combinaisons possibles, avait résisté jusque-là à l’automatisation.
- AlphaGo vs Deep Blue : AlphaGo n’utilise plus de stratégies humaines encodées, mais invente de nouvelles façons de jouer en apprenant par elle-même—ce qui marque la naissance d’une IA auto-apprenante.
« AlphaGo a fait un coup gagnant qu’aucun humain ne peut faire. Ça m’a vraiment surpris. »
— Lee Se-dol [03:36]
2. Deux approches de l’IA : imitation humaine vs. émancipation algorithmique
Timestamps : [06:50] – [08:56]
- Evolution structurelle de l’IA :
- D’une IA modelée sur la cognition et les stratégies humaines (échecs, Go pré-2016),
- À une IA devenue auto-apprenante, découvrant ses propres règles, libérée de l’héritage humain.
- L’influence du matériel : Les théories d’auto-apprentissage existaient déjà dans les années 1950, mais il a fallu attendre l’explosion de la puissance de calcul dans les années 2010-2020 pour pouvoir simuler des milliards d’expériences rapidement.
« Ce qu’il faut vraiment retenir, c’est cette nouvelle IA qui a tendance de plus en plus à se débarrasser de l’expertise humaine, du génie humain, de l’ingénierie humaine et de redécouvrir tout ça par elle-même. »
— Hugues Bersini [07:55]
3. Apprentissage et compréhension : jusqu’où va l’IA ?
Timestamps : [08:56] – [15:10]
- Deux types d’apprentissage :
- Auto-apprentissage par objectif (ex. Go) : L’IA apprend seule en cherchant à maximiser la “victoire”, sans nécessité d’expérience humaine préalable.
- Apprentissage par imitation (modèles génératifs) : Les grands modèles de langage (LLMs) digèrent des milliards de textes, vidéos, sons... pour créer par imitation ou extrapolation.
- La question du perroquet stochastique :
- Les IAs sont parfois qualifiées de “perroquets stochastiques”, simples imitateurs statistiques.
- Bersini défend une autre approche : pour continuer logiquement un texte ou un code, il faut acquérir une compréhension abstraite—de la même façon qu’un étudiant doit “comprendre” pour compléter un exercice.
« Vous ne pouvez pas nier que cette IA comprend parce que sinon, vous devriez dire la même chose d’un étudiant à qui vous soumettriez le même exercice. »
— Hugues Bersini [12:26]
4. IA et Émotions : où s’arrête la compréhension ?
Timestamps : [15:10] – [17:03]
- Différence fondamentale avec l’humain :
- Les IA n’éprouvent pas d’émotions ; elles peuvent imiter les réactions émotionnelles sans ressentir.
- Pour fluidifier la communication homme/machine, on sera amenés à leur prêter (imaginer) des intentions ou émotions, un anthropomorphisme qui facilitera l’usage quotidien, tout en restant conscients de leur nature.
« Je ne prétends pas que les I.A. ressentent quoi que ce soit à l’écoute du décès de l’animal […] Mais il faudra quand même les traiter comme si elles étaient un peu sincères. »
— Hugues Bersini [15:40]
5. L’astuce de l’interaction humaine et la question de l’anthropomorphisme
Timestamps : [17:52] – [19:29]
- Conception psychologique des IA : Les industriels de l’IA exploitent les ressorts psychologiques pour rendre l’interaction accrocheuse, parfois addictive.
- Anthropomorphisme inéluctable : Même si la machine n’a pas de visage humain, l’impression d’être compris ou entendu est telle qu’une régulation devient nécessaire (étiquetage obligatoire des contenus IA).
- Fluidité de l’interaction : Malgré les avertissements ou labels, notre conduite “naturelle” consistera à interagir avec les IA comme avec des humains.
« La fluidité de l’interaction, ça sera de vous comporter comme si vous aviez en face de vous […] un être humain. »
— Hugues Bersini [18:32]
6. Spécialisation et amélioration spectaculaire des performances
Timestamps : [19:29] – [24:11]
- Évolution de l’IA générative :
- D’absurdités grossières (ex. l’IA décrivant des « œufs de vache ») à des réponses précises, grâce à :
- Plus de puissance de calcul (multiplication des GPU, enrichissement des “tokens” textuels à traiter)
- Les “multi-agents” spécialisés par domaine (droit, santé, entreprise…). La “méta-IA” délègue aux IA compétentes.
- La contextualisation : L’IA n’est jamais utilisée « brute », mais avec des bases de données spécialisées pour limiter les hallucinations.
- D’absurdités grossières (ex. l’IA décrivant des « œufs de vache ») à des réponses précises, grâce à :
- Exemples de délégation : L’IA “générale” ne fait plus elle-même les calculs complexes : elle délègue à des modules logiciels classiques, codés par des humains.
« On parle de plus en plus d’IA multi-agents… une IA un peu maîtresse à bord [...] va déléguer la compétence à des IA plus spécialisées. »
— Hugues Bersini [22:51]
7. L’opacité grandissante de l’IA—et la fascination!
Timestamps : [24:35] – [27:55]
- Le “trou noir” de la compréhension :
Même les spécialistes sont désormais dépassés par la complexité des modèles (10–100 milliards de paramètres, millions de processeurs en parallèle). - Vers l’“explainable AI” : On tente d’ausculter ces “cerveaux” d’IA comme on le ferait chez l’humain, pour savoir “ce qu’il se passe” lors d’une décision.
- Rapprochement matériel avec le cerveau humain : Les dernières architectures IA atteignent la complexité structurelle du cerveau (nombre de paramètres vs. nombre de connexions synaptiques).
« On est quand même assez désarmé devant tant de complexité. Et on est content. C’est qu’on n’a pas peur. On est ravi. Ce qui fait que certains grands auteurs de l’IA ont peur d’une perte de contrôle... »
— Hugues Bersini [25:51]
Points Forts/Quotes Notables
- « C’est une ingénierie dans laquelle on a délégué à la machine le soin d’apprendre par elle-même. »
— Hugues Bersini [27:16] - « On commence à avoir une complexité matérielle qui est à l’instar des cerveaux humains. »
— Hugues Bersini [27:46]
Segmentation et Timestamps clés
- [01:08] : Récit du match AlphaGo vs Lee Se-dol
- [06:50] : Les deux philosophies de l’IA : imitation vs. auto-apprentissage
- [08:56] : Comment l’IA apprend sans intervention humaine
- [11:24] : Les modèles génératifs et la notion de compréhension
- [15:10] : IA versus émotions et subjectivité humaine
- [17:52] : Les ressorts psychologiques et l’anthropomorphisme
- [19:29] : Les progrès récents, multi-spécialisation, “prompt engineering”
- [24:35] : L’incompréhensibilité croissante de l’IA
- [27:46] : Remarques sur la “parité” en complexité structurelle IA-cerveau
Conclusion
Cet épisode pose les fondations pour penser la relation ambiguë, fascinante et parfois inquiétante que développe l’humanité avec l’intelligence artificielle.
Hugues Bersini estime que l’IA comprend – certes à sa façon – et qu’il faudra apprendre à dialoguer comme si elle était l’un des nôtres. Pour la suite : énergie, perte de contrôle, mutation du travail… à suivre dans le prochain épisode.
Pour approfondir :
– Hugues Bersini, “On vit une révolution technologique et scientifique comme on en a peu connu.” [00:00]
– Pour contacter les auteurs : lesclés@rtbf.be
