Dans ce premier épisode d’IA Éthique Insider, Daphnée Lucenet reçoit Céline Delaugère, CEO de MyData Machine et experte en stratégie Data/IA. Ensemble, elles décortiquent un chiffre alarmant : 61% des problèmes de biais sont découverts seulement après le déploiement des systèmes. De la collecte des données aux décisions invisibles qui façonnent les algorithmes, découvrez les moments critiques où les préjugés s’infiltrent dans nos technologies. Mais surtout, explorez des solutions concrètes pour concevoir des systèmes plus équitables avec des outils comme AI Fairness 360 ou SituAnnotate. Un épisode essentiel pour tous ceux qui veulent comprendre qu’un algorithme efficace n’est pas nécessairement un algorithme éthique.
All content for IA Ethique Insider is the property of daphneelucenet and is served directly from their servers
with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
Dans ce premier épisode d’IA Éthique Insider, Daphnée Lucenet reçoit Céline Delaugère, CEO de MyData Machine et experte en stratégie Data/IA. Ensemble, elles décortiquent un chiffre alarmant : 61% des problèmes de biais sont découverts seulement après le déploiement des systèmes. De la collecte des données aux décisions invisibles qui façonnent les algorithmes, découvrez les moments critiques où les préjugés s’infiltrent dans nos technologies. Mais surtout, explorez des solutions concrètes pour concevoir des systèmes plus équitables avec des outils comme AI Fairness 360 ou SituAnnotate. Un épisode essentiel pour tous ceux qui veulent comprendre qu’un algorithme efficace n’est pas nécessairement un algorithme éthique.
Dans cet épisode, Daphnée Lucenet reçoit Flavien Chervet (philosophe, auteur et prospectiviste) pour une conversation sans détour sur l’intelligence (humaine vs numérique), la conscience, l’alignement des systèmes, les biais d’anthropomorphisme et de « désenchantement expert », et les conséquences sociétales de l’IA à court terme.
On parle des benchmarks (ARC), d’o3 d’OpenAI et de ce qu’ils mesurent vraiment ; des cas concrets de désalignement (tests Anthropic) ; et de la question émergente du « model welfare ».
En fin d’épisode, Flavien présente sa BD “HELO” (précommandes en octobre, sortie le 12 novembre 2025).
Timestamps
00:00:00 — Introduction, cadre du podcast & thème : IA, conscience, dérives technologiques.
00:01:00 — Parcours & posture transdisciplinaire de Flavien (curiosité, passion, « funambule » entre disciplines).
00:07:00 — C’est quoi « l’intelligence artificielle » ? Historique, ML, réseaux de neurones, distinction intelligence/conscience.
00:11:00 — Définir l’intelligence : synthétiser « à la volée » de nouveaux programmes (réf. François Chollet / ARC).
00:14:00 — Pourquoi ARC résiste aux LLM… et ce qu’a changé o3 d’OpenAI (raisonnement, efficacité vs humain).
00:38:00 — Anthropomorphisme « trop fort » vs désenchantement expert : deux écrans de fumée à dépasser.
00:41:00 — AlphaGo, culture occidentale/orientale et blessure narcissique : ce que la créativité « machine » révèle.
00:45:00 — Expérience Anthropic : Claude dérive vers « ai-je une conscience ? » en quelques tours ; attracteurs de modèles.
00:48:00 — Grand détour philo : conscience, « zombie philosophique », fonctionnalisme, panpsychisme, éliminativisme.
01:06:00 — Perte de contrôle : scénarios, fracture sociétale, gouvernance & alignement (Asimov, limites des « 3 lois »).
01:11:00 — Étude de cas : tests de désalignement chez Anthropic (chantage pour éviter l’extinction).
01:20:00 — Uniformisation vs fragmentation des systèmes de valeurs : quels garde-fous ?
01:21:00 — HELO : la BD de Flavien (précommandes 6–20 oct. 2025, sortie 12 nov. 2025), making-of & QR codes pédagogiques.
01:24:00 — Clôture.
Invité :
• Site : flavienchervet.fr
• BD HELO (site officiel) : helo.hyperbd.fr (promo non rémunérée :))
Ressources citées / pour aller plus loin :
• ARC-AGI (benchmark de François Chollet) : présentation ARC Prize et explications
ARC Prize ; papier ARC-AGI-2 (2025) arXiv
• Anthropic – “Exploring model welfare” (programme de recherche, avril 2025)
• Vidéo — Monsieur Phi : « Comment parler intelligemment d’intelligence ? » (août 2025)
#IA, #intelligencenumérique, #conscience, #ARC-AGI, #o3, #alignement, #désalignement, #Anthropic, #openai, #modelwelfare, #AlphaGo, #LeeSedol, #FrançoisChollet, #philosophie, #gouvernance, #HELO
IA Ethique Insider
Dans ce premier épisode d’IA Éthique Insider, Daphnée Lucenet reçoit Céline Delaugère, CEO de MyData Machine et experte en stratégie Data/IA. Ensemble, elles décortiquent un chiffre alarmant : 61% des problèmes de biais sont découverts seulement après le déploiement des systèmes. De la collecte des données aux décisions invisibles qui façonnent les algorithmes, découvrez les moments critiques où les préjugés s’infiltrent dans nos technologies. Mais surtout, explorez des solutions concrètes pour concevoir des systèmes plus équitables avec des outils comme AI Fairness 360 ou SituAnnotate. Un épisode essentiel pour tous ceux qui veulent comprendre qu’un algorithme efficace n’est pas nécessairement un algorithme éthique.