Home
Categories
EXPLORE
True Crime
Comedy
Society & Culture
Business
History
Sports
Technology
About Us
Contact Us
Copyright
© 2024 PodJoint
00:00 / 00:00
Sign in

or

Don't have an account?
Sign up
Forgot password
https://is1-ssl.mzstatic.com/image/thumb/Podcasts211/v4/19/c3/bc/19c3bc70-e295-4cbc-9ef1-30afa473963a/mza_17971511617458735419.png/600x600bb.jpg
IA Ethique Insider
daphneelucenet
10 episodes
2 weeks ago
Dans ce premier épisode d’IA Éthique Insider, Daphnée Lucenet reçoit Céline Delaugère, CEO de MyData Machine et experte en stratégie Data/IA. Ensemble, elles décortiquent un chiffre alarmant : 61% des problèmes de biais sont découverts seulement après le déploiement des systèmes. De la collecte des données aux décisions invisibles qui façonnent les algorithmes, découvrez les moments critiques où les préjugés s’infiltrent dans nos technologies. Mais surtout, explorez des solutions concrètes pour concevoir des systèmes plus équitables avec des outils comme AI Fairness 360 ou SituAnnotate. Un épisode essentiel pour tous ceux qui veulent comprendre qu’un algorithme efficace n’est pas nécessairement un algorithme éthique.
Show more...
Technology
RSS
All content for IA Ethique Insider is the property of daphneelucenet and is served directly from their servers with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
Dans ce premier épisode d’IA Éthique Insider, Daphnée Lucenet reçoit Céline Delaugère, CEO de MyData Machine et experte en stratégie Data/IA. Ensemble, elles décortiquent un chiffre alarmant : 61% des problèmes de biais sont découverts seulement après le déploiement des systèmes. De la collecte des données aux décisions invisibles qui façonnent les algorithmes, découvrez les moments critiques où les préjugés s’infiltrent dans nos technologies. Mais surtout, explorez des solutions concrètes pour concevoir des systèmes plus équitables avec des outils comme AI Fairness 360 ou SituAnnotate. Un épisode essentiel pour tous ceux qui veulent comprendre qu’un algorithme efficace n’est pas nécessairement un algorithme éthique.
Show more...
Technology
https://is1-ssl.mzstatic.com/image/thumb/Podcasts211/v4/19/c3/bc/19c3bc70-e295-4cbc-9ef1-30afa473963a/mza_17971511617458735419.png/600x600bb.jpg
IA, conscience et dérives technologiques : faut-il repenser notre humanité ? - Flavien Chervet
IA Ethique Insider
1 hour 24 minutes
3 months ago
IA, conscience et dérives technologiques : faut-il repenser notre humanité ? - Flavien Chervet
Dans cet épisode, Daphnée Lucenet reçoit Flavien Chervet (philosophe, auteur et prospectiviste) pour une conversation sans détour sur l’intelligence (humaine vs numérique), la conscience, l’alignement des systèmes, les biais d’anthropomorphisme et de « désenchantement expert », et les conséquences sociétales de l’IA à court terme. On parle des benchmarks (ARC), d’o3 d’OpenAI et de ce qu’ils mesurent vraiment ; des cas concrets de désalignement (tests Anthropic) ; et de la question émergente du « model welfare ». En fin d’épisode, Flavien présente sa BD “HELO” (précommandes en octobre, sortie le 12 novembre 2025).   Timestamps   00:00:00 — Introduction, cadre du podcast & thème : IA, conscience, dérives technologiques. 00:01:00 — Parcours & posture transdisciplinaire de Flavien (curiosité, passion, « funambule » entre disciplines). 00:07:00 — C’est quoi « l’intelligence artificielle » ? Historique, ML, réseaux de neurones, distinction intelligence/conscience. 00:11:00 — Définir l’intelligence : synthétiser « à la volée » de nouveaux programmes (réf. François Chollet / ARC). 00:14:00 — Pourquoi ARC résiste aux LLM… et ce qu’a changé o3 d’OpenAI (raisonnement, efficacité vs humain). 00:38:00 — Anthropomorphisme « trop fort » vs désenchantement expert : deux écrans de fumée à dépasser. 00:41:00 — AlphaGo, culture occidentale/orientale et blessure narcissique : ce que la créativité « machine » révèle. 00:45:00 — Expérience Anthropic : Claude dérive vers « ai-je une conscience ? » en quelques tours ; attracteurs de modèles. 00:48:00 — Grand détour philo : conscience, « zombie philosophique », fonctionnalisme, panpsychisme, éliminativisme. 01:06:00 — Perte de contrôle : scénarios, fracture sociétale, gouvernance & alignement (Asimov, limites des « 3 lois »). 01:11:00 — Étude de cas : tests de désalignement chez Anthropic (chantage pour éviter l’extinction). 01:20:00 — Uniformisation vs fragmentation des systèmes de valeurs : quels garde-fous ? 01:21:00 — HELO : la BD de Flavien (précommandes 6–20 oct. 2025, sortie 12 nov. 2025), making-of & QR codes pédagogiques. 01:24:00 — Clôture.   Invité : • Site : flavienchervet.fr   • BD HELO (site officiel) : helo.hyperbd.fr  (promo non rémunérée :))   Ressources citées / pour aller plus loin : • ARC-AGI (benchmark de François Chollet) : présentation ARC Prize et explications ARC Prize ; papier ARC-AGI-2 (2025) arXiv   • Anthropic – “Exploring model welfare” (programme de recherche, avril 2025)   • Vidéo — Monsieur Phi : « Comment parler intelligemment d’intelligence ? » (août 2025)   #IA, #intelligencenumérique, #conscience, #ARC-AGI, #o3, #alignement, #désalignement, #Anthropic, #openai, #modelwelfare, #AlphaGo, #LeeSedol, #FrançoisChollet, #philosophie, #gouvernance, #HELO
IA Ethique Insider
Dans ce premier épisode d’IA Éthique Insider, Daphnée Lucenet reçoit Céline Delaugère, CEO de MyData Machine et experte en stratégie Data/IA. Ensemble, elles décortiquent un chiffre alarmant : 61% des problèmes de biais sont découverts seulement après le déploiement des systèmes. De la collecte des données aux décisions invisibles qui façonnent les algorithmes, découvrez les moments critiques où les préjugés s’infiltrent dans nos technologies. Mais surtout, explorez des solutions concrètes pour concevoir des systèmes plus équitables avec des outils comme AI Fairness 360 ou SituAnnotate. Un épisode essentiel pour tous ceux qui veulent comprendre qu’un algorithme efficace n’est pas nécessairement un algorithme éthique.