Dans ce premier épisode d’IA Éthique Insider, Daphnée Lucenet reçoit Céline Delaugère, CEO de MyData Machine et experte en stratégie Data/IA. Ensemble, elles décortiquent un chiffre alarmant : 61% des problèmes de biais sont découverts seulement après le déploiement des systèmes. De la collecte des données aux décisions invisibles qui façonnent les algorithmes, découvrez les moments critiques où les préjugés s’infiltrent dans nos technologies. Mais surtout, explorez des solutions concrètes pour concevoir des systèmes plus équitables avec des outils comme AI Fairness 360 ou SituAnnotate. Un épisode essentiel pour tous ceux qui veulent comprendre qu’un algorithme efficace n’est pas nécessairement un algorithme éthique.
All content for IA Ethique Insider is the property of daphneelucenet and is served directly from their servers
with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
Dans ce premier épisode d’IA Éthique Insider, Daphnée Lucenet reçoit Céline Delaugère, CEO de MyData Machine et experte en stratégie Data/IA. Ensemble, elles décortiquent un chiffre alarmant : 61% des problèmes de biais sont découverts seulement après le déploiement des systèmes. De la collecte des données aux décisions invisibles qui façonnent les algorithmes, découvrez les moments critiques où les préjugés s’infiltrent dans nos technologies. Mais surtout, explorez des solutions concrètes pour concevoir des systèmes plus équitables avec des outils comme AI Fairness 360 ou SituAnnotate. Un épisode essentiel pour tous ceux qui veulent comprendre qu’un algorithme efficace n’est pas nécessairement un algorithme éthique.
IA, plateformes et manipulation de l’opinion : une menace pour nos démocraties
IA Ethique Insider
49 minutes
1 month ago
IA, plateformes et manipulation de l’opinion : une menace pour nos démocraties
Dans cet épisode d'IA Éthique Insider, nous plongeons au cœur d'une guerre silencieuse : celle qui se joue pour le contrôle de nos opinions.
Daphnée Lucenet reçoit David Chavalarias, directeur de recherche au CNRS, directeur de l'Institut des Systèmes Complexes de Paris et auteur de "Toxic Data" et "Elon Musk en 58 tweets", décrypte les mécanismes de manipulation qui transforment nos démocraties.
Des réseaux sociaux à l'IA générative, comment les plateformes amplifient la toxicité et la polarisation ?
Comment le rachat de Twitter par Elon Musk a-t-il transformé X en outil d'influence politique ?
Quelles solutions existent pour reprendre le contrôle de nos espaces informationnels ?
Un échange sans concession pour comprendre les enjeux de souveraineté numérique et de démocratie à l'ère de l'intelligence artificielle.
📚 Livres mentionnés : "Toxic Data" et "Elon Musk en 58 tweets" de David Chavalarias
🔗 Ressources évoquées : Politoscope, Open Portability, Jugement Majoritaire
⏱️ SOMMAIRE : 00:00 - Introduction
02:00 - Parcours de David Chavalarias
05:00 - Politoscope : observer la manipulation en temps réel
10:00 - La transformation du paysage politique français
14:00 - L'effet Elon Musk sur Twitter/X
18:00 - Les ingérences étrangères et la subversion
21:00 - IA générative : le nouveau palier de manipulation
27:00 - Les dangers de la relation affective avec l'IA
31:00 - Guerre cognitive et géopolitique
38:00 - Solutions : authentification, jugement majoritaire
44:00 - Se réapproprier les espaces numériques
💬 Et vous, pensez-vous que nos démocraties peuvent résister à cette guerre cognitive ?
Partagez votre avis en commentaire !
Suivez-moi sur :
Linkedin : https://www.linkedin.com/in/daphneelucenet/
Instagram : https://www.instagram.com/iaethiqueinsider
Substack : https://iaethiqueinsider.substack.com/
👍 Likez, commentez, et abonnez-vous pour ne pas manquer les prochains épisodes!
#IAéthique #NumériqueResponsable #FrugalitéNumérique #IA #Démocratie #RéseauxSociaux #Manipulation #ElonMusk #Twitter #GuerreCognitive #CNRS #Podcast
IA Ethique Insider
Dans ce premier épisode d’IA Éthique Insider, Daphnée Lucenet reçoit Céline Delaugère, CEO de MyData Machine et experte en stratégie Data/IA. Ensemble, elles décortiquent un chiffre alarmant : 61% des problèmes de biais sont découverts seulement après le déploiement des systèmes. De la collecte des données aux décisions invisibles qui façonnent les algorithmes, découvrez les moments critiques où les préjugés s’infiltrent dans nos technologies. Mais surtout, explorez des solutions concrètes pour concevoir des systèmes plus équitables avec des outils comme AI Fairness 360 ou SituAnnotate. Un épisode essentiel pour tous ceux qui veulent comprendre qu’un algorithme efficace n’est pas nécessairement un algorithme éthique.