🗣️ Mon site de conférencier
———
📖 Le nouveau livre d’Olivier Tesquet et Nastasia Hadjadji
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
Repenser votre carrière
———
MES RECOMMANDATIONS
Mes livres préférés sur l’IA
Tous les livres que j’ai lus
———
QUI SONT OLIVIER TESQUET ET NASTASIA HADJADJI ?
Nastasia Hadjadji est journaliste et chroniqueuse, spécialiste de l’économie politique du numérique. Elle collabore avec « Le Monde », « Libération » et « Usbek & Rica », copilote la newsletter technocritique « Synth Média » et réalise des reportages pour l’émission « Tracks » sur Arte. Elle est également l’autrice de « No Crypto : Comment Bitcoin a envoûté la planète ».
Olivier Tesquet est journaliste à la cellule enquêtes de « Télérama », où il travaille depuis quinze ans sur l’impact des technologies sur nos sociétés. Il est l’auteur de plusieurs essais, parmi lesquels « À la trace », « État d’urgence technologique » et « Dans la tête de Julian Assange ».
Ils publient aujourd’hui ensemble « Apocalypse nerds : Comment les techno-fascistes ont pris le pouvoir », un ouvrage qui analyse la montée en puissance des idéologies technologiques autoritaires et leurs conséquences politiques et sociales.
———
TIME CODE
0:00 Introduction
1:35 Définition du techno-fascisme
7:40 Les manifestations actuelles du techno-fascisme
21:58 Les méthodes des techno-fascistes
37:56 Peut-on vraiment parler de fascisme ?
42:49 Les contradictions internes du techno-fascisme
54:09 Les liens entre l’IA et le techno-fascisme
1:12:41 Le techno-fascisme dans le monde
1:24:36 Que faire face au techno-fascisme ?
———
CRÉDITS
Captation : Studio Module
Montage : Swann Rossignol
Miniature : Drazik (VideoBees)
Le reste : Shaïman Thürler
🗣️ Mon site de conférencier
———
🎬 La chaîne YouTube du Précepteur et son nouveau livre
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
Mes livres préférés sur l’IA
Tous les livres que j’ai lus
———
QUI EST LE PRÉCEPTEUR ?
Charles Robin est philosophe et créateur de la chaîne YouTube « Le Précepteur », aujourd’hui la plus grande chaîne française de philosophie avec plus d’un million d’abonnés. Titulaire d’un master de philosophie, il a enseigné pendant près de dix ans avant de se consacrer à la transmission au grand public. Auteur de plusieurs ouvrages, il a récemment publié « La philosophie, c’est pour vous aussi ! ». Je l’ai invité afin de prolonger les réflexions ouvertes dans sa récente série de vidéos consacrée à l’intelligence artificielle.
———
TIME CODE
0:00 Introduction
1:20 Que penser de l’intelligence artificielle ?
14:00 Est-ce que l’IA simule l’humain mieux que l’humain ?
20:00 Pourquoi on n’accepte pas les capacités de l’IA ?
29:26 Quel est le propre de l’humain face à la machine ?
39:48 Que penser de l’automatisation du travail ?
49:12 Que penser du pouvoir des géants de la tech ?
1:02:15 Pourrait-on perdre le contrôle de l’IA ?
1:09:45 Allons-nous bientôt créer des machines surhumaines ?
1:15:40 L’humanité va-t-elle s’unifier face à l’IA ?
1:21:22 La technologie a-t-elle sa propre trajectoire ?
1:30:05 Qui faut-il écouter sur l’intelligence artificielle ?
1:37:05 Message à l’humanité
———
CRÉDITS
Captation : Studio Module
Montage : Swann Rossignol
Miniature : Drazik (VideoBees)
Le reste : Shaïman Thürler
👉 Créez votre site grâce à Hostinger : Réduction supplémentaire de 10 % avec le code FUTUROLOGUE
———
🎧 Écoutez mon interview et mon débat sur le podcast d’Alexandre
———
🗣️ Mon site de conférencier
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
Mes livres préférés sur l’IA
Tous les livres que j’ai lus
———
QUI EST ALEXANDRE POLAKOWSKI ?
Alexandre Polakowski est expert en régulation de l’intelligence artificielle. Conférencier et consultant, il accompagne les entreprises dans la mise en conformité de leurs usages de l’IA avec les réglementations en vigueur. Il est également l’animateur du podcast « Esprit IA », où il reçoit des spécialistes pour analyser et débattre des grands enjeux liés à l’intelligence artificielle.
———
TIME CODE
0:00 Introduction
1:10 L’importance de la réglementation de l’IA
2:57 Que penser de la réglementation de l’IA ?
6:18 L’effet Bruxelles
7:58 Les différentes opinions sur la réglementation de l’IA
11:33 La réglementation et l’innovation
13:03 Les avantages et les désavantages de l’Europe
15:11 La sécurité comme facteur de distinction
19:13 L’importance de l’anticipation
22:24 La pyramide des risques de l’AI Act
32:25 Le code de bonnes pratiques de l’AI Act
42:08 Que doivent mettre en place les entreprises ?
44:53 Le défi de l'opérationnalisation
48:39 L’enjeu de l’explicabilité
51:27 Les sanctions prévues par l’AI Act
55:23 Les domaines non couverts par l’AI Act
59:10 Les stratégies réglementaires des différents pays
1:09:12 La difficulté de mise en conformité des IA
1:11:22 Les prochaines étapes de l’AI Act
1:12:19 Des institutions lentes pour une technologie rapide
1:13:24 Les différentes positions sur l’IA
1:22:23 La réglementation face aux risques existentiels de l’IA
1:24:49 Le parcours d’Alexandre
1:29:01 Message à l’humanité
———
CRÉDITS
Captation : Underground Production
Montage : Swann Rossignol
Miniature : Drazik (VideoBees)
Le reste : Shaïman Thürler
👉 Créez votre site grâce à Hostinguer : Réduction de 10 % sur l’abonnement avec le code FUTUROLOGUE
———
📖 Pour acheter le livre
———
🗣️ Mon site de conférencier
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
QUI EST JÉRÉMY PERRET ?
Jérémy Perret est ingénieur et docteur en intelligence artificielle. Ancien chercheur et enseignant, il est spécialiste des dangers et de la sécurité de l’IA depuis plus de 10 ans.
———
TIME CODE
0:00 Introduction
0:52 Présentation du livre et des auteurs
7:37 Les premières pages du livre
10:37 Chapitre 1 : Le pouvoir spécial de l’humanité
17:35 Chapitre 2 : Cultivées, pas fabriquées.
25:54 Chapitre 3 : Apprendre à vouloir
31:16 Chapitre 4 : On n’obtient pas ce pour quoi on s’entraîne
37:53 Chapitre 5 : Ses choses préférées
46:27 Chapitre 6 : Nous perdrions
58:07 Chapitre 7, 8 et 9 : Un scénario d’extinction
1:02:44 Chapitre 10 : Un problème maudit
1:09:35 Chapitre 11 : Une alchimie, pas une science
1:17:52 Chapitre 12 : « Je ne veux pas être alarmiste »
1:23:50 Chapitre 13 : Arrêtez tout
1:31:19 Chapitre 14 : Tant qu’il y a de la vie, il y a de l’espoir
1:37:36 Comment vivre avec la conscience des risques de l’IA ?
1:42:33 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
👉 Créez votre site grâce à Hostinguer : Réduction de 10 % sur l’abonnement avec le code FUTUROLOGUE
———
🎬 Mon interview de Charbel-Raphaël Segerie sur les risques de l’IA
———
🗣️ Mon site de conférencier
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
QUI SONT ALBERT ET THIBAUT ?
Albert Moukheiber est docteur en neurosciences, psychologue clinicien et auteur de plusieurs ouvrages de vulgarisation scientifique. Dans son dernier livre, « Neuromania : Le vrai du faux sur votre cerveau », il démonte un à un les mythes tenaces qui circulent autour du fonctionnement cérébral.
Thibaut Giraud est docteur en philosophie et créateur de l’une des plus grandes chaînes YouTube francophones dédiées à la philosophie, Monsieur Phi. Il vient de publier « La parole aux machines : Philosophie des grands modèles de langage », un ouvrage qui a rapidement rejoint la liste de mes livres préférés sur l’IA.
———
TIME CODE
0:00 Introduction
0:52 Qu’est-ce que la conscience ?
8:18 Informations importantes sur la conscience
23:39 La conscience est-elle réservée au vivant ?
33:06 La probabilité que les IA soient conscientes
40:42 Cognition incarnée et principe de précaution
48:45 Les liens entre la conscience et le langage
1:03:23 Une étude étonnante
1:14:38 La position de Geoffrey Hinton
1:16:59 Les liens entre la conscience et les risques
1:21:53 Les difficultés de la science de la conscience
1:32:29 Les risques de l’IA
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Éric Sadin est philosophe, spécialiste des technologies numériques et de l’intelligence artificielle. Auteur d’une dizaine de livres portant sur les impacts de ces technologies sur la société et nos psychés, il a récemment publié « Penser à temps : Faire face à l’emprise numérique » et « Le Désert de nous-mêmes : Le tournant intellectuel et créatif de l’intelligence artificielle ».
———
TIME CODE
0:00 introduction
1:03 Pourquoi faut-il s’intéresser à l’IA ?
22:25 La course à l’IA est-elle arrêtable ?
23:58 Le pseudo langage des IA génératives
35:47 Faut-il utiliser ChatGPT ?
40:46 L’ère de l’indistinction généralisée
48:33 L’impact de l’IA sur le travail
59:18 Que penser des risques liés à la super IA ?
1:24:42 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
📖 Le livre de Benoît « Repenser les choix nucléaires »
———
🎬 Vidéo de 60s recommandée par Benoît
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Benoît Pelopidas est docteur et professeur en sciences politiques, fondateur du programme d’étude des savoirs nucléaires à Sciences Po. Chercheur affilié au Centre pour la sécurité internationale et la coopération de l’Université Stanford, il est également l’auteur de l’ouvrage « Repenser les choix nucléaires ». À la tête d’une des rares équipes de recherche indépendantes et non partisanes, il œuvre pour une analyse rigoureuse et impartiale des enjeux liés aux politiques nucléaires. Lauréat de quatre prix internationaux, il est aujourd’hui reconnu comme l’un des grands spécialistes mondiaux des armes nucléaires et des catastrophes qu’elles pourraient provoquer.
———
TIME CODE
0:00 Introduction
1:15 Pourquoi se soucier des armes nucléaires ?
6:27 Où en sont les armes nucléaires dans le monde ?
13:52 Les conséquences d’une guerre nucléaire
21:20 Les armes nucléaires garantissent-elles la paix ?
36:26 Pourquoi n’y a-t-il pas eu de guerre nucléaire ?
1:00:52 Que penser du débat sur les armes nucléaires ?
1:14:23 L’intégration de l’IA dans l’arsenal nucléaire
1:21:38 Les parallèles entre les armes nucléaires et l’IA
1:42:25 Que faire ?
1:46:43 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
👉 La chaîne YouTube de Jean-Lou, son livre et sa newsletter
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
QUI EST JEAN-LOU FOURQUET ?
Jean-Lou Fourquet est ingénieur, vidéaste et enseignant. Fondateur du média Après la Bière, il y analyse les impacts des nouvelles technologies sur nos vies. Membre de l’association Tournesol, il œuvre pour une intelligence artificielle plus démocratique. Il est aussi co-auteur du livre « La dictature des algorithmes : Une transition numérique démocratique est possible ».
———
TIME CODE
0:00 Introduction
1:01 L’importance des IA de recommandation
21:41 La sophistication des IA de recommandation
28:52 Suivre d’où vient l’argent
40:41 Liens entre IA générative et IA de recommandation
52:57 Les vrais capacités des IA de recommandation
58:25 Les conséquences des IA de recommandation 1/2
1:08:09 Les conflits d’intérêt des experts en IA
1:15:50 Les conséquences des IA de recommandation 2/2
1:23:26 Les IA de recommandation sont-elles neutres ?
1:39:29 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
👉 Le nouveau livre et la chaîne YouTube de Monsieur Phi
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Thibaut Giraud est docteur en philosophie et ancien professeur. Il est le créateur de la chaîne YouTube Monsieur Phi, l’une des plus populaires en France dans le domaine. Intéressé par les questions liées à l’intelligence artificielle, il a consacré depuis 2023 pas moins de 13 vidéos à ce sujet, faisant de sa chaîne une référence francophone sur l’IA. Il publie aujourd’hui « La parole aux machines : Philosophie des grands modèles de langage », un ouvrage qui prolonge cette réflexion avec une approche à la fois rigoureuse et accessible.
———
TIME CODE
0:00 Introduction
1:02 Les machines parlent !
11:00 La mise à l’échelle
19:32 Les IA sont-elles intelligentes ?
21:59 Les IA sont des boites noires
36:34 Les comportements étranges des IA
49:48 Quand arrivera-t-on à l’IA surhumaine ?
53:20 Les IA sont-elles autonomes ?
57:20 Penser correctement la super IA
1:03:09 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
👉 Le livre et le podcast de Victor, ainsi que les sources de l’épisode
——
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Victor Duran-Le Peuch a étudié la philosophie à la Sorbonne et à l’Université de York avant de s’engager dans la lutte contre la souffrance animale. Il est le créateur du podcast Comme un poisson dans l’eau, aujourd’hui le plus grand podcast francophone consacré à cette thématique. Plus récemment, il est également devenu auteur avec la parution de son ouvrage En finir avec les idées fausses sur l’antispécisme.
———
TIME CODE
0:00 Introduction
1:11 Les IA sont-elles déjà conscientes ?
36:26 Les implications des IA conscientes
45:47 Faut-il être vivant pour être conscient ?
56:29 Faut-il être incarné pour être conscient ?
58:23 Comment savoir si les IA sont conscientes ?
1:01:50 Les différences entre la conscience humaine et artificielle
1:05:53 Les IA conscientes seraient-elles plus dangereuses ?
1:10:53 Les IA sont-elles conscientes d’elles-mêmes ?
1:18:38 La prise de conscience de ces dangers
1:20:52 Les IA qui traduisent les animaux
1:22:29 Le suprémacisme humain
1:24:36 Quelles sont les solutions ?
1:26:06 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Nicolas Miailhe est le fondateur de The Future Society, groupe de réflexion qu’il a dirigé de 2014 à 2023 et qui s’est imposé comme une référence mondiale en matière de régulation de l’intelligence artificielle. Plus récemment, il a cofondé et dirige PRISM Eval, une startup parisienne spécialisée dans la détection des vulnérabilités des IA de pointe. Reconnu comme l’un des pionniers de l’encadrement de l’IA, il a été nommé au Global Partnership on AI, siège au groupe d’experts en IA de l’OCDE ainsi qu’au groupe de haut niveau de l’UNESCO sur l’éthique de l’IA. Diplômé d’un master en administration publique de Harvard, il enseigne à Sciences Po Paris, donne régulièrement des conférences à travers le monde et conseille gouvernements, organisations internationales, fondations philanthropiques et multinationales.
———
TIME CODE
0:00 Introduction
1:35 Vers une pause de l’IA ?
7:23 Les plus grands risques de l’IA
18:53 La géopolitique de l’IA
24:51 La régulation contre l’innovation
29:20 Un développement antidémocratique
32:20 La Chine face à l’IA
42:17 L’Inde face à l’IA
51:34 Les Émirats arabes unis face à l’IA
57:51 La coopération internationale
1:04:33 L’IA face à nos institutions
1:09:44 La bulle de l’IA
1:14:53 Les solutions
1:20:04 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Jennifer Prendki est docteure en physique des particules et a dirigé le département data de Google DeepMind. Depuis vingt ans, elle se situe à l’avant-garde de la recherche et de la technologie. Experte reconnue, elle a conseillé plus de 170 entreprises dans l’élaboration de leurs stratégies technologiques. Elle est également la fondatrice de Quantum of Data, une société de recherche et de conseil qui explore l’intersection entre intelligence artificielle et ordinateurs quantiques, ainsi que les questions liées à l'apparition de la conscience dans les IA.
———
TIME CODE
0:00 Introduction
1:05 Vers des IA vivantes ?
9:28 Vers des IA conscientes ?
34:23 Les relations avec les IA
45:13 L’IA et l’ordinateur quantique
1:01:58 Pourquoi avoir quitté Google ?
1:18:04 Garder l’IA surhumaine sous contrôle
1:27:01 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
🗣️ La déclaration
💬 Discord du Centre pour la Sécurité de l’IA
✉️ Contacter vos représentants
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Charbel-Raphaël Segerie est ingénieur, chercheur et enseignant en intelligence artificielle. Il est expert IA auprès de l’OCDE et dirige le Centre pour la Sécurité de l’IA. Dans cet épisode, il explique pourquoi il a lancé un appel mondial à la mise en place de lignes rouges internationales afin de prévenir les risques inacceptables liés à l'IA.
———
TIME CODE
0:00 Introduction
1:10 La déclaration et ses signataires
6:44 Pourquoi avoir écrit cette déclaration ?
11:33 Les progrès rapides de l’IA
18:37 Les plus gros risques de l’IA
25:44 Les comportements inquiétants des IA
34:55 Les risques d’extinction de l’IA
42:15 Combien de temps nous reste-il ?
47:07 Pourquoi 2026 ?
48:34 Que sont les lignes rouges ?
51:13 Pourquoi des lignes rouges ?
54:51 Les lignes rouges vs l’innovation
57:42 Les difficultés géopolitiques
59:05 Le risque des pays malveillants
1:01:41 Le défi de l’opérationnalisation
1:07:27 Quelles sont les prochaines étapes ?
1:10:33 Quelques anecdotes
1:13:38 Vivre en ayant conscience de ces risques
1:17:04 Que faire à titre individuel ?
1:19:42 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
-> Jean-Gabriel Ganascia est ingénieur, philosophe, professeur d’informatique à Sorbonne Université et auteur d’une dizaine d’ouvrages sur l’intelligence artificielle. Dans son livre le plus connu, Le Mythe de la Singularité : Faut-il craindre l’intelligence artificielle ?, il défend l’idée que le scénario d’une IA surpassant l’intelligence humaine et s’auto-améliorant jusqu’à devenir incontrôlable relève davantage du mythe contemporain que d’une perspective scientifique réaliste.
-> Flavien Chervet est écrivain, conférencier, prospectiviste et auteur de plusieurs ouvrages sur l’intelligence artificielle. Dans son dernier livre, Hyperarme : Anatomie d’une intranquillité planétaire, il alerte sur la possibilité qu’une superintelligence artificielle, plus puissante que l’ensemble de l’humanité, émerge dans les cinq prochaines années et constitue une menace existentielle.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
⏸️ Rejoignez le canal WhatsApp et le serveur Discord de Pause IA
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Maxime Fournes cumule plus de dix ans d’expérience en intelligence artificielle. Après avoir travaillé pour de grands fonds d’investissement et occupé des postes enviés, il a choisi de tout quitter pour cofonder en 2024 Pause IA, une association qui milite pour une pause dans le développement des intelligences artificielles les plus dangereuses. Nous avions déjà échangé dans plusieurs épisodes, mais, depuis notre dernière conversation, les avancées en IA ont été fulgurantes. Dans cet entretien, nous revenons sur ces progrès et sur les immenses risques qu’ils font peser sur notre avenir.
———
TIME CODE
0:00 Introduction
1:40 Alpha Evolve
10:33 Sakana AI
21:31 Claude 4
33:47 AI 2027
37:42 Le virage des géants de la tech
41:15 Une interdiction de réguler ?
46:41 Une pause de l’IA Act ?
52:07 Vers l’extinction humaine ?
57:58 La super IA va-t-elle se remettre en question ?
1:06:09 La super IA est-elle une opportunité pour la nature ?
1:10:01 Comment la super IA va-t-elle nous tuer ?
1:11:28 Alignement interne vs alignement externe
1:14:55 Qu’est-ce que la super IA va optimiser ?
1:22:01 La France va-t-elle perdre la course ?
1:26:09 Des nouvelles de Pause IA
1:29:26 Un message pour l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Pierre Peigné est directeur scientifique et cofondateur de PRISM Eval, une start-up spécialisée dans l’évaluation des vulnérabilités des intelligences artificielles. Après un parcours en tant qu’ingénieur et chercheur en IA, il consacre aujourd’hui son expertise à mettre en lumière les failles des systèmes d’IA et les risques qu’elles représentent.
———
TIME CODE
0:00 Introduction
0:58 Le jailbreaking
8:45 L’amélioration des performances
13:05 La convergence instrumentale
18:47 Les types de risques
22:56 Les IA boîtes noires
26:05 La nullité des sécurités
29:12 Qui sont vos clients ?
33:01 Retour sur les IA boîtes noires
37:29 Évaluer les capacités
42:08 Une IA qui jailbreak d’autres IA
45:27 Comment jailbreaker les IA ?
48:45 L’état de l’art de l’évaluation des IA
52:54 Capacités vs sécurité
55:12 L’entraînement sur les benchmarks
57:10 La dangerosité de l’évaluation de l’IA
1:01:54 Faut-il mettre les IA en open source ?
1:09:07 Évaluer les systèmes multi agents
1:12:17 Évaluer les IA qui ont accès à internet
1:15:05 Évaluer les IA qui raisonnent
1:17:17 Lien entre intelligence et robustesse
1:20:10 Les obligations d’évaluation
1:22:09 L’évaluation selon la puissance de calcul
1:25:18 Les évaluations indépendantes
1:27:09 L’enjeu de la France en évaluation
1:28:44 Les usages borderline
1:31:57 Les capacités d’humour
1:33:57 Les IA sont des outils ?
1:37:04 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Axelle Arquié est docteure en économie, spécialiste du marché du travail et cofondatrice de l’Observatoire des Emplois Menacés et Émergents. Elle ne mâche pas ses mots : selon elle, les IA actuelles pourraient déjà provoquer un choc majeur sur le marché du travail. Et si une IA surhumaine devait émerger, ce serait un véritable risque existentiel pour nos économies. Nous plongeons ensemble dans son analyse, pour explorer ce que nous pouvons faire, individuellement et collectivement, face à la vague d’automatisation qui s’annonce.
———
TIME CODE
0:00 Introduction
1:41 Dans quoi sommes-nous embarqués ?
3:18 L’impact des LLM sur le travail
9:45 Une diffusion dans l’économie ultra rapide
14:26 L’impact des agents autonomes sur le travail
25:43 L’impact sur les métiers relationnels
32:04 Le faux espoir des nouveaux métiers
38:50 Les enjeux de la pression concurrentielle
41:42 AI 2027 et l’auto-amélioration
45:54 La perte de contrôle de l’IA
48:52 Le rapport de la Commission de l’IA
57:21 Les effets avant l’automatisation totale
1:08:29 Les géants de la tech savent ce qu’ils font
1:14:05 Vers une domination des géants de la tech
1:22:19 Le problème du contrôle de l’IA
1:27:29 Que faire à titre individuel et collectif ?
1:30:40 Réponses à 3 objections courantes
1:37:21 Présentation de l’Observatoire des emplois menacés et émergents
1:38:31 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
👉 Laissez-moi un feedback anonyme
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
TIME CODE
0:00 Introduction
0:40 Présentation de GPT-5
1:03 Comment définir notre époque ?
2:12 L’importance et l’omniprésence de l’IA
3:36 Vers des IA surhumaines ?
4:08 Contrôler les IA surhumaines
7:17 L’IA surhumaine, c’est pour quand ?
8:39 Un monde où l’humain n’est plus nécessaire
9:23 Il suffit de débrancher la prise ?
10:41 La convergence instrumentale
11:48 Et si on poursuit la trajectoire ?
13:05 L’impact de l’IA sur l’emploi
13:53 Quel rôle restera-t-il à l’humanité ?
14:43 Les machines parlent !
16:47 Que de la science-fiction ?
17:38 Quels sont les risques de l’IA ?
18:20 La dépendance à l’intelligence artificielle
19:57 La perte de contrôle rapide vs progressive
21:13 L’auto-amélioration récursive
23:24 Et si on gardait le contrôle ?
25:31 Une prédiction pas agréable
26:15 Quelles sont les solutions ?
27:24 Une mesure d’urgence à appliquer
28:09 L’utopie de GPT-5
29:09 Les obstacles à l’utopie
30:04 Un poème qui reflète ces enjeux
30:50 Expliquer l’humanité à une autre IA
31:37 La vision de l’IA sur l’humanité
32:36 Un petit problème d’identité ?
33:13 La plus grande illusion des humains
34:05 Promo de ma chaîne « Le Futurologue »
35:08 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
👉 Laissez-moi un feedback anonyme
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
Riverside (Enregistrement de podcast)
———
TIME CODE
0:00 Introduction
1:20 Que pensez-vous de l’intelligence artificielle ?
11:39 Pourquoi est-ce difficile d’avoir des chiffres précis sur les impacts environnementaux de l’IA ?
22:35 Les impacts environnementaux futurs de l’IA
30:58 L’effet rebond de l’IA
37:32 L’accélération de l’économie par l’IA
46:21 L’influence de l’IA sur nos idées
1:01:45 La neutralité des technologies
1:09:01 Le problème de la compétition
1:22:36 Le désastre de l’école numérique
1:31:12 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
👉 Laissez-moi un feedback anonyme
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
Riverside (Enregistrement de podcast)
———
TIME CODE
0:00 Introduction
1:22 Que sont les robots tueurs ? Existent-ils déjà ?
4:43 Le non-respect du droit international
11:45 La déshumanisation numérique
13:45 Le renforcement des inégalités
16:04 L’inexplicabilité et l’incontrôlabilité
21:32 Un message aux géants de la tech
28:43 L’utilisation terroriste
30:30 Une accessibilité inquiétante
31:43 La perte de la responsabilité
32:33 L’abaissement du seuil de la guerre
35:06 Vers une « guerre propre » ?
36:39 Une nouvelle course au armement ?
39:41 Les utilisations de l’IA dans l’armée
41:30 Que sont les armes autonomes ?
44:43 Les armes autonomes non-problématiques
47:10 Un arsenal dont on perd le contrôle
48:12 L’utilisation de l’IA dans la répression
53:09 La position des différents pays
57:36 Quel est le plan de Stop Killer Robots ?
58:32 Le positionnement de la France
1:01:33 Est-ce possible d’interdire les armes autonomes ?
1:04:44 Le sophisme de la solution parfaite
1:10:08 Les exemples historiques de contrôle des armements
1:15:13 Un message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.