Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

đž Soutenez-moi financiĂšrement sur Tipeee, Patreon, PayPal
âââ
đ Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
âââ
AGIR POUR LA SĂCURITĂ DE LâIA
âââ
MES RECOMMANDATIONS
Mes livres prĂ©fĂ©rĂ©s sur lâIA
Tous les livres que jâai lus
âââ
DESCRIPTION DE LâĂPISODE
Pierre PeignĂ© est directeur scientifique et cofondateur de PRISM Eval, une start-up spĂ©cialisĂ©e dans lâĂ©valuation des vulnĂ©rabilitĂ©s des intelligences artificielles. AprĂšs un parcours en tant quâingĂ©nieur et chercheur en IA, il consacre aujourdâhui son expertise Ă mettre en lumiĂšre les failles des systĂšmes dâIA et les risques quâelles reprĂ©sentent.
âââ
TIME CODE
0:00 Introduction
0:58 Le jailbreaking
8:45 LâamĂ©lioration des performances
13:05 La convergence instrumentale
18:47 Les types de risques
22:56 Les IA boĂźtes noires
26:05 La nullité des sécurités
29:12 Qui sont vos clients ?
33:01 Retour sur les IA boĂźtes noires
37:29 Ăvaluer les capacitĂ©s
42:08 Une IA qui jailbreak dâautres IA
45:27 Comment jailbreaker les IA ?
48:45 LâĂ©tat de lâart de lâĂ©valuation des IA
52:54 Capacités vs sécurité
55:12 LâentraĂźnement sur les benchmarks
57:10 La dangerositĂ© de lâĂ©valuation de lâIA
1:01:54 Faut-il mettre les IA en open source ?
1:09:07 Ăvaluer les systĂšmes multi agents
1:12:17 Ăvaluer les IA qui ont accĂšs Ă internet
1:15:05 Ăvaluer les IA qui raisonnent
1:17:17 Lien entre intelligence et robustesse
1:20:10 Les obligations dâĂ©valuation
1:22:09 LâĂ©valuation selon la puissance de calcul
1:25:18 Les évaluations indépendantes
1:27:09 Lâenjeu de la France en Ă©valuation
1:28:44 Les usages borderline
1:31:57 Les capacitĂ©s dâhumour
1:33:57 Les IA sont des outils ?
1:37:04 Message Ă lâhumanitĂ©
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.