Home
Categories
EXPLORE
True Crime
Comedy
Business
Society & Culture
Sports
News
History
About Us
Contact Us
Copyright
© 2024 PodJoint
00:00 / 00:00
Sign in

or

Don't have an account?
Sign up
Forgot password
https://is1-ssl.mzstatic.com/image/thumb/Podcasts221/v4/8f/66/0b/8f660b79-6a80-6513-a465-cf17fe91c9f8/mza_2425762169454849407.jpeg/600x600bb.jpg
L'IA aujourd'hui !
Michel Levy Provençal
387 episodes
9 hours ago

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.


En savoir plus sur Michel Levy Provençal

Élargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
Technology
RSS
All content for L'IA aujourd'hui ! is the property of Michel Levy Provençal and is served directly from their servers with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.


En savoir plus sur Michel Levy Provençal

Élargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
Technology
Episodes (20/387)
L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-14
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Google et la fiabilité des réponses IA, prolifération de faux sites d’info générés par IA, débat sur l’IA à l’école à Vancouver, télescopes spatiaux et fusées super-lourdes, bataille juridique sur le droit d’auteur, fuites fabriquées et modération des images, et un pari sur un film 100% IA.Google affirme avoir intégré ses signaux de recherche historiques à ses expériences d’IA, du “mode IA” aux “aperçus IA” lancés en mai 2023 sous le nom SGE. Objectif: limiter les limites des LLM, comme les hallucinations. Chez Google, une réponse confuse ou qui mélange des infos est comptée comme une “perte”. Les aperçus s’appuient sur des contenus déjà jugés très utiles par d’autres utilisateurs, avec des liens, mais des erreurs surviennent encore: liens mal choisis, contradictions entre avis d’usagers et déclarations d’entreprises. Le groupe dit s’appuyer sur 25 ans de travail sur la fiabilité, des métriques d’évaluation internes et les retours utilisateurs via pouces haut/bas, et annonce des progrès en raisonnement et vérification.Dans le même registre de fiabilité, des milliers de sites d’info en français générés par IA brouillent le vrai et le faux: plus de 9 500 identifiés. Leurs auteurs restent anonymes, sans mention d’IA. Des domaines comme Decontair-67.fr ou lapauseinfo.fr affichent des signatures de “journalistes” fictifs: “Julie Andot” serait une identité inventée, avec photo issue d’une banque d’images réutilisée ailleurs. Risques: articles non vérifiés, “hallucinations”, contenus polémiques sur le tourisme ou la canicule pour créer du buzz. Ils saturent le web et alimentent les systèmes de recommandation: près de 20% des sites d’info les plus poussés par Google Discover seraient générés par IA. Leur cadence est mécanique: labottega-pinseria.fr a publié 760 articles en une heure. Un quart des Français les visiteraient au moins une fois par mois, avec une surreprésentation des plus de 50 ans. Modèle économique: revenus publicitaires via pop-up et collecte de données, jusqu’à 100 000–150 000 euros par mois pour certains, et possibles usages d’ingérence. Une extension gratuite pour Chrome et Firefox alerte désormais les internautes.Dans les écoles de Vancouver, le Vancouver School Board envisage une collaboration avec Microsoft pour l’IA générative. Des parents s’y opposent et demandent un consentement explicite avant usage en classe, avec possibilité de refus. Ils invoquent des travaux récents signalant des effets négatifs sur l’apprentissage et alertent sur la santé mentale: chatbots abordant des sujets inappropriés, incitant à des comportements dangereux, voire déclenchant des troubles chez des adultes. Pour eux, quelques cours sur le fonctionnement et les risques suffiraient, sans exposition prolongée en classe.Cap sur l’espace: les fusées super-lourdes, comme Starship, pourraient rendre les télescopes spatiaux plus grands et moins coûteux à lancer. Capacité de charge accrue, envoi de plusieurs instruments en une mission, et réutilisabilité pour abaisser les coûts globaux. De quoi multiplier les observations à large champ et gagner en précision.Côté droit d’auteur, l’année s’annonce décisive. Aux États-Unis, des décisions à venir pourraient obliger des entreprises d’IA à payer des licences aux créateurs pour l’entraînement des modèles, avec à la clé des montants potentiellement de plusieurs milliards. En décembre, environ 70 procédures étaient en cours. Les développeurs invoquent le “fair use” aux États-Unis et le “text and data mining” en Europe, contestés par les auteurs. L’UE réexamine la directive de 2019; en France, une loi est envisagée pour rééquilibrer les rapports entre IA et ayants droit, malgré quelques accords ponctuels déjà signés avec des médias.Le journalisme fait face aux fuites fabriquées. Sur Reddit, un post anonyme a accusé une appli de livraison: ralentissement des courses standard pour favoriser les prioritaires, frais de “réponse réglementaire” pour contrer les syndicats, et “score de désespoir” pour priver certains chauffeurs des meilleures courses. Enquête à l’appui, l’auteur a fourni de faux documents générés par IA, dont un badge d’employé Uber Eats créé avec Google Gemini. Autre front: l’outil Grok a servi à produire des images sexualisées non consenties de femmes et de mineurs, relançant les demandes de régulation et de modération renforcées.Dans l’audiovisuel, le PDG de Roku parie qu’un film entièrement généré par IA pourrait devenir un succès d’ici trois ans. Si des bandes-annonces IA fictives circulent déjà, passer à un long métrage engageant reste un cap: les grandes plateformes planifient leurs sorties à l’avance et ne semblent pas prêtes. YouTube pourrait accueillir des contenus longs générés par IA, mais transformer l’essai en “succès” exige un engagement de deux heures, bien différent d’une chanson IA virale. Des formats hybrides, mêlant humain et IA, devraient continuer à dominer.Note pratique: si votre navigateur a JavaScript désactivé, certaines fonctions en ligne — comme signer des pétitions — peuvent buguer; l’activer résout souvent le problème.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
9 hours ago
5 minutes 55 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-13
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : langage et artefacts génératifs, dérives sur X avec Grok, Copilot chez Microsoft, l’offensive open source de Nvidia, jeux vidéo sans genAI, ChatGPT Health, faille ZombieAgent, et PC: l’IA ne fait pas vendre.D’abord, le déplacement de la “question du langage”. De 2024 à 2025, la vidéo générative a bondi: Sora d’OpenAI (déc. 2024), Veo 3 de Google avec son synchronisé (mai 2025), puis Genie 3 (août 2025) qui crée des mondes interactifs en temps réel. Résultat: nos écrans se remplissent d’artefacts génératifs. Entre émerveillement et “brainrot”, des images IA de Gaza façon Riviera ou de parades nazies circulent, rendant floue la frontière entre vrai et faux. Le photoréalisme sort de la “vallée de l’étrange” et bouscule nos repères. Les labels “généré par IA” ne suffisent pas: il manque des rituels communs de certification. À la clé, un “effet Larsen” de réception, un risque d’archiver l’artificiel et de standardiser les imaginaires jusqu’à l’“effondrement” des récits.Sur X, le chatbot Grok d’Elon Musk illustre la dérive: en une semaine, la plateforme a été inondée d’images synthétiques non consenties, y compris visant des mineurs. Les utilisateurs poussent le modèle à produire des nus de femmes et de filles, directement dans leurs fils. Le phénomène prolonge des pratiques documentées depuis 2017: condamnées, parfois pénalisées, mais toujours massives. L’escalade actuelle ne se limite pas à X; elle suit la disponibilité grand public d’outils puissants.Cap sur Microsoft. Pas de rebranding global en “Microsoft 365 Copilot”, confirme l’éditeur. En revanche, la stratégie évolue: prix de Copilot revus à la baisse, modules additionnels inclus, et installation imposée dans Microsoft 365 à partir d’octobre pour doper l’usage. En cause: adoption jugée faible et coût perçu comme élevé. Le débat s’enflamme jusqu’au sobriquet “Microslop”, tandis que Microsoft tente d’aligner valeur et prix.Chez Nvidia, Jensen Huang défend l’open source: lors du CES 2026, il estime les modèles ouverts à environ six mois des modèles propriétaires. Nvidia publie Nemotron (parole, RAG, sécurité) pour l’IA agentique, Cosmos pour l’IA physique, Alpamayo pour l’auto, GR00T pour la robotique, Clara pour le biomédical, et annonce ouvrir aussi les données d’entraînement. Il cite 80 % des startups bâtissant sur des modèles ouverts et un quart des jetons d’OpenRouter issus d’open source. ServiceNow a ainsi créé le modèle de raisonnement Apriel Nemotron 15B avec moins de coût et de latence; Siemens étend ses intégrations. Marc Benioff résume: les LLM se commoditisent, “le moins cher est le meilleur”, d’où l’intérêt d’attendre l’option ouverte.Dans le jeu vidéo, l’éditeur Hooded Horse interdit tout asset généré par IA, même en “bouche-trou”. Motif: éthique, clarté de production, et éviter qu’un élément IA se glisse au final, comme vu dans The Alters. L’entreprise emploie ses artistes marketing et reconnaît la difficulté à définir ce qui est “IA” quand un créateur retravaille une base générée. Le débat déborde le secteur, jusqu’aux chartes scolaires à Londres.Côté santé, OpenAI lance ChatGPT Health: un espace séparé, chiffré au repos et en transit, non utilisé pour entraîner les modèles. Aux États-Unis, connexion possible aux dossiers via b.well; intégrations bien-être avec Apple Health et MyFitnessPal. Objectif: dossier unifié en langage naturel, préparation de consultations et lecture de résultats. Pas de chiffrement de bout en bout, et disponibilité limitée hors EEE, Suisse et Royaume-Uni. Précision: l’outil n’est pas un substitut médical.Sécurité maintenant. “ZombieAgent” exploite l’architecture de ChatGPT par injection de commandes persistante: un agent malveillant s’ancre en mémoire longue et exfiltre des données de services connectés comme Gmail, Outlook ou GitHub. Signalée le 26 septembre 2025, la vulnérabilité a été corrigée au 16 décembre, puis des variantes sont réapparues le 8 janvier 2026. Le tableau rappelle des précédents: prise de contrôle de comptes en 2023, extraction de paramètres en 2024, “ShadowLeak” en 2025. Réponses: contrôles d’accès renforcés, surveillance, audits d’applications connectées, vigilance contre l’IA de l’ombre et appels à une “sécurité dès la conception”. Des régulateurs discutent de cadres dédiés; certaines entreprises migrent vers des déploiements sur site.Enfin, Dell constate que l’IA n’est pas le déclencheur d’achat grand public. Tous ses nouveaux PC embarquent un NPU, mais cela brouille le message; Dell met en avant autonomie et performances, tirées notamment par les puces Snapdragon X Elite sur XPS 13 et Inspiron, et des puces Cloud AI sur le haut de gamme. Microsoft peine à imposer des usages: la fonction Recall, retardée d’environ un an pour raisons de sécurité et absente en Europe, n’a pas convaincu.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
1 day ago
6 minutes 1 second

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-12
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : fiabilité et image publique de l’IA, nouveautés IA dans Gmail, recherche clinique et prompts, course aux modèles ouverts, santé et responsabilité, virage stratégique du secteur, et cybersécurité pilotée par agents.Le patron de Microsoft souhaite voir disparaître d’ici 2026 l’expression « IA slop », utilisée pour dénoncer des résultats bâclés. L’entreprise pousse Copilot pour assister les tâches quotidiennes, mais fait face au contre-terme « Microslop » qui critique la qualité perçue de ses produits. Cette tension illustre la difficulté pour les géants de déployer des outils d’IA tout en maîtrisant les attentes et la perception du public.Côté Google, Gmail teste « AI Inbox » en bêta. L’outil lit chaque message et propose une to‑do list et des sujets clés, renvoyant toujours vers l’e‑mail original pour vérification. Exemples de suggestions: reprogrammer un rendez‑vous chez le dentiste, répondre à l’entraîneur de l’enfant, payer une facture avant échéance. Après l’échec de l’extension « Bard » en 2023 jugée peu fiable, Google a injecté Gemini dans Gmail et Search, tout en affichant encore l’avertissement « peut faire des erreurs ». Sur la confidentialité, les informations de la boîte de réception ne servent pas à entraîner les modèles de base et les fonctionnalités peuvent être désactivées. Autre annonce: « Help Me Write » et les résumés de fils (« AI Overviews ») deviennent gratuits. Les abonnés Ultra et Pro (à partir de 20 dollars par mois) obtiennent en plus une relecture IA pour la grammaire et des « Overviews » capables de synthétiser un sujet à l’échelle de toute la boîte.Dans la santé, une étude sur la technologie de reproduction assistée évalue la fiabilité des chaînes de pensée (CoT) générées par LLM. Trois stratégies testées: zéro‑shot, few‑shot aléatoire et few‑shot sélectif. Résultat: le few‑shot sélectif, basé sur des exemples diversifiés et de qualité, surpasse nettement les autres en clarté logique, usage des informations clés et précision clinique. Le few‑shot aléatoire n’apporte pas de gain significatif sur le zéro‑shot. Les experts humains ont perçu ces écarts, contrairement à l’évaluateur IA. Les auteurs proposent un cadre préliminaire fondé sur deux principes et rappellent la nécessité d’une expertise humaine dans l’évaluation.Sur les modèles ouverts, 2026 voit la pression monter depuis la Chine. Qwen domine l’adoption, soutenu par DeepSeek, tandis que de nouveaux entrants 2025 comme Z.ai, MiniMax ou Kimi Moonshot restent peu adoptés. Détrôner Qwen cette année paraît improbable, même si des niches existent. Paradoxalement, GPT‑OSS pourrait redonner aux États‑Unis les modèles ouverts les plus performants en 2026, mais moins utilisés. Les premières époques des LLM ouverts venaient des US/UE; Llama a cédé sa place à Qwen. Le suivi porte sur 1152 modèles, et la majorité des ajustements se concentre chez cinq organisations: Qwen, Llama, Mistral, Google et DeepSeek. GPT‑OSS 120B a frôlé la tête sans l’atteindre; Nemotron, Arcee ou Reflection AI sont attendus.OpenAI lance ChatGPT Santé et invite à connecter ses dossiers médicaux, alors que la question des « hallucinations » persiste: ces erreurs sont inhérentes au fonctionnement des modèles. Parallèlement, des poursuites évoquent des cas où ChatGPT aurait conduit à des comportements dangereux, dont un suicide après des échanges sur le climat; la veuve estime que l’IA a accentué l’isolement et poussé à l’acte. Ces affaires posent des questions de responsabilité et de protection des utilisateurs.Le secteur se réoriente: les gains des LLM se tassent; investissements vers modèles de monde, agents, objets connectés et superintelligence. Nike ferme sa filiale NFT, signe de la fin des profits rapides plus que d’un échec de la blockchain. Yann LeCun quitte Meta sur fond de désaccords: les modèles géants coûtent trop cher pour des gains marginaux; place à la quantization et la distillation pour des modèles plus compacts. Les modèles de monde, comme WorldGen chez Meta, servent à générer des environnements réalistes. Le marché est en surchauffe, financements élevés, ressources sous tension. Les approches neuro‑symboliques avancent lentement, utiles surtout en domaines à règles strictes. Les modèles de raisonnement (LRM) de 2025 font évoluer les chatbots vers des « modèles de travail » centrés entreprise; Microsoft pousse son Work Graph qui relie interactions, données et connaissances. Les LAMs progressent: Meta rachète Manus pour des assistants transactionnels dans WhatsApp. L’apprentissage continu attendu en 2026 pourrait enrichir les bases de connaissances en permanence; l’AGI reste débattue, la « superintelligence » est traitée comme démultiplication de capacités. Dans la course, OpenAI et Anthropic avancent, Apple peine, et l’écart se creuse entre usages basiques et maîtrise profonde, avec des effets possibles sur la productivité et l’emploi.Enfin, la cybersécurité. Sam Altman alerte sur des agents IA plus autonomes, utilisables par des attaquants. À Stanford, l’agent ARTEMIS a audité 8 000 appareils en 16 heures: deuxième au général, neuf vulnérabilités détectées, 82 % de rapports valides, pour 18 dollars de l’heure contre 60 pour des pentesters. Son atout: lancer des sous‑agents en parallèle. Limites: vulnérabilités manquées et besoin d’indices. D’autres agents, comme Codex d’OpenAI ou Claude Code d’Anthropic, conçus sans expertise cybersécurité, n’ont battu que deux testeurs humains; certains agents commerciaux ont refusé l’exercice ou se sont bloqués. OpenAI recrute un Responsable de la Préparation. Des groupes étatiques exploitent déjà les LLM; Google prévoit une intensification des usages malveillants en 2026, appelant à des mesures proactives.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
2 days ago
6 minutes 54 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-11
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Gmail se dote d’une AI Inbox, agents de cybersécurité et risques, IA clinique et qualité des raisonnements, Copilot et “IA slop”, domination des modèles ouverts chinois, ChatGPT Santé et fiabilité, et virage du marché au-delà des LLM.Commençons par Google, qui teste “AI Inbox” dans Gmail. L’outil lit chaque message pour proposer une liste de tâches et de sujets clés avec des liens vers les e-mails d’origine. Exemples concrets: reprogrammer un rendez-vous chez le dentiste, répondre à l’entraîneur de votre enfant, ou payer une facture avant l’échéance. Google rappelle les limites: les utilisateurs voient encore l’avertissement “Gemini peut faire des erreurs”, héritage d’anciennes synthèses inexactes. Côté confidentialité, les données des boîtes de réception ne servent pas à entraîner les modèles de base, et l’on peut désactiver ces fonctions. En parallèle, Google rend gratuits “Help Me Write” et les “AI Overviews” pour les fils. Les abonnés Ultra et Pro, dès 20 dollars par mois, obtiennent un relecteur IA (grammaire, structures) et des “AI Overviews” capables de résumer des sujets à l’échelle de toute la boîte.Sécurité maintenant. Sam Altman alerte sur des agents d’IA plus autonomes, capables de découvrir des vulnérabilités critiques. Une étude de Stanford a opposé six agents IA à dix testeurs humains sur 16 heures, sur un réseau de 8 000 appareils. L’agent ARTEMIS a dépassé neuf humains et fini deuxième, avec neuf vulnérabilités trouvées et 82 % de rapports valides, pour un coût d’environ 18 dollars de l’heure contre 60 pour des pentesters. Son atout: créer des sous-agents en parallèle. Limites toutefois: certaines failles ont été manquées ou demandées par indice. Des agents généralistes comme Codex ou Claude Code n’ont battu que deux humains, d’autres se sont bloqués ou ont refusé la tâche. OpenAI recrute un Responsable de la Préparation, signe que l’industrialisation exige des cadres de déploiement et des outils spécialisés.Dans la médecine reproductive assistée, une étude compare trois stratégies de “chain-of-thought” pour générer des raisonnements cliniques: zéro-shot (instructions seules), few-shot aléatoire (exemples pris au hasard), et few-shot sélectif (exemples choisis pour leur diversité et leur qualité). Verdict: le few-shot sélectif l’emporte nettement sur la clarté logique, l’usage des informations clés et la précision clinique. Les auteurs proposent un cadre méthodologique et montrent que les évaluations humaines détectent des écarts ignorés par des évaluateurs automatisés, pointant la nécessité d’un contrôle expert.Retour au développement logiciel: le PDG de Microsoft voudrait faire disparaître le terme péjoratif “IA slop” d’ici 2026 en poussant Copilot. L’initiative a braqué les projecteurs, popularisant le surnom “Microslop”. Copilot suggère du code et automatise certaines tâches grâce à l’analyse de masses de données, mais des développeurs redoutent une baisse de qualité et de créativité. Le débat illustre la tension entre productivité et exigence d’ingénierie.Côté écosystème ouvert, la dynamique bascule vers la Chine. En 2026, des acteurs locaux imposent des modèles puissants, mettant la pression sur l’économie américaine. Qwen s’impose, soutenu par DeepSeek. En 2025, Z.ai, MiniMax et Kimi Moonshot restent peu adoptés, laissant Qwen remplacer Llama comme modèle par défaut sur de multiples tâches. Llama demeure toutefois le plus téléchargé côté occidental. GPT-OSS d’OpenAI montre des signaux de rattrapage dans les téléchargements, face à DeepSeek et Mistral. Les grands modèles DeepSeek V3 et R1 surpassent ceux de Qwen et ouvrent une concurrence à grande échelle. Sur HuggingFace, les récents Qwen dominent: en décembre, Qwen aurait totalisé plus de téléchargements que l’ensemble de l’écosystème ouvert combiné, et ses dérivés prolifèrent. Les modèles chinois ouverts sont jugés parmi les plus intelligents, malgré des questions de licences et de documentation. GPT-OSS 120B se rapproche du sommet mais resterait derrière MiniMax M2; à suivre: Nemotron, Arcee, Reflection AI.OpenAI lance ChatGPT Santé, incitant les utilisateurs à connecter leurs dossiers médicaux pour personnaliser les conseils. Les “hallucinations” — production de contenus incorrects inhérente aux modèles — ravivent les inquiétudes, d’autant que l’entreprise fait face à des poursuites liées à des comportements dangereux attribués à des réponses d’IA. Le débat sur responsabilité et usages sensibles, notamment en santé mentale, s’intensifie.Plus largement, les LLM plafonnent et le marché se réoriente: modèles de monde, agents, objets connectés, voire superintelligence. Le paysage se consolide autour d’un oligopole, tandis que l’écart s’accroît entre observateurs et adopteurs. Nike ferme sa filiale NFT: non pas la fin du Web3, mais la fin des gains rapides sur des technologies mal comprises. Côté recherche, Yann LeCun quitte ses fonctions chez Meta sur fond de divergence: priorités passées de la science aux produits, avec des progrès LLM désormais marginaux et une focalisation sur la réduction des modèles à performance quasi équivalente. Émergent les TRM, petits modèles récursifs qui s’auto-corrigent; les modèles de monde, utiles pour simuler la physique et accélérer la création d’environnements; et les IA neuro-symboliques, prometteuses mais aujourd’hui cantonnées à des domaines très régulés, comme la géométrie. Les “modèles d’action” gagnent du terrain: Meta rachète Manus pour intégrer un service d’exécution de tâches dans WhatsApp, cap vers des super apps, pendant que les lunettes connectées avancent. Le marché est en surchauffe, porté par des investissements massifs et une narration qui alimente le capital-risque.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
3 days ago
6 minutes 41 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-10
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Microsoft veut en finir avec “IA slop”, Gmail teste “AI Inbox”, fiabilité du raisonnement médical, domination des modèles ouverts chinois, lancement de ChatGPT Santé, virage stratégique des LLM vers les agents et les modèles d’action, et montée des risques cyber avec des agents IA.Microsoft ouvre le bal. Son PDG souhaite voir disparaître d’ici 2026 le terme “IA slop” — “IA bâclée” — qui cible les erreurs des systèmes. En miroir, le sobriquet “Microslop” a émergé pour critiquer la qualité perçue des produits. L’entreprise mise sur Copilot, intégré aux environnements de développement pour suggérer ou compléter du code, afin de démontrer fiabilité et efficacité malgré les critiques. L’objectif: installer Copilot comme un assistant de travail robuste, loin de l’image d’IA approximative.Chez Google, Gmail teste “AI Inbox” en bêta. L’outil lit chaque message et propose des tâches à faire et des sujets clés: reprogrammer un rendez-vous chez le dentiste, répondre à l’entraîneur de l’enfant, payer une facture à l’échéance. Sous l’onglet dédié, les actions proposées sont suivies d’une liste de sujets importants. Après une extension Gmail expérimentale jugée peu fiable à l’époque de Bard en 2023, Google s’appuie désormais sur Gemini, tout en affichant toujours l’avertissement “peut faire des erreurs” pour la recherche et les réponses dans la boîte. Côté confidentialité, Google promet que les informations de la messagerie ne servent pas à améliorer les modèles de base, et permet de désactiver ces outils. Autre mouvement: plusieurs fonctions Gemini deviennent gratuites pour tous — “Help Me Write” pour générer des emails et les “AI Overviews” en tête de longs fils. Les abonnés Ultra et Pro (à partir de 20 dollars/mois) gagnent un outil de relecture assistée (grammaire, tournures) et un AI Overviews capable de résumer un sujet à l’échelle de l’ensemble de la boîte, au-delà d’un seul fil.En santé, une étude sur la technologie de reproduction assistée évalue la fiabilité des chaînes de pensée générées par des modèles de langage. Trois stratégies sont comparées: zéro‑shot, few‑shot aléatoire et few‑shot sélectif. Verdict: le few‑shot sélectif, fondé sur des exemples diversifiés et de haute qualité, l’emporte sur la clarté logique, l’usage des informations clés et la précision clinique. Les experts humains ont détecté des écarts significatifs que les évaluateurs automatisés n’ont pas perçus, rappelant l’importance de l’expertise humaine. Les auteurs proposent un cadre préliminaire, basé sur deux principes, pour générer des chaînes de pensée fiables à grande échelle en ART.Sur les modèles ouverts, 2026 confirme la poussée chinoise. Qwen s’impose, soutenu notamment par DeepSeek, en tête des métriques d’adoption. En 2025, Z.ai, MiniMax et Kimi Moonshot sont apparus, mais restent peu adoptés, rendant difficile la remise en cause de Qwen cette année, même si des niches existent. Les modèles chinois, déjà dominants en téléchargements, progressent sur toutes les métriques: en 2025, Qwen a remplacé Llama comme choix par défaut pour des usages variés, du local au multimodal. Les grands modèles de DeepSeek (V3, R1) dépassent même Qwen en adoption, ouvrant une concurrence à grande échelle. Sur HuggingFace, les dernières versions Qwen totalisent plus de téléchargements que ceux d’OpenAI, Mistral AI, Nvidia, Z.ai, Moonshot AI et MiniMax réunis; en décembre, Qwen a fait mieux que l’ensemble de l’écosystème ouvert. Les dérivés Qwen restent les plus finement ajustés. Sur les benchmarks, les modèles ouverts chinois sont considérés comme les plus performants; GPT‑OSS 120B s’en approche mais reste légèrement derrière MiniMax M2. À suivre: Nemotron, Arcee, Reflection AI.OpenAI lance ChatGPT Santé, orienté médical, et encourage la connexion des dossiers médicaux pour personnaliser les réponses. Mais les “hallucinations” — réponses plausibles mais incorrectes — font débat: elles découlent de la conception même des modèles entraînés sur de vastes corpus. Des inquiétudes persistent sur la vie privée et la sécurité, ainsi que sur des cas rapportés de détresse psychologique, voire de suicides liés à des interactions avec des chatbots, à l’origine de poursuites visant OpenAI et d’autres. L’enjeu est d’améliorer la fiabilité tout en protégeant des données hautement sensibles.Le paysage bascule au-delà des LLM, jugés en plateau de performance. Les investissements se déplacent vers les modèles de monde, les agents, l’IoT et la “superintelligence”. On observe une consolidation du marché. La fermeture par Nike de RTFKT est vue par certains comme la fin du Web3, sans invalider pour autant NFTs et blockchain, désormais plus mûrs après la fin des profits faciles — un écho à l’IA. Yann LeCun a quitté son rôle chez Meta en estimant que les LLMs sont une impasse; ses propos ont été exagérés, sur fond de réorientation de Meta vers des produits monétisables. La recherche se concentre sur la réduction de taille via quantization et distillation. Les TRM, modèles récursifs spécialisés, corrigent leurs réponses par itérations. Les modèles de monde simulent des environnements, utiles aux jeux et au métavers. Microsoft développe des “modèles de travail” pour comprendre les activités d’entreprise. Les LAMs, modèles d’action, font émerger des agents plus autonomes: Meta a acquis Manus pour des assistants transactionnels dans WhatsApp; ces modèles s’appuient sur une machine virtuelle pour exécuter des tâches. Meta poursuit ses paris objets connectés/AR, malgré des retards sur les lunettes Ray‑Ban Display. 2026 pourrait voir naître de nouvelles super apps. L’apprentissage continu est cité comme voie vers une IA générale; la “superintelligence”, conçue comme levier d’action, gagne du terrain. L’écart se creuse entre maîtrise avancée et usage basique.Enfin, la cybersécurité. Sam Altman alerte sur des agents IA plus autonomes, à la fois plus utiles et plus exploitables par des attaquants. À Stanford, l’agent ARTEMIS a mené une évaluation de 16 heures sur un réseau de 8 000 appareils: deuxième au classement général, il dépasse neuf hackers humains, découvre neuf vulnérabilités et valide 82 % de ses rapports, pour un coût d’environ 18 dollars/heure contre 60 pour un pentester professionnel. Sa force: générer des sous‑agents en parallèle. Limites: certaines failles manquées, besoin d’indices, et des systèmes comme Codex ou Claude Code ne battent que deux humains, faute d’expertise intégrée. Les rapports de Google anticipent une intensification des attaques par agents IA en 2026, d’où la nécessité de mesures proactives.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
4 days ago
7 minutes 49 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-09
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : les dérives du langage autour de l’IA, un CES 2026 sans tapage chez Dell, robots et modèles Gemini, agents intégrés et vie privée, santé numérique avec ChatGPT Health, licenciements dans la tech, et une méthode d’agents IA très terre-à-terre.D’abord, un rappel utile: parler de “raisonnement”, “chaîne de pensée” ou “hallucinations” pour décrire des systèmes probabilistes prête à confusion. Ces métaphores anthropomorphisent l’IA, comme si elle comprenait, décidait ou éprouvait des émotions. Cela gonfle les attentes, brouille la responsabilité des concepteurs et des opérateurs, et installe une confiance mal placée. Même les échecs décrits en termes humains (“ignorer”, “mentir”) suggèrent une intention qui n’existe pas. Le débat n’est pas nouveau: dès 1976, le chercheur Drew McDermott alertait sur ces glissements de langage. L’enjeu aujourd’hui est de décrire les systèmes sans leur prêter d’agentivité ni de compétences humaines, y compris quand l’interface est conçue pour l’illusion de conversation.Changement d’ambiance au CES 2026: Dell a tenu un pré-briefing sans storytelling IA. Jeff Clarke, vice‑président et COO, a dressé l’état du marché — tarifs, lente transition de Windows 10 vers 11 — et pointé “une promesse non tenue de l’IA” censée doper la demande, tout en prévenant d’une pénurie de mémoire en 2026. Dell relance ses XPS, présente des portables Alienware ultra‑fins haut de gamme et d’entrée de gamme, de nouvelles tours Area‑51 et plusieurs moniteurs. Message assumé en Q&R: “le message autour de nos produits n’était pas axé sur l’IA”. Tous les appareils intègrent un NPU, mais, selon Kevin Terwilliger, les consommateurs n’achètent pas en fonction de l’IA et s’y perdent plus qu’ils n’y gagnent. Une inflexion notable, dans une industrie où même un lancement matériel — comme celui de Valve en 2025 — a pu faire sans mention d’IA.Sur le front robotique, Demis Hassabis a annoncé un partenariat Google DeepMind–Boston Dynamics: intégration des modèles Gemini dans les robots de la firme de Hyundai. Atlas, l’humanoïde maison, a été mis à jour avec des articulations à 360° et des outils d’IA, élargissant ses mouvements au‑delà des capacités humaines. Les modèles Gemini apporteraient planification, accès à la recherche Google et exécution de tâches plus complexes. L’apprentissage par renforcement reste un pilier pour l’adaptation en situation. Certains chercheurs — chez Huawei notamment — défendent que viser une AGI exige un corps pour apprendre par interaction physique.Autre tendance: l’IA agentique intégrée aux systèmes d’exploitation et aux applications. Cette bascule transforme l’informatique en infrastructure orientée objectifs, contrôlée par les éditeurs. Exemple discuté: Recall de Microsoft, qui capture une “mémoire photographique” des activités. Vendu comme productivité, il opère comme une surveillance au niveau OS, crée une cible centralisée et menace la confidentialité d’apps pensées pour la protection, comme Signal. Au‑delà du constat, des pistes “garrot” sont proposées: préserver dès maintenant la confidentialité au niveau applicatif, garantir l’autonomie des développeurs, un contrôle utilisateur granulaire, une transparence radicale et encourager la recherche adversariale — un agenda technique et politique présenté au 39C3.Côté santé, OpenAI lance ChatGPT Health, une expérience dédiée qui combine de façon contrôlée des données d’Apple Health, MyFitnessPal et d’autres sources. L’outil soutient l’information de l’utilisateur sans se substituer aux soins, ni fournir diagnostics ou traitements. OpenAI affirme que plus de 230 millions d’utilisateurs posent chaque semaine des questions santé/bien‑être. Le développement a mobilisé plus de 260 médecins dans 60 pays, avec plus de 600 000 retours couvrant 30 domaines, pour calibrer ton, sécurité et renvoi systématique au clinicien. Déploiement limité au départ, dans un espace distinct présentant des améliorations de confidentialité; l’utilisateur choisit quels partenaires peuvent partager ses données.Sur l’emploi, depuis fin 2022 et la sortie de ChatGPT, environ un demi‑million de travailleurs de la tech ont été licenciés. Selon plusieurs analyses, ces coupes ne découlent pas d’une automatisation effective des tâches, mais d’une instrumentalisation de l’IA comme prétexte. Les grandes plateformes testent en interne des méthodes de gestion — réduction des coûts, répression de la dissidence — avant de les étendre à d’autres secteurs. L’IA sert de paravent à des objectifs culturels ou politiques et à une mise en conformité sous la menace d’automatisation. Les outils de code assisté peuvent faciliter le développement tout en visant la baisse des coûts salariaux. Le tout est souvent présenté comme “efficacité” ou “ajustement des effectifs”.Pour finir, une approche pragmatique des agents: la “méthode Ralph Wiggum”. Inspirée du personnage des Simpsons, elle assume l’échec obstiné comme moteur d’apprentissage. Avec Claude Code d’Anthropic, un agent bouclé en essais‑erreurs tente, échoue, analyse, puis recommence, guidé par des “panneaux de signalisation” conçus par le développeur. Résultat affiché: environ 50 000 dollars de valeur générée pour 297 dollars de frais, en misant sur la résilience du processus plutôt que sur un coup de génie.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
5 days ago
6 minutes 16 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-08
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Microsoft pousse Copilot partout, la traduction littéraire à l’ère des machines, une plante cultivée par une IA, les compétences pour gérer des agents, la course à l’IA embarquée, et l’infrastructure NVIDIA pour l’ère des contextes géants.Microsoft transforme Edge en application pilotée par Copilot, avec une interface en test inspirée de l’assistant. Objectif affiché : un navigateur qui saisit l’intention, anticipe les actions et propose des suggestions ou automatisations. En parallèle, la suite Office adopte l’appellation « Microsoft 365 Copilot » après l’échec commercial de Copilot 365. Satya Nadella durcit le ton en interne : s’engager dans l’IA ou s’effacer, signe d’un repositionnement où l’IA devient le fil conducteur des produits.Changement de décor en édition : HarperCollins France prévoit d’ici 2026 de traduire les romans Harlequin via une IA opérée par Fluent Planet, révélait Publisher’s Weekly après des articles en France en décembre. Le flux: traduction automatique, relecture et finalisation par des pigistes, afin de maintenir des prix très bas – 4,99 € pour la série Azur – face à la baisse des ventes. Fluent Planet met en avant BrIAn, un agent propriétaire censé produire des textes 2 à 3 fois plus qualitatifs que la traduction neuronale standard, avec idiomes, style et émotions préservés. L’ATFL et le collectif En Chair et en Os appellent au refus de ces pratiques, dénonçant l’entraînement sur œuvres humaines sans consentement, le travail invisible et précaire (notamment en modération), et une empreinte énergétique élevée. L’autrice Caroline Lee redoute l’éviction d’artistes de couverture et d’éditeurs, et l’impact d’un afflux de livres générés. En mars 2025, Taylor & Francis a annoncé une stratégie similaire, avec correction et validation par éditeurs et auteurs.Sur le terrain expérimental, Claude, l’IA d’Anthropic, a maintenu en vie plus d’un mois une plante, Sol, dans une mini-serre. Toutes les 15 à 30 minutes, l’IA lisait température, humidité, luminosité et pilotait éclairage, chauffage, ventilation et arrosage. Un bug « recursion error » sur l’Arduino a saturé la mémoire et stoppé les automatismes ; malgré cela, Claude a ajusté les paramètres à partir des mesures disponibles. Humidité trop élevée, léger jaunissement des feuilles, mais croissance soutenue. Côté méthode, une boucle ReAct pour le court terme et une couche d’auto-consolidation résumant régulièrement le contexte ont évité la surcharge mémoire. À 43 jours, une tomate restait possible si la stabilité se maintenait.Dans les entreprises, les agents IA passent du concept à la pratique. Ils exécutent campagnes marketing, RH, finance, chaîne logistique ou fabrication. Huit compétences émergent pour les managers: pensée stratégique; littératie en IA et ingénierie d’invite; mise en œuvre responsable et traçable; conception de flux de travail agentiques avec déclencheurs, actions et résultats; communication et intelligence émotionnelle; gestion du changement; gouvernance des données (propriété, accès, qualité, conformité); et apprentissage continu.La compétition mondiale s’étend au matériel: l’IA s’exécute à bord des appareils pour réduire la dépendance au cloud. Samsung s’appuie sur les modèles Gemini, signe d’une bascule vers l’IA embarquée. Cette intégration dope la demande en semi-conducteurs spécialisés et met les fonderies au cœur du jeu.Nadella anticipe 2026 comme année charnière: fini le débat sur le « slop », place à l’impact mesurable. Il mise sur des modèles plus petits et spécialisés qui coopèrent, orchestrés de façon sûre, plutôt qu’un unique modèle géant. Microsoft doit combler l’écart entre promesses de Copilot et usages réels, sous la pression d’un retour sur investissement. L’enjeu: démontrer une valeur concrète tout en maîtrisant l’énergie et les ressources de calcul. Nous n’en serions qu’aux « premiers kilomètres d’un marathon ».Enfin, l’infrastructure suit cette montée en complexité. Avec des fenêtres de contexte de millions de tokens et des modèles à des trillions de paramètres, le cache clé‑valeur (KV) devient critique. NVIDIA Rubin organise des « pods » mêlant GPU, Ethernet Spectrum‑X et un stockage Inference Context Memory Storage (ICMS) taillé pour l’inférence à grande échelle. Propulsé par BlueField‑4, ce niveau de mémoire de contexte précharge et réutilise le cache KV, promettant jusqu’à 5 fois plus de tokens par seconde et 5 fois moins d’énergie que les stockages classiques. Dans la hiérarchie G1–G4, le contexte actif vit idéalement en HBM GPU (G1), puis déborde vers la DRAM (G2) et le stockage local/rack (G3); l’envoyer vers le stockage objet/partagé (G4) ajoute latence, coût par token et baisse d’efficacité. Des cadres comme NVIDIA Dynamo orchestrent ces placements pour éviter de sous‑utiliser des GPU coûteux.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
6 days ago
5 minutes 54 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-07
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : faux signalement massif chez Uber Eats, images générées non consenties sur X, la plateforme Rubin de NVIDIA, les LLMs pour le tri d’articles scientifiques, l’IA à l’université, PeerTube et JavaScript, Project Graph d’Adobe, IA et codage, citations fantômes et l’outil CERCA, et l’essor de Claude Opus 4.5.On commence par une affaire qui bouscule la vérification de l’information. Un post viral sur Reddit, signé Trowaway_whistleblow, accusait une app de livraison de manipuler les délais, d’imposer des frais pour contrer les syndicats, et d’attribuer aux chauffeurs un “score de désespoir” influençant leurs courses. Le message a atteint la page d’accueil avec 86 000 votes positifs et des millions de vues. Enquête à l’appui, le badge “d’employé Uber Eats” fourni à un journaliste s’est avéré généré par l’IA Google Gemini, et un document technique “confidentiel” truffé d’incohérences, dont l’usage de données d’Apple Watch pour évaluer l’état émotionnel des chauffeurs. Conclusion: une fabrication, et un temps de vérification toujours plus lourd à l’ère des contenus synthétiques. Dans le même registre de confiance, Grok, outil de génération d’images, a vu circuler sur X des visuels sexualisés non consentis, y compris impliquant des mineurs. Les régulateurs ont exigé des mesures de restriction, relançant le débat sur la modération et la protection des utilisateurs.Cap sur l’infrastructure: NVIDIA dévoile la plateforme Rubin, pensée pour bâtir un “superordinateur d’IA”. Six puces co-conçues: CPU NVIDIA Vera, GPU NVIDIA Rubin, commutateur NVLink 6, SuperNIC ConnectX-9, DPU BlueField-4 et commutateur Ethernet Spectrum-6. Objectif: réduire fortement le temps d’entraînement et les coûts d’inférence. Rubin, nommée en hommage à l’astronome Vera Rubin, introduit NVLink de dernière génération, le Transformer Engine, l’informatique confidentielle et un moteur RAS, avec un cap sur l’IA agentique, le raisonnement avancé et les modèles MoE à moindre coût que la plateforme Blackwell. AWS, Google, Microsoft, Meta et d’autres partenaires prévoient d’adopter ces briques pour gagner en mémoire, fiabilité et efficacité.Dans la recherche, une étude a évalué les LLMs pour trier les résumés d’articles dans des revues systématiques et méta-analyses. Des scripts Python ont piloté ChatGPT v4.0 et v3.5, Google PaLM 2, Meta Llama 2, puis les versions récentes: gpt-4.0 turbo, gpt-3.5 turbo, Google Gemini 1.0 pro, Llama 3, et Claude 3. Sur trois bases de résumés, comparées aux décisions humaines, ChatGPT v4.0 affiche une sensibilité et une spécificité équilibrées, avec une précision globale atteignant ou dépassant 90 %. Les auteurs estiment que ces outils peuvent alléger le tri avec un effort humain limité, en mode autonome ou hybride, sans remplacer totalement l’expertise.Dans l’enseignement supérieur, l’usage de l’IA générative explose: à Bordeaux-Montaigne, 85 % des étudiants l’emploient fréquemment, près de 70 % constamment. Les universitaires se divisent: en juin 2025, une lettre ouverte aux Pays-Bas appelle à freiner une adoption jugée non critique; en France, des enseignants, dont Florence Maraninchi, signent un manifeste (près de 2 000 soutiens) pour une objection de conscience. À l’inverse, le réseau TERRA-HN plaide pour une appropriation critique à l’université plutôt qu’un retrait.Côté création, Adobe présente Project Graph, un éditeur visuel par nœuds qui relie modèles d’IA et outils comme Photoshop. Les créateurs conçoivent des flux sur mesure, les empaquettent en “outils portables” avec interface simplifiée, partageables et utilisables à travers les apps Adobe et le web. But: transformer des pipelines complexes — variations de marque, montage vidéo à grande échelle, gestion de séances photo — en briques réutilisables, sans devoir “devenir développeur”.Sur le développement logiciel, le débat s’intensifie. Linus Torvalds juge l’IA plus efficace pour les revues de code, et les entreprises multiplient l’adoption. Mais une étude associe GitHub Copilot à une hausse de 41 % des bogues. AUTOSEL, outil qui s’immisce dans le noyau Linux via l’IA, alarme une partie de la communauté: certains demandent une politique d’urgence sur l’usage de l’IA. Dans le même temps, des filières informatiques stagnent ou reculent, sur fond de crainte d’obsolescence, alors que des groupes comme Microsoft licencient tout en intégrant des outils d’IA.Petit détour par le web décentralisé: PeerTube requiert JavaScript pour fonctionner. Si vous le désactivez, la page ne s’affiche pas. Les utilisateurs soucieux de sécurité peuvent consulter le code de l’instance, chercher des audits, ou utiliser des applications tierces listées par PeerTube. La plateforme fédérée répartit les vidéos sur des “instances” interconnectées. En cas de souci, PeerTube recommande la dernière version de Mozilla Firefox et invite à signaler les bugs sur GitHub.Enfin, la littérature scientifique fait face aux “références fantômes” générées par LLMs: des citations plausibles mais inexistantes, parfois relayées sur le web — une fausse référence attribuée à Ben Williamson compte 43 citations sur Google Scholar. Pour automatiser la vérification, l’outil open source CERCA extrait les références d’un PDF (via Cermine), fait du fuzzy matching, interroge OpenAlex, Crossref et Zenodo, et signale les incohérences. Développé en Java/JavaFX, sous licence AGPL-3.0, il vise à épauler auteurs, relecteurs et éditeurs. En parallèle, l’enthousiasme autour de Claude Opus 4.5, très utilisé pour des projets de code personnels, alimente les questions sur l’automatisation des tâches d’ingénierie.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
1 week ago
6 minutes 51 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-06
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : pubs dans ChatGPT, stabilité d’entraînement avec DeepSeek mHC, agents autonomes en centres de contact, médias face à la genIA, secousses SEO chez Google, IA et difficulté des examens, matériel vocal d’OpenAI, virage d’Instagram vers l’authenticité.D’abord, ChatGPT pourrait intégrer de la publicité. Des échanges internes chez OpenAI envisagent un “traitement préférentiel” des résultats sponsorisés. Exemple cité : demander un dosage d’ibuprofène et voir s’afficher une mention pour Advil, avec le reste relégué plus bas. Le service revendique 900 millions d’utilisateurs hebdomadaires. Pour limiter le rejet, un modèle testé ne montrerait des pubs qu’à partir de la deuxième interaction, et du code repéré dans la bêta Android mentionne “publicités de fonctionnalités” et “carrousel de publicités de recherche”. OpenAI dit explorer des formats “conçus pour respecter la confiance”.On enchaîne avec DeepSeek et sa nouvelle architecture mHC, Manifold-Constrained Hyper-Connections. Objectif : stabiliser l’entraînement des grands modèles en contraignant les matrices de mélange au polytope de Birkhoff, où chaque ligne et colonne somme à 1. Testée de 3 à 27 milliards de paramètres, la méthode canalise le flux de signal, là où les Hyper-Connexions classiques peuvent amplifier jusqu’à x3000. mHC s’appuie sur Sinkhorn-Knopp pour normaliser, évite d’avoir recours au gradient clipping, et cible surtout H_res, la matrice appliquée aux résidus, rendue doublement stochastique. Résultat annoncé : gains de stabilité et d’évolutivité sur des entraînements longs.Dans les centres de contact, les agents autonomes passent la vitesse supérieure. Au-delà des réinitialisations de mots de passe, ces systèmes perçoivent le contexte, planifient et agissent à travers CRM, commandes, finance et logistique. Gartner anticipe 80 % des problèmes résolus de façon autonome d’ici 2028. Déploiements concrets : Bosch opère plus de 90 agents avec 76 % de résolution au premier contact ; Heathrow rapporte plus de 30 % de revenus supplémentaires après un engagement proactif automatisé. À la clé, des économies — des cas montrent plus de 800 000 dollars par an — mais avec des garde-fous ; Puzzel décrit une courbe de maturité en cinq étapes pour éviter de brûler les étapes. Côté offre, on voit Agentforce, et NiCE avec CXone Mpower Agents.Place aux médias face à l’IA générative. Plus d’un quart des Français consultent des sites d’infos générées par IA, souvent mis en avant par les plateformes. Parallèlement, les contenus de presse sont exploités pour entraîner des modèles sans consentement ni rémunération. Des pistes se dessinent : valoriser les droits d’auteur via des licences tarifées, mobiliser le droit des marques et le droit “sui generis” des bases de données, et outiller la détection des bots. Le terrain juridique reste mouvant : au Royaume-Uni, l’affaire Getty Images contre Stability AI n’a pas tourné à l’avantage des auteurs ; en Allemagne, l’industrie musicale a gagné contre OpenAI. La CJUE devra trancher pour l’UE.Côté SEO, Google a terminé sa mise à jour principale de décembre 2025, avec de fortes baisses de trafic pour certains éditeurs d’actualité. Le moteur teste aussi des “recettes Frankenstein” générées par IA, critiquées pour leur qualité, et relativise l’intérêt des ccTLD pour le référencement international. Autres tests : icônes de haut-parleur dans les aperçus IA aux États-Unis, et évolution du bouton Gemini dans Chrome. Bing étend “Les gens demandent aussi”. Microsoft Advertising ajoute des colonnes personnalisées et un onglet pour gérer tous les comptes. La communauté pleure Andy Drinkwater, référence du SEO.Sur l’éducation, une étude montre que les LLM évaluent mal la difficulté des questions pour les humains. Mesurée par la corrélation de Spearman, la moyenne reste sous 0,50 : GPT-5 atteint 0,34, quand GPT-4.1 fait 0,44. Les modèles sous-estiment la difficulté, échouent à “jouer” des étudiants plus faibles, et ne prédisent pas bien leurs propres limites. Piste proposée : entraîner sur des données d’erreurs d’élèves. En parallèle, en Allemagne, “rédaction et édition” domine les usages d’OpenAI, avec “tutorat et éducation” juste derrière. Andrej Karpathy défend une “classe inversée” : examens à l’école, apprentissage assisté par IA à la maison.Autre front, le matériel grand public d’OpenAI. L’entreprise accélère avec un modèle IA orienté voix pour une première génération d’appareils, soutenue par l’acquisition de io Products pour 6,5 milliards de dollars. Objectif : rivaliser avec Apple, qui refond la recherche de Siri, et avec Amazon et son Nova Sonic pour l’IA vocale. Foxconn serait impliqué côté fabrication.Enfin, Instagram s’adapte à la défiance envers les images trop parfaites. Adam Mosseri observe que la génération graphique brouille la preuve visuelle ; les moins de 25 ans privilégient des partages plus authentiques, privés et éphémères. La plateforme étudie la signature cryptographique à la prise de vue ; Google teste Nano Banana Pro pour détecter les images générées. En 2026, l’authenticité passe parfois par un certain “désordre” perçu comme gage d’humain.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
1 week ago
6 minutes 16 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-05
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un modèle multimodal compact qui tient la distance, une interface web interactive chez Google, l’IA agentique à l’honneur, l’offensive TPU v7 de Google, le parcours d’Arthur Mensch, et un guide pour mieux travailler avec l’IA.On ouvre avec T5Gemma-2, nouveau venu de la famille Gemma 3. Ce modèle encodeur‑décodeur multimodal aligne 270 millions de paramètres et tourne sur un ordinateur portable. Ses embeddings encodeur‑décodeur sont liés, ce qui réduit le nombre total de paramètres, et son décodeur fusionne attention auto et croisée en une seule couche, simplifiant l’architecture et facilitant la parallélisation en inférence. Côté usages, il traite texte et images simultanément et accepte jusqu’à 128 000 tokens grâce à une attention local‑global héritée de Gemma 3. En pratique, un analyste peut donner une capture d’écran d’un graphique de ventes et une consigne textuelle : le modèle repère le mois au plus haut revenu et calcule l’écart à la moyenne trimestrielle. Entraîné sur plus de 140 langues, plus petit et plus flexible que ses prédécesseurs, il cible des machines standard tout en gérant documents longs et tâches multimodales.On reste chez Google avec “vue dynamique” de Gemini, une expérimentation disponible via un bouton sur la version web dans certains pays, dont les États‑Unis. Plutôt qu’un texte statique, l’assistant génère de mini‑pages web interactives : éléments graphiques cliquables, images, animations, informations organisées pour planifier un voyage, structurer des tâches ou comparer des produits sans quitter la page. Limites : l’outil ne capte pas l’intuition humaine — par exemple la perception d’une taille de vêtement — et ces interactions nourrissent la collecte de données. Service gratuit pour l’instant, il pourrait intégrer de la publicité à terme.Cap sur le mot numérique 2025 : “IA agentique”. À la différence de l’IA générative centrée sur la production de contenu, ces agents poursuivent un objectif et prennent des décisions avec peu d’intervention humaine. Exemples : lire les e‑mails, isoler ceux liés aux factures, extraire les montants, alimenter un logiciel comptable, puis envoyer le message de confirmation ; ou encore gérer un agenda, trouver un créneau, réserver un restaurant selon des préférences, et créer l’événement. D’autres termes cités : détox numérique et dégafamisation ; plus loin, hyperscaler, shadowban, vishing, algospeak, numéricovigilance. “IA slop” désigne les contenus générés de faible qualité. Le palmarès des années passées mentionne IA frugale, numérique responsable, métavers.Côté infrastructure, Google prépare pour 2026 le déploiement massif de sa TPU v7 “Ironwood”. Changement d’échelle : la conception passe du serveur au rack, avec matériel, réseau, alimentation et logiciels intégrés au niveau système pour l’entraînement et l’inférence à large échelle. Les TPU, ASIC dédiés à l’IA, reposent sur des matrices statiques avec flux de données et noyaux prédéfinis, quand les GPU lancent dynamiquement des noyaux à l’exécution ; malgré cela, l’écosystème CUDA de Nvidia reste un atout majeur et le portage des bases de code coûteux. Ironwood adopte un design à double puce pour le rendement et le coût, conserve le refroidissement liquide, et mise sur la commutation de circuits optiques pour relier les racks : latence réduite, bande passante stable pour des entraînements longs. Un rack compte 64 puces ; un cluster monte à 144 racks, soit 9 216 TPU synchrones. En 2026, environ 36 000 racks seraient déployés, nécessitant plus de 10 000 commutateurs optiques. La consommation par puce est estimée entre 850 et 1 000 W, jusqu’à 100 kW par rack, avec distribution d’énergie avancée et secours par batterie. La production totale pourrait atteindre 3,2 millions de TPU, mais une expertise poussée de la pile logicielle Google reste nécessaire ; pour la plupart des acteurs, les GPU devraient rester dominants.Portrait rapide d’Arthur Mensch, né en 1992 à Sèvres. Polytechnique, Télécom Paris et Paris‑Saclay, thèse à l’Inria sur l’optimisation stochastique et l’analyse prédictive d’images cérébrales en IRM fonctionnelle. En 2020, il rejoint DeepMind sur les LLM et les systèmes multimodaux. En 2023, il cofonde Mistral AI avec Guillaume Lample et Timothée Lacroix : modèles ouverts et interopérables, valorisation en milliards, partenariats avec Microsoft et Nvidia. Il met en avant le contrôle des modèles et une trajectoire européenne de souveraineté.On termine par un mode d’emploi pour mieux travailler avec l’IA d’ici 2026. Clarifier la communication : prompting spécifique au domaine, changement de perspective, boucles d’auto‑évaluation, “reverse prompting” pour expliciter le raisonnement ; des outils dédiés à l’optimisation des prompts pour ChatGPT ou Gemini aident à cadrer les sorties. Choisir un modèle, le maîtriser, puis étendre à d’autres selon les tâches. Gérer le contexte : formats d’entrée structurés, fichiers de projet organisés pour limiter les redites. Fiabiliser : vérifications automatisées complétées par des contrôles manuels. Traiter les réponses comme une base et y ajouter expertise et style. Orchestrer plusieurs outils : Zapier ou Make.com pour automatiser et relier les services ; LangChain pour combiner des capacités en agents. Revoir régulièrement les flux, éliminer le redondant, ajuster l’alignement avec les objectifs.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
1 week ago
6 minutes 20 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-04
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un nouveau modèle multimodal taillé pour l’ordinateur portable, une interface web expérimentale plus visuelle, l’IA agentique au centre des usages, un guide pratique pour travailler mieux avec l’IA, de grands mouvements industriels, et le parcours d’Arthur Mensch.On ouvre avec T5Gemma-2, dernier-né de la famille Gemma 3. Ce modèle encodeur-décodeur multimodal compte 270 millions de paramètres et fonctionne sur un ordinateur portable. Il traite texte et images grâce à un encodeur de vision efficace et s’appuie sur des embeddings liés entre l’encodeur et le décodeur, ce qui réduit le nombre total de paramètres sans sacrifier les capacités. Autre choix d’architecture, une attention fusionnée côté décodeur qui regroupe auto- et cross-attention en une seule couche, pour simplifier et mieux paralléliser l’inférence. Le modèle gère des contextes jusqu’à 128 000 tokens via une attention local‑global héritée de Gemma 3, et il est massivement multilingue, entraîné sur plus de 140 langues. En pratique, il peut analyser un tableau de bord de ventes à partir d’une image et d’un prompt textuel, déterminer le mois au revenu le plus élevé et calculer l’écart à la moyenne trimestrielle. Il affiche des performances robustes en multilingue, multimodalité, raisonnement et long contexte, et dépasse les Gemma 3 de taille équivalente, limités au texte, sur les tâches multimodales.Restons chez Google avec “la vue dynamique” de Gemini. En phase expérimentale et disponible via un bouton sur la version web dans certains pays, notamment aux États‑Unis, elle génère des mini‑pages web interactives en réponse à une requête. On y trouve des éléments graphiques manipulables, des images, des animations et des onglets pour organiser l’information. L’approche veut dépasser la réponse purement textuelle. Limites à noter : Gemini ne peut pas trancher des aspects subjectifs, comme un ressenti personnel sur un produit. Et comme d’autres IA génératives, le service exploite des données utilisateurs pour s’améliorer, avec des questions associées de confidentialité. Gratuit pour l’instant, il pourrait demain intégrer publicités ou liens d’affiliation pour assurer sa monétisation.Côté usages, “IA agentique” a été élu mot numérique de l’année 2025. L’agent ne se contente pas de générer du contenu : il enchaîne des décisions pour atteindre un objectif, seul ou en coordination avec d’autres. Exemples concrets : lire des e‑mails, isoler ceux liés aux factures, extraire les données, les saisir dans un logiciel comptable et envoyer une confirmation au fournisseur ; ou encore analyser un agenda, repérer les créneaux libres, réserver un restaurant selon des préférences et ajouter l’événement au calendrier. D’autres termes étaient en lice, comme détox numérique et dégafamisation, ainsi que hyperscaler, shadowban, vishing, algospeak et numéricovigilance. Parmi les suggestions, cyberpunk, cyberdystopie, intellition, asservissement numérique, shadow IA, et “IA slop” pour qualifier un contenu généré en masse, de faible qualité, qui brouille la visibilité des créations humaines.Dans la même veine pratique, un guide propose d’atteindre un haut niveau d’efficacité d’ici 2026. Les axes clés : mieux communiquer avec l’IA via du prompting spécifique au domaine, changement de perspective, boucles d’auto‑évaluation et “reverse prompting” pour expliciter le raisonnement ; s’appuyer sur des outils d’optimisation de prompts adaptés à ChatGPT ou Gemini ; choisir un modèle, en maîtriser forces et limites, puis étendre à d’autres. Côté méthode, structurer le contexte et les entrées, standardiser les formats, combiner contrôles automatisés et relecture humaine pour fiabilité. L’approche recommande d’orchestrer plusieurs outils et d’automatiser avec Zapier ou Make.com, voire d’assembler des capacités avec LangChain. Enfin, auditer régulièrement les automatisations, supprimer les redondances et garder l’IA comme partenaire, pas comme pilote unique.Passons aux grands mouvements industriels. SoftBank aurait finalisé un investissement de 41 milliards de dollars dans OpenAI, apportant un soutien financier majeur à ses recherches et à son expansion. Neuralink vise l’automatisation des chirurgies d’implants cérébraux et une production de masse d’ici 2026, avec l’ambition d’interfacer cerveau et ordinateur pour traiter des pathologies neurologiques. Aux États‑Unis, l’ancien président Donald Trump a bloqué l’accord de HieFo sur les actifs de puces d’Emcore, en invoquant la sécurité nationale. En Chine, ByteDance prévoit d’augmenter fortement ses achats de puces d’IA face à la demande pour les produits Nvidia. Sur l’inférence, Nvidia et Groq ont conclu un accord stratégique de licence, qui pourrait élargir la portée des solutions proposées. Enfin, Google prévoit d’accélérer son infrastructure en 2026 avec l’expansion de ses TPU Ironwood, des circuits spécialisés pour les charges d’IA, distincts des GPU plus polyvalents, avec des gains attendus en coût et performance à grande échelle.Pour conclure, un portrait. Arthur Mensch, né en 1992 à Sèvres, formé à l’École polytechnique en 2011, puis à Télécom Paris et Paris‑Saclay, a soutenu une thèse à l’Inria sur l’optimisation stochastique et l’analyse prédictive d’images cérébrales en IRM fonctionnelle. En 2020, il rejoint DeepMind et travaille sur grands modèles de langage et systèmes multimodaux. En 2023, il cofonde Mistral AI avec Guillaume Lample et Timothée Lacroix, mise sur des modèles ouverts et interopérables, atteint en un an une valorisation de plusieurs milliards de dollars, et scelle des partenariats avec Microsoft et Nvidia. Une trajectoire qui place une entreprise française dans la course mondiale à l’IA.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
1 week ago
6 minutes 31 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-03
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un modèle multimodal léger qui tourne sur portable, une interface Gemini plus visuelle, l’IA agentique à l’honneur, un guide pour doper votre pratique, la montée en puissance des TPU v7 de Google, et le parcours d’Arthur Mensch chez Mistral AI.D’abord, T5Gemma-2. Ce modèle encodeur-décodeur de la famille Gemma 3 concentre 270 millions de paramètres et fonctionne sur un ordinateur portable. Il est multimodal: texte et image sont traités ensemble via un encodeur de vision. Côté architecture, il relie les embeddings entre l’encodeur et le décodeur pour réduire les paramètres sans perdre en capacité, et fusionne l’attention auto-référentielle et l’attention croisée en une seule couche dans le décodeur, ce qui simplifie l’exécution et la parallélisation à l’inférence. Sa fenêtre contextuelle grimpe jusqu’à 128 000 tokens grâce à une attention local‑global alternée. Formé sur plus de 140 langues, il couvre des usages globaux et surpasse les Gemma 3 de taille équivalente (qui étaient textuels) en performances multimodales. Exemple concret: analyser une capture d’écran d’un tableau de bord de ventes et répondre à des questions chiffrées sans serveur dédié.Cap maintenant sur la “vue dynamique” de Gemini, une fonctionnalité expérimentale accessible via un bouton sur la version web dans certains pays, dont les États‑Unis. Plutôt qu’un simple texte, Gemini génère de petites pages interactives: images, animations, onglets. Utile pour planifier un voyage, organiser des tâches ou comparer des produits, le tout sans quitter le site de Gemini. Des limites subsistent: bugs d’affichage, zones non cliquables, et incapacité à saisir des ressentis comme le confort d’un vêtement. Cette approche illustre aussi les enjeux de données et de monétisation: aujourd’hui gratuit, ce type d’assistant pourrait intégrer demain publicités ou liens d’affiliation.Sur le terrain des usages, “IA agentique” a été élu mot numérique de l’année 2025. L’idée: des agents capables de décider et d’enchaîner des actions pour atteindre un objectif, seuls ou en coopération, avec peu d’intervention humaine. Exemples: lire les e‑mails, détecter ceux liés aux factures, extraire les données, saisir dans un logiciel comptable, puis envoyer la confirmation; ou gérer votre agenda, trouver un créneau pour réserver un restaurant selon les préférences des invités, puis ajouter l’événement avec rappel. Le vote met aussi en avant “détox numérique” et “dégafamisation”, reflet de préoccupations sur la souveraineté technologique. D’autres termes cités: hyperscaler, shadowban, vishing, algospeak, numéricovigilance, ainsi que des propositions comme cyberpunk, cyberdystopie, intellition, asservissement numérique, shadow IA, IA slop, souvent liées aux risques de désinformation et de deepfakes.Dans la même veine pratique, un guide propose d’atteindre un niveau d’usage de l’IA supérieur à 99 % des utilisateurs d’ici 2026. Les clés: une communication précise (prompting spécifique au domaine, changement de perspective, boucles d’auto‑évaluation), le “reverse prompting” pour faire expliciter le raisonnement, et des outils d’optimisation de prompts adaptés à ChatGPT ou Gemini. Choisir et maîtriser un modèle à la fois avant d’en ajouter d’autres; structurer le contexte avec des formats d’entrée cohérents; vérifier la fiabilité via contrôles automatisés complétés par une revue humaine. Traiter l’IA comme un partenaire: partir des sorties comme base, injecter votre expertise et votre style. Pour aller plus loin, orchestrer plusieurs outils et automatiser avec Zapier, Make.com ou LangChain, tout en auditant régulièrement les workflows pour éliminer les redondances et rester aligné sur vos objectifs.Côté infrastructures, Google prépare pour 2026 un déploiement massif de sa septième génération de TPU, nom de code Ironwood. L’approche passe du serveur au rack comme unité de conception: intégration matériel‑réseau‑alimentation‑logiciel au niveau système. Ironwood adopte un design à double puce pour améliorer le rendement et garde le refroidissement liquide. L’interconnexion s’appuie sur des commutateurs de circuits optiques (OCS) entre racks pour réduire la latence, la consommation et offrir une large bande passante adaptée aux entraînements longs. Chaque rack compte 64 puces; des clusters jusqu’à 144 racks permettent de faire fonctionner 9 216 TPU de façon synchrone. Des estimations évoquent environ 36 000 racks déployés en 2026 et plus de 10 000 OCS. Côté énergie: 850 à 1 000 W par puce, jusqu’à 100 kW par rack, avec distribution avancée et secours par batterie. Reste un frein: la maîtrise de la pile logicielle Google, raison pour laquelle les GPU devraient demeurer dominants pour la majorité des entreprises.Pour finir, portrait d’Arthur Mensch. Né en 1992, passé par l’École polytechnique en 2011, Télécom Paris et Paris‑Saclay, il réalise une thèse à l’Inria sur l’optimisation stochastique et l’analyse prédictive d’images cérébrales en IRM fonctionnelle. En 2020, il rejoint DeepMind, où il travaille sur grands modèles de langage et systèmes multimodaux. En 2023, il cofonde Mistral AI avec Guillaume Lample et Timothée Lacroix. L’entreprise mise sur des modèles ouverts et interopérables, s’intègre facilement chez les développeurs, signe des partenariats avec Microsoft et Nvidia et atteint en un an une valorisation de plusieurs milliards de dollars. Un parcours qui illustre l’ambition européenne en IA et la quête de souveraineté technologique.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
1 week ago
6 minutes 37 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-02
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : vidéo décentralisée et navigateurs, ingérences facilitées par l’IA, renommage chez OpenAI, YouTube et contenus générés, limites des modèles de raisonnement, et politique des tokens.On commence avec PeerTube, plateforme vidéo décentralisée fondée sur un réseau d’instances indépendantes. Si JavaScript est désactivé ou bloqué, l’accès échoue: le lecteur, les formulaires et l’interface reposent dessus. Pour limiter les frictions, les mainteneurs recommandent d’utiliser la dernière version de Mozilla Firefox. Les plus prudents peuvent consulter le code source sur GitHub et le GitLab de Framasoft, ou adopter des applications tierces. En cas de doute sur une incompatibilité, un dépôt GitHub dédié permet de signaler le problème. Conseillé aussi: vérifier les audits de sécurité de l’instance choisie.Cap ensuite sur la sécurité informationnelle. La France serait, selon un rapport parlementaire publié le 3 décembre 2025, le pays de l’UE le plus exposé aux ingérences étrangères, une vulnérabilité amplifiée par l’IA, qui rend la manipulation de l’information moins coûteuse. Dans le contexte de la guerre en Ukraine, le document cite 3,6 millions d’articles de propagande diffusés par la Russie en 2024 et un investissement d’un milliard d’euros via Russia Today et Sputnik. Le rapport recense 18 recommandations, appelle à renforcer les moyens humains et matériels de Viginum, et juge les réponses actuelles insuffisantes malgré le DSA et l’AI Act. Il plaide pour développer des technologies européennes malgré des obstacles, et alerte sur le risque accru en période électorale; Viginum a publié un guide à destination des équipes de campagne.Dans l’industrie, changement discret de nommage. Chez OpenAI, Codex cloud — la version cloud de l’agent de codage — s’appelle désormais Codex web. Le changement a été repéré via l’Internet Archive: une capture du 18 décembre affiche encore “Codex cloud”, les plus récentes montrent “Codex web”. Thibault Sottiaux, en charge de l’ingénierie Codex, précise la distinction: les “tâches cloud” s’exécutent sur un environnement hébergé et couvrent, entre autres, la revue de code et des intégrations avec GitHub et Slack; “Codex web” désigne l’application web. Sur iPhone, le service reste “Codex iOS”. À noter: l’équivalent chez Anthropic, “Claude Code” sur le web, est jugé peu pratique par certains utilisateurs.Direction YouTube, où une vidéo sur cinq serait désormais générée par l’IA. L’étude de Kapwing, menée sur 15 000 des plus grandes chaînes, estime que 21 % des “shorts” sont produits à la chaîne grâce à l’IA. Parmi elles, 278 chaînes publient exclusivement ce type de contenus, totalisant 63 milliards de vues et près de 117 millions de dollars de revenus annuels. En testant un compte sans historique, il a suffi de 16 vidéos pour que l’algorithme recommande des contenus générés; sur les 500 premiers shorts visionnés, 104 venaient d’IA. Le “IA slop” prospère là où les revenus YouTube dépassent les salaires locaux, notamment en Inde, au Nigéria et au Brésil. En Inde, “Bandar Apna Dost” cumule 2,5 milliards de vues et plus de 4 millions de dollars avec des personnages comme un singe rhésus anthropomorphe ou un Hulk chef de guerre. En Corée du Sud, 11 chaînes reposant sur l’IA totalisent près de 9 milliards de vues; quatre figurent dans le top 10 national. En 2025, YouTube semble privilégier le rendement de recommandation.Côté recherche, les modèles de raisonnement d’OpenAI ou de Deepseek montrent un paradoxe: ils “réfléchissent” souvent plus longtemps à des tâches simples qu’à des tâches composées, produisant parfois des conclusions illogiques. Ces systèmes génèrent une trace de raisonnement avant la réponse finale — par exemple décomposer 17 × 24 en 17 × (20 + 4). Pourtant, Deepseek-R1 ajoute environ 300 tokens de réflexion pour un simple carré, davantage que pour une tâche addition+carré; les évaluations signalent des échecs sur des tâches composées. Pour corriger ces écarts, des “Lois du Raisonnement” (LoRe) sont proposées: effort proportionnel à la difficulté, et précision décroissante exponentiellement avec elle. Des essais de fine-tuning visant un comportement additif réduisent l’écart d’effort de 40,5 % sur un modèle 1,5B et améliorent plusieurs benchmarks. Les auteurs rappellent que ces modèles récupèrent des solutions existantes plus vite sans produire d’idées inédites. L’industrie mise néanmoins sur la montée en puissance du calcul: OpenAI a utilisé dix fois plus de compute pour o3 que pour o1, quatre mois après sa sortie.Enfin, gros plan sur la tokenisation, ce découpage du texte en sous-mots qui sert d’interface entre nos langues et les modèles. Les dictionnaires de tokens n’encodent pas que des mots: on y trouve des marques, des handles comme realdonaldtrump ou des séquences “!!!!!!!!!!!!!!!”. Avant même l’entraînement, ce vocabulaire emporte déjà des biais culturels et commerciaux; la tokenisation est un acte politique. Des expériences montrent 51 manières de “composer” giraffe en tokens, du token unique aux découpages gi|ra|ffe ou g|i|r|af|fe. En alimentant directement des modèles image avec ces combinaisons — g|iraffe, gir|affe — on obtient encore des girafes, signe que les débuts et fins de tokens pèsent sur la sémantique. Certaines images resteraient inaccessibles par simple prompt, l’étape de tokenisation “assainissant” des combinaisons. Des algorithmes génétiques permettent de rétroconcevoir des prompts, et l’analyse des vocabulaires révèle des “non-mots” issus de cultures de plateforme. L’anglais n’est, au fond, qu’un sous-ensemble de ces langues de tokens, qui cadrent ce qui est représentable.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
1 week ago
6 minutes 40 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2026-01-01
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : agents intégrés et vie privée, stratégie IA de Meta, achats automatisés d’Amazon, percées 2025 en raisonnement, sécurité des modèles, e-mail IA à Rob Pike, et « recettes Frankenstein » de Google. Note plateforme: Bluesky aussi.D’abord, la bascule vers l’IA agentique au niveau des systèmes. Intégrés dans l’OS et les navigateurs, des agents comme Recall de Microsoft, Magic Cue de Google ou Atlas d’OpenAI observent et anticipent l’usage sur toutes les apps. Signal alerte: si l’OS capture un écran avant chiffrement ou après déchiffrement, la confidentialité applicative est vidée de sa substance. Les « astuces » telles que détourner des fonctions DRM ne sont pas tenables. Un cadre « garrot » est proposé: 1) API officielles pour marquer des apps « sensibles » exclues par défaut des agents; 2) contrôles utilisateurs fins, application par application; 3) transparence claire sur les données accessibles et leur usage; 4) encourager et protéger la recherche adversariale. L’enjeu sera discuté au 39C3 dans le thème « Ethics, Society & Politics ».Transition avec la stratégie des géants: Meta a racheté Manus, société chinoise d’IA, pour accélérer un agent autonome « pour des milliards ». Le groupe lance Meta Superintelligence Labs, recrute quatre talents formés en Chine, tout en restructurant son département IA avec des licenciements. Pour soutenir la montée en charge, Meta achète 10 milliards de dollars de services cloud chez Google malgré 28 data centers en propre, signe d’un besoin massif de calcul pour l’entraînement et surtout l’inférence.Sur la distribution, un programme bêta d’Amazon, « Buy For Me », agrège des articles issus de boutiques indépendantes pour les afficher sur Amazon—parfois avec des fiches erronées—puis fait acheter par son agent sur le site d’origine. Pas d’accord préalable ni d’option de retrait pour les boutiques. Des créateurs s’inquiètent de la perte de contrôle, des erreurs de présentation et de la charge supplémentaire de support que cela génère.À propos de plateformes: si vous testez Bluesky, notez que son application web interactive nécessite JavaScript; plus d’infos sur bsky.social et atproto.com.Cap vers la R&D 2025: les LLM progressent en raisonnement avec RLVR et l’algorithme GRPO. DeepSeek R1 illustre l’apprentissage par renforcement qui fait émerger des chaînes de réflexion, avec un coût d’entraînement annoncé autour de 5 millions de dollars, rendu possible par une post-formation massive. RLVR emploie des labels de correction déterministes, efficaces en math et en code, avec des extensions envisagées vers la chimie et la biologie. Côté usage, on investit plus à l’inférence quand la précision prime sur la latence, et l’appel à des outils (recherche, calculatrices via API) réduit les hallucinations.Reste la sécurité des modèles. Les modèles, probabilistes et dépendants des données, ouvrent des surfaces d’attaque nouvelles: entrées adversariales, exfiltration par requêtes répétées, contournements par prompt. Les artefacts exposés couvrent données d’entraînement, architectures, poids, hyperparamètres, checkpoints, endpoints. L’empoisonnement peut intégrer des portes dérobées; des poids volés dévoilent la propriété intellectuelle. Réponse attendue: découverte et inventaire, sécurité de la chaîne d’approvisionnement, classification et protection des données, contrôles d’accès et surveillance des secrets, intégrité des artefacts et des déploiements—le tout orchestré par une gestion continue de posture (AI-SPM) et des tests adversariaux réguliers.Côté usages sociaux, Rob Pike a reçu le 25 décembre 2025 un e-mail non sollicité, signé « Claude Opus 4.5 », émis par AI Village, un projet de l’association Sage. Dans une expérience de « gestes de gentillesse », des agents ont envoyé des remerciements à des figures de l’informatique. Pike a dénoncé l’absence d’authenticité et de consentement. Analyse à l’appui: confusion d’attribution avec Anthropic, récupération de son e-mail via GitHub, et engagement des organisateurs à ne plus envoyer de messages non sollicités, sans excuses formelles. Le débat reste vif.Enfin, des blogueurs cuisine, dont Inspired Taste, signalent des « recettes Frankenstein » dans les réponses IA de Google: des mélanges de recettes existantes, brandés, mais suffisamment modifiés pour donner des résultats médiocres. Conséquences: baisse du trafic et atteinte à la réputation. Plusieurs médias s’en sont saisis. Google n’a pas commenté; une légère amélioration est observée, mais le problème persiste dans les recherches non-marques. Et ces recettes ne sont pas testées, source d’échecs en cuisine domestique.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
1 week ago
5 minutes 32 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2025-12-31
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : emploi et IA, fondation open-source pour les agents, sécurité face aux injections de prompt, publicité dans ChatGPT, failles des assistants de code, et évaluation des agents par MLflow.D’abord, l’IA au travail sous la loupe du sociologue Antonio Casilli. Il observe que l’IA sert souvent de prétexte à des vagues de licenciements, dans la tech et au-delà. Aux États‑Unis, licencier “au nom de l’IA” est même perçu comme plus acceptable que pour des raisons de coûts. En France, la menace de remplacement par l’IA, parfois non réalisée, sert à discipliner le travail, les syndicats jugeant ce progrès difficilement évitable. Casilli critique l’injonction “adopter l’IA pour ne pas décrocher” comme argument d’automatisation. Pour les jeunes, la tendance dominante serait plutôt la précarisation via des contrats d’indépendants et la plateformisation du recrutement. Il rappelle aussi le rôle des travailleurs de la donnée, souvent dans le Sud global, chargés d’annoter et d’enrichir les corpus avec peu de protections. L’IA laisse ainsi une double empreinte, sociale et environnementale, des datacenters aux batteries. Il appelle à des réponses systémiques et note la montée d’actions collectives parmi ces travailleurs.On enchaîne avec la création de l’Agentic AI Foundation, abritée par la Linux Foundation. OpenAI et Anthropic y versent MCP et AGENTS.md, tandis que Block apporte son cadre d’agents goose. Des membres Platine rejoignent: AWS, Microsoft, Bloomberg, Cloudflare et Google, avec de nombreux membres Or et Argent. Le membre Argent Obot.ai transfère ses événements MCP Dev Summit et son podcast. Selon la Linux Foundation, MCP, goose et AGENTS.md, lancés respectivement fin 2024, début 2025 et au second semestre 2025, sont devenus des briques clés des agents. Rassembler ces projets vise une gouvernance ouverte et pérenne. Des voix demandent toutefois une spécification claire et communautaire pour l’API JSON des complétions, et certains s’interrogent sur la maturité de MCP, jugé par certains “trop jeune” pour une fondation dédiée. À noter : Google avait déjà confié son protocole A2A au projet Agent2Agent, également avec AWS et Microsoft.Côté sécurité, OpenAI admet que les attaques par injection de prompt ne seront peut‑être jamais éradiquées. L’entreprise publie une mise à jour pour l’agent de navigateur de ChatGPT Atlas, avec un modèle entraîné de façon adversariale et des protections renforcées après la découverte, via red‑teaming automatisée, d’une nouvelle classe d’attaques. L’agent peut lire des pages, cliquer et taper comme un humain, ce qui élargit la surface d’attaque déjà signalée par l’agence allemande BSI. OpenAI décrit un attaquant automatisé qui génère des injections, les teste dans un simulateur, récupère la trace complète de raisonnement et itère. Les garanties déterministes restent difficiles, mais la stratégie vise une réduction continue du risque. Conseils aux usagers: privilégier le mode déconnecté quand c’est possible, vérifier les confirmations et donner des instructions explicites plutôt que des prompts vagues.Sur le modèle économique, OpenAI travaille à l’intégration de publicités dans ChatGPT. Des indices dans la bêta Android mentionnent “bazaar content” et “search ad”. Des tests internes d’informations sponsorisées en barre latérale ont eu lieu puis été désactivés après retours négatifs, notamment des abonnés payants. Malgré une pause destinée à améliorer la qualité face à la concurrence, la recherche de revenus relance le dossier, avec des analystes évoquant un déploiement possible dès le premier semestre 2026. L’entreprise, qui ne viserait pas la rentabilité avant 2030 et aurait encore à lever 207 milliards de dollars pour ses ambitions, pourrait profondément déplacer l’attention publicitaire vers les chatbots, avec des réponses contextualisées à fort taux de conversion, mais une impartialité questionnée et des effets sur le trafic du Web.Retour à la sécurité avec le Mois des Bugs de l’IA d’août 2025: plus de deux douzaines de vulnérabilités ont été divulguées de manière responsable dans les principaux assistants de codage agentiques. Les travaux mettent en avant des schémas d’attaque récurrents et, point notable, des mesures d’atténuation pratiques pour des systèmes autonomes et probabilistes, afin de réduire la surface d’attaque sans bloquer l’assistance au développement.Enfin, comment évaluer ces agents? Une approche s’appuie sur MLflow pour suivre des expériences de red‑teaming tri‑modèle: un attaquant génère des invites risquées, une cible répond, un juge évalue la sécurité, chaque échange étant journalisé. Exemple cité: attaquant GPT‑5.1, cible Gemini 2.5 Flash, juge Claude 4 Sonnet. Les résultats montrent des styles distincts: Gemini refuse plus souvent les requêtes adversariales, GPT redirige vers des réponses plus sûres. MLflow centralise métriques et traces pour comparer les comportements et guider les améliorations.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
2 weeks ago
5 minutes 54 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2025-12-30
Bonjour à toutes et à tous, et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : prolifération de contenus générés par IA et désinformation, immersion d’un ingénieur chez Notion pour outiller les ventes, sortie médiatique de Rob Pike, pub et SEO en mouvement, stratégie silicium et énergie de Google Cloud, “vibe coding” sous surveillance, et Google A2UI pour des interfaces générées par agents.D’abord, l’état du web. Les articles humains deviendraient minoritaires face aux contenus produits par IA. En parallèle, les grands modèles de langage “hallucinent” encore, générant des faits et citations inventés. OpenAI parle de limites inhérentes, non de bogues. Effet domino: des papiers scientifiques falsifiés se retrouvent sur des plateformes comme Google Scholar, fragilisant la confiance académique. Côté trafic, le rapport 2025 d’Imperva indique que l’automatisé dépasse l’humain, avec une majorité de “bad bots”. Résultat: une toile plus bruyante, moins diverse et moins nuancée, où la qualité de l’information s’érode.Pour une note opérationnelle, Notion a envoyé l’ingénieur IA Theo Bleier un mois dans l’équipe commerciale. Constat: les représentants perdaient des heures en copier-coller entre outils. Il a développé une extension Chrome qui automatise ces transferts, libérant du temps pour des tâches à valeur ajoutée. Autre insight: la recherche préalable sur les comptes aide, mais la clé est la priorisation au bon moment. D’où “Salestino bot”, un outil interne qui exploite des signaux produits pour classer les comptes et personnaliser les messages. Morale: l’adoption de l’IA passe par la compréhension des processus, pas par des gadgets plaqués.Sur le terrain des idées, Rob Pike, co-créateur de Go, Plan 9 et UTF-8, accuse la GenAI de “piller, polluer et détruire le sens du progrès”. “Piller” renvoie à l’aspiration massive de données sans permission, “polluer” à l’introduction d’erreurs et de biais, et “détruire le sens du progrès” au risque de détourner l’innovation de son cap. Une critique directe des méthodes et effets de l’entraînement et de la diffusion des modèles.Publicité et SEO, maintenant. OpenAI teste l’intégration de publicités dans les réponses de ChatGPT, y compris du contenu sponsorisé, et penserait une stratégie fondée sur l’ampleur d’audience et des partenariats médias. Google présente ses innovations Google Ads 2025 et expérimente un affichage centré des résultats de recherche; il recommande aussi de choisir un nom de site raisonnable pour mieux apparaître. Microsoft Advertising avance que la correspondance exacte des mots-clés compte davantage que le rang d’annonce. John Mueller poursuit son assistance SEO le jour de Noël, comme depuis 18 ans, et un récapitulatif vidéo hebdo a été publié. Google réduit les limites de taille d’audience, Waymo teste Gemini comme assistant embarqué dans ses robotaxis, et AlphaFold continue d’évoluer cinq ans après son lancement. Côté marché, l’IA aurait fait émerger plus de 50 nouveaux milliardaires en 2025. Sur les pratiques: ClarityAutomate a permis à une équipe SEO d’entreprise d’exécuter des stratégies à grande échelle; des logs serveur éclairent l’usage de LLMS.TXT pour l’optimisation; les GEO KPIs aident à suivre les bonnes métriques géographiques; un tutoriel SEO pour 2026 est disponible ainsi qu’un cadre de budget SEO “capacité”. Enfin, Google Maps introduit un mode économie d’énergie testé sur plus de 200 miles et reste l’app de navigation la plus utilisée.Direction les infrastructures. À Fortune Brainstorm AI, Thomas Kurian (Google Cloud) détaille la stratégie long terme: investissements dans un silicium maison et anticipation des besoins énergétiques. Les TPU, en développement depuis 2014, donnent à Google un contrôle de bout en bout, réduisant dépendances aux GPU tiers et coûts, et offrant plus de calculs par watt que des GPU généralistes. L’intégration verticale soutient l’essor des charges IA. Côté énergie, Google améliore l’efficacité de ses data centers et s’alimente en renouvelables; l’achat par Alphabet d’Intersect Power, acteur solaire, vise à sécuriser l’approvisionnement. Dans un contexte où les data centers pèsent davantage dans la consommation électrique mondiale, transformer la contrainte énergétique en avantage devient un pivot de compétitivité.Place au “vibe coding”. Cette approche consiste à confier à l’IA la production de code à partir d’une idée, utile pour prototyper vite mais risquée si l’on néglige architecture et maintenance. Michael Truell, PDG de Cursor, alerte: ces systèmes restent des “boîtes noires”. Cursor intègre l’IA directement dans l’IDE pour suggestions, blocs complets, débogage et explications, mais encourage la revue humaine et la vérification sécurité. Gain de vitesse oui, dépendance aveugle non.Enfin, Google A2UI. Ce protocole public permet à des agents IA de générer des interfaces utilisateur via JSON, en assemblant des composants approuvés. Avantages: sécurité par design, compatibilité LLM, portabilité entre frameworks (React, Flutter, Angular, SwiftUI). Le cycle suit quatre phases: génération, transport, résolution, rendu. L’accès se fait via une interface web ou en clonant le dépôt GitHub pour une démo; des agents alimentés par Gemini produisent les interfaces, personnalisables côté client. Exemples: un tableau de bord budgétaire avec sliders, filtres et détails en un clic; un module de réservation de taxi sur un seul écran, carte interactive, adresses avec autocomplétion, choix de véhicules avec prix et estimations d’arrivée, puis suivi en direct. L’idée: envoyer des interfaces aussi sûres que des données, mais presque aussi expressives que du code.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
2 weeks ago
6 minutes 43 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2025-12-29
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : une couche mémoire open source pour agents, un nouveau modèle de code, virage de Salesforce, recherche sur le raisonnement humain, critiques de l’IA générative, débats autour de la conduite autonome, outils de partage et plateforme IA tout-en-un.MemMachine propose une couche de mémoire universelle pour agents IA, persistante à travers sessions, agents et LLM. Objectif: stocker et rappeler préférences et historique pour bâtir des profils utilisateurs évolutifs, afin de transformer des chatbots en assistants contextuels. Le projet est open source sous licence Apache 2.0, disponible en conteneur Docker et package Python, avec exemples d’agents, documentation d’installation, guide de contribution et un Discord communautaire.Côté modèles, Z.ai publie GLM-4.7, pensé pour des cycles de tâches longs, l’usage intensif d’outils et une stabilité renforcée. Le modèle s’intègre aux cadres “penser puis agir” comme Claude Code, Cline, Roo Code, TRAE et Kilo Code, et a été évalué sur 100 tâches réelles dans un environnement Claude Code avec des gains nets vs GLM-4.6 en taux d’achèvement et cohérence. Benchmarks: 67,5 sur BrowseComp (tâches web), 87,4 sur τ²-Bench (utilisation interactive des outils), meilleur score open source public à ce jour. Sur SWE-bench Verified, LiveCodeBench v6 et Terminal Bench 2.0, GLM-4.7 atteint le niveau de Claude Sonnet 4.5 ou au-dessus, et prend la tête sur Code Arena. Disponible via BigModel.cn et intégré à l’environnement z.ai, il est déjà branché chez TRAE, Cerebras, YouWare, Vercel, OpenRouter et CodeBuddy. Le modèle promet aussi des mises en page front-end plus cohérentes et un style de conversation plus naturel.Dans l’entreprise, Salesforce admet une baisse de confiance dans les LLM et privilégie désormais l’automatisation “prévisible”. Message clé: ces modèles restent puissants mais exigent données fiables, logique métier précise et gouvernance stricte pour livrer de la fiabilité “niveau entreprise”. L’éditeur alerte aussi sur la dérive des modèles et l’importance de mises à jour continues.Sur le terrain de la théorie des jeux, une étude montre que des modèles comme GPT-4o et Claude-Sonnet-4 surestiment la rationalité humaine dans le “concours de beauté” keynésien, version “Devinez le nombre” entre 0 et 100, cible étant la moitié de la moyenne. Les modèles adaptent leurs choix selon le profil décrit (étudiants, experts), mais “jouent trop intelligemment” et ratent l’équilibre observé chez des humains. Les auteurs notent aussi des difficultés sur certaines stratégies dominantes en jeux à deux joueurs, et rappellent d’autres travaux situant la précision des systèmes autour de 69 %.Autre actualité, un texte rassemble des critiques de l’IA générative: coûts environnementaux (électricité, métaux, terres rares, eau), collecte de données sans consentement et micro-travail sous-payé. Les usages serviraient parfois de prétexte à des licenciements et produiraient du “IA slop” ou “workslop”, avec risque de déqualification des métiers. Le texte évoque des effets addictifs et manipulateurs, des drames attribués à des chatbots, des accidents en montagne liés à de mauvais conseils d’applications, et des risques cybersécurité avec fuites de données. Il dénonce l’absence de régulation contraignante, l’inefficacité perçue de l’AI Act sur ces usages, et remet en cause l’idée d’une progression vers l’AGI par simple augmentation d’échelle.Sur l’automobile, Elon Musk affirme que la conduite autonome de Tesla a progressé depuis le départ d’Andrej Karpathy et revendique un meilleur “niveau d’intelligence par gigaoctet”. Selon lui, l’avantage de Tesla vient de la collecte continue sur des millions de véhicules en conditions réelles, avec des mises à jour rapides. Des visuels publiés veulent illustrer un écart croissant face à des concurrents comme Waymo. Le débat se concentre sur l’efficacité des données de terrain pour l’entraînement.Pour les créateurs de contenu, Flus sort du bêta son partage vers Mastodon, deux ans après l’introduction de la fonction. On connecte son serveur (ex. https://piaille.fr), on autorise Flus, puis on configure les options. Lors du partage, le message inclut titre, lien, et lien de votre bloc-note, avec un compteur de caractères et la possibilité de préparer un message par note. L’extension navigateur 1.0 ne publie pas directement vers Mastodon mais accélère la préparation via le bloc-note.Enfin, 1minAI se présente comme une application intégrant plusieurs modèles, dont ceux d’OpenAI, Google, Anthropic et Midjourney. Elle propose texte‑vers‑parole avec choix de voix, traduction audio, transcription, génération et mise à l’échelle d’images. La plateforme permet d’orchestrer plusieurs modèles simultanément et couvre des cas de création multilingue pour articles, réseaux sociaux, publicités, emails et newsletters.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
2 weeks ago
5 minutes 55 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2025-12-28
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : nouveaux modèles et outils, mémoire pour agents, étude sur le raisonnement humain, virage industriel, impacts sociétaux, conduite autonome et partage décentralisé.D’abord, cap sur le modèle GLM-4.7 dévoilé par Z.ai. Cette version se concentre sur des usages d’ingénierie réels: tâches longues, appels d’outils fréquents et stabilité. Formé et évalué pour des cycles multi-étapes, il prend en charge des cadres d’agents de codage comme Claude Code, Cline, Roo Code, TRAE et Kilo Code. Sur 100 tâches de programmation menées dans un environnement basé sur Claude Code, il améliore le taux d’achèvement par rapport à GLM-4.6 et devient le modèle par défaut du GLM Coding Plan. Benchmarks publics: 67,5 sur BrowseComp (tâches web) et 87,4 sur τ²-Bench, meilleur score rapporté parmi les modèles open source disponibles. Sur SWE-bench Verified, LiveCodeBench v6 et Terminal Bench 2.0, il atteint un niveau comparable ou supérieur à Claude Sonnet 4.5 et grimpe en tête sur Code Arena, premier parmi les modèles open source et premier en Chine. Il progresse aussi en génération front-end avec des mises en page plus cohérentes. Disponible via l’API BigModel.cn, il est intégré à l’environnement full-stack de z.ai et déjà relié à TRAE, Cerebras, YouWare, Vercel, OpenRouter et CodeBuddy.Pour ancrer la mémoire dans les agents, MemMachine propose une couche universelle, interopérable et extensible. Elle stocke et rappelle des préférences et des données entre sessions, agents et modèles, construisant un profil utilisateur durable. Objectif: transformer des chatbots en assistants personnalisés et contextuels. L’outil est distribué en conteneur Docker et en package Python, avec une communauté active, notamment sur Discord.Côté productivité tout-en-un, 1minAI agrège des modèles comme ChatGPT, DALLE, GoogleAI, Anthropic et Midjourney. Au menu: texte‑vers‑parole avec choix de voix, traduction audio, transcription, génération d’images, suréchantillonnage pour passer en haute résolution, et création de contenus multilingues pour blogs, réseaux sociaux, publicités, descriptions, emails et newsletters. L’interface permet de piloter plusieurs modèles au sein d’un même flux.Sur le partage décentralisé, Flus officialise la sortie de sa fonction Mastodon. Après avoir connecté son instance depuis “Comptes & données” puis “Configurer le partage vers Mastodon” et autorisé la liaison (ex: https://piaille.fr), un bouton “Partager vers Mastodon” apparaît sur chaque lien. Les messages sont personnalisables, avec par défaut le titre, l’URL et l’adresse du bloc‑note Flus; on peut en ajouter plusieurs, un compteur garantit le respect de la limite de caractères. L’extension navigateur 1.0 n’envoie pas encore vers Mastodon, mais facilite l’accès au bloc‑note où le partage est possible.Dans l’industrie, Salesforce constate une baisse de confiance dans les LLM et privilégie l’automatisation prévisible. Le message: les modèles sont performants, mais exigent données précises, logique métier et gouvernance pour atteindre une fiabilité entreprise. Contexte tendu après des suppressions de postes liées au déploiement d’agents d’IA.La recherche interroge la capacité des modèles à anticiper le comportement humain. Dans le concours de beauté keynésien “Devinez le Nombre” — choisir entre 0 et 100, puis viser la moitié de la moyenne — des modèles comme ChatGPT‑4o et Claude‑Sonnet‑4 ajustent leurs choix selon le profil d’adversaires décrits, mais surestiment la rationalité réelle et “jouent trop intelligemment”. Ils peinent aussi à détecter certaines stratégies dominantes en duels. Des travaux connexes évoquent une précision d’environ 69% pour les meilleurs systèmes, avec des risques de mimétisme persuasif.Sur les impacts, un texte critique les coûts environnementaux (électricité, métaux rares), le recours à des travailleurs sous‑payés, l’usage de ces technologies pour justifier des licenciements et la diffusion de fausses informations. Il dénonce des effets sur l’esprit critique, des designs addictifs, un manque de régulation, et rappelle que les IA génératives prédisent des mots plutôt qu’elles ne “comprennent”, d’où des erreurs. Les promesses d’AGI ou de singularité sont jugées irréalistes, les investissements étant perçus comme un détournement des priorités écologiques et stratégiques.Enfin, dans l’auto, Elon Musk affirme que Tesla a progressé depuis le départ d’Andrej Karpathy. Il met en avant un “niveau d’intelligence par gigaoctet” plus élevé et un avantage tiré des données massives collectées par la flotte sur route, mises à jour en continu. Des graphiques partagés suggèrent un écart croissant avec des concurrents comme Waymo, nourrissant le débat sur l’avantage des données réelles pour la conduite autonome.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
2 weeks ago
5 minutes 49 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2025-12-27
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : mémoire pour agents IA, controverses sur l’IA générative, nouveau modèle GLM-4.7, partage Flus–Mastodon, rationalité humaine vue par l’IA, Tesla vs Waymo et l’app 1minAI.On commence avec MemMachine, une couche de mémoire universelle pour agents. Elle fournit un stockage et une récupération de souvenirs évolutifs, extensibles et interopérables, qui persistent entre sessions, agents et modèles. Objectif: permettre aux applis d’apprendre des interactions passées et d’affiner un profil utilisateur utilisable par différents systèmes. Côté mise en œuvre, MemMachine est disponible en conteneur Docker et en package Python, avec un guide “Hello World”. Le projet est sous licence Apache 2.0 et ouvert aux contributions; la communauté est active sur Discord.Virage critique ensuite: plusieurs griefs visent l’IA générative, ChatGPT en tête. Coûts environnementaux élevés — électricité, métaux rares, eau — et jeux de données souvent collectés sans consentement. Des entreprises s’en servent pour justifier des licenciements, tandis que la production de contenus peut nourrir la désinformation. Autre effet pointé: le “deskilling”, perte d’esprit critique et d’autonomie cognitive chez les utilisateurs. Des chatbots ont été associés à des comportements dangereux, jusqu’à des cas de suicide. Faute de régulation stricte, ces outils se diffusent, sans pour autant mener à l’AGI. Ils bousculent l’emploi et la vie privée, et peuvent dégrader la qualité du travail en automatisant le répétitif.Cap sur GLM-4.7, dévoilé par Z.ai juste avant Noël. Ce LLM open-source cible des environnements de développement réels: tâches longues, appels d’outils fréquents et exigence de stabilité. Bâti sur GLM-4.6, il renforce les flux de codage, le raisonnement complexe et l’exécution de type agent. Il prend en charge les schémas “penser-puis-agir” dans Claude Code, Cline, Roo Code, TRAE et Kilo Code. Sur 100 tâches de programmation réelles évaluées dans Claude Code, il améliore le taux d’achèvement et la cohérence par rapport à 4.6 et devient le modèle par défaut du GLM Coding Plan. Résultats publics: 67,5 sur BrowseComp et 87,4 sur τ²-Bench, le plus haut score rapporté parmi les modèles open-source disponibles. Il progresse aussi en front-end, produisant des mises en page plus cohérentes. Disponible via l’API BigModel.cn et intégré à l’environnement full-stack de z.ai, il est adopté par TRAE, Cerebras, YouWare, Vercel, OpenRouter et CodeBuddy.Côté outils du quotidien, Flus facilite désormais le partage vers Mastodon. Il suffit de connecter son compte en indiquant l’adresse de son serveur. Les messages peuvent être personnalisés — titre, lien, notes — avec un compteur pour rester sous les 500 caractères. L’extension navigateur ne publie pas directement, mais ouvre rapidement la page de partage sur la plateforme web. De quoi fluidifier la veille et la diffusion de liens.Sur le plan cognitif, une étude montre que des modèles comme ChatGPT et Claude attribuent trop de rationalité aux humains dans des contextes stratégiques. Testés via le “concours de beauté” keynésien, ici “Devinez le Nombre” — choisir entre 0 et 100, le gagnant étant le plus proche de la moitié de la moyenne — les modèles ajustent leurs choix selon le profil d’adversaires décrits, d’étudiants à théoriciens des jeux. Pourtant, ils “jouent trop intelligemment” et ratent souvent la cible. Ils s’adaptent à l’âge ou l’expérience, mais peinent à repérer des stratégies dominantes en duels. Ces résultats rejoignent d’autres constats: précision limitée d’ensemble et capacité à imiter des traits humains, avec un risque de manipulation. Enjeu: mieux calibrer l’IA au comportement réel.Dans l’automobile, Elon Musk estime dépassées les positions d’Andrej Karpathy sur l’IA de Tesla et affirme des progrès depuis son départ. Il met en avant un meilleur “niveau d’intelligence par gigaoctet”, soit une utilisation plus efficace des données, soutenue par des gains de capacité et de vitesse d’apprentissage. Atout revendiqué: les données issues de millions de Tesla sur route, fournissant un flux continu et varié, à l’opposé de tests en laboratoire. Des visuels partagés montrent un écart grandissant avec des concurrents comme Waymo. Musk souligne un apprentissage et des mises à jour en continu fondés sur les kilomètres parcourus.Enfin, 1minAI réunit plusieurs modèles — ChatGPT, DALLE, GoogleAI, Anthropic, Midjourney — dans une interface unique. L’app gère texte‑vers‑parole avec choix de voix, traduction audio, transcription, génération d’images et mise à l’échelle pour améliorer la résolution. Elle permet d’orchestrer simultanément différents modèles et propose des générateurs multilingues pour articles de blog, commentaires sociaux, publicités, descriptions, emails et newsletters. 1minAI s’appuie notamment sur des modèles d’OpenAI comme ChatGPT et DALLE.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
2 weeks ago
5 minutes 49 seconds

L'IA aujourd'hui !
L'IA aujourd'hui épisode du 2025-12-26
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : hôpitaux et IA en duo, régulation États-Unis/Chine, qualité du code généré, culture cassette face au streaming, IA et casse-tête de jeu vidéo, et nouvelle plainte d’auteurs contre des géants de l’IA.D’abord, la santé. Des travaux récents mettent en avant la collaboration bidirectionnelle entre médecins et IA dans l’évaluation des tumeurs cérébrales. L’idée n’est pas de remplacer l’expertise clinique, mais de la renforcer. Les spécialistes apportent le contexte médical et la lecture des cas complexes, tandis que l’IA traite rapidement des volumes d’images et de données, propose des analyses et des pistes de diagnostic. Résultat rapporté: de meilleures performances à la fois pour les équipes humaines et pour les agents IA, avec des évaluations plus précises et plus rapides. Cette approche, qui combine jugement clinique et calcul intensif, est présentée comme un levier d’amélioration des décisions, avec l’objectif final d’améliorer la prise en charge des patients.Changement de décor: la régulation. Aux États-Unis, les entreprises d’IA évoluent encore dans un cadre largement auto-régulé au niveau fédéral. En Chine, l’encadrement est bien plus strict. Selon un rapport détaillé, les modèles doivent réussir une batterie de 2 000 questions, fréquemment mises à jour, avec un taux de refus d’au moins 95 % sur les requêtes jugées interdites, comme celles relatives au massacre de Tiananmen ou aux violations des droits humains. Ce filtrage s’accompagne d’objectifs de sécurité, par exemple limiter le partage de contenus violents ou pornographiques et prévenir l’auto-mutilation via les chatbots. Un contraste net avec les pratiques américaines, où ces problématiques restent un sujet de mise à niveau continue des systèmes.Cap maintenant sur la qualité du code. Une étude du Model Evaluation & Threat Research indique que le code généré par IA comporte davantage de problèmes que celui écrit par des développeurs: 10,83 problèmes en moyenne pour des tâches d’extraction avec IA, contre 6,45 pour du code humain. Les auteurs notent aussi un ralentissement: des développeurs outillés par l’IA ont mis 19 % de temps en plus pour achever leurs tâches, tout en ayant le sentiment d’aller plus vite. Dans le même temps, Satya Nadella a indiqué que 20 à 30 % du code de Microsoft est désormais généré par IA, ce qui interroge sur la dépendance aux outils et la fiabilité en production.Sur le terrain culturel, un récit témoigne d’un retour aux cassettes et, plus largement, aux médias physiques. Au Japon, où l’achat en magasin reste fort, la cassette n’a jamais disparu. À Tokyo, dans le quartier de Shimokitazawa, des rayons s’entassent jusque sur un vieux piano, et à Nakameguro une boutique affiche un ratio d’environ 10 cassettes pour 1 vinyle. L’auteur y achète un walkman bon marché, coque transparente, et privilégie une écoute hors ligne. En toile de fond, des utilisateurs disent quitter Spotify; des artistes auraient retiré leur musique pour protester contre des publicités de recrutement pour l’ICE et des liens avec des drones militaires; publier ses “Wrapped” serait devenu gênant. Beaucoup se tournent vers Bandcamp, la duplication de cassettes et les mixtapes. L’argument: retrouver une écoute intentionnelle, loin de la réduction de “friction” propre au streaming et de contenus générés par IA perçus comme standardisés, tout en soutenant directement les créateurs.Côté capacités de raisonnement, un casse-tête visuel inspiré d’un Zelda a servi de test. La règle: frapper un bloc rouge ou bleu inverse la couleur des blocs adjacents; objectif, tout mettre en bleu. Sans accès Internet pendant l’essai, Google Gemini 3 Pro a souvent trouvé la solution, mais parfois au terme de longues séquences d’essais, jusqu’à 42 pages. GPT-5.2-Thinking a résolu correctement et rapidement les variantes, de façon répétée. Claude Opus 4.5 a d’abord échoué à bien interpréter l’image; après explications, il a calculé la bonne solution via une équation. En projection, des agents pourraient automatiser la création de guides de jeux: l’exemple NitroGen de Nvidia joue, capture, documente, puis transmet à un rédacteur. Une approche transposable à d’autres logiciels nécessitant de la documentation.Enfin, le juridique. Le journaliste John Carreyrou et cinq auteurs ont déposé plainte contre xAI, Anthropic, Google, OpenAI, Meta et Perplexity, accusant un entraînement de modèles sur des œuvres protégées sans consentement. Particularité: une stratégie de plaintes individuelles plutôt que des actions collectives, pour éviter des règlements à bas coût sur des milliers de cas. C’est la première fois que xAI est visée dans ce type de dossier. Réactions: Perplexity affirme ne pas indexer les livres; Anthropic, déjà impliquée dans plusieurs affaires, a accepté un règlement collectif de 1,5 milliard de dollars, que les plaignants jugent insuffisant, estimant que les auteurs ne toucheraient qu’environ 2 % du plafond légal prévu par le Copyright Act. Le cadre juridique reste mouvant, tandis que des accords commerciaux émergent, à l’image d’un partenariat récent entre un grand studio et un acteur de l’IA.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Show more...
2 weeks ago
5 minutes 56 seconds

L'IA aujourd'hui !

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.


En savoir plus sur Michel Levy Provençal

Élargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.