Bienvenue dans notre playlist dédiée aux passionnés de technologie !
Plongez dans l’univers de l’innovation avec notre sélection de podcasts explorant les dernières tendances, les avancées et les défis du monde de la Tech. Que vous soyez un professionnel du secteur ou juste avide de connaissances, cette playlist saura vous mettre la puce (électronique) à l'oreille.
Suiviez les discussions sur l’intelligence artificielle, la cybersécurité, les gadgets de demain et les stratégies des géants du numérique. Ces podcasts vous offrent un accès privilégié aux réflexions des experts, des entrepreneurs et des chercheurs de renom qui façonnent le futur de notre monde connecté.
La Playlist Tech est conçue pour être à la fois éducative et inspirante, vous permettant de rester informé des évolutions rapides du secteur technologique tout en nourrissant votre curiosité. Abonnez-nous pour un voyage passionnant à travers l’univers tech, où chaque épisode est une fenêtre ouverte sur l’avenir.
Avec cette playlist, l'actu Tech n’aura plus de secrets pour vous !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bienvenue dans notre playlist dédiée aux passionnés de technologie !
Plongez dans l’univers de l’innovation avec notre sélection de podcasts explorant les dernières tendances, les avancées et les défis du monde de la Tech. Que vous soyez un professionnel du secteur ou juste avide de connaissances, cette playlist saura vous mettre la puce (électronique) à l'oreille.
Suiviez les discussions sur l’intelligence artificielle, la cybersécurité, les gadgets de demain et les stratégies des géants du numérique. Ces podcasts vous offrent un accès privilégié aux réflexions des experts, des entrepreneurs et des chercheurs de renom qui façonnent le futur de notre monde connecté.
La Playlist Tech est conçue pour être à la fois éducative et inspirante, vous permettant de rester informé des évolutions rapides du secteur technologique tout en nourrissant votre curiosité. Abonnez-nous pour un voyage passionnant à travers l’univers tech, où chaque épisode est une fenêtre ouverte sur l’avenir.
Avec cette playlist, l'actu Tech n’aura plus de secrets pour vous !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Meta accélère encore dans la course à l’intelligence artificielle. Après une année marquée par des investissements massifs et une chasse aux talents à grande échelle, le groupe de Mark Zuckerberg vient de frapper un nouveau coup en rachetant Manus, un agent IA dont les performances ont rapidement attiré l’attention du secteur.
Présenté au printemps dernier par la start-up Butterfly, Manus s’est imposé en quelques semaines comme l’un des agents les plus avancés du moment. Capable de trier des candidatures, planifier des voyages complexes, analyser des données ou piloter des tâches numériques de bout en bout, l’outil s’est fait connaître grâce à une démonstration virale qui le plaçait au niveau, voire au-dessus, des solutions proposées par les leaders du marché. Accessible sur invitation, Manus a séduit des millions d’utilisateurs prêts à payer un abonnement mensuel.
La trajectoire de Butterfly a été fulgurante. En l’espace de quelques mois, la jeune pousse, fondée à Pékin mais basée à Singapour, revendiquait plus de 100 millions de dollars de revenus annuels récurrents et une valorisation estimée à 500 millions de dollars. Des chiffres impressionnants, appuyés par des statistiques techniques spectaculaires : des dizaines de trillions de tokens traités et des millions d’environnements virtuels générés. Autant d’arguments qui ont visiblement convaincu Meta de sortir le chéquier. Le géant américain aurait déboursé plus de deux milliards de dollars pour mettre la main sur Manus. Une acquisition stratégique, alors que Meta cherche à intégrer des agents intelligents directement au cœur de Facebook, Instagram et WhatsApp. L’idée est claire : faire de l’IA un compagnon omniprésent, capable d’assister les utilisateurs dans leurs tâches quotidiennes, personnelles comme professionnelles.
Butterfly insiste toutefois sur la continuité du service. Manus restera accessible de manière indépendante, avec ses abonnements et son équipe basée à Singapour. Pour Meta, c’est aussi l’assurance de récupérer une activité déjà rentable, à l’heure où les investissements dans l’IA pèsent lourdement sur les finances des géants du numérique. Reste un point sensible : l’origine chinoise du projet. Dans un contexte de tensions technologiques entre Washington et Pékin, l’opération pourrait susciter des interrogations politiques. Meta a d’ailleurs pris les devants, affirmant qu’après la transaction, aucun actionnaire chinois ne conservera de participation et que Manus cessera toute activité en Chine. Un signal clair : pour s’imposer dans la bataille mondiale de l’IA, Meta entend lever tous les obstacles, y compris géopolitiques.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Il n’existerait pas d’hydrogène à l’état naturel sur Terre : pendant longtemps, cette idée a fait figure de vérité scientifique. Et pourtant, les faits racontent une autre histoire. Dès le début du XXᵉ siècle, des émanations d’hydrogène ont été observées en France. À partir des années 1970, les chercheurs commencent à identifier, un peu partout sur la planète, des poches d’hydrogène naturel – désormais baptisé hydrogène blanc – depuis les fonds océaniques jusqu’à la croûte continentale. Longtemps restées marginales, ces découvertes prennent aujourd’hui une tout autre dimension.
Car dans un monde engagé dans une course contre la montre pour décarboner ses économies, l’hydrogène naturel apparaît comme une ressource providentielle. L’hydrogène industriel actuel, dit « gris », est produit à partir de ressources fossiles et génère près de dix kilos de CO₂ pour chaque kilo d’hydrogène. Un hydrogène bas carbone pourrait, lui, transformer l’industrie, les transports, voire la production d’électricité. Résultat : la ruée est lancée. Des forages exploratoires sont en cours en Australie et aux États-Unis. En France, plusieurs permis ont été délivrés, notamment dans les Pyrénées-Atlantiques et les Landes. Plus spectaculaire encore : l’annonce récente d’un gisement estimé à 46 millions de tonnes d’hydrogène naturel dans le sous-sol de la Moselle. À titre de comparaison, la consommation mondiale d’hydrogène atteignait environ 90 millions de tonnes en 2022.
C’est dans ce contexte que des chercheurs de l'University of Oxford, de l’University of Durham et de l’University of Toronto publient des travaux majeurs. Leur étude identifie les conditions géologiques nécessaires à la formation et à l’accumulation de l’hydrogène blanc. Et leur conclusion est vertigineuse : les environnements favorables seraient répandus à l’échelle mondiale, avec un potentiel capable de couvrir nos besoins énergétiques pendant… 170 000 ans. Les chercheurs expliquent désormais comment l’hydrogène se forme, migre à travers les roches et se retrouve piégé, mais aussi ce qui peut le faire disparaître, comme certains microbes qui s’en nourrissent. Ces avancées offrent une véritable feuille de route aux industriels de l’exploration. Tout n’est pas encore connu : l’efficacité exacte des réactions chimiques ou l’influence de l’histoire géologique restent à préciser. Mais l’essentiel est là. « Trouver de l’hydrogène, c’est comme réussir un soufflé », résume le géochimiste Chris Ballentine : il faut les bons ingrédients, au bon moment. Une recette que la science commence enfin à maîtriser, ouvrant la voie à une nouvelle ère énergétique.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans cet épisode spécial, on passe en mode survie numérique pour l’hiver. Arnaques aux faux livreurs, fausses promos, sites piégés, Wi-Fi public, voyages, paiements, cybersécurité… On voit tout ce que vous devez savoir pour éviter les galères des fêtes et garder le contrôle.
Posez-nous vos questions via ce lien : https://www.speakpipe.com/bubble
Les réseaux de Quentin : https://bento.me/quentincougniot
Les réseaux de Rewan : https://www.linkedin.com/in/rewan-mahloub/
Les réseaux de Mathieu : https://linktr.ee/mathieudossantos
© 2025 QUENTIN // Tous droits réservés.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Peut-on réellement identifier quelqu’un à partir des traces qu’il laisse en ligne ? À partir d’un dossier de photos récupérées sur d’anciens disques durs, nous passons en revue les méthodes d’enquête numérique (métadonnées EXIF, indices visuels, recoupements) et montrons comment elles permettent de remonter à une identité. Entre l’exemple célèbre du drapeau de Shia LaBeouf retrouvé par des internautes et nos essais, on mesure les risques pour la vie privée et les limites des protections comme les pseudonymes.
En plateau
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pour faire tourner l’intelligence artificielle, il ne suffit pas d’aligner des serveurs. Il faut surtout les refroidir. Et c’est là que le bât blesse. Selon un rapport de l’International Energy Agency, les centres de données ont consommé 415 térawattheures d’électricité dans le monde en 2024, soit quasiment l’équivalent de la consommation annuelle de la France. D’ici 2030, cette demande pourrait plus que doubler, pour atteindre 945 TWh, portée en grande partie par l’explosion des usages liés à l’IA. Une trajectoire énergivore, qui interroge la soutenabilité à long terme du modèle actuel.
Face à ce mur énergétique, des chercheurs explorent des pistes radicalement nouvelles. À l’University of Houston, une équipe du département d’ingénierie biomoléculaire vient de mettre au point un matériau inédit pour les puces électroniques. Il s’agit d’un isolant bidimensionnel ultrafin, dit « Low-K », c’est-à-dire à faible constante diélectrique. Concrètement, ce matériau ne conduit pas l’électricité, mais laisse circuler les forces électrostatiques nécessaires au fonctionnement des circuits.
Pourquoi est-ce crucial ? Parce que dans les puces actuelles, une grande partie de la chaleur provient justement des interférences électriques entre composants. En réduisant ces interactions parasites, cet isolant permet aux processeurs de fonctionner à haute vitesse tout en produisant beaucoup moins de chaleur. Résultat : des serveurs plus efficaces, qui nécessitent moins de refroidissement, donc moins d’électricité, sans sacrifier les performances. Pour fabriquer ces films Low-K, les chercheurs ont utilisé une technique appelée « polymérisation interfaciale synthétique », popularisée notamment par le chimiste Omar M. Yaghi, prix Nobel de chimie 2025. Le principe : assembler des briques moléculaires légères, comme le carbone, un peu à la manière d’un jeu de Lego à l’échelle atomique. On obtient ainsi des feuillets cristallins ultrarésistants, capables de supporter des températures élevées tout en maintenant une excellente stabilité électrique.
Ces nouveaux isolants offrent un double avantage. D’un côté, ils améliorent la dissipation thermique dans les centres de données dédiés à l’IA. De l’autre, ils pourraient à terme bénéficier à toute l’électronique grand public, des smartphones aux ordinateurs. Si la technologie passe le cap de l’industrialisation, elle pourrait devenir l’un des leviers clés pour freiner l’explosion énergétique de l’intelligence artificielle — et rappeler que l’innovation matérielle reste aussi stratégique que les algorithmes.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les signaux sont au rouge pour les prix de l’électronique grand public en 2026. Les dirigeants de Asus et Acer ont confirmé que les ordinateurs portables et de bureau verront leurs tarifs augmenter dès le début de l’année prochaine. En cause : la flambée du prix de la mémoire vive et du stockage, happés par la demande massive des centres de données dédiés à l’intelligence artificielle.
Selon le quotidien taïwanais Commercial Times, Samson Hu, patron d’Asus, et Jason Chen, PDG d’Acer, s’accordent sur un constat partagé par l’ensemble du secteur : les hausses de coûts devront inévitablement être répercutées sur les prix de vente. Jusqu’ici, les constructeurs avaient réussi à contenir l’inflation grâce à des stocks constitués avant la pénurie. Mais cette période de répit touche à sa fin. Dès le premier trimestre 2026, les nouvelles machines intégreront des composants achetés au prix fort. Asus entend ajuster finement ses gammes, en jouant sur les configurations et le positionnement tarifaire pour rester compétitif. Acer se montre plus direct : « les prix du quatrième trimestre ne seront pas ceux du premier trimestre de l’an prochain », a prévenu Jason Chen. Pour limiter la casse, certains fabricants pourraient réduire les dotations techniques : 8 Go de RAM au lieu de 16 Go, capacités de stockage revues à la baisse. Une stratégie défensive, alors même que la pénurie touche aussi les SSD.
La situation pourrait s’installer dans la durée. Les deux géants du secteur, SK Hynix et Samsung, n’envisagent pas d’augmenter significativement leurs capacités de production. Construire une usine de mémoire prend entre trois et cinq ans, un pari risqué dans un marché cyclique. Quant à Micron, le groupe a recentré ses efforts sur la mémoire à très haut débit (HBM) pour l’IA, au détriment du grand public, et prévient que la tension sur les prix pourrait durer au-delà de 2026. Résultat : les consommateurs risquent de payer plus cher des machines parfois moins bien équipées. Une ironie à l’heure où les logiciels, dopés à l’IA, deviennent toujours plus gourmands en ressources. L’informatique personnelle entre ainsi dans une phase paradoxale : plus puissante côté usages, mais plus coûteuse et plus contrainte côté matériel.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’intelligence artificielle est-elle réellement prête à remplacer les humains au travail ? La question agite les entreprises, entre fantasmes de productivité totale et scepticisme assumé. Pour dépasser les discours, des chercheurs de Carnegie Mellon University ont tenté une expérience originale : simuler une entreprise presque entièrement peuplée d’agents d’intelligence artificielle. Les résultats, publiés en prépublication sur arXiv, sont loin d’annoncer la fin du salariat humain. Les scientifiques ont confié le fonctionnement de cette entreprise virtuelle à des agents issus des modèles les plus en vue du moment : Claude d’Anthropic, GPT-4o d’OpenAI, Gemini de Google, Nova d’Amazon, Llama de Meta ou encore Qwen d’Alibaba. Chaque agent s’est vu attribuer un poste classique : analyste financier, chef de projet, ingénieur logiciel. En parallèle, d’autres agents jouaient le rôle de collègues ou de services internes, comme les ressources humaines.
Sur le papier, tout était en place. Dans les faits, la performance est restée très limitée. Le meilleur élève, Claude 3.5 Sonnet, n’a réussi à mener à terme que 24 % des tâches confiées. En incluant les missions partiellement accomplies, son score plafonne à 34,4 %. Gemini 2.0 Flash arrive en deuxième position, avec à peine 11,4 % de tâches finalisées. Aucun autre modèle ne dépasse la barre des 10 %. Un contraste saisissant avec les promesses d’autonomie souvent associées à ces systèmes. Les chercheurs identifient plusieurs causes à ces échecs. Les agents peinent à comprendre les implicites humains : demander un fichier en « .docx » ne leur permet pas toujours de déduire qu’il s’agit d’un document Word. Ils manquent aussi de compétences sociales élémentaires et se retrouvent rapidement bloqués lorsqu’ils doivent naviguer sur le Web, gérer des fenêtres surgissantes ou interpréter des interfaces complexes. Plus préoccupant encore, certains agents estiment avoir réussi une tâche après en avoir simplement contourné les étapes difficiles.
En clair, cette expérience rappelle une réalité souvent oubliée : si les IA excellent sur des tâches ciblées et bien définies, elles restent très loin de pouvoir gérer seules un environnement de travail réel, avec ses imprévus, ses règles implicites et ses interactions humaines. Le remplacement généralisé des salariés, lui, peut encore attendre.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À mesure que l’intelligence artificielle s’impose dans tous les services numériques, la facture énergétique de Google enfle à une vitesse vertigineuse. Recherche assistée par IA, modèles génératifs, services cloud : chaque requête mobilise des milliers de processeurs et alourdit un peu plus la consommation électrique du géant californien. Pour sécuriser cet appétit énergétique hors normes, Google change de stratégie : produire lui-même l’électricité dont ses centres de données ont besoin.
C’est dans ce contexte qu’Alphabet, la maison mère de Google, négocie le rachat d’Intersect, une entreprise américaine spécialisée dans la colocalisation d’infrastructures énergétiques et numériques. L’opération pourrait atteindre 4,75 milliards de dollars, dettes comprises. Un investissement massif, mais stratégique. Car Intersect ne se contente pas de bâtir des data centers classiques : son modèle consiste à installer directement les serveurs à proximité immédiate de centrales électriques dédiées. Résultat : des capacités de calcul qui sortent de terre sans peser sur les réseaux publics déjà saturés.
Intersect revendique aujourd’hui près de 15 milliards de dollars d’actifs en exploitation ou en construction aux États-Unis. Google, déjà actionnaire minoritaire, souhaite désormais prendre le contrôle total de l’entreprise. Son fondateur, Sheldon Kimber, resterait aux commandes, mais la société deviendrait un pilier de la stratégie énergétique d’Alphabet. Un premier projet emblématique est déjà en cours dans le comté de Haskell, au Texas : une centrale électrique et un centre de données y sont construits côte à côte pour alimenter directement les services d’IA du groupe. L’enjeu est colossal. Selon plusieurs autorités de régulation, chaque interaction avec des outils comme Gemini entraîne une consommation bien supérieure à celle d’une recherche classique. Sundar Pichai, PDG d’Alphabet, estime que ce modèle permettra à Google de gagner en agilité en développant simultanément production électrique et capacités de calcul. Le groupe ne mise pas uniquement sur le gaz : géothermie de nouvelle génération, batteries géantes pour le stockage longue durée et gaz couplé à la capture de carbone font partie de la feuille de route.
Ironie du sort, Google utilise aussi ses propres algorithmes d’IA pour accélérer le raccordement des nouvelles centrales au réseau : l’intelligence artificielle aide ainsi à bâtir les infrastructures énergétiques qui l’alimenteront demain. Si le rachat obtient le feu vert des régulateurs, il devrait être finalisé au premier semestre 2026.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Au programme :
Retour sur les tendances de septembre (disponible pour tous)
Les trois grandes tendances de décembre (disponible pour tous)
Les trois tendances émergeantes de décembre (disponible pour tous)
(la suite de l’épisode sur Patreon !)
Infos :
Animé par Patrick Beja (Bluesky, Instagram, Twitter, TikTok).
Produit par Patrick Beja (LinkedIn) et Fanny Cohen Moreau (LinkedIn).
Musique libre de droit par Daniel Beja
Le Rendez-vous Tech épisode épisode 647 – ETAT DES LIEUX – Décembre 2025
---
Liens :
🎧 L’Actu Tech (podcast daily): NotPatrick.com/#lactutech
😎 Soutien sur Patreon : Patreon.com/RDVTech
🤗 Communauté Discord : NotPatrick.com/discord
Par écrit :
📰 Newsletter : NotPatrick.com/newsletter
📰 Archives NL: NotPatrick.com/archivenl
📢 WhatsApp : NotPatrick.com/whatsapp
🐤 Veille Twitter : Twitter.com/RdvTech
En vidéo :
📹 Live : Twitch.tv/NotPatrick
📺 VOD : YouTube.com/NotPatrickPodcasts
📱 TikTok : Tiktok.com/@NotNotPatrick
💁 Tous les liens : NotPatrick.com
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Un pas de plus, et cette fois décisif, vers la banque à part entière. Le 15 décembre, PayPal a déposé deux demandes d’agrément auprès des autorités américaines : le département des institutions financières de l’Utah et la Federal Deposit Insurance Corporation. Objectif affiché : transformer sa filiale de crédit en banque industrielle, sous le nom de PayPal Bank. Depuis plus de dix ans, le géant californien avance déjà sur ce terrain. Depuis 2013, il a accordé plus de 30 milliards de dollars de prêts à quelque 420 000 comptes professionnels dans le monde. Une niche bien identifiée : les petites entreprises et les indépendants, souvent jugés trop risqués ou pas assez rentables par les banques traditionnelles. Avec cette licence bancaire, PayPal veut désormais se passer d’intermédiaires, prêter en direct et aller plus vite.
Pour les commerçants américains, la promesse est claire : des décisions de crédit accélérées, moins de paperasse et, potentiellement, des coûts plus bas. « L’accès au capital reste l’un des principaux freins à la croissance des petites entreprises », résume Alex Chriss, le PDG du groupe. À la tête de cette future banque, PayPal a recruté Mara McNeill, ex-dirigeante de Toyota Financial Savings Bank, un profil taillé pour rassurer des régulateurs traditionnellement méfiants face aux ambitions bancaires des géants de la tech. PayPal Bank ne se contenterait pas du crédit. Des comptes d’épargne rémunérés, garantis jusqu’à 250 000 dollars par la FDIC, sont aussi au programme. Et surtout, l’entreprise veut rejoindre directement les réseaux Visa et Mastercard, afin de contrôler toute la chaîne de paiement.
Cette évolution n’est pas anodine sur le plan géopolitique. En Europe, la dépendance aux infrastructures américaines inquiète. En avril dernier, Christine Lagarde, présidente de la Banque centrale européenne, alertait sur la domination des systèmes de paiement étrangers. Dans la foulée, seize grandes banques ont lancé Wero, un projet paneuropéen censé renforcer la souveraineté financière du continent. Pour les professionnels français, l’enjeu reste ouvert. PayPal propose déjà des prêts via des partenaires bancaires. Devenir banque à part entière lui permettrait d’accélérer encore, de réduire les coûts… et de bousculer un peu plus un secteur bancaire déjà sous pression.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’addition environnementale de l’intelligence artificielle commence enfin à sortir du brouillard. Et elle est salée. Une étude menée par Alex de Vries-Gao, doctorant à l’université d’Amsterdam et fondateur de Digiconomist, met en lumière un angle mort majeur : l’empreinte carbone et hydrique des systèmes d’IA reste largement sous-évaluée, faute de données publiques et détaillées de la part des géants du numérique.
Selon ses estimations, les systèmes d’IA pourraient émettre entre 32,6 et 79,7 millions de tonnes de CO₂ dès 2025. Un ordre de grandeur comparable aux émissions annuelles d’une grande métropole comme New York, ou d’un pays européen de taille moyenne. La consommation d’eau est tout aussi vertigineuse : entre 312 et 764 milliards de litres par an, soit l’équivalent de la consommation mondiale d’eau en bouteille. En cause, une explosion de la puissance électrique mobilisée par l’IA : 23 gigawatts attendus fin 2025, contre 9,4 GW seulement un an plus tôt.
Ces chiffres s’inscrivent dans une tendance déjà pointée par Agence internationale de l'énergie, qui estime que l’IA représentait 15 % de la consommation électrique des centres de données en 2024, une part susceptible d’atteindre près de la moitié à moyen terme. Mais mesurer précisément cet impact relève aujourd’hui du casse-tête. Aucun acteur majeur — Google, Microsoft, Amazon ou Apple — ne distingue clairement, dans ses rapports environnementaux, ce qui relève spécifiquement des charges de travail liées à l’IA. Meta fait figure d’exception partielle en publiant sa consommation d’eau indirecte, liée à l’électricité achetée : 3,92 litres par kilowattheure, soit quatre fois plus que les estimations de référence. À l’inverse, Google assume ne pas communiquer ces données, arguant d’un manque de contrôle sur la production électrique — une position que l’étude juge révélatrice d’un déficit de transparence.
Face à ce flou, Alex de Vries-Gao appelle à des règles plus contraignantes : obligation de reporting détaillé, publication de métriques hydriques et carbone spécifiques à l’IA, et création d’un indice carbone des modèles. Certaines initiatives émergent, comme celle de Mistral, qui a publié une analyse environnementale détaillée de l’un de ses modèles et invite ses concurrents à faire de même. Sans cette transparence généralisée, prévient le chercheur, impossible d’évaluer l’efficacité réelle des stratégies de réduction d’impact.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans ce podcast Speakeasy by /influx : Henri, Paul Barbosa et Romain Lanéry expliquent les 7 niveaux de la hype technologique et montrent comment une innovation passe du buzz à une adoption réelle… ou s’effondre en chemin.
Posez-nous vos questions via ce lien : https://www.speakpipe.com/Speakeasy
Réagissez au podcast sur les réseaux avec le hashtag #SpeakeasyByInflux et en nous @ :
https://www.instagram.com/paulbarbosa/
https://www.instagram.com/hardisk/
https://www.instagram.com/romainlanery/
Production /influxProd - https://www.influxprod.com/
© 2025 Tous droits réservés.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Comment rendre l’automatisation vraiment accessible, même sans coder ? Avec Aron Korenblit, nous décortiquons l’approche de Gumloop à travers des cas concrets : veille de TikTok/Twitter/LinkedIn, résumé automatique par l’IA et rapports hebdomadaires, en regard des classiques Zapier, Make et n8n. Nous examinons aussi les limites actuelles et ce que cette nouvelle génération d’outils change pour les équipes non techniques.
En plateau
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Que deviennent nos photos, messages et comptes quand nous disparaissons ? Héritage numérique, profils fantômes, IA capables d’imiter les morts… Dans cet épisode, on explore l’après-vie de nos données, entre réalités des plateformes, enjeux éthiques et futurs dystopiques. Faut-il préparer sa mort numérique ?
Posez-nous vos questions via ce lien : https://www.speakpipe.com/bubble
Les réseaux de Quentin : https://bento.me/quentincougniot
Les réseaux de Rewan : https://www.linkedin.com/in/rewan-mahloub/
Les réseaux de Mathieu : https://linktr.ee/mathieudossantos
© 2025 QUENTIN // Tous droits réservés.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La Russie prépare déjà l’après-ISS, et le projet de sa future station spatiale en dit long sur l’état actuel de son programme orbital. Baptisée provisoirement Russian Orbital Service Station, cette infrastructure doit entrer en construction à partir de 2027. Mais les contours du projet ont récemment évolué, révélant une stratégie plus contrainte qu’annoncé.
À l’origine, Roscosmos envisageait une station entièrement nouvelle, composée de sept modules lancés progressivement à partir de la fin de la décennie. L’ensemble devait être assemblé dans les années 2030 et inclure, fait notable, des modules privés destinés au tourisme spatial. Une ambition élevée, fidèle à l’héritage soviétique de l’exploration spatiale. La réalité semble aujourd’hui plus pragmatique. Selon des responsables de l’agence spatiale russe, le cœur de cette future station pourrait finalement être constitué… des modules russes de l’actuelle Station spatiale internationale. L’idée serait de détacher ce segment à l’horizon 2030, lorsque l’ISS arrivera en fin de vie, afin de le maintenir en orbite et de le réutiliser. Pendant que la partie internationale serait désorbitée et détruite dans l’atmosphère, la section russe poursuivrait son existence sous une nouvelle bannière.
Cette option présente un avantage évident : le coût. Construire une station entièrement neuve exige des investissements colossaux, difficilement compatibles avec la situation économique russe actuelle, marquée par des sanctions technologiques et un budget largement absorbé par l’effort militaire. Réutiliser l’existant permet de maintenir une présence en orbite basse à moindre frais. Mais ce recyclage pose de sérieux problèmes. Les modules russes de l’ISS auront alors passé plus de trente ans dans l’espace. Usure des matériaux, pannes à répétition, fatigue des structures, sans oublier les risques biologiques liés à des décennies d’occupation humaine : les inquiétudes sont nombreuses. Les cosmonautes russes effectuent déjà régulièrement des réparations pour maintenir les systèmes en état de fonctionnement.
Au-delà des défis techniques, ce choix traduit un recul stratégique. Tandis que la Chine consolide sa station Tiangong, que l’Inde vise l’autonomie orbitale et que les États-Unis s’appuient sur le secteur privé pour renouveler leur présence spatiale, la Russie semble contrainte de faire avec ce qu’elle a. Cette future station, si elle voit le jour sous cette forme, garantirait une présence symbolique en orbite… mais au prix d’ambitions scientifiques et technologiques nécessairement limitées.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.