Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À mesure que la pression climatique s’intensifie, l’aviation se retrouve face à une équation redoutable : continuer à relier les territoires sans aggraver son empreinte carbone. Hydrogène, électrification totale, nouvelles architectures… les pistes se multiplient pour tenter de réinventer le transport aérien. Contrairement à une idée reçue, le développement du rail et des transports publics ne suffit pas à couvrir tous les besoins. Dans de nombreuses régions enclavées, peu denses ou montagneuses, l’avion reste parfois la seule option viable. Encore faut-il qu’il devienne plus propre, plus silencieux et économiquement accessible, sans exiger d’infrastructures lourdes.
C’est précisément sur ce créneau que se positionne Eenuee, une start-up fondée en 2019 en région stéphanoise. Son ambition : électrifier l’aviation régionale avec un appareil certifiable, efficace et discret. Il y a quelques jours, l’entreprise a annoncé un partenariat stratégique avec Duqueine Group, spécialiste reconnu des matériaux composites. Objectif : accélérer le développement du Gen-e, un avion régional 100 % électrique, dont le premier vol est attendu à l’horizon 2029.
Le cahier des charges est clair. L’appareil doit embarquer 19 passagers, afficher une autonomie d’environ 500 kilomètres en mode tout électrique et desservir des liaisons aujourd’hui délaissées par les compagnies traditionnelles faute de rentabilité. Autre atout : il pourra opérer depuis des infrastructures existantes, sans nécessiter la construction de nouveaux aéroports ou d’équipements coûteux. Pour des territoires comme l’Auvergne-Rhône-Alpes, où la topographie complique les déplacements, cette promesse de désenclavement à faible impact carbone est loin d’être anecdotique.
Mais l’innovation ne s’arrête pas à la propulsion. Eenuee et Duqueine parient sur une architecture dite de « fuselage porteur ». Plus complexe à concevoir qu’un fuselage tubulaire classique, cette structure permet d’améliorer les performances aérodynamiques et l’efficacité énergétique globale. À cela s’ajoute un concept encore plus audacieux : une version capable de décoller et d’atterrir sur l’eau. Grâce à des hydrofoils — des ailes immergées générant de la portance — l’appareil réduit drastiquement les frottements au décollage, à la manière des bateaux de course.
Cette polyvalence ouvre des perspectives commerciales inédites. L’avion pourrait opérer indifféremment depuis une piste ou un plan d’eau, sans démontage, ce qui le rend particulièrement attractif pour des régions comme l’Asie du Sud-Est, la Scandinavie ou le Canada. Contrairement aux hydravions classiques, coûteux à entretenir et limités à l’eau, le Gen-e promet des coûts d’exploitation réduits et une grande flexibilité. Une tentative sérieuse de prouver que l’aviation régionale peut encore avoir un avenir… à condition de le repenser en profondeur.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Xiaomi poursuit son ascension éclair dans l’automobile électrique. Le groupe chinois a publié ses chiffres pour l’exercice 2025 et le cap symbolique est franchi : plus de 400 000 véhicules électriques ont été livrés en un an. Rien que sur le mois de décembre 2025, 50 000 unités ont quitté les chaînes, venant s’ajouter aux 361 625 véhicules écoulés entre janvier et novembre. Une performance qui confirme que Xiaomi n’est plus un simple outsider, mais un acteur industriel désormais installé.
Derrière ce total flatteur se cache toutefois un déséquilibre marqué entre les modèles. La berline SU7, premier véhicule de la marque lancé en mars 2024, montre des signes d’essoufflement. En novembre 2025, elle s’est écoulée à 12 520 exemplaires. À l’inverse, le SUV YU7, arrivé sur le marché en juin 2025 pour aller chasser sur les terres du Tesla Model Y, affiche une dynamique spectaculaire : 33 729 livraisons sur le même mois. En six mois à peine, le YU7 a dépassé les 150 000 véhicules livrés, illustrant un basculement clair de la demande vers les SUV. À volumes comparables, la berline accuse désormais un retard de près de 63 % face à son grand frère utilitaire.
Pour 2026, Xiaomi prépare un tournant stratégique. Le constructeur annonce l’arrivée de deux nouveaux modèles hybrides reposant sur une architecture EREV, pour « Extended Range Electric Vehicles ». Au programme : un grand SUV sept places et un SUV compact cinq places. Le principe diffère du tout électrique : un moteur thermique embarqué ne sert pas à entraîner les roues, mais agit comme générateur afin de recharger la batterie en roulant. Cette solution permet d’étendre fortement l’autonomie, au prix d’une mécanique plus complexe que celle des plateformes 100 % électriques SU7 et YU7. La berline SU7 n’est pas abandonnée pour autant. Un restylage est prévu en 2026, accompagné d’une déclinaison dite « executive », dont les caractéristiques techniques restent encore confidentielles.
Côté distribution, Xiaomi reste pour l’instant concentré sur son marché domestique. Au 31 décembre 2025, le groupe comptait 477 points de vente dans 138 villes chinoises, ainsi que 264 centres de service après-vente. L’international est toutefois dans le viseur. Une arrivée en Europe est annoncée pour 2027, avec des essais déjà en cours en Allemagne afin de valider les normes de sécurité et d’homologation. Une étape indispensable avant de transformer ce succès chinois en ambition mondiale.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une annonce qui pourrait marquer un tournant dans l’histoire de l’énergie solaire à grande échelle. Dans le désert d’Abou Dhabi, un projet inédit ambitionne de produire de l’électricité solaire en continu, jour et nuit, toute l’année. Baptisée Khazna Solar PV, cette méga-centrale est développée conjointement par Masdar, Engie et Emirates Water and Electricity Company. Sa mise en service est prévue pour 2027.
Le pari est audacieux : fournir 1,5 gigawatt d’électricité décarbonée 24 heures sur 24, sans intermittence. À ce jour, aucun site solaire au monde n’a atteint un tel niveau de production continue à cette échelle. Pour y parvenir, Khazna Solar PV repose sur une combinaison massive de production et de stockage. Le site accueillera environ trois millions de panneaux photovoltaïques, capables de générer jusqu’à 5,2 GW en pointe, couplés à un système de batteries de 19 gigawattheures. Il s’agira, lors de sa mise en service, du plus vaste dispositif de stockage par batteries jamais déployé pour une centrale solaire.
Cette capacité de stockage est la clé du projet. L’énergie produite le jour sera emmagasinée, puis restituée la nuit ou lors des périodes de moindre ensoleillement. Une architecture pensée pour lever l’un des principaux freins historiques du solaire : son caractère intermittent. Selon les promoteurs du projet, l’installation pourra alimenter environ 160 000 foyers aux Émirats arabes unis et éviter chaque année l’émission de plus de 2,4 millions de tonnes de CO₂, l’équivalent du retrait de près de 470 000 véhicules thermiques de la circulation.
Khazna Solar PV s’appuie également sur une forte couche numérique. Les panneaux seront équipés de systèmes de suivi solaire, ajustant automatiquement leur orientation. Des capteurs connectés et des outils d’analyse de données surveilleront en temps réel les performances, la météo et l’état des équipements. Des robots assureront le nettoyage des panneaux, un enjeu crucial dans un environnement désertique. Au-delà du projet lui-même, les partenaires veulent démontrer qu’un modèle solaire pilotable, fiable et reproductible est désormais possible. À l’heure où la demande mondiale d’électricité explose, notamment sous l’effet des centres de données et de l’intelligence artificielle, Khazna Solar PV pourrait bien servir de vitrine à une nouvelle génération d’infrastructures solaires capables de rivaliser avec les sources d’énergie pilotables traditionnelles.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis quelques années, une idée jusque-là cantonnée à la science-fiction gagne du terrain dans certains cercles scientifiques et industriels : tenter de freiner le réchauffement climatique non pas en réduisant les émissions de gaz à effet de serre, mais en agissant directement sur le climat lui-même. Cette approche porte un nom : la géo-ingénierie. Et l’une de ses pistes les plus controversées consiste à injecter des particules dans l’atmosphère pour réfléchir une partie du rayonnement solaire.
Le principe n’est pas totalement théorique. Lors de grandes éruptions volcaniques, le dioxyde de soufre projeté dans la stratosphère forme un voile d’aérosols qui refroidit temporairement la planète. Certains chercheurs envisagent donc de reproduire artificiellement ce phénomène. Problème : le dioxyde de soufre est loin d’être anodin. Il peut fragiliser la couche d’ozone, modifier les régimes de précipitations et provoquer des pluies acides. Autant de risques qui font hésiter une partie de la communauté scientifique.
C’est dans ce contexte qu’une équipe de chercheurs s’est demandé s’il existait de meilleures alternatives. Dans une étude publiée dans Geophysical Research Letters, ils ont testé, à l’aide d’un modèle climatique en trois dimensions, plusieurs types de particules susceptibles d’être injectées dans l’atmosphère. Parmi elles : la calcite, l’aluminium, le carbure de silicium… et même la poussière de diamant. Sur le papier, le diamant coche beaucoup de cases. Il réfléchit efficacement la lumière et la chaleur, se disperse sans s’agglomérer, reste suffisamment longtemps dans l’atmosphère et, surtout, il est chimiquement inerte, ce qui limiterait les risques de réactions indésirables comme les pluies acides. Selon les simulations, injecter chaque année cinq millions de tonnes de poussière de diamant pendant quarante-cinq ans permettrait de faire baisser la température moyenne mondiale d’environ 1,6 °C.
Mais le rêve s’arrête net au moment de sortir la calculatrice. Une telle opération coûterait près de 200 000 milliards de dollars. À titre de comparaison, la transition vers une économie bas carbone est estimée à moins de 10 000 milliards de dollars à l’échelle mondiale. La conclusion est sans appel : si la géo-ingénierie fascine par son audace, elle apparaît aujourd’hui comme une solution démesurément coûteuse et risquée. De quoi rappeler que, face au dérèglement climatique, réduire les émissions reste, de loin, l’option la plus réaliste.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Comme le rappelle le secrétaire général de Nations unies, la transition énergétique n’avance pas seulement à coups de discours écologiques : elle est d’abord guidée par l’argent. Et, pour une fois, les logiques financières et climatiques semblent s’aligner. En 2024, les énergies renouvelables ont franchi un cap décisif : elles sont devenues, tout simplement, plus rentables que les énergies fossiles.
Les chiffres traduisent ce basculement. En un an, entre 2023 et 2024, la capacité mondiale de production d’énergies renouvelables a progressé de 20 %. Les investissements dans les énergies dites propres ont dépassé les 2 000 milliards de dollars, un record historique. Surtout, le différentiel de coûts s’est creusé : produire de l’électricité solaire coûte désormais 41 % moins cher que de recourir aux énergies fossiles. L’éolien fait encore mieux, avec un coût inférieur de 53 %. Résultat : 90 % des nouvelles capacités renouvelables installées dans le monde sont aujourd’hui plus compétitives que le charbon, le pétrole ou le gaz.
Cette dynamique a déjà des effets visibles. Les énergies renouvelables assurent désormais environ un tiers de la production mondiale d’électricité. Un seuil symbolique, qui marque l’entrée dans ce que l’ONU qualifie de « nouvelle ère énergétique ». Loin d’être un pari risqué ou une contrainte réglementaire, le renouvelable est devenu un choix rationnel pour les investisseurs, soucieux de rendement et de stabilité à long terme.
Selon les Nations unies, ce mouvement est désormais difficile à enrayer. « L’âge des énergies fossiles s’effondre un peu plus chaque jour », résume l’organisation. Sans nier les résistances politiques ni les tensions géopolitiques autour de l’énergie, l’ONU estime que la transition est engagée sur une trajectoire irréversible. Non pas parce que le monde serait soudainement devenu vertueux, mais parce que l’économie a changé de camp.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Il n’existerait pas d’hydrogène à l’état naturel sur Terre : pendant longtemps, cette idée a fait figure de vérité scientifique. Et pourtant, les faits racontent une autre histoire. Dès le début du XXᵉ siècle, des émanations d’hydrogène ont été observées en France. À partir des années 1970, les chercheurs commencent à identifier, un peu partout sur la planète, des poches d’hydrogène naturel – désormais baptisé hydrogène blanc – depuis les fonds océaniques jusqu’à la croûte continentale. Longtemps restées marginales, ces découvertes prennent aujourd’hui une tout autre dimension.
Car dans un monde engagé dans une course contre la montre pour décarboner ses économies, l’hydrogène naturel apparaît comme une ressource providentielle. L’hydrogène industriel actuel, dit « gris », est produit à partir de ressources fossiles et génère près de dix kilos de CO₂ pour chaque kilo d’hydrogène. Un hydrogène bas carbone pourrait, lui, transformer l’industrie, les transports, voire la production d’électricité. Résultat : la ruée est lancée. Des forages exploratoires sont en cours en Australie et aux États-Unis. En France, plusieurs permis ont été délivrés, notamment dans les Pyrénées-Atlantiques et les Landes. Plus spectaculaire encore : l’annonce récente d’un gisement estimé à 46 millions de tonnes d’hydrogène naturel dans le sous-sol de la Moselle. À titre de comparaison, la consommation mondiale d’hydrogène atteignait environ 90 millions de tonnes en 2022.
C’est dans ce contexte que des chercheurs de l'University of Oxford, de l’University of Durham et de l’University of Toronto publient des travaux majeurs. Leur étude identifie les conditions géologiques nécessaires à la formation et à l’accumulation de l’hydrogène blanc. Et leur conclusion est vertigineuse : les environnements favorables seraient répandus à l’échelle mondiale, avec un potentiel capable de couvrir nos besoins énergétiques pendant… 170 000 ans. Les chercheurs expliquent désormais comment l’hydrogène se forme, migre à travers les roches et se retrouve piégé, mais aussi ce qui peut le faire disparaître, comme certains microbes qui s’en nourrissent. Ces avancées offrent une véritable feuille de route aux industriels de l’exploration. Tout n’est pas encore connu : l’efficacité exacte des réactions chimiques ou l’influence de l’histoire géologique restent à préciser. Mais l’essentiel est là. « Trouver de l’hydrogène, c’est comme réussir un soufflé », résume le géochimiste Chris Ballentine : il faut les bons ingrédients, au bon moment. Une recette que la science commence enfin à maîtriser, ouvrant la voie à une nouvelle ère énergétique.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pour faire tourner l’intelligence artificielle, il ne suffit pas d’aligner des serveurs. Il faut surtout les refroidir. Et c’est là que le bât blesse. Selon un rapport de l’International Energy Agency, les centres de données ont consommé 415 térawattheures d’électricité dans le monde en 2024, soit quasiment l’équivalent de la consommation annuelle de la France. D’ici 2030, cette demande pourrait plus que doubler, pour atteindre 945 TWh, portée en grande partie par l’explosion des usages liés à l’IA. Une trajectoire énergivore, qui interroge la soutenabilité à long terme du modèle actuel.
Face à ce mur énergétique, des chercheurs explorent des pistes radicalement nouvelles. À l’University of Houston, une équipe du département d’ingénierie biomoléculaire vient de mettre au point un matériau inédit pour les puces électroniques. Il s’agit d’un isolant bidimensionnel ultrafin, dit « Low-K », c’est-à-dire à faible constante diélectrique. Concrètement, ce matériau ne conduit pas l’électricité, mais laisse circuler les forces électrostatiques nécessaires au fonctionnement des circuits.
Pourquoi est-ce crucial ? Parce que dans les puces actuelles, une grande partie de la chaleur provient justement des interférences électriques entre composants. En réduisant ces interactions parasites, cet isolant permet aux processeurs de fonctionner à haute vitesse tout en produisant beaucoup moins de chaleur. Résultat : des serveurs plus efficaces, qui nécessitent moins de refroidissement, donc moins d’électricité, sans sacrifier les performances. Pour fabriquer ces films Low-K, les chercheurs ont utilisé une technique appelée « polymérisation interfaciale synthétique », popularisée notamment par le chimiste Omar M. Yaghi, prix Nobel de chimie 2025. Le principe : assembler des briques moléculaires légères, comme le carbone, un peu à la manière d’un jeu de Lego à l’échelle atomique. On obtient ainsi des feuillets cristallins ultrarésistants, capables de supporter des températures élevées tout en maintenant une excellente stabilité électrique.
Ces nouveaux isolants offrent un double avantage. D’un côté, ils améliorent la dissipation thermique dans les centres de données dédiés à l’IA. De l’autre, ils pourraient à terme bénéficier à toute l’électronique grand public, des smartphones aux ordinateurs. Si la technologie passe le cap de l’industrialisation, elle pourrait devenir l’un des leviers clés pour freiner l’explosion énergétique de l’intelligence artificielle — et rappeler que l’innovation matérielle reste aussi stratégique que les algorithmes.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À mesure que l’intelligence artificielle s’impose dans tous les services numériques, la facture énergétique de Google enfle à une vitesse vertigineuse. Recherche assistée par IA, modèles génératifs, services cloud : chaque requête mobilise des milliers de processeurs et alourdit un peu plus la consommation électrique du géant californien. Pour sécuriser cet appétit énergétique hors normes, Google change de stratégie : produire lui-même l’électricité dont ses centres de données ont besoin.
C’est dans ce contexte qu’Alphabet, la maison mère de Google, négocie le rachat d’Intersect, une entreprise américaine spécialisée dans la colocalisation d’infrastructures énergétiques et numériques. L’opération pourrait atteindre 4,75 milliards de dollars, dettes comprises. Un investissement massif, mais stratégique. Car Intersect ne se contente pas de bâtir des data centers classiques : son modèle consiste à installer directement les serveurs à proximité immédiate de centrales électriques dédiées. Résultat : des capacités de calcul qui sortent de terre sans peser sur les réseaux publics déjà saturés.
Intersect revendique aujourd’hui près de 15 milliards de dollars d’actifs en exploitation ou en construction aux États-Unis. Google, déjà actionnaire minoritaire, souhaite désormais prendre le contrôle total de l’entreprise. Son fondateur, Sheldon Kimber, resterait aux commandes, mais la société deviendrait un pilier de la stratégie énergétique d’Alphabet. Un premier projet emblématique est déjà en cours dans le comté de Haskell, au Texas : une centrale électrique et un centre de données y sont construits côte à côte pour alimenter directement les services d’IA du groupe. L’enjeu est colossal. Selon plusieurs autorités de régulation, chaque interaction avec des outils comme Gemini entraîne une consommation bien supérieure à celle d’une recherche classique. Sundar Pichai, PDG d’Alphabet, estime que ce modèle permettra à Google de gagner en agilité en développant simultanément production électrique et capacités de calcul. Le groupe ne mise pas uniquement sur le gaz : géothermie de nouvelle génération, batteries géantes pour le stockage longue durée et gaz couplé à la capture de carbone font partie de la feuille de route.
Ironie du sort, Google utilise aussi ses propres algorithmes d’IA pour accélérer le raccordement des nouvelles centrales au réseau : l’intelligence artificielle aide ainsi à bâtir les infrastructures énergétiques qui l’alimenteront demain. Si le rachat obtient le feu vert des régulateurs, il devrait être finalisé au premier semestre 2026.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’addition environnementale de l’intelligence artificielle commence enfin à sortir du brouillard. Et elle est salée. Une étude menée par Alex de Vries-Gao, doctorant à l’université d’Amsterdam et fondateur de Digiconomist, met en lumière un angle mort majeur : l’empreinte carbone et hydrique des systèmes d’IA reste largement sous-évaluée, faute de données publiques et détaillées de la part des géants du numérique.
Selon ses estimations, les systèmes d’IA pourraient émettre entre 32,6 et 79,7 millions de tonnes de CO₂ dès 2025. Un ordre de grandeur comparable aux émissions annuelles d’une grande métropole comme New York, ou d’un pays européen de taille moyenne. La consommation d’eau est tout aussi vertigineuse : entre 312 et 764 milliards de litres par an, soit l’équivalent de la consommation mondiale d’eau en bouteille. En cause, une explosion de la puissance électrique mobilisée par l’IA : 23 gigawatts attendus fin 2025, contre 9,4 GW seulement un an plus tôt.
Ces chiffres s’inscrivent dans une tendance déjà pointée par Agence internationale de l'énergie, qui estime que l’IA représentait 15 % de la consommation électrique des centres de données en 2024, une part susceptible d’atteindre près de la moitié à moyen terme. Mais mesurer précisément cet impact relève aujourd’hui du casse-tête. Aucun acteur majeur — Google, Microsoft, Amazon ou Apple — ne distingue clairement, dans ses rapports environnementaux, ce qui relève spécifiquement des charges de travail liées à l’IA. Meta fait figure d’exception partielle en publiant sa consommation d’eau indirecte, liée à l’électricité achetée : 3,92 litres par kilowattheure, soit quatre fois plus que les estimations de référence. À l’inverse, Google assume ne pas communiquer ces données, arguant d’un manque de contrôle sur la production électrique — une position que l’étude juge révélatrice d’un déficit de transparence.
Face à ce flou, Alex de Vries-Gao appelle à des règles plus contraignantes : obligation de reporting détaillé, publication de métriques hydriques et carbone spécifiques à l’IA, et création d’un indice carbone des modèles. Certaines initiatives émergent, comme celle de Mistral, qui a publié une analyse environnementale détaillée de l’un de ses modèles et invite ses concurrents à faire de même. Sans cette transparence généralisée, prévient le chercheur, impossible d’évaluer l’efficacité réelle des stratégies de réduction d’impact.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La Russie prépare déjà l’après-ISS, et le projet de sa future station spatiale en dit long sur l’état actuel de son programme orbital. Baptisée provisoirement Russian Orbital Service Station, cette infrastructure doit entrer en construction à partir de 2027. Mais les contours du projet ont récemment évolué, révélant une stratégie plus contrainte qu’annoncé.
À l’origine, Roscosmos envisageait une station entièrement nouvelle, composée de sept modules lancés progressivement à partir de la fin de la décennie. L’ensemble devait être assemblé dans les années 2030 et inclure, fait notable, des modules privés destinés au tourisme spatial. Une ambition élevée, fidèle à l’héritage soviétique de l’exploration spatiale. La réalité semble aujourd’hui plus pragmatique. Selon des responsables de l’agence spatiale russe, le cœur de cette future station pourrait finalement être constitué… des modules russes de l’actuelle Station spatiale internationale. L’idée serait de détacher ce segment à l’horizon 2030, lorsque l’ISS arrivera en fin de vie, afin de le maintenir en orbite et de le réutiliser. Pendant que la partie internationale serait désorbitée et détruite dans l’atmosphère, la section russe poursuivrait son existence sous une nouvelle bannière.
Cette option présente un avantage évident : le coût. Construire une station entièrement neuve exige des investissements colossaux, difficilement compatibles avec la situation économique russe actuelle, marquée par des sanctions technologiques et un budget largement absorbé par l’effort militaire. Réutiliser l’existant permet de maintenir une présence en orbite basse à moindre frais. Mais ce recyclage pose de sérieux problèmes. Les modules russes de l’ISS auront alors passé plus de trente ans dans l’espace. Usure des matériaux, pannes à répétition, fatigue des structures, sans oublier les risques biologiques liés à des décennies d’occupation humaine : les inquiétudes sont nombreuses. Les cosmonautes russes effectuent déjà régulièrement des réparations pour maintenir les systèmes en état de fonctionnement.
Au-delà des défis techniques, ce choix traduit un recul stratégique. Tandis que la Chine consolide sa station Tiangong, que l’Inde vise l’autonomie orbitale et que les États-Unis s’appuient sur le secteur privé pour renouveler leur présence spatiale, la Russie semble contrainte de faire avec ce qu’elle a. Cette future station, si elle voit le jour sous cette forme, garantirait une présence symbolique en orbite… mais au prix d’ambitions scientifiques et technologiques nécessairement limitées.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La course à l’intelligence artificielle est aussi une course à l’énergie. Pour alimenter des centres de données toujours plus gourmands, tous les leviers sont désormais actionnés, quitte à reléguer les considérations climatiques au second plan. Dans ce paysage déjà sous tension, un autre secteur énergivore entre en scène : l’aviation. Deux univers que tout oppose en apparence, mais qui partagent en réalité trois obsessions communes : la vitesse, la puissance et l’accès à l’énergie.
C’est précisément ce croisement inattendu qu’exploite Boom Supersonic, l’avionneur américain qui rêve de faire renaître le vol supersonique civil avec son appareil Overture. Faute de financements suffisants pour mener seul ce projet coûteux, la start-up a trouvé une voie de diversification audacieuse : transformer un moteur d’avion… en générateur électrique pour l’IA. Le principe est simple : une turbine reste une turbine. Le moteur Mach 1+ Symphony, conçu pour propulser un avion supersonique, a été adapté pour produire de l’électricité au sol. Ce dérivé, baptisé Superpower, fonctionne comme un turbogénérateur alimenté au gaz naturel — ou au diesel en secours. Le cœur technologique reste très proche de la version aéronautique : près de 80 % des composants sont identiques. La principale différence réside dans l’ajout d’étages de compression et d’une turbine à vapeur libre, dont la rotation génère l’électricité. Résultat : un générateur compact, à peine plus volumineux qu’un conteneur de fret, capable de produire jusqu’à 42 mégawatts en continu, sans système de refroidissement actif, même sous 43 °C. Autre atout majeur : une mise en service en une quinzaine de jours, là où la construction d’infrastructures énergétiques classiques prend des années.
Boom Supersonic affirme déjà avoir séduit des clients. L’entreprise Crusoe, spécialisée dans les infrastructures pour centres de données, a commandé plusieurs unités Superpower pour une capacité cumulée annoncée de 1,21 gigawatt. Une puissance équivalente à celle d’une centrale électrique de taille respectable. À première vue, l’alliance entre aviation et intelligence artificielle surprend. Mais aux États-Unis, la demande énergétique liée à l’IA explose à un rythme tel que d’anciennes centrales nucléaires sont parfois réactivées. Les projections évoquent un doublement de la consommation électrique des data centers dans les prochaines années. Dans ce contexte, un générateur capable de fournir une énergie massive, stable et rapidement déployable apparaît presque logique. Reste une question majeure, largement éludée pour l’instant : celle de l’empreinte carbone. Car derrière cette ingénierie brillante, l’énergie fossile demeure au cœur du système — un paradoxe de plus dans la révolution numérique en cours.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C’est une première mondiale qui pourrait bien rebattre les cartes du stockage d’énergie. Des chercheurs viennent de mettre au point le tout premier gel métallique jamais observé, un matériau hybride aux propriétés étonnantes, à mi-chemin entre le solide et le liquide, capable de résister à des températures extrêmes.
À l’origine de cette découverte, un mélange peu commun : du cuivre et du tantale, un métal gris bleuté reconnu pour sa conductivité électrique et sa robustesse thermique. Chauffé à haute température, le cuivre fond, tandis que le tantale reste solide et se structure en un réseau interne ultrafin, composé de cavités microscopiques. Ce squelette agit comme une gaine interne qui piège le métal liquide. Le résultat est une substance à la consistance gélatineuse, fluide comme un liquide, mais mécaniquement stable. Contrairement aux gels classiques, comme ceux utilisés dans les produits désinfectants, ce gel métallique conserve ses propriétés jusqu’à 1 000 degrés Celsius.
Cette prouesse pourrait résoudre l’un des principaux verrous des batteries à métal liquide. Ces batteries sont très prometteuses : elles stockent de grandes quantités d’énergie, supportent un grand nombre de cycles de charge et vieillissent mieux que les batteries lithium-ion. Mais jusqu’ici, elles restaient cantonnées à des usages stationnaires. En mouvement, le métal liquide a tendance à se déplacer, provoquant des courts-circuits et des pertes de puissance. Pour tester leur matériau, les chercheurs ont fabriqué une batterie expérimentale utilisant le gel métallique comme électrode. Plongée dans un sel fondu, la batterie a produit de l’électricité de manière stable, démontrant que le gel joue efficacement son rôle de stabilisateur. Le métal reste en place, même dans des conditions thermiques extrêmes. Cette avancée ouvre la voie à des applications jusque-là hors de portée. Des batteries à métal liquide pourraient alimenter des navires de grande taille, des équipements industriels lourds, voire des véhicules hypersoniques, dont les contraintes thermiques sont incompatibles avec les technologies actuelles. À plus long terme, ce gel métallique pourrait transformer le stockage d’énergie de forte puissance, en rendant mobiles des systèmes jusqu’ici condamnés à rester immobiles.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’industrie automobile française est en train de vivre un virage stratégique majeur, souvent passé sous les radars : la naissance d’une véritable filière nationale de batteries électriques. Un chantier décisif pour l’avenir de la mobilité, mais aussi pour la souveraineté industrielle européenne. Au cœur de cette transformation, un acteur clé : Automotive Cells Company, plus connue sous le nom d’ACC.
Créée en 2020, ACC a déjà franchi une étape symbolique : la mise sur le marché de ses premières batteries électriques produites en France. Objectif affiché : réduire la dépendance de l’Europe aux fournisseurs asiatiques, notamment chinois, tout en accompagnant l’électrification rapide du parc automobile. Un enjeu colossal, quand on sait que la batterie représente aujourd’hui près de 40 % du coût d’un véhicule électrique. Implantée dans le nord du pays, ACC s’appuie sur quatre sites industriels, dont une gigafactory installée à cheval sur Billy-Berclau et Douvrin, dans le Pas-de-Calais. Un choix géographique qui n’est pas anodin : il s’agit à la fois de redynamiser un bassin industriel historique et de repositionner la France dans la course mondiale aux batteries.
La montée en puissance annoncée est spectaculaire. Après une phase de rodage en 2024, ACC vise 150 000 batteries dès 2025, puis 250 000 en 2026. À l’horizon 2030, l’ambition est claire : 2 à 2,5 millions de batteries par an, soit environ 20 % du marché européen. Une trajectoire alignée avec l’échéance de 2035, date à laquelle l’Union européenne prévoit la fin de la vente des véhicules thermiques neufs. Mais le défi est immense. Comme le reconnaît la direction d’ACC, produire des batteries à grande échelle suppose une courbe d’apprentissage longue et coûteuse, jalonnée de défis techniques. Même les leaders chinois du secteur admettent que les débuts sont complexes. La fiabilité, la durée de vie et la qualité des cellules sont désormais des critères aussi stratégiques que les volumes. Les premières batteries françaises équiperont des modèles Opel et Peugeot, au sein du groupe Stellantis. Une intégration industrielle qui pourrait, à terme, faire baisser le prix des voitures électriques et accélérer leur démocratisation.
Au-delà de la production, le recyclage des batteries devient lui aussi un pilier stratégique, avec l’émergence d’usines dédiées. Une logique d’économie circulaire indispensable pour rendre la filière durable. Pendant ce temps, d’autres constructeurs européens, comme Mercedes-Benz, explorent des technologies alternatives, preuve que la course à l’innovation est loin d’être terminée. En structurant une filière complète, de la cellule au recyclage, la France tente un pari industriel ambitieux. S’il est tenu, il pourrait faire du pays — et de l’Europe — un acteur central de la batterie électrique mondiale, et un peu moins dépendant des puissances extérieures dans la transition énergétique à venir.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Lorsqu’on met de côté la question des déchets radioactifs, le nucléaire reste l’une des rares sources d’énergie capables de produire massivement de l’électricité sans émissions de gaz à effet de serre. Son principal défaut demeure toutefois bien connu : les centrales sont longues et coûteuses à construire. Face à cette contrainte, une solution alternative gagne du terrain, notamment pour les sites isolés ou les infrastructures critiques : les microréacteurs nucléaires.
C’est sur ce créneau que se positionne Radiant Nuclear. La start-up américaine vient d’annoncer une levée de fonds de plus de 300 millions de dollars pour accélérer la commercialisation de Kaleidos, un microréacteur nucléaire d’une puissance électrique d’un mégawatt. Radiant prévoit de construire une usine dans le Tennessee, capable de produire jusqu’à 50 unités par an. Concrètement, chaque microréacteur Kaleidos tient dans un volume équivalent à celui d’une semi-remorque. Il fournit non seulement un mégawatt d’électricité, mais aussi 1,9 mégawatt d’énergie thermique, exploitable pour le chauffage industriel ou la désalinisation de l’eau. Le système repose sur un combustible de nouvelle génération, le TRISO, réputé pour sa robustesse et sa sûreté. Une unité peut fonctionner cinq ans en continu avant d’être récupérée par Radiant pour être rechargée en combustible.
Ces microréacteurs sont conçus pour être transportables, surveillés à distance, et interconnectables. Selon l’entreprise, plusieurs centaines d’unités pourraient être déployées ensemble, en fonction des besoins. Les cas d’usage ciblés sont variés : bases militaires, opérations de secours, sites industriels isolés ou zones où le réseau électrique est insuffisant. Le secteur des centres de données figure aussi dans le viseur. Si un microréacteur ne suffit pas à alimenter à lui seul les gigantesques infrastructures dédiées à l’intelligence artificielle — qui réclament désormais des puissances proches du gigawatt, comme chez Meta ou dans le projet Stargate — il peut néanmoins constituer un appoint stratégique. Radiant a déjà signé plusieurs accords, notamment pour équiper une base militaire américaine et fournir plusieurs dizaines d’unités à Equinix.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’annonce remonte à octobre 2023, mais elle mérite clairement qu’on s’y attarde à nouveau. Des chercheurs du Lawrence Berkeley National Laboratory et de l’Université de Californie à Berkeley ont présenté une technologie de refroidissement radicalement nouvelle, capable de bouleverser un secteur aujourd’hui sous pression climatique. En ligne de mire : les hydrofluorocarbures, ces gaz réfrigérants ultra-polluants encore largement utilisés dans la climatisation et la réfrigération.
Le principe exploité est à la fois simple et élégant. Lorsqu’un matériau change d’état — solide, liquide ou gazeux — il absorbe ou libère de la chaleur. La glace qui fond refroidit son environnement : tout le monde l’a déjà constaté. Les chercheurs sont partis d’un autre phénomène bien connu : l’ajout d’ions peut modifier le point de fusion d’une substance sans en augmenter la température. C’est exactement ce qui se passe lorsque l’on sale les routes en hiver pour empêcher la formation de glace.
L’équipe californienne a transposé ce mécanisme dans un système de refroidissement inédit, baptisé cycle ionocalorique. En appliquant un très faible courant électrique, inférieur à un volt, les chercheurs déplacent des ions à l’intérieur du dispositif. Ce mouvement modifie le point de fusion du matériau utilisé, provoquant une variation de température spectaculaire. Lors des tests, un mélange de sel iodé et sodique a permis de faire fondre du carbonate d’éthylène — un solvant courant dans les batteries lithium-ion — avec un écart thermique atteignant 25 degrés Celsius. Une performance inédite pour ce type de technologie. « Personne n’avait jusqu’ici développé une solution qui soit à la fois efficace, sûre et respectueuse de l’environnement », souligne Drew Lilley, ingénieur en mécanique au laboratoire de Berkeley. Contrairement aux systèmes classiques, basés sur la compression et l’évaporation de fluides frigorigènes très polluants, ce procédé se passe totalement d’hydrofluorocarbures. Un enjeu crucial, alors que l’amendement de Kigali impose une réduction de 80 % de leur usage d’ici 2048.
Autre atout majeur : le carbonate d’éthylène utilisé peut être produit à partir de dioxyde de carbone, ouvrant la voie à un système au potentiel climatique nul, voire négatif. Pour Ravi Prasher, autre chercheur du projet, l’équation repose sur trois critères clés : impact climatique, efficacité énergétique et coût. Et, pour la première fois, les résultats préliminaires semblent satisfaisants sur les trois fronts. Les travaux, publiés dans la revue Science, montrent même que cette technologie pourrait rivaliser avec, voire dépasser, les systèmes actuels. Le défi désormais est industriel : passer du laboratoire à des applications à grande échelle. De nouvelles équipes testent déjà d’autres sels, notamment à base de nitrates recyclables.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Fausses promotions, produits non conformes, polémiques sur la protection des données ou encore accusations liées à des articles au design jugé problématique : ces dernières semaines, Shein a multiplié les controverses. Et pourtant, le 5 novembre dernier, le géant chinois de la fast-fashion a franchi une étape symbolique en ouvrant son premier magasin physique au monde, en plein cœur de Paris, au BHV Marais. Une implantation qui tombe à point nommé à l’approche des fêtes… et qui relance une question centrale : quel est réellement le coût carbone d’un achat Shein ?
Le cabinet français Greenly, spécialiste de l’empreinte carbone, s’est penché sur la question. Son analyse se concentre uniquement sur le transport des colis, sans même intégrer les émissions liées à la fabrication des vêtements — pourtant loin d’être neutres. À titre d’exemple, produire un kilo de coton génère environ 16,4 kg de CO₂, et jusqu’à 21,1 kg pour certaines fibres synthétiques très présentes chez Shein.
Premier enseignement : selon le mode de livraison, l’empreinte carbone d’un colis peut être multipliée par plus de douze. Pour une commande standard de 7 à 8 articles, soit environ 2 kilos, les émissions varient de 1,01 à 12,96 kg de CO₂ équivalent. Le scénario le plus polluant reste sans surprise le transport aérien : camion depuis l’entrepôt chinois, vol long-courrier jusqu’à Paris, puis nouvelle livraison routière. À l’inverse, la solution la plus vertueuse consiste à expédier les commandes par bateau vers des entrepôts européens, notamment en Belgique ou en Espagne. Dans ce cas, l’empreinte tombe à 1,01 kg de CO₂, retours et emballages compris. Une différence considérable.
Et qu’en est-il des achats en boutique ? Contrairement aux idées reçues, acheter directement au BHV Marais n’est pas forcément plus écologique. Certes, les marchandises arrivent elles aussi par bateau. Mais il faut ajouter l’impact énergétique du magasin — chauffage, éclairage — ainsi que les déplacements des clients. Résultat : 2,11 kg de CO₂ si vous venez en métro… et jusqu’à 4,84 kg si vous utilisez la voiture. Soit parfois plus du quadruple d’une livraison depuis un entrepôt européen. À l’échelle individuelle, l’écart peut sembler modeste. Mais rapporté aux 29 millions de colis Shein livrés chaque année en France, l’impact devient massif. Transportés par avion, ils représenteraient l’équivalent des émissions annuelles de 64 000 Français. Greenly recommande donc plusieurs leviers simples : regrouper ses achats, éviter la livraison express, privilégier des transports peu émetteurs pour se rendre en magasin… et surtout, résister à la logique de la fast-fashion.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Après plusieurs années de tensions, le système électrique français respire enfin. Depuis 2020, la production peinait à suivre la demande, conséquence d’une baisse progressive du nucléaire amorcée dès 2015, puis des retards accumulés pendant la crise sanitaire. Mais en 2024, la dynamique s’est nettement inversée. Le parc nucléaire a retrouvé un niveau de production proche de celui d’avant-crise, tandis que les énergies renouvelables ont accéléré. L’an dernier, 7 gigawatts de nouvelles capacités solaires et éoliennes ont été installés.
Résultat : la France dispose aujourd’hui d’une électricité décarbonée à 95 % et a battu un record historique d’exportations, avec 89 térawattheures de solde net en 2024. Un signal fort, dans un contexte européen encore marqué par l’instabilité énergétique. Pour autant, le tableau n’est pas entièrement idyllique. Selon RTE, la France importe encore près de 60 % de l’énergie finale qu’elle consomme. Une dépendance coûteuse, évaluée entre 50 et 70 milliards d’euros par an, principalement liée aux énergies fossiles, qui représentent toujours 60 % de la consommation finale. Or, pour respecter ses engagements climatiques — une réduction de moitié des émissions de gaz à effet de serre d’ici 2035 — cette part devra tomber autour de 30 %.
Pour y parvenir, deux leviers sont privilégiés : les économies d’énergie et l’électrification des usages. Sur le premier point, les résultats sont déjà là. Entre 2017 et 2023, la consommation énergétique a reculé, grâce aux gains d’efficacité mais aussi aux changements de comportement induits par la hausse des prix. Au total, 30 TWh sont économisés chaque année. Conséquence directe : la France se retrouve aujourd’hui en situation de surcapacité électrique. Elle produit plus qu’elle ne consomme. « La France est dans une position avantageuse pour s’électrifier », souligne RTE dans son bilan prévisionnel 2025-2035. D’ici 2030, l’adoption massive des véhicules électriques devrait ajouter 17 TWh de consommation annuelle. À cela s’ajoutent la production d’hydrogène vert par électrolyse, estimée à 15 TWh, et l’électrification de procédés industriels, pour 13 TWh supplémentaires.
Même le numérique trouve sa place dans cette trajectoire. Les data centers, dont la consommation devrait tripler entre 2025 et 2030, passant de 5 à 15 TWh, pourront être alimentés sans compromettre les objectifs climatiques. Selon RTE, cette trajectoire de décarbonation rapide pourrait même soutenir la croissance, avec une hausse du PIB de 1,1 % par an.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La France se réchauffe plus vite que le reste du monde. Et désormais, les chiffres ne laissent plus place au doute. Aurélien Ribes, climatologue à Météo-France et contributeur au prochain rapport du GIEC, a présenté une première photographie du climat français en 2025 lors de la conférence Climat et Santé, organisée à Paris par l’association Météo et Climat. Le constat est saisissant.
En France, le réchauffement d’origine humaine atteint désormais +1,9 degré par rapport à l’ère préindustrielle. À l’échelle mondiale, on se situe encore entre +1,3 et +1,5 degré. Sur la dernière décennie, de 2015 à 2024, la moyenne française grimpe même à +2,1 degrés. Un seuil symbolique, et surtout politique, puisque l’Accord de Paris visait à limiter le réchauffement global à +1,5 degré. Pour la France, ce plafond est déjà largement dépassé. Et selon Aurélien Ribes, à l’échelle planétaire, « maintenir le climat sous +1,5 degré semble désormais hors de portée ». Les conséquences sont déjà visibles. Les vagues de chaleur sont aujourd’hui plus fréquentes, plus longues, plus intenses, et s’étendent sur une saison de plus en plus large. Et ce n’est qu’un début. Les projections climatiques dessinent un avenir compris entre +2,7 degrés, dans le scénario le plus optimiste, et +4 degrés, dans le scénario le plus probable, d’ici la fin du siècle.
L’évolution des journées de chaleur extrême est particulièrement parlante. Entre 1961 et 1990, la France connaissait en moyenne deux jours par an de chaleur extrême, parfois aucun certaines années. Aujourd’hui, entre 2014 et 2025, on en compte déjà treize par an. À l’horizon 2050, ce chiffre atteindrait 25 jours par an dans un climat à +2,7 degrés. Et en 2100, avec +4 degrés, on parlerait de 45 jours de chaleur extrême par an. Autrement dit, à la fin du siècle, presque tout l’été serait concerné. « Dans une France à +4 degrés, Paris aura le climat de Montpellier », résume le climatologue.
À l’inverse, le froid disparaît progressivement. L’année 2025 n’a connu aucune véritable vague de froid. Même le coup de fraîcheur de fin novembre n’était ni assez intense, ni assez durable pour entrer dans cette catégorie. Les grandes vagues de froid historiques, comme celle de 2012, ne devraient tout simplement plus se reproduire. Ce que décrit Aurélien Ribes, ce n’est pas un futur lointain. C’est déjà le présent climatique de la France.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’annonce est passée relativement inaperçue lors de sa publication, en septembre dernier. Et pourtant, elle pourrait bien marquer un tournant majeur dans la lutte contre la pollution plastique. Le Korea Institute of Machinery & Materials, le KIMM, a dévoilé une technologie de recyclage par plasma présentée comme une avancée mondiale. Une innovation qui promet de traiter les déchets plastiques sans les dégâts environnementaux associés aux méthodes actuelles, tout en ouvrant la voie à une véritable économie circulaire.
Aujourd’hui, le recyclage chimique du plastique repose largement sur la pyrolyse. Le principe : chauffer des déchets plastiques broyés à environ 600 degrés pour les décomposer. Sur le papier, la solution paraît séduisante. Dans la réalité, elle pose de lourds problèmes. La pyrolyse génère d’importantes émissions de gaz à effet de serre, des fumées toxiques dangereuses pour la santé, des résidus inutilisables… et contribue à la pollution de l’air, des sols et des eaux. Autrement dit, une méthode censée recycler finit parfois par polluer. La technologie développée par le KIMM prend le problème à la racine. Elle repose sur une torche plasma, utilisant un gaz ionisé porté à des températures comprises entre 1 000 et 2 000 degrés. Presque trois fois plus que la pyrolyse classique. Mais surtout, le processus est fulgurant : la décomposition du plastique s’effectue en un centième de seconde. Cette rapidité empêche les phénomènes de combustion prolongée responsables des émissions toxiques.
Autre différence clé : le résultat. Le plastique n’est pas réduit en résidus problématiques, mais transformé directement en benzène et éthylène, deux molécules essentielles servant de matières premières à la fabrication de nouveaux plastiques. Le recyclage devient alors réellement circulaire, sans dépendre de nouvelles ressources fossiles. L’atout environnemental ne s’arrête pas là. La torche plasma fonctionne à l’hydrogène, une énergie propre, réduisant drastiquement l’empreinte carbone du procédé. Selon les chercheurs, ce système pourrait, à terme, atteindre une quasi-neutralité carbone. « Nous avons réussi à convertir des déchets plastiques mixtes en matières premières exploitables, une première mondiale », souligne le responsable du programme au KIMM. Cette percée arrive à un moment critique, alors que la production mondiale de plastique continue de croître et que les solutions durables peinent à suivre. Reste désormais l’étape décisive : la commercialisation. Le KIMM prévoit de multiplier les démonstrations industrielles.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pendant longtemps, la voiture électrique a incarné une promesse simple : rouler sans passer à la pompe, sans odeur d’essence sur les mains… et surtout sans payer les lourdes taxes sur les carburants. Une forme de liberté retrouvée. Mais cette parenthèse pourrait bien se refermer. À mesure que les véhicules électriques se multiplient, une nouvelle question fiscale s’impose : comment compenser la chute des recettes liées aux carburants ?
Car le manque à gagner est bien réel. En France, les ventes d’essence et de diesel auraient reculé d’environ 1 % sur un an. Or, ces carburants sont une véritable manne pour l’État. Selon le magazine Auto Plus, entre taxes et contributions diverses, 50 à 60 % du prix d’un litre reviennent aux finances publiques. En 2024, cela aurait représenté près de 43 milliards d’euros pour Bercy. Une source de revenus qui s’effrite lentement, mais sûrement, avec l’essor de l’électrique. Face à cette érosion, certains pays cherchent déjà des solutions. Au Royaume-Uni, le débat est ouvert : le gouvernement envisage une taxation au kilomètre parcouru pour les voitures électriques. L’idée est simple : remplacer la taxe sur le carburant par une contribution liée à l’usage réel du véhicule. En clair, même sans émission à l’échappement, rouler resterait taxable.
En France, cette piste commence aussi à circuler. Une taxe de quelques centimes par kilomètre pourrait rapporter plusieurs centaines d’euros par an et par conducteur, selon son profil. Pour un automobiliste « moyen », la facture pourrait avoisiner les 300 euros annuels. Un montant non négligeable, qui remettrait en question l’un des arguments économiques majeurs du passage à l’électrique. Reste une question épineuse : comment appliquer concrètement cette taxe ? Plusieurs scénarios sont évoqués. Un relevé du kilométrage lors du contrôle technique. Un dispositif connecté embarqué, capable de comptabiliser précisément les distances parcourues. Ou encore une déclaration annuelle auprès de l’administration fiscale. Pour l’heure, rien n’est tranché. Le paradoxe est frappant. Alors que les pouvoirs publics encouragent la transition vers le véhicule électrique à coups de primes et d’incitations, l’idée d’une nouvelle taxation pourrait refroidir certains automobilistes, notamment ceux qui roulent beaucoup. Car si la voiture électrique promettait une mobilité plus propre, elle n’a jamais été synonyme de gratuité absolue.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.