Je réponds de façon claire et directe à toutes les questions essentielles, en une minute chrono !
Si vous cherchez le podcast Petits Curieux, c'est par ici: https://chosesasavoir.com/podcast/petits-curieux-2/
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Je réponds de façon claire et directe à toutes les questions essentielles, en une minute chrono !
Si vous cherchez le podcast Petits Curieux, c'est par ici: https://chosesasavoir.com/podcast/petits-curieux-2/
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Adam et Ève n’ont sans doute jamais croqué une pomme, tout simplement parce que la Bible ne parle… d’aucune pomme.
Dans le livre de la Genèse, le texte dit seulement qu’Adam et Ève mangent le fruit de l’arbre de la connaissance du bien et du mal. Le mot utilisé en hébreu est peri, qui signifie « fruit » de manière générale. Aucune précision n’est donnée sur sa nature. Il ne s’agit donc ni explicitement d’une pomme, ni d’un fruit particulier.
Alors d’où vient cette idée devenue universelle ?
L’explication est surtout linguistique et culturelle. En latin, langue dans laquelle la Bible a longtemps été lue en Occident, le mot malum signifie à la fois « mal » et « pomme ». Ce jeu de mots a favorisé une confusion symbolique : le fruit du « mal » est devenu, par glissement, une pomme. Ce rapprochement n’existe ni en hébreu, ni en grec ancien.
La pomme s’impose surtout au Moyen Âge, dans l’art chrétien européen. Les artistes cherchent un fruit facile à reconnaître, visuellement clair, chargé de sens. Or la pomme est courante en Europe, simple à représenter, et déjà riche en symboles : tentation, désir, chute. Elle devient donc le choix par défaut dans les peintures, les vitraux et les sculptures.
Il y a aussi une raison géographique. La pomme n’est pas un fruit originaire du Proche-Orient biblique. À l’époque et dans la région supposée de l’Éden, on trouvait bien plus probablement des figues, des grenades ou des dattes. D’ailleurs, juste après la faute, Adam et Ève se couvrent de feuilles de figuier, ce qui a conduit certains chercheurs à penser que le fruit en question pourrait être une figue. Mais là encore, rien n’est affirmé dans le texte.
En réalité, le fruit n’a pas d’importance en soi. Le cœur du récit n’est pas botanique, mais symbolique. Ce qui compte, ce n’est pas ce qu’Adam et Ève mangent, mais le geste de désobéissance, le fait de vouloir accéder à un savoir réservé à Dieu. Le fruit est un support narratif, pas un objet précis.
Si la pomme a traversé les siècles, c’est donc parce qu’elle est devenue une convention culturelle, renforcée par l’art, la littérature et l’imaginaire collectif. Elle est absente de la Bible, mais omniprésente dans nos représentations.
En résumé, Adam et Ève n’ont probablement jamais croqué une pomme. Ils ont surtout croqué dans un symbole — et c’est cette confusion entre texte sacré et tradition visuelle qui a fait naître l’un des mythes les plus tenaces de notre culture.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Une catachrèse est une figure de style qui consiste à utiliser un mot hors de son sens propre, parce qu’il n’existe pas de terme plus précis pour désigner la réalité dont on parle.
Autrement dit, c’est un emploi détourné devenu nécessaire du langage.
Contrairement à une métaphore classique, la catachrèse ne cherche pas un effet poétique. Elle comble simplement un vide lexical.
Exemples très courants :
le pied d’une table
le bras d’un fauteuil
la tête d’un clou
la bouche d’un métro
les ailes d’un moulin
Dans tous ces cas, les objets n’ont évidemment ni pieds, ni bras, ni tête, ni bouche, ni ailes au sens biologique. Mais la langue française n’a pas créé de mot spécifique pour désigner ces parties. On emprunte donc un mot existant par analogie, et cet usage s’est figé dans la langue.
C’est ce qui distingue la catachrèse de la métaphore :
la métaphore est volontaire, expressive et souvent créative (« une mer de chagrin »)
la catachrèse est installée, banale, souvent imperceptible, au point qu’on ne la remarque plus
On peut dire que la catachrèse est une métaphore usée, devenue indispensable.
Il existe aussi des catachrèses verbales :
« attraper un rhume »
« saisir une opportunité »
On n’attrape pas littéralement un rhume comme un objet, et une opportunité ne se saisit pas avec la main, mais ces expressions se sont imposées faute de mieux.
En résumé, une catachrèse est une figure de style discrète mais omniprésente, qui montre que notre langue se construit par approximations successives. Elle rappelle que le langage ne décrit pas toujours le réel avec précision, mais s’adapte en permanence pour le nommer.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Jusqu’en avril 2025, les membres de l’Académie des Oscars n’étaient pas légalement ou formellement obligés de regarder tous les films nommés dans une catégorie avant de voter pour cette catégorie. Ils étaient fortement encouragés à le faire, mais aucune règle ne l’imposait réellement.
Cela tient à la nature même de l’Académie. Contrairement à un jury de festival composé de quelques personnes tenues de visionner l’ensemble des films en compétition, l’Académie regroupe plus de 10 000 professionnels du cinéma, répartis dans le monde entier. Pendant longtemps, le système reposait donc sur la bonne foi des votants. Beaucoup reconnaissaient, parfois anonymement, qu’ils votaient sans avoir vu tous les films, se basant sur leur réputation, des extraits, le bouche-à-oreille ou la notoriété des artistes impliqués.
Ce fonctionnement a régulièrement suscité des critiques, notamment lorsque des films plus discrets ou non anglophones semblaient désavantagés face à des productions très médiatisées. Plusieurs scandales et témoignages dans la presse ont alimenté l’idée que certains Oscars étaient attribués sans visionnage complet des œuvres.
En avril 2025, l’Académie a décidé de changer les règles. Pour les Oscars suivants, elle a instauré une obligation claire : pour voter dans une catégorie donnée lors du vote final, un membre doit avoir vu tous les films nommés dans cette catégorie. S’il ne les a pas vus, il lui est tout simplement impossible de voter pour cette catégorie précise, même s’il peut voter dans d’autres.
L’Académie s’appuie notamment sur sa plateforme officielle de streaming interne pour vérifier le visionnage, tout en acceptant aussi que certains films aient été vus en salle ou dans un cadre professionnel, sur déclaration.
En résumé : avant avril 2025, aucune obligation stricte de visionnage n’existait ; depuis cette date, regarder tous les films d’une catégorie est devenu une condition pour voter. Cette réforme vise à renforcer la crédibilité du palmarès et à garantir que les Oscars récompensent des films réellement vus par leurs électeurs.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La mort d’Alexandre Ier, tsar de Russie de 1801 à 1825, est l’un des grands mystères de l’histoire impériale russe. Officiellement, rien de plus banal : l’empereur serait mort d’une maladie soudaine à l’âge de 47 ans. Pourtant, dès l’annonce de son décès, des doutes apparaissent, et ils ne cesseront jamais vraiment de disparaître.
Pour comprendre ce mystère, il faut d’abord connaître le personnage. Alexandre Ier est un souverain complexe, profondément marqué par les guerres napoléoniennes, la violence du pouvoir et un sentiment de culpabilité lié à l’assassinat de son père, Paul Ier, auquel il aurait indirectement consenti. À la fin de sa vie, il est décrit comme fatigué, désabusé, de plus en plus tourné vers la religion et la quête spirituelle. Certains contemporains évoquent même son désir de disparaître du monde politique.
C’est dans ce contexte qu’Alexandre meurt en 1825, loin de Saint-Pétersbourg, dans la ville de Taganrog, au sud de la Russie. Cette distance est déjà inhabituelle pour un empereur. Les circonstances exactes de sa maladie restent floues, les récits divergent, et l’autopsie est sommaire. Rapidement, des rumeurs circulent : certains affirment que le corps présenté lors des funérailles ne ressemblait pas vraiment au tsar, d’autres évoquent un cercueil resté fermé plus que de coutume.
Mais le mystère s’épaissit surtout plusieurs années plus tard, avec l’apparition d’un personnage énigmatique en Sibérie : un ermite nommé Fiodor Kouzmitch. Cet homme, cultivé, parlant plusieurs langues, doté de manières aristocratiques, intrigue immédiatement. Il semble en savoir beaucoup sur la cour impériale et les grandes affaires de l’État, tout en refusant catégoriquement de révéler son passé.
Peu à peu, l’idée s’impose dans certains cercles que cet ermite pourrait être Alexandre Ier lui-même, ayant simulé sa mort pour finir ses jours dans la pénitence et l’anonymat. Des témoignages évoquent une ressemblance physique troublante, des analyses ultérieures ont souligné des similitudes dans l’écriture, et des proches de l’ermite auraient rapporté des confidences ambiguës suggérant une identité cachée.
Aucune preuve formelle n’a jamais confirmé cette théorie. Les autorités impériales ont toujours nié toute supercherie, et les historiens restent divisés. Pourtant, le doute persiste, d’autant plus que certaines vérifications ultérieures du tombeau impérial ont nourri les spéculations.
En définitive, le mystère de la mort d’Alexandre Ier fascine parce qu’il mêle pouvoir, culpabilité, foi et désir d’effacement. Qu’il soit mort empereur ou ermite, son destin incarne l’idée troublante qu’un homme au sommet de l’État ait pu vouloir disparaître pour redevenir simple mortel.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le mot peut faire sourire, tant le légume semble inoffensif. Et pourtant, dans le langage courant, il est devenu synonyme d’échec artistique, en particulier au cinéma. Cette expression cache une histoire bien plus ancienne que le septième art.
À l’origine, le navet est simplement un légume populaire, nourrissant, mais jugé banal et peu raffiné. Dès le XIXᵉ siècle, en français, le mot commence à être utilisé de manière figurée pour désigner une œuvre artistique considérée comme médiocre. On parle alors de « navet » à propos d’une pièce de théâtre ou d’un tableau raté. Le cinéma n’a fait que reprendre une expression déjà bien installée.
Pourquoi ce légume en particulier ? Parce qu’il symbolise quelque chose de fade, d’ordinaire, sans saveur. À une époque où l’art est associé à l’élévation de l’esprit, comparer une œuvre à un navet revient à dire qu’elle n’apporte ni plaisir esthétique, ni émotion, ni profondeur. Elle nourrit peut-être… mais sans goût.
Une autre hypothèse, souvent citée, vient du milieu de la peinture. Au XIXᵉ siècle, certains artistes académiques représentaient des légumes — notamment des navets — dans des natures mortes jugées sans imagination. Les critiques auraient alors utilisé le mot pour se moquer de ces tableaux sans ambition. Même si cette origine n’est pas totalement certaine, elle illustre bien l’idée d’un art répétitif et sans âme.
Lorsque le cinéma apparaît à la fin du XIXᵉ siècle, le terme s’impose rapidement. Le cinéma est un art populaire, accessible à tous, et donc particulièrement exposé à la critique. Un film raté, mal joué, mal écrit ou ennuyeux devient naturellement un navet. L’expression est courte, parlante, et immédiatement compréhensible.
Ce qui est intéressant, c’est que le mot « navet » ne renvoie pas forcément à un film techniquement mauvais. Il peut aussi désigner un film prétentieux, creux ou décevant, surtout lorsqu’il promettait beaucoup. Un gros budget, des stars, une grande campagne de promotion… et au final, un navet.
Aujourd’hui, le terme est entré dans le langage courant, au point d’être presque affectueux. Certains navets deviennent même cultes, appréciés pour leurs défauts. Preuve que dans la culture populaire, l’échec peut parfois devenir une forme de réussite inattendue.
En appelant un mauvais film un navet, nous ne jugeons donc pas seulement sa qualité. Nous exprimons aussi une vieille méfiance culturelle envers ce qui est jugé fade, ordinaire, et indigne de laisser une trace durable.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dire que la Lune possède une « queue » peut sembler étrange, voire poétique. Pourtant, ce n’est pas une métaphore : la Lune a bien une sorte de traîne, invisible à l’œil nu, mais bien réelle d’un point de vue scientifique.
Cette « queue » est liée à un phénomène appelé l’exosphère lunaire. Contrairement à la Terre, la Lune ne possède pas de véritable atmosphère. Sa gravité est trop faible pour retenir durablement des gaz. Mais elle est entourée d’une enveloppe extrêmement ténue de particules — sodium, potassium, argon ou encore hélium — arrachées à sa surface par différents mécanismes.
L’un de ces mécanismes est le bombardement constant du vent solaire. Le Soleil émet en permanence un flux de particules chargées qui frappe la Lune. En percutant le sol lunaire, ces particules éjectent des atomes dans l’espace. D’autres atomes sont libérés par les micrométéorites ou par le rayonnement ultraviolet solaire. Ces gaz forment une exosphère si diffuse qu’on la qualifierait presque de vide… mais elle existe.
Et c’est là qu’apparaît la fameuse « queue ». Sous l’effet combiné du vent solaire et de la pression du rayonnement solaire, une partie de ces particules est entraînée loin de la Lune, dans la direction opposée au Soleil. Il se forme alors une longue traîne de sodium, parfois longue de plusieurs centaines de milliers de kilomètres. On parle alors de queue lunaire, par analogie avec la queue d’une comète.
Cette queue est totalement invisible à l’œil nu, mais elle peut être détectée grâce à des instruments sensibles, notamment lors de la nouvelle Lune. À ce moment précis, la Terre traverse parfois cette traîne, ce qui permet aux astronomes d’en observer la structure et la composition. Des observations ont confirmé que cette queue peut s’étendre bien au-delà de l’orbite terrestre.
Il est important de souligner que cette « queue » n’est ni solide, ni continue, ni permanente. Elle est changeante, influencée par l’activité solaire. Lors des tempêtes solaires, elle peut devenir plus dense ou plus étendue. À l’inverse, elle peut presque disparaître lorsque les conditions sont calmes.
En résumé, la Lune possède une « queue » non pas parce qu’elle se déplace comme une comète, mais parce qu’elle perd continuellement des atomes, balayés par le Soleil. Ce phénomène discret rappelle que même les corps célestes qui semblent immuables sont en réalité en interaction permanente avec leur environnement spatial.
Une preuve supplémentaire que l’espace, même autour de notre satellite familier, est loin d’être vide ou immobile.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La Colombie porte le nom de Christophe Colomb, mais le navigateur génois n’a jamais mis les pieds sur le territoire colombien actuel. Cette apparente contradiction s’explique par l’histoire complexe de la découverte de l’Amérique et par la construction politique des jeunes États du continent au XIXᵉ siècle.
Christophe Colomb est avant tout associé à l’arrivée des Européens en Amérique en 1492. En réalité, il n’a jamais atteint le continent nord-américain et n’a exploré que certaines îles des Caraïbes, ainsi que les côtes de l’Amérique centrale. Pourtant, son voyage marque un tournant majeur : il inaugure durablement les échanges entre l’Europe et le continent américain, ce que l’on appelle souvent la « rencontre de deux mondes ».
Lorsque les colonies espagnoles d’Amérique du Sud commencent à lutter pour leur indépendance au début du XIXᵉ siècle, leurs dirigeants cherchent des symboles forts capables de fédérer des territoires immenses et très divers. Christophe Colomb s’impose alors comme une figure fondatrice, perçue à l’époque comme l’initiateur de l’histoire moderne du continent américain, même si cette vision est aujourd’hui largement critiquée.
En 1819, après plusieurs victoires militaires contre l’Espagne, le général Simón Bolívar proclame la création d’un nouvel État : la Gran Colombia. Cet ensemble politique regroupe alors les territoires de l’actuelle Colombie, du Venezuela, de l’Équateur et du Panama. Le choix du nom « Colombia » est hautement symbolique : il rend hommage à Colomb tout en affirmant une rupture avec la domination espagnole. Il s’agit d’un hommage paradoxal, car Colomb était lui-même un acteur de la conquête européenne, mais son nom est détaché de la couronne espagnole et transformé en mythe fondateur.
La Gran Colombia se disloque rapidement, dès 1830, en plusieurs États indépendants. L’un d’eux conserve le nom de Colombie, qui devient officiel en 1886 avec la République de Colombie. Le nom est désormais enraciné dans l’identité nationale.
Il faut aussi rappeler qu’au XIXᵉ siècle, l’image de Christophe Colomb est très différente de celle que nous avons aujourd’hui. Il est alors célébré comme un héros visionnaire et un explorateur audacieux, tandis que les violences de la colonisation sont largement passées sous silence. Ce n’est que plus tard que l’historiographie et les débats publics viendront nuancer, voire contester, ce récit.
Ainsi, la Colombie porte le nom de Christophe Colomb non pas parce qu’il l’a découverte, mais parce que son nom est devenu un symbole politique et historique, choisi à un moment clé pour construire une nation et lui donner une place dans l’histoire du continent américain.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le terme peut surprendre à l’ère des moteurs hybrides, des simulateurs et des millions de données analysées en temps réel. Pourtant, son origine est profondément liée à l’histoire du sport automobile.
À l’origine, une écurie est tout simplement un lieu où l’on abrite, nourrit et entretient des chevaux. Or, lorsque l’automobile fait ses premiers pas à la fin du XIXᵉ siècle, elle ne remplace pas brutalement le cheval : elle s’inscrit dans sa continuité. Les premières courses automobiles sont organisées par des passionnés issus du monde équestre, et le vocabulaire suit naturellement.
Au début du XXᵉ siècle, les voitures de course sont souvent financées, entretenues et engagées par de riches industriels ou aristocrates, à la manière des propriétaires de chevaux de course. Ces mécènes disposent d’ateliers, de mécaniciens et de pilotes, exactement comme un propriétaire possède des chevaux, des palefreniers et des jockeys. On parle alors d’écuries automobiles, par analogie directe avec les écuries hippiques.
Le parallèle va encore plus loin. Dans les courses de chevaux, une écurie peut aligner plusieurs chevaux dans une même compétition, tout en poursuivant une stratégie globale. En Formule 1, une écurie engage plusieurs voitures, gère ses pilotes, définit des tactiques de course et cherche à maximiser ses chances de victoire. Le terme s’impose donc naturellement pour désigner une structure organisée, bien plus qu’un simple véhicule.
Lorsque la Formule 1 est officiellement créée en 1950, le vocabulaire est déjà bien installé. Des noms mythiques apparaissent : Ferrari, Maserati, Alfa Romeo. Ferrari, d’ailleurs, adopte comme emblème le cheval cabré, directement hérité de l’aviation militaire italienne, mais parfaitement cohérent avec cet imaginaire équestre déjà omniprésent.
Avec le temps, les écuries deviennent de véritables entreprises industrielles et technologiques. Elles emploient des centaines, parfois des milliers de personnes, développent leurs propres moteurs, châssis et logiciels. Pourtant, le mot écurie reste. Pourquoi ? Parce qu’il ne désigne plus un lieu physique, mais une identité sportive, un collectif uni autour d’un objectif commun : gagner.
Aujourd’hui encore, parler d’écurie permet de rappeler que la Formule 1 n’est pas qu’une affaire de pilotes stars. C’est un sport d’équipe, où la coordination, la stratégie et la préparation sont essentielles — comme dans une écurie de course hippique.
En somme, si l’on parle d’écuries en Formule 1, c’est parce que ce sport moderne garde, dans ses mots, la mémoire de ses origines. Une preuve que même à 300 km/h, l’histoire n’est jamais bien loin.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Avant le mètre, avant les règles graduées identiques partout dans le monde, mesurer était une affaire… de corps humain. Parmi ces anciennes unités, l’une des plus célèbres en France est le « pied du roi ». Mais à quoi servait-il exactement ?
Le pied du roi était une unité de longueur officielle, utilisée en France jusqu’à la Révolution. Contrairement à ce que son nom pourrait suggérer, il ne correspondait pas au pied d’un roi en particulier, mais à une valeur standardisée par le pouvoir royal. Sa longueur était fixée à 32,48 centimètres.
Ce pied servait de base à tout un système de mesures. Un pied était divisé en 12 pouces, chaque pouce en 12 lignes. Ce découpage en multiples de 12 pouvait sembler complexe, mais il avait un avantage pratique : il facilitait les divisions, bien plus que notre système décimal dans certaines situations concrètes.
Le pied du roi était utilisé dans de nombreux domaines. En architecture, il permettait de concevoir bâtiments, ponts et cathédrales avec des proportions cohérentes. En artisanat, il servait aux menuisiers, tailleurs de pierre ou charpentiers pour fabriquer des pièces compatibles entre elles. En arpentage, il aidait à mesurer les terrains, même si d’autres unités, comme la toise, étaient aussi employées.
Pourquoi “du roi” ? Parce que la mesure était garantie par l’autorité royale. À une époque où chaque région pouvait avoir ses propres unités, le pied du roi incarnait une tentative de centralisation et d’unification. Des étalons officiels — des règles en métal ou en pierre — étaient conservés dans des lieux de référence afin d’éviter les fraudes et les erreurs.
Malgré cela, les confusions restaient nombreuses. Le pied variait selon les pays, parfois même selon les villes. Le pied anglais, par exemple, n’avait pas exactement la même longueur que le pied du roi français. Résultat : le commerce international devenait un véritable casse-tête.
C’est précisément pour mettre fin à ce chaos que la Révolution française introduit le système métrique à la fin du XVIIIᵉ siècle. Le mètre, défini à partir de la Terre elle-même, devait être universel, rationnel et égal pour tous. En 1799, le pied du roi est officiellement abandonné.
Pourtant, son héritage demeure. Les notions de pied et de pouce existent encore dans certains pays, et de nombreux bâtiments anciens portent la trace de ces mesures anciennes.
Le pied du roi nous rappelle une chose essentielle : mesurer, ce n’est pas seulement une affaire de chiffres. C’est aussi une question de pouvoir, d’organisation sociale et de vision du monde.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Lorsque George Orwell commence à écrire 1984, à la fin de l’année 1947, il est dans une situation à la fois physique et morale extrêmement fragile. L’image de l’écrivain lent, perfectionniste, travaillant patiemment son manuscrit, ne correspond pas du tout à la réalité. La vérité, c’est qu’Orwell s’est lancé dans une course contre la montre. Une course littérale : il sait qu’il est en train de mourir.
Depuis plusieurs années, Orwell souffre de tuberculose, une maladie alors difficile à soigner. À l’époque, il se retire sur l’île écossaise de Jura, un lieu isolé, froid, humide… exactement le contraire de ce qu’un médecin recommanderait. Mais il s’y sent libre, protégé du monde qu'il fuit : celui des totalitarismes, des manipulations politiques, des propagandes qui défigurent les mots et les idées. Là-bas, enfermé dans une petite maison rudimentaire, il écrit dans une urgence fébrile.
Pourquoi cette précipitation ?
D’abord parce qu’il craint que sa santé l’abandonne avant qu’il ne parvienne au bout de son roman. Il écrit donc douze heures par jour, parfois jusqu’à l’épuisement, tapant sur sa machine malgré la fièvre, malgré la toux qui l’étouffe. Les brouillons montrent des corrections hâtives, des phrases reprises à la va-vite. C’est un travail de survie autant que de création.
Mais il y a une autre urgence, plus intellectuelle cette fois. Orwell pense que l’histoire est en train de basculer vers un monde où la liberté de pensée recule. La guerre froide commence, les blocs se durcissent, la propagande devient partout un outil central. Pour lui, 1984 n’est pas un roman d’anticipation : c’est un avertissement immédiat, un signal d’alarme. Il doit sortir maintenant, pas dans cinq ans. Attendre serait presque une forme de complicité.
Cette double urgence — biologique et politique — explique pourquoi 1984 a été écrit aussi vite. Orwell achève le manuscrit en 1948, l’envoie à son éditeur dans un état d’épuisement total, et meurt quelques mois après la parution, en janvier 1950. Il n’aura jamais vu l’ampleur du phénomène que son livre deviendra.
Ainsi, 1984 est né dans une singularité rare : un roman écrit en hâte non pas par négligence, mais par nécessité vitale. C’est peut-être cette intensité, cette urgence brûlante, qui lui donne encore aujourd’hui une telle force prophétique.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Une étude menée à Milan par des psychologues de l’université Cattolica del Sacro Cuore s’est intéressée à une question simple mais audacieuse : peut-on rendre les gens plus gemtils envers autrui grâce à quelque chose d’aussi incongru qu’un homme déguisé en Batman dans le métro ? Contre toute attente, la réponse semble être oui, selon cette recherche publiée dans la revue npj Mental Health Research.
Les chercheurs ont mené une expérience dans le métro milanais. Lors de certains trajets, une femme simulait une grossesse pour observer si des passagers se levaient pour lui céder leur siège. Dans les conditions normales, environ 37,7 % des passagers lui laissaient la place. Mais lorsque, par une autre porte, un homme déguisé en Batman montait dans la même rame, le taux grimpait à 67,2 %. Autrement dit, la présence du super-héros doublait presque la probabilité d’un comportement prosocial.
Fait encore plus étonnant : parmi ceux qui se levaient, près de 44 % affirmaient ne pas avoir vu Batman. L’effet se produisait donc même sans perception consciente du personnage. Comment expliquer cela ?
Selon l’équipe italienne, deux mécanismes se combinent. D’abord, la présence d’un élément inattendu – ici un homme masqué et capé dans un contexte ordinaire – rompt la routine mentale. Dans les transports, nous sommes souvent en mode “pilote automatique”, absorbés par nos pensées ou par nos écrans. Un personnage aussi incongru que Batman sert de rupture cognitive et ramène l’attention sur l’environnement. Une fois plus attentifs, les passagers remarquent davantage qu’une personne enceinte a besoin d’aide.
Ensuite, Batman agit comme un “prime” symbolique. Même sans le voir clairement, son costume représente dans l’imaginaire collectif la justice, la protection et l’entraide. La simple présence du symbole active des normes sociales positives. Le cerveau, même inconsciemment, se retrouve orienté vers une idée simple : aider les autres est une bonne chose. Ce petit coup de pouce psychologique suffit parfois à déclencher un comportement prosocial.
Cette étude montre que l’altruisme n’est pas seulement une caractéristique individuelle stable, mais aussi un phénomène hautement contextuel. La gentillesse peut être stimulée par des éléments extérieurs, même subtils : une surprise, une perturbation de la routine, un symbole culturel fort. En d’autres termes, de petites interventions dans l’espace public – installations artistiques, mises en scène, nudges sociaux – pourraient encourager l’entraide de manière très concrète.
Dans un monde où beaucoup évoluent sans vraiment regarder autour d’eux, il suffit parfois d’un Batman inattendu pour rappeler que la bienveillance est toujours à portée de main.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Quand on incline le verre pour verser une bière, elle mousse beaucoup moins — et ce n’est pas un hasard. C’est avant tout une question de physique, de dynamique des liquides et de gaz dissous. Voici l’explication simple et claire.
1. La mousse vient du CO₂ qui s’échappe trop vite
La bière contient du dioxyde de carbone (CO₂) dissous. Quand on la verse, le gaz veut s’échapper.
Si le versage est brutal — verre vertical, bière qui tombe au fond — l’impact provoque une libération massive et soudaine du CO₂. Résultat : une grande quantité de bulles se forment en même temps, et elles créent une mousse abondante, parfois difficile à contrôler.
2. Incliner le verre réduit le choc et donc la libération de gaz
Quand on incline le verre, la bière glisse le long de la paroi, doucement.
Elle ne tape plus violemment le fond du verre, ce qui :
réduit l’agitation du liquide,
limite la formation de microbulles,
ralentit la libération du CO₂.
Moins de gaz expulsé d’un coup = moins de mousse.
On verse donc en inclinant pour garder le CO₂ dans la bière, ce qui la rend plus pétillante et moins mousseuse au service.
3. La surface de contact avec l’air est plus faible
Quand le verre est incliné, la bière forme un mince filet qui glisse sur la paroi. La surface exposée à l’air est réduite, donc il y a moins de zones où le CO₂ peut s’échapper.
4. Moins de turbulences = mousse plus contrôlée
Un verre vertical provoque des turbulences : tourbillons, remous, éclaboussures internes.
Ces turbulences augmentent la “nucleation”, c’est-à-dire les petits endroits où les bulles naissent.
Incliner le verre revient à adoucir le flux, ce qui limite fortement cette formation de bulles.
5. C’est aussi ce qui permet d’obtenir une meilleure texture
En contrôlant la mousse, on peut :
garder une bière plus pétillante,
obtenir une mousse plus fine et plus stable,
éviter que la bière déborde ou perde son gaz trop vite.
C’est pour cela qu’on recommande souvent un service “en deux temps” :
incliner pour réduire la mousse, puis redresser à la fin pour former une petite couche légère et esthétique.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le “gang des 40 éléphants” est l’un des groupes criminels les plus fascinants — et les plus méconnus — de l’histoire britannique. Actif à Londres du XIXᵉ siècle jusqu’aux années 1950, ce gang est unique pour une raison majeure : il était entièrement composé de femmes, organisées, redoutablement efficaces, et capables de tenir tête à la police comme aux grands syndicats du crime.
Leur nom vient du quartier Elephant and Castle, au sud de Londres, où beaucoup d’entre elles vivaient. Dès le départ, elles se spécialisent dans un domaine précis : le vol à l’étalage, mais à une échelle industrielle. À une époque où les magasins se multiplient et où la surveillance est encore rudimentaire, les “40 Elephants” deviennent maîtres dans l’art de dérober des objets de luxe.
Pour cela, elles mettent au point des techniques inédites. Elles portent sous leurs jupes ou manteaux des vêtements spécialement cousus pour cacher bijoux, soieries ou parfums. Certaines robes sont équipées de poches secrètes qui permettent de faire disparaître des marchandises en quelques secondes. D’autres membres ont des rôles précis : espionner les routines des vendeurs, distraire les employés ou transporter les biens volés hors de Londres.
Ce gang est également unique par son organisation interne, très moderne pour l’époque. Il fonctionne avec une hiérarchie claire, des règles strictes et même un système de solidarité : si une membre est arrêtée, le groupe l’aide à payer avocats et amendes. Certaines dirigeantes deviennent légendaires, comme Alice Diamond, surnommée “Diamond Annie”, connue pour sa taille imposante, ses bagues en diamants… et son autorité sans partage.
Le gang se distingue aussi par sa longévité exceptionnelle. Alors que la plupart des groupes criminels disparaissent en quelques années, les 40 Elephants prospèrent pendant presque un siècle. Elles s’adaptent sans cesse : dans les années 1920, elles étendent leurs activités au cambriolage de maisons riches, au racket ou à la revente de marchandises sur un véritable marché parallèle.
Enfin, leur singularité tient au contexte social. À une époque où les femmes ont peu de droits, peu d’argent et peu d’indépendance, ce gang représente un phénomène rare : un réseau féminin puissant, organisé et redouté, contrôlant une partie de la criminalité londonienne.
Le gang des 40 éléphants reste ainsi unique : un mélange de ruse, d’audace, d’organisation et de résistance aux normes sociales. Un chapitre surprenant et encore trop peu connu de l’histoire criminelle européenne.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En mai 2014, un événement inédit a secoué le monde bancaire : BNP Paribas, première banque française, a accepté de payer une amende colossale de 8,97 milliards de dollars au gouvernement américain. Le motif ? La banque avait contourné les embargos imposés par les États-Unis à Cuba, l’Iran et le Soudan entre 2004 et 2012. Ces pays étaient considérés par Washington comme des États soutenant le terrorisme ou violant les droits humains.
Quels faits étaient reprochés exactement ? BNP Paribas avait réalisé, via certaines filiales, des transactions en dollars pour le compte de clients liés à ces pays. Or, toute opération en dollars transitant à un moment donné par le système financier américain est soumise à la législation des États-Unis. Cela signifie que même une banque étrangère peut être poursuivie à partir du moment où elle utilise la monnaie américaine. C’est l’un des points clés de ce dossier.
La banque a reconnu avoir non seulement effectué ces paiements, mais parfois mis en place des procédures visant à masquer l’identité des clients ou l’origine réelle des fonds pour éviter les contrôles américains. Sur le plan du droit américain, la sanction était donc légale : la banque avait violé les règles de l’Office of Foreign Assets Control (OFAC), qui encadre les embargos.
Là où le dossier devient explosif, c’est sur le plan du droit international. Beaucoup d’experts et de gouvernements ont dénoncé une sanction « extraterritoriale ». Autrement dit, les États-Unis appliquent leurs lois à des entités étrangères, opérant hors de leur territoire, simplement parce qu’elles utilisent la monnaie américaine ou un serveur situé aux États-Unis. Pour nombre de juristes, cela revient à imposer au reste du monde la politique étrangère américaine.
Les critiques soulignent que BNP Paribas n’a pas violé le droit français ni le droit international, et que les embargos américains n’engageaient que les États-Unis. Pourtant, Washington a considéré que l’utilisation du dollar suffisait à justifier son intervention. Ce type de sanction a depuis été utilisé contre de nombreuses entreprises européennes, provoquant un réel malaise diplomatique.
L’affaire BNP a ainsi mis en lumière un rapport de force : les États-Unis disposent d’une arme économique puissante — le contrôle du dollar — qui leur permet d’étendre leur influence bien au-delà de leurs frontières. Elle a également relancé le débat sur la souveraineté européenne et la capacité du continent à protéger ses entreprises des pressions américaines.
Une sanction financière, donc, mais aussi un choc géopolitique.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’expression française « noyer le poisson » signifie détourner l’attention, embrouiller volontairement une explication ou éviter de répondre franchement à une question. Mais l’image, elle, provient d’un geste très concret… et très ancien.
À l’origine, l’expression appartient au monde de la pêche. Avant l’industrialisation, les poissons fraîchement pêchés étaient conservés vivants dans un seau ou une cuve d’eau. Lorsqu’un poissonnier voulait vendre un poisson abîmé, déjà mourant ou de mauvaise qualité, une petite astuce consistait à… le plonger dans beaucoup d’eau et le brasser. Le mouvement de l’eau donnait l’illusion d’un animal encore vif. En « noyant » littéralement le poisson sous un flot d’eau, on masquait sa faiblesse pour tromper l’acheteur.
Très vite, cette image est devenue métaphorique : on « noie le poisson » quand on crée un flux d’informations, de paroles ou de détails pour dissimuler l’essentiel, comme l’eau qui dissimule l’état réel de l’animal.
L’expression apparaît dans la langue au XVIIIᵉ siècle, période où la pêche fraîche est très présente dans les villes. Les dictionnaires du XIXᵉ siècle confirment déjà son sens figuré : « embarrasser une affaire au point de la rendre inextricable » ou « fatiguer un adversaire en l’empêchant d’y voir clair ».
On y voit aussi un lien avec la rhétorique politique : lorsqu’un orateur répond par des détours, qu’il multiplie les digressions ou qu’il ajoute des détails superflus pour éviter une réponse directe, il « noie le poisson ».
En somme : noyer le poisson, c’est noyer la vérité.
Le mot « snob » apparaît en Angleterre à la fin du XVIIIᵉ siècle, mais son origine reste l’un de ces petits mystères linguistiques savoureux. L’explication la plus souvent citée renvoie aux universités britanniques, notamment Oxford et Cambridge. À l’époque, on inscrivait parfois les étudiants issus de familles modestes en notant à côté de leur nom l’abréviation s.nob., pour sine nobilitate, c’est-à-dire « sans noblesse ».
Ces étudiants, exclus des privilèges aristocratiques, auraient parfois essayé d’imiter les attitudes, les goûts et les codes de la haute société pour paraître plus distingués. Peu à peu, « snob » aurait désigné quelqu’un qui singeaient les élites, qui voulait paraître plus important qu’il ne l’était réellement.
Une autre explication, moins académique mais amusante, affirme que snob viendrait du vieux dialecte anglais snob, qui signifiait « cordonnier » ou « roturier ». Là encore, l’idée de quelqu’un de modeste cherchant à imiter les classes supérieures se retrouve.
Dans tous les cas, au XIXᵉ siècle, le mot prend son sens moderne : une personne qui admire exagérément ce qu’elle croit supérieur, qui méprise ce qu’elle juge vulgaire, ou qui s’efforce d’adopter les comportements « à la mode ».
Aujourd’hui, dire de quelqu’un qu’il est « snob », c’est dire qu’il préfère l’apparence au naturel, et la distinction au bon sens.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Dans toute l’histoire du prix Nobel, deux hommes seulement ont pris la décision — libre, assumée, publique — de refuser l’une des distinctions les plus prestigieuses au monde : Jean-Paul Sartre en 1964 et Lê Duc Tho en 1973. Deux refus très différents, mais qui disent chacun quelque chose d’essentiel sur leur époque et sur leurs convictions.
Le premier à franchir ce pas radical est Jean-Paul Sartre, philosophe et écrivain français, figure majeure de l’existentialisme. En 1964, l’Académie suédoise lui décerne le prix Nobel de littérature pour l’ensemble de son œuvre. La réaction de Sartre est immédiate : il refuse le prix. Non par modestie, mais par principe. Sartre a toujours refusé les distinctions officielles, estimant que l’écrivain doit rester libre, non récupéré par le pouvoir, les institutions ou la notoriété. Pour lui, accepter un prix comme le Nobel reviendrait à « devenir une institution », ce qui contredisait son engagement politique et intellectuel.
Il avait d’ailleurs prévenu l’Académie, avant même l’annonce, qu’il ne souhaitait pas être nommé. Cela ne change rien : il est proclamé lauréat malgré lui. Sartre refuse alors publiquement, dans un geste retentissant. Ce refus est souvent perçu comme l’expression ultime d’une cohérence : l’écrivain engagé qui refuse d’être couronné. Ce geste, unique dans l’histoire de la littérature, marque durablement la réputation du philosophe, admiré ou critiqué pour son intransigeance.
Neuf ans plus tard, c’est au tour de Lê Duc Tho, dirigeant vietnamien et négociateur lors des Accords de Paris, de refuser le prix Nobel de la paix. Le prix lui est attribué conjointement avec l’Américain Henry Kissinger pour les négociations qui auraient dû mettre fin à la guerre du Vietnam. Mais pour Lê Duc Tho, il n’y a pas de paix à célébrer. Les hostilités se poursuivent, les bombardements aussi. Refuser le Nobel devient alors un acte politique : il déclare ne pouvoir accepter un prix de la paix tant que la paix n’est pas réellement obtenue.
Contrairement à Sartre, son refus n’est pas motivé par un principe personnel, mais par une analyse de la situation géopolitique. Son geste est moins philosophique que stratégique, mais tout aussi historique. Il reste le seul lauréat de la paix à avoir décliné le prix.
Ces deux refus, rares et spectaculaires, rappellent que le prix Nobel, pourtant considéré comme l’une des plus hautes distinctions humaines, peut devenir un terrain d’expression politique ou morale. Sartre par conviction, Lê Duc Tho par cohérence historique : deux gestes, deux époques, deux refus qui ont marqué l’histoire du prix.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L’effet idéomoteur est l’un de ces phénomènes fascinants où le cerveau déclenche des mouvements… alors que nous sommes persuadés de ne pas bouger. Il s’agit de micro-contractions musculaires involontaires, déclenchées non par une décision consciente, mais par nos attentes, nos émotions ou nos représentations mentales. Mis en lumière au XIXᵉ siècle par le médecin William Carpenter, ce mécanisme explique une étonnante quantité de phénomènes considérés comme « paranormaux ».
Notre cerveau fonctionne comme une machine à anticiper. Lorsqu’on pense à un mouvement — même aussi vaguement que « ça pourrait bouger » — le cerveau active discrètement les circuits moteurs associés. Le geste est minuscule, parfois à peine mesurable, mais il est suffisant pour donner l’illusion qu’une force extérieure agit. En d’autres termes : imaginer un mouvement, c’est déjà commencer à le produire.
Un exemple particulièrement éclairant est celui du pendule divinatoire. Beaucoup de personnes affirment que leur pendule répond à leurs questions en oscillant vers “oui”, “non”, ou en dessinant des cercles mystérieux. Pourtant, des expériences menées en laboratoire montrent que ces oscillations dépendent directement des attentes du participant. Si l’on bande les yeux du sujet ou qu’on truque la question pour qu’il n’ait aucune idée de la réponse, les mouvements se stabilisent ou disparaissent presque totalement. C’est la conviction intérieure — « le pendule va bouger dans cette direction » — qui provoque de minuscules contractions musculaires dans les doigts, amplifiées par le poids de la chaîne. Le résultat semble magique… mais il ne l’est pas : c’est le cerveau qui pilote la main sans en avertir la conscience.
Le même mécanisme est à l’œuvre dans l’écriture automatique. Une personne tient un stylo, se détend, se concentre sur l’idée qu’une “voix” pourrait s’exprimer à travers elle. Très vite, le stylo glisse, trace des mots, parfois des phrases entières. Pourtant, ce ne sont pas des esprits : les pensées, même floues, activent les zones motrices du cerveau. Les mouvements sont initiés par la personne elle-même, mais à un niveau tellement inconscient qu’elle a l’impression d’être guidée.
Ce qui rend l’effet idéomoteur si passionnant, c’est qu’il montre une vérité déroutante : nous ne maîtrisons pas totalement nos gestes, et notre cerveau peut créer des illusions d’agency — cette impression qu’une force extérieure agit à notre place. C’est un rappel spectaculaire de la puissance de nos attentes, et de la manière dont notre esprit peut devenir son propre illusionniste.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le symbole de la pharmacie — une croix verte lumineuse — est aujourd’hui tellement familier qu’on a l’impression qu’il a toujours existé. Pourtant, son origine est récente, et elle mêle histoire médicale, héritages religieux et stratégie de communication.
1. Aux origines : la croix… mais pas verte
Pendant longtemps, en Europe, le symbole associé aux apothicaires n’était pas la croix verte, mais plutôt :
le caducée (bâton surmonté d’un serpent),
ou le symbole du bowl of Hygieia (coupe et serpent).
La croix, elle, vient du christianisme. Au Moyen Âge, de nombreux soins sont prodigués par les ordres religieux : moines, religieuses, hôpitaux rattachés aux monastères. La croix devient alors un signe associé aux soins, aux remèdes et à la compassion.
2. La croix verte apparaît au XIXᵉ siècle
Au XIXᵉ siècle, chaque pays cherche à uniformiser l'identification des pharmacies. Certains utilisent une croix rouge… mais un problème survient : en 1863, la Croix-Rouge adopte officiellement ce symbole pour ses actions humanitaires. Pour éviter toute confusion — notamment en temps de guerre — les pharmaciens doivent trouver un autre signe.
C’est alors qu’apparaît :
la croix verte en France,
la croix verte ou bleue selon les pays européens.
Le choix du vert n’est pas religieux : c’est un choix symbolique. Le vert évoque :
la nature,
les plantes médicinales,
la guérison,
la vie,
et même l’espérance.
À une époque où la pharmacie repose encore beaucoup sur la botanique, la couleur paraît parfaite.
3. Une norme française devenue un standard européen
Au début du XXᵉ siècle, la croix verte s’impose progressivement en France grâce aux syndicats professionnels. Elle devient un repère visuel simple et efficace, facilement lisible dans la rue, puis se modernise :
s’allume en néon dans les années 1950,
devient animée (clignotante, rotative),
puis numérique dans les années 2000, capable d’afficher température, heure ou animations.
Aujourd’hui, la croix verte est adoptée dans une grande partie de l’Europe, même si certains pays gardent leur propre symbole (par exemple le « mortar and pestle » aux États-Unis).
4. Un symbole fort, entre science et tradition
Au final, la croix verte résume parfaitement la philosophie de la pharmacie : un héritage ancien (la croix), réinterprété de manière moderne (le vert) pour afficher à la fois soins, science et plantes médicinales.
C’est cette combinaison qui explique que la croix verte soit devenue l’un des symboles médicaux les plus reconnus au monde.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La phrase « On ne naît pas femme, on le devient », écrite par Simone de Beauvoir dans Le Deuxième Sexe (1949), est devenue l’une des formules les plus célèbres de la pensée moderne. À elle seule, elle résume une révolution intellectuelle qui a profondément transformé la compréhension du genre, de l’égalité et du féminisme.
À l’époque, on considère largement que les différences entre hommes et femmes sont « naturelles » : tempéraments, talents, rôles sociaux, tout serait fixé par la biologie. Cette vision justifie l’exclusion des femmes de nombreux domaines : vie politique, travail, création artistique, autonomie financière. De Beauvoir brise ce discours en affirmant que la « féminité » n’est pas un destin biologique mais une construction sociale.
Sa phrase signifie que les femmes deviennent femmes parce qu’on les forme, les éduque, les habille, les oriente et parfois les contraint à adopter certains comportements et rôles. Une petite fille n’a pas « naturellement » envie de jouer à la poupée ou de devenir douce et effacée : elle est socialisée pour répondre à ces attentes. La société, la famille, l’école, la culture, les religions façonnent ce qu’elle « doit » être.
Cette idée renverse un ordre millénaire. Si les différences sont construites, alors elles ne sont pas immuables : elles peuvent être changées, contestées, déconstruites. De Beauvoir ouvre ainsi la voie au féminisme contemporain, qui analyse comment les normes sociales fabriquent les inégalités.
La force de cette phrase tient aussi à sa clarté. En quelques mots, elle met en lumière ce que les chercheuses appelleront plus tard la distinction entre sexe (biologique) et genre (social). Elle anticipe de plusieurs décennies les débats actuels sur l’identité, la performativité du genre et les stéréotypes.
Sa réception en 1949 est explosive. Le livre choque, autant par son diagnostic que par sa liberté de ton. La phrase est accusée de nier la nature féminine, voire la maternité. En réalité, elle dit autre chose : que rien dans le corps des femmes ne justifie leur subordination.
Depuis, cette formule est devenue un slogan, un symbole, presque un repère philosophique. Elle est citée dans les manuels scolaires, les mouvements militants, les universités et la culture populaire. Elle reste aujourd’hui un point de départ essentiel pour comprendre les mécanismes de domination, mais aussi pour réfléchir à la manière dont chacun peut construire son identité.
C’est cette puissance explicative, politique et symbolique qui fait de « On ne naît pas femme, on le devient » l’une des phrases les plus emblématiques du XXᵉ siècle.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.