Afleveringen

  • Face à la raréfaction de l’eau douce sur la planète, le dessalement de l’eau de mer semble une solution séduisante : après tout, les océans couvrent plus de 70 % de la surface terrestre. Pourtant, cette technologie reste peu développée à l’échelle mondiale. Pourquoi ?


    La première raison est énergétique. Dessaler l’eau de mer demande une quantité importante d’énergie. La méthode la plus courante aujourd’hui, l’osmose inverse, utilise des membranes sous haute pression pour filtrer le sel. Produire un mètre cube d’eau potable nécessite en moyenne entre 3 et 5 kWh. Cela reste beaucoup plus coûteux que le traitement de l’eau douce issue de nappes phréatiques ou de rivières.


    Or, dans de nombreux pays, cette énergie provient encore de sources fossiles. Résultat : les usines de dessalement émettent du CO₂, contribuant au changement climatique. Paradoxalement, en cherchant à compenser la pénurie d’eau, on alimente le réchauffement global qui aggrave justement cette pénurie.


    La deuxième limite est économique. Construire une usine de dessalement coûte cher : plusieurs centaines de millions d’euros pour des unités de grande capacité. L’eau ainsi produite reste donc plus onéreuse pour les consommateurs. Ce modèle est viable pour des pays riches (comme Israël, les Émirats arabes unis ou l’Espagne), mais reste inaccessible pour de nombreuses régions du monde.


    Enfin, il y a la question de l’impact environnemental. Le processus de dessalement génère un sous-produit appelé saumure : une eau extrêmement concentrée en sel, souvent rejetée dans la mer. Cela crée des zones de forte salinité au large des usines, perturbant les écosystèmes marins. La faune benthique, les poissons, les coraux peuvent en souffrir.


    Une étude publiée en 2019 dans Science of the Total Environment a révélé que pour chaque litre d’eau douce produite, 1,5 litre de saumure est rejeté. Avec plus de 16 000 usines de dessalement en activité dans le monde, cela représente un enjeu écologique majeur.


    Certaines solutions émergent : valoriser la saumure en extrayant des minéraux (magnésium, lithium), ou la diluer avant rejet. Mais ces techniques restent coûteuses et complexes.


    En résumé, le dessalement n’est pas généralisé car il est énergivore, coûteux et impacte les milieux naturels. C’est un outil précieux dans certaines régions arides, mais pas une solution miracle. Mieux vaut en parallèle renforcer les économies d’eau, recycler les eaux usées, et protéger les ressources existantes. La clé réside dans une gestion globale et durable de l’eau.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Dans les années 1920 et 1930, Hermann Oberth, pionnier allemand de l’astronautique et mentor de Wernher von Braun, imagine un concept d’arme révolutionnaire pour l’époque : le « pistolet de soleil » Une arme qui fait partie d'un plan très sérieux mis en place par le régime nazi et découvert en 1945.


    L’idée, à mi-chemin entre science et science-fiction, repose sur un principe physique bien réel : la concentration de l’énergie solaire à l’aide de miroirs paraboliques. Le but ? Créer une arme spatiale capable de vaporiser des cibles terrestres à distance.


    Principe scientifique

    Le concept s’appuie sur les lois de l’optique géométrique, en particulier la capacité d’un miroir parabolique à concentrer les rayons parallèles (comme ceux du Soleil) en un point focal. Si l’on place un objet à ce point, il peut être chauffé à des températures extrêmement élevées.


    Oberth propose alors d’utiliser un miroir géant placé en orbite terrestre, orientable et capable de concentrer les rayons solaires sur un point précis de la surface terrestre. La surface du miroir, selon ses estimations, pourrait atteindre 100 km², construite en feuilles métalliques réfléchissantes assemblées dans l’espace. L’énergie concentrée suffirait, selon lui, à enflammer des villes entières, faire fondre des blindages ou neutraliser des installations stratégiques.


    Réalisation technique envisagée

    Pour stabiliser la structure dans l’espace, Oberth imagine l’utiliser en orbite géostationnaire, c’est-à-dire à environ 35 786 km d’altitude, où l’engin resterait fixe par rapport à un point au sol. Le système devrait inclure un mécanisme d’orientation motorisée, probablement électromagnétique, pour diriger précisément le faisceau thermique. Les matériaux réfléchissants envisagés à l’époque étaient des feuilles d’aluminium ou de métaux brillants, fixées à une structure tubulaire en titane ou en acier léger.


    Limites physiques et critiques

    Plusieurs obstacles rendent cette arme irréalisable avec les technologies du XXe siècle (et largement encore aujourd’hui) :


    Mise en orbite : placer des centaines de tonnes de matériaux à une telle altitude dépasserait de loin les capacités de lancement de l’époque.


    Précision : viser un point sur Terre depuis l’espace avec une structure aussi massive poserait des problèmes de stabilité thermique, de guidage et de dérive orbitale.


    Diffusion atmosphérique : les rayons concentrés traversant l’atmosphère perdraient une grande partie de leur énergie à cause de la diffusion Rayleigh et de l’absorption infrarouge, rendant l’effet au sol bien moins destructeur que prévu.


    Héritage scientifique

    Si le "pistolet de soleil" ne fut jamais construit, son concept a inspiré plusieurs recherches en énergie solaire concentrée, ainsi que des œuvres de science-fiction. Il est considéré comme l’un des tout premiers projets théoriques d’arme orbitale. Aujourd’hui encore, l’idée soulève des débats sur les applications civiles ou militaires de l’énergie solaire spatiale.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Zijn er afleveringen die ontbreken?

    Klik hier om de feed te vernieuwen.

  • Prévoir un séisme avec précision — c’est-à-dire en déterminer l’heure exacte, l’endroit précis et la magnitude — est aujourd’hui quasiment impossible sur le plan scientifique. Cette limitation tient à la nature même des failles géologiques, aux lois de la physique des matériaux et aux limites technologiques actuelles. Voici pourquoi.

    1. Le comportement chaotique des failles

    Les séismes sont provoqués par des ruptures soudaines le long de failles dans la croûte terrestre, dues à l’accumulation progressive de contraintes tectoniques. Ces contraintes s’exercent sur des décennies ou des siècles, jusqu’à ce qu’un seuil de rupture soit atteint.

    Le problème, c’est que le comportement des failles est chaotique : des failles géologiquement similaires peuvent produire des séismes très différents. Même si la tension accumulée semble importante, la rupture peut ne pas se produire, ou au contraire survenir sur une autre faille voisine. Cela rend les modèles déterministes inopérants.

    2. L’absence de signes précurseurs fiables

    Contrairement à d’autres phénomènes naturels, les séismes ne présentent pas de signes précurseurs universels et fiables. Certains événements isolés — comme des microséismes, des variations du niveau des nappes phréatiques ou des émissions de radon — ont été observés avant certains tremblements de terre. Mais ces phénomènes ne se produisent pas systématiquement, ou bien se produisent aussi sans séisme, ce qui rend leur valeur prédictive nulle.

    Les scientifiques parlent donc plutôt de probabilités à long terme, en étudiant les vitesses de glissement des plaques, les historiques sismiques et les propriétés des roches. Cela permet d’établir des zones à risque élevé, mais pas de prévoir un séisme à court terme.

    3. Les limites des instruments de mesure

    Même les réseaux de sismographes les plus denses ne permettent pas aujourd’hui de détecter précisément où une rupture va commencer, ni de capter les signaux annonciateurs en temps réel. À l’échelle de la croûte terrestre, la résolution spatiale des capteurs reste insuffisante pour repérer les micro-fractures précurseures d’une rupture majeure.

    Des technologies comme l’interférométrie radar (InSAR) ou le GPS haute fréquence permettent de mesurer la déformation des sols, mais elles donnent des résultats utiles après coup, ou seulement dans le cadre de modélisations de long terme.

    4. Une prédiction, oui, mais après le début du séisme

    Il existe un domaine où la prédiction fonctionne partiellement : l’alerte précoce. Lorsqu’un séisme commence, les ondes primaires (P), peu destructrices, précèdent les ondes secondaires (S), plus lentes et dangereuses. En captant les premières, certains systèmes (comme au Japon ou au Mexique) peuvent envoyer une alerte de quelques secondes à quelques dizaines de secondes, permettant de se mettre à l’abri ou de stopper des trains. Mais ce n’est pas une prédiction — c’est une réaction ultra-rapide à un événement déjà en cours.

    Conclusion

    Prédire un séisme avec précision reste hors de portée de la science actuelle, en raison de la complexité des failles, du manque de signaux fiables et des limites technologiques. Les chercheurs concentrent donc leurs efforts sur l’évaluation probabiliste des risques et les systèmes d’alerte rapide, bien plus efficaces pour sauver des vies que la recherche du « moment exact ».

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Une étude publiée en mai 2025 dans la revue JAMA Network Open, menée par le Barrow Neurological Institute et la Mayo Clinic, a révélé une association significative entre la proximité des terrains de golf et un risque accru de développer la maladie de Parkinson.

    Méthodologie de l'étude

    Les chercheurs ont analysé les données de 419 patients atteints de la maladie de Parkinson et de 5 113 témoins appariés, issus du Rochester Epidemiology Project, couvrant une période de 1991 à 2015. Ils ont examiné la distance entre le domicile des participants et les terrains de golf, ainsi que la nature de leur approvisionnement en eau potable.

    Résultats principaux

    Les personnes résidant à moins d'un mile (environ 1,6 km) d'un terrain de golf présentaient un risque accru de 126 % de développer la maladie de Parkinson par rapport à celles vivant à plus de six miles.

    Le risque diminuait progressivement avec l'éloignement du terrain de golf, suggérant une relation dose-réponse.

    Les individus vivant dans des zones desservies par des systèmes d'eau potable alimentés par des nappes phréatiques situées sous des terrains de golf avaient un risque presque doublé de développer la maladie, comparé à ceux vivant dans des zones sans terrain de golf.

    Hypothèses explicatives

    Les terrains de golf sont souvent entretenus avec des quantités importantes de pesticides pour maintenir la qualité des pelouses. Aux États-Unis, l'utilisation de pesticides sur les terrains de golf peut être jusqu'à 15 fois supérieure à celle observée en Europe. Ces substances chimiques peuvent s'infiltrer dans les nappes phréatiques, contaminant ainsi l'eau potable des zones avoisinantes.

    De plus, certaines zones géologiques, comme celles avec des sols perméables ou des formations karstiques, facilitent la migration des pesticides vers les sources d'eau souterraines.

    Limites de l'étude

    Bien que l'étude établisse une association entre la proximité des terrains de golf et un risque accru de maladie de Parkinson, elle ne prouve pas une relation de cause à effet. Les chercheurs n'ont pas mesuré directement les niveaux de pesticides dans l'eau potable ni pris en compte d'autres facteurs environnementaux ou génétiques pouvant influencer le risque.

    Cette étude souligne l'importance de considérer les facteurs environnementaux, tels que l'utilisation intensive de pesticides sur les terrains de golf, dans l'évaluation des risques de maladies neurodégénératives comme la maladie de Parkinson. Des recherches supplémentaires sont nécessaires pour confirmer ces résultats et élaborer des recommandations de santé publique appropriées.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Le canon électromagnétique, aussi appelé railgun, est une arme qui utilise l’électromagnétisme pour propulser des projectiles à très haute vitesse, sans utiliser de poudre ou d’explosif chimique. C’est un concentré de physique appliquée, et sa présentation récente par le ministère de la Défense du Japon confirme l’intérêt croissant pour cette technologie futuriste.


    Comment ça fonctionne ?

    Un canon électromagnétique repose sur deux principes physiques fondamentaux :


    La loi de Lorentz : lorsqu’un courant électrique traverse un conducteur dans un champ magnétique, une force est générée, qui peut être utilisée pour mettre un objet en mouvement.


    L’induction magnétique : en générant un champ magnétique intense, on peut créer un mouvement mécanique dans un circuit conducteur.


    Concrètement, voici les éléments clés :


    Le projectile (non explosif) est placé entre deux rails conducteurs parallèles, d’où le nom « railgun ».


    Un courant électrique de très haute intensité (plusieurs millions d’ampères) est envoyé dans l’un des rails, traverse le projectile (conducteur) et repart par l’autre rail.


    Cette circulation crée un champ magnétique puissant perpendiculaire au courant, ce qui génère une force de Lorentz qui pousse le projectile à des vitesses pouvant atteindre Mach 6 à Mach 7 (environ 7 400 km/h).


    Pourquoi c’est révolutionnaire ?

    Pas de poudre, pas d’explosif : le projectile est inertiel, ce qui réduit les risques de stockage et d’explosion à bord des navires ou des bases.


    Vitesse extrême : la vitesse de sortie du projectile rend inutile l’usage d’explosifs ; l’énergie cinétique seule suffit à détruire la cible.


    Précision et portée : avec une trajectoire tendue et une vitesse très élevée, un railgun pourrait frapper une cible à plus de 200 km, voire plus à terme.


    Moins coûteux par tir que des missiles guidés, une fois la technologie maîtrisée.


    Les défis techniques

    Alimentation électrique : il faut générer des courants immenses très rapidement. Cela nécessite des condensateurs géants ou des générateurs spécialisés.


    Usure des rails : les forces électromagnétiques et les frottements endommagent rapidement les rails. Leur durabilité est encore un point faible.


    Refroidissement : les décharges électriques chauffent énormément les matériaux. Il faut gérer les contraintes thermiques.


    Et le Japon dans tout ça ?

    Le Japon a présenté en mai 2025 un prototype opérationnel capable de tirer à plus de Mach 6, monté sur une base mobile. Il s'agit d’une première mondiale en matière de mobilité pour ce type d’arme. L’objectif affiché est de contrer les missiles hypersoniques et les menaces aériennes avancées, notamment en mer de Chine.


    Conclusion

    Le canon électromagnétique est à la croisée de l’ingénierie militaire et de la science pure. Il promet une révolution dans les systèmes d’armement… mais reste freiné par des obstacles techniques majeurs. Le Japon, en le présentant comme arme défensive avancée, rejoint les États-Unis et la Chine dans une nouvelle course à l’innovation militaire.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Imaginez un navire semblant flotter dans les airs au-dessus de la mer. Ce phénomène étrange, presque surnaturel, a longtemps été source de légendes maritimes. Les marins y voyaient des vaisseaux fantômes ou des mirages d’îles invisibles. En réalité, cette illusion d’optique porte un nom poétique : la Fata Morgana, inspirée de la fée Morgane, la magicienne des légendes arthuriennes censée créer des illusions sur l’horizon.


    Mais loin de la magie, ce phénomène est parfaitement expliqué par la physique de la lumière. Il s’agit d’une forme extrême de mirage, causée par une réfraction atmosphérique très particulière.


    Tout commence par une inversion de température

    Dans des conditions normales, la température de l’air diminue avec l’altitude. Mais lors d’une inversion thermique, une couche d’air chaud se trouve au-dessus d’une couche d’air plus froide, souvent au-dessus d’une surface d’eau glacée ou très fraîche, comme en mer ou dans les régions polaires.

    Cette configuration crée une discontinuité dans la densité de l’air. Or, l’indice de réfraction de l’air — c’est-à-dire sa capacité à courber la lumière — dépend de sa densité. Résultat : les rayons lumineux émis par un objet (un bateau, une île, un rivage) se courbent en traversant ces couches superposées, et suivent parfois une trajectoire sinueuse vers l’observateur.


    Ce que perçoit notre œil

    Pour l’œil humain, ces rayons lumineux réfractés donnent l’illusion que l’objet se trouve plus haut qu’il ne l’est réellement, voire qu’il est dupliqué ou inversé. C’est ainsi qu’un bateau peut sembler léviter au-dessus de l’eau, ou qu’un rivage prend la forme d’un château flottant. Dans certains cas, les objets paraissent étirés, empilés, ou retournés comme dans un kaléidoscope.


    Une illusion stable, mais complexe

    Contrairement aux mirages simples (comme les flaques d’eau sur l’asphalte en été), la Fata Morgana implique plusieurs couches thermiques et des variations complexes de l’air, ce qui la rend plus instable mais aussi plus spectaculaire. Elle peut durer plusieurs minutes, voire heures, et se déplacer avec l'observateur ou le soleil.


    Observée même aujourd’hui

    La Fata Morgana a été photographiée à de nombreuses reprises, notamment sur les côtes britanniques ou canadiennes. Elle peut affecter aussi bien des bateaux que des montagnes lointaines ou des icebergs. Ce phénomène rappelle à quel point notre perception du monde dépend des conditions physiques de l’environnement, et combien la lumière peut jouer des tours fascinants à notre cerveau.


    En somme, la Fata Morgana est un chef-d’œuvre de la nature : une illusion spectaculaire née des caprices de l’atmosphère, transformant un simple bateau en vaisseau volant digne d’un conte de fées.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Une étude récente de l'Institut de recherche sur l'impact climatique de Potsdam (PIK) a mis en lumière un mécanisme inédit : l'atmosphère possède une forme de « mémoire » qui joue un rôle crucial dans la régulation des pluies de mousson. Cette découverte remet en question les modèles climatiques traditionnels et pourrait avoir des implications majeures pour la gestion du climat mondial et la sécurité alimentaire de nombreuses régions du globe.


    Une mémoire atmosphérique fondée sur la vapeur d'eau

    Traditionnellement, les pluies de mousson étaient perçues comme une réponse directe aux variations du rayonnement solaire. Cependant, l'étude du PIK révèle que l'atmosphère peut stocker de la vapeur d'eau sur des périodes prolongées, créant ainsi un effet de mémoire physique. Ce mécanisme permet aux systèmes de mousson de basculer entre deux états stables : un état humide et pluvieux, et un état sec. Ainsi, même lorsque le rayonnement solaire diminue en automne, la vapeur d'eau accumulée maintient les précipitations, illustrant une forme de mémoire saisonnière. 


    Bistabilité et dépendance au chemin

    Le phénomène observé est qualifié de « bistabilité » : pour un même niveau de rayonnement solaire, l'atmosphère peut être soit sèche, soit pluvieuse, en fonction de son état précédent. En d'autres termes, si l'atmosphère est déjà humide, la pluie persiste ; mais si elle est sèche, il est difficile d'initier des précipitations. Ce comportement dépendant du chemin souligne l'importance de l'histoire saisonnière de l'atmosphère dans la régulation des moussons. 


    Méthodologie de l'étude

    Les chercheurs ont combiné des données d'observation provenant de régions affectées par la mousson, telles que l'Inde et la Chine, avec des simulations atmosphériques avancées. En isolant l'atmosphère des composants plus lents du système terrestre, comme les océans, ils ont démontré que l'accumulation de vapeur d'eau dans l'atmosphère peut à elle seule déclencher ou maintenir les précipitations de mousson.


    Implications pour le climat et la société

    Cette découverte a des implications significatives. Les moussons sont essentielles pour l'agriculture et l'approvisionnement en eau de milliards de personnes. Comprendre le rôle de la mémoire atmosphérique pourrait améliorer les prévisions climatiques et aider à anticiper les variations des précipitations, cruciales pour la sécurité alimentaire et la gestion des ressources en eau.


    En conclusion, la reconnaissance de la mémoire atmosphérique comme un facteur clé dans la régulation des moussons ouvre de nouvelles perspectives pour la recherche climatique et la planification stratégique dans les régions dépendantes de ces précipitations saisonnières.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • C’est un phénomène discret mais spectaculaire : depuis les années 1980, la France — comme la plupart des pays développés — connaît une hausse marquée du nombre de naissances de jumeaux et jumelles. On parle même d’un « baby boom des jumeaux ». Selon une étude publiée dans la revue Human Reproduction en 2021, le taux de naissances gémellaires a augmenté de plus de 30 % en quatre décennies dans les pays à revenu élevé. Mais d’où vient cette explosion ? Et surtout, quelles en sont les implications médicales ?


    PMA, FIV : des jumeaux de laboratoire ?

    La première cause identifiée, c’est l’essor des techniques de procréation médicalement assistée (PMA), notamment la fécondation in vitro (FIV), depuis les années 1980. Lors d’une FIV, il est courant que plusieurs embryons soient implantés dans l’utérus pour augmenter les chances de réussite. Résultat : les grossesses multiples sont plus fréquentes. Et même lorsque la stimulation ovarienne est utilisée sans FIV, elle peut favoriser la libération de plusieurs ovules, augmentant le risque de conception gémellaire.


    Des mères plus âgées… et plus grandes

    Mais la technologie ne fait pas tout. Un autre facteur important est l’âge de la mère. À partir de 35 ans, les femmes ont plus souvent des cycles où plusieurs ovocytes sont libérés en même temps. Or, l’âge moyen de la première maternité n’a cessé d’augmenter en France, passant de 26 à près de 31 ans entre 1975 et aujourd’hui.


    La taille et le poids de la mère jouent également un rôle. Les femmes plus grandes ou ayant un indice de masse corporelle (IMC) plus élevé ont un risque légèrement supérieur d’avoir des jumeaux. Il ne s’agit pas ici de juger ces facteurs, mais de constater une tendance biologique.


    Et la génétique ?

    Côté hérédité, les jumeaux dizygotes (issus de deux ovules fécondés séparément) sont plus fréquents dans certaines familles. Si une femme a déjà eu des jumeaux ou si elle a des antécédents familiaux, ses chances en sont augmentées. À l’inverse, les jumeaux monozygotes (issus d’un même ovule divisé en deux) semblent répartis plus aléatoirement dans la population.


    Une grossesse à risques

    Mais cette hausse n’est pas sans conséquences : les grossesses gémellaires comportent plus de risques, à la fois pour la mère (hypertension, diabète gestationnel) et pour les bébés (prématurité, faible poids à la naissance). Les médecins recommandent donc un suivi renforcé pour ces grossesses multiples.


    En somme, le « baby boom des jumeaux » est le fruit d’une rencontre entre progrès médical, évolutions sociales et facteurs biologiques. Une aventure à deux… qui demande parfois deux fois plus de précautions.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Pour découvrir mes vidéos:


    Youtube:

    https://www.youtube.com/@SapristiFR


    TikTok:

    https://www.tiktok.com/@sapristifr

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • L’histoire de cet adolescent néerlandais de 17 ans qui s’est réveillé d’une anesthésie en parlant uniquement anglais — incapable de comprendre sa langue maternelle — relève d’un phénomène neurologique rare, souvent appelé syndrome de la langue étrangère (Foreign Language Syndrome), à ne pas confondre avec le syndrome de l'accent étranger (Foreign Accent Syndrome). Voici comment une intervention chirurgicale pourrait provoquer une telle transformation linguistique.


    1. Un phénomène neurologique extrêmement rare

    Le syndrome de la langue étrangère survient parfois après des traumatismes cérébraux, des AVC, des crises d’épilepsie, ou — plus rarement — des anesthésies générales. Le cerveau, à la suite d’un déséquilibre chimique ou d’une micro-lésion temporaire, semble réorganiser l’accès aux structures du langage, favorisant une langue étrangère apprise mais jusque-là secondaire. Dans le cas du jeune néerlandais, il avait étudié l’anglais à l’école, ce qui laisse penser que la mémoire de cette langue s’est temporairement imposée sur celle du néerlandais.


    2. Les zones cérébrales impliquées

    Le langage est principalement traité dans deux régions du cerveau :

    • L’aire de Broca (production du langage) dans le lobe frontal gauche.

    • L’aire de Wernicke (compréhension du langage) dans le lobe temporal gauche.

    Lors d’une anesthésie, certains déséquilibres métaboliques, une hypoperfusion temporaire (baisse de l'oxygénation dans des zones précises), ou même de minuscules lésions invisibles à l’IRM peuvent désorganiser ces zones ou leurs connexions. Résultat : la langue maternelle devient inaccessible, alors que la langue étrangère — stockée dans des circuits partiellement distincts — reste activée.


    3. Une forme de plasticité cérébrale inversée ?

    Ce phénomène pourrait être vu comme une démonstration extrême de la plasticité cérébrale. Le cerveau, confronté à une contrainte (traumatisme, anesthésie, inflammation), tente de recréer un schéma linguistique cohérent avec ce qu’il peut encore mobiliser. Il se "rabat" alors sur une langue étrangère, souvent mieux structurée scolairement, avec des règles syntaxiques plus rigides, parfois plus faciles à reconstruire que la langue maternelle parlée plus intuitivement.


    4. Récupération et temporalité

    Dans la majorité des cas documentés, les effets sont transitoires. Le néerlandais du patient est généralement revenu progressivement, parfois en quelques heures ou quelques jours. Le phénomène semble davantage lié à un "réglage" temporaire des connexions neuronales qu’à un effacement profond de la mémoire linguistique.


    5. Une construction partiellement psychosomatique ?

    Certains neurologues considèrent que ce syndrome peut avoir une composante psychogène. Un choc émotionnel lié à l’intervention, à l’anesthésie ou à l’environnement médical peut désinhiber certaines fonctions, provoquant un accès anormal à une langue apprise. C’est pourquoi ce syndrome est parfois observé chez des polyglottes ou dans des contextes de stress extrême.


    En résumé, une intervention chirurgicale peut, dans des circonstances rares mais réelles, désorganiser temporairement les circuits cérébraux du langage, faisant "ressortir" une langue étrangère apprise, au détriment de la langue maternelle. Ce phénomène étonnant reste peu compris, mais fascine les neuroscientifiques pour ce qu’il révèle sur les mystères de la mémoire linguistique et la souplesse du cerveau humain.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • En 2024, une lettre oubliée d’Albert Einstein a refait surface dans les archives de l’Université hébraïque de Jérusalem. Datée de 1949, cette correspondance anodine à première vue s’est révélée fascinante : elle contenait une hypothèse audacieuse sur le mécanisme de migration des oiseaux, bien avant que la science moderne ne commence à l’explorer sérieusement.


    Dans cette lettre, Einstein répondait à un ingénieur radio amateur, Glyn Davys, qui s’interrogeait sur la manière dont certains oiseaux parviennent à parcourir des milliers de kilomètres sans se perdre. Einstein, intrigué, suggère qu’il n’est pas impossible que les oiseaux puissent percevoir des signaux géophysiques invisibles à l’œil humain, et propose même l’idée qu’ils puissent « ressentir » le champ magnétique terrestre.


    À l’époque, l’idée paraît presque ésotérique. Il n’existe encore aucune preuve expérimentale que les animaux puissent percevoir le champ magnétique. Mais cette intuition géniale d’Einstein s’avérera prophétique.


    Des décennies plus tard, la science donne raison au physicien. Depuis les années 1970, les biologistes accumulent des preuves solides que certains oiseaux migrateurs, comme les rouges-gorges ou les pigeons voyageurs, utilisent bien le champ magnétique terrestre pour s’orienter, un peu comme une boussole biologique.


    Plus récemment, des expériences en laboratoire ont montré que des perturbations du champ magnétique pouvaient désorienter des oiseaux migrateurs. En 2021, une étude publiée dans Nature a même identifié un mécanisme quantique basé sur des protéines spéciales, les cryptochromes, présentes dans la rétine de certains oiseaux. Ces protéines seraient sensibles à l’orientation des champs magnétiques et joueraient un rôle dans la perception de la direction.


    Ce processus, appelé magnétoréception, pourrait impliquer des réactions chimiques influencées par l’orientation du spin des électrons, ce qui relie directement la physique quantique au comportement animal — exactement le genre de connexion conceptuelle qu’Einstein aimait explorer.


    La lettre redécouverte prend ainsi une valeur nouvelle : elle témoigne d’une intuition visionnaire, basée sur rien d’autre qu’une curiosité sincère et un raisonnement spéculatif brillant. À une époque où la biologie et la physique étaient encore très cloisonnées, Einstein avait pressenti qu’un phénomène physique invisible pourrait guider le vivant à travers le monde.


    Cette anecdote rappelle que la science avance parfois grâce à des idées un peu folles, notées au détour d’une lettre. Et que les plus grandes intuitions n’attendent pas toujours les preuves pour surgir.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Ce phénomène, où des personnes aveugles de naissance associent des couleurs à des sensations comme la chaleur ou la froideur sans jamais les avoir vues, fascine depuis longtemps psychologues et neuroscientifiques. L’étude récente publiée dans Communications Psychology apporte une réponse solide : le langage, à lui seul, peut façonner notre perception symbolique du monde, même sans expérience sensorielle directe.


    Rouge = chaud, bleu = froid : une association culturelle... mais pas visuelle

    À première vue, l’association entre rouge et chaleur, ou bleu et froid, semble découler d’une observation du réel. Le feu est rougeoyant, la glace est bleutée, le soleil couchant est rouge, l’ombre est bleue. Mais ces associations ne viennent pas uniquement de la vue : elles sont ancrées dans notre langage, nos métaphores, nos usages sociaux.

    Des expressions comme « être rouge de colère », « un regard glacé », ou « une ambiance chaleureuse » contribuent à construire une cartographie sensorielle à travers les mots. Ces expressions sont omniprésentes dans les conversations, les histoires, les descriptions… et elles sont compréhensibles même sans jamais avoir vu la couleur.


    Le cerveau sémantique : une machine à relier les concepts

    Chez les aveugles de naissance, le cerveau développe des voies cognitives alternatives : l’aire visuelle peut être réaffectée à d’autres fonctions comme le traitement du langage ou du toucher. Cela signifie qu’ils peuvent former des représentations mentales complexes à partir de mots seulement.

    L’étude montre ainsi que ces personnes associent le rouge au chaud et le bleu au froid sans ambiguïté, preuve que leur cerveau a intégré ces associations via le langage, sans avoir besoin d’images.


    La transmission culturelle, plus forte que l’expérience sensorielle

    Ce phénomène démontre que les catégories mentales ne sont pas uniquement construites par les sens, mais aussi — et parfois surtout — par la culture et la langue. Même sans vision, un individu peut internaliser une cartographie symbolique du monde basée sur des concepts verbaux. En d’autres termes, on peut apprendre ce qu’est "chaud" ou "froid" en rouge et bleu uniquement par les mots qu’on entend et les contextes dans lesquels ils sont utilisés.


    Une démonstration de la puissance du langage

    Cette étude illustre à quel point le langage façonne notre cognition, au-delà de nos sens. Il peut créer des associations cohérentes, durables, partagées socialement — même chez ceux qui n’ont jamais vu les couleurs dont il est question.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • La Terre tourne pourtant très vite : à l’équateur, elle effectue un tour complet sur elle-même en 24 heures, soit une vitesse d’environ 1 670 km/h. Pourtant, nous ne ressentons ni ce mouvement, ni une quelconque sensation de déplacement. Cette absence de perception s’explique par plusieurs lois fondamentales de la physique et par la façon dont notre corps est conçu pour ressentir les mouvements.


    Un mouvement constant et régulier

    L’une des principales raisons est que la Terre tourne à vitesse constante. Il n’y a pas d’accélération perceptible, et c’est justement cela qui fait toute la différence. Selon la première loi de Newton, aussi appelée principe d’inertie, un objet en mouvement continue son mouvement à vitesse constante tant qu'aucune force extérieure ne vient le perturber. C’est pourquoi, à l’intérieur d’un avion en croisière, on peut marcher normalement : tout bouge à la même vitesse, nous y compris.

    Nous tournons donc avec la Terre, à la même vitesse qu’elle. L’atmosphère aussi tourne à la même vitesse. Il n’y a donc aucun frottement de l’air, aucun déplacement brutal, rien qui signale à nos organes sensoriels un mouvement particulier. La rotation est silencieuse, régulière, imperceptible.


    Un corps humain peu sensible aux mouvements lents

    Notre corps est équipé d’un système vestibulaire, situé dans l’oreille interne, qui permet de détecter les mouvements, les accélérations et les changements d’orientation. Mais ce système ne réagit qu’aux accélérations. Il est incapable de détecter un mouvement uniforme et circulaire à grande échelle comme celui de la Terre. Ainsi, tant qu’il n’y a pas de variation de vitesse ou de direction, notre cerveau ne reçoit aucune alerte.


    La taille colossale de la Terre

    Autre point essentiel : la courbure de la Terre est immense. Même si nous tournons à grande vitesse, la trajectoire est très large et le rayon de courbure gigantesque. Cela rend la force centrifuge très faible — de l’ordre de quelques millièmes de g, bien trop peu pour être ressentie directement. À l’équateur, cette force réduit à peine notre poids apparent d’environ 0,3 %. Insuffisant pour créer un vertige.


    Une rotation prouvée, mais invisible au quotidien

    Bien que nous ne la ressentions pas, la rotation de la Terre est détectable scientifiquement : par exemple avec le pendule de Foucault, ou à travers l’effet Coriolis qui influe sur les courants océaniques et la trajectoire des vents.


    En somme, nous ne ressentons pas la rotation de la Terre parce que tout tourne avec nous, à vitesse constante, sans heurt. Notre corps ne perçoit que les changements brutaux… pas les grandes mécaniques douces du cosmos.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Les bulles de savon fascinent autant les enfants que les scientifiques. Leur surface irisée, qui reflète des couleurs changeantes comme un arc-en-ciel, est un phénomène purement optique dû à l’interaction de la lumière avec une fine couche de liquide. Ce phénomène s’explique principalement par l’interférence de la lumière.


    Une bulle de savon est constituée d’une fine pellicule d’eau enfermée entre deux couches de savon. Cette pellicule, extrêmement fine (de quelques centaines de nanomètres à quelques microns), agit comme un film transparent sur lequel la lumière blanche (comme celle du soleil) se réfléchit. Or, cette lumière blanche est composée de toutes les longueurs d’onde du spectre visible — du violet (longueur d’onde courte) au rouge (longueur d’onde longue).


    Lorsque la lumière frappe la surface d’une bulle, une partie est réfléchie sur la face extérieure du film, et une autre partie pénètre dans le film et est réfléchie sur la face intérieure. Ces deux rayons lumineux ressortent ensuite de la bulle et interfèrent entre eux : ils peuvent s’ajouter ou s’annuler selon leur décalage de phase, c’est-à-dire selon la différence de chemin parcouru dans le film.


    Ce décalage dépend de l’épaisseur locale du film et de la longueur d’onde de la lumière. Certaines couleurs seront renforcées (interférence constructive) tandis que d’autres seront atténuées (interférence destructive). Résultat : on observe des couleurs qui varient selon l’épaisseur de la bulle et l’angle de vue. C’est ce qu’on appelle des franges d’interférence.


    Si la bulle était d’épaisseur parfaitement uniforme, on verrait des couleurs régulières. Mais en réalité, la gravité fait que le film est plus épais en bas et plus mince en haut. Cela crée un dégradé de couleurs changeantes, souvent disposées en bandes horizontales. Et comme la bulle est en mouvement, les épaisseurs varient sans cesse, ce qui donne l’effet de couleurs qui ondulent et dansent.


    Autre facteur important : l’indice de réfraction du film, qui change selon la composition du liquide (savon, eau, glycérine...). Cela influence la vitesse de la lumière dans le film et donc les conditions d’interférence.


    Enfin, lorsque le film devient trop mince — de l’ordre de 10 à 20 nanomètres — presque toutes les longueurs d’onde s’annulent par interférence destructrice. La bulle apparaît alors noire ou transparente juste avant d’éclater.


    En résumé, les couleurs arc-en-ciel des bulles de savon sont le fruit d’un subtil jeu entre lumière, épaisseur du film, et interférences optiques. Une leçon de physique dans un souffle de savon.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • La glace superionique n’a rien à voir avec la glace que nous connaissons. Pour exister, elle nécessite des conditions physiques extrêmes : des températures de plusieurs milliers de degrés et des pressions de l’ordre de plusieurs centaines de gigapascals, soit un million de fois la pression atmosphérique terrestre. Ces conditions ne sont réunies naturellement que dans les profondeurs de certaines planètes, comme Uranus et Neptune.


    Sa particularité tient à sa structure atomique étrange. Composée, comme toute glace, de molécules d’eau (H₂O), elle adopte dans cet état un comportement radicalement nouveau. Les atomes d’oxygène forment un réseau cristallin rigide, immobile, qui donne à la matière une apparence solide. Mais à l’intérieur de ce squelette figé, les atomes d’hydrogène deviennent mobiles : ils se déplacent rapidement entre les atomes d’oxygène, un peu comme les électrons dans un métal. C’est cette mobilité partielle qui rend la glace superionique à la fois solide et fluide.


    Cette propriété inhabituelle lui confère un autre trait remarquable : elle conduit l’électricité. Les ions hydrogène, chargés positivement, circulent librement, ce qui permet à des courants électriques de se former, exactement comme dans un électrolyte liquide. Cette conductivité la distingue radicalement des autres formes de glace, généralement isolantes. C’est aussi ce qui rend la glace superionique potentiellement active dans la génération de champs magnétiques planétaires, comme ceux, particulièrement chaotiques, observés sur Uranus ou Neptune.


    Autre curiosité : la glace superionique est noire et opaque. Contrairement à la glace claire et translucide que nous connaissons, celle-ci absorbe la lumière. Ce comportement optique est dû à la structure électronique désordonnée introduite par les ions mobiles et la température élevée. En laboratoire, des scientifiques sont parvenus à créer ce type de glace en utilisant des lasers à impulsion très courte pour chauffer et comprimer de la glace d’eau entre deux pointes de diamant. La transition vers l’état superionique a été détectée grâce à des changements dans l’opacité du matériau et dans sa réponse électrique.


    La glace superionique pourrait représenter l’un des états de la matière les plus répandus dans l’univers, bien qu’inexistant à la surface de la Terre. Dans les couches profondes des planètes géantes, où pression et température atteignent les niveaux requis, elle pourrait occuper des volumes colossaux. En étudiant ce matériau, les scientifiques espèrent mieux comprendre la composition interne de nombreuses planètes, mais aussi les mécanismes dynamiques qui régissent leur évolution.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Une étude internationale récente, soutenue par le CNRS et publiée en avril 2025 dans Scientific Reports, a révélé que les femmes entendent en moyenne mieux que les hommes. Cette recherche, menée par le Centre de recherche sur la biodiversité et l’environnement (CRBE) à Toulouse en collaboration avec l’Université de Bath, a évalué la sensibilité cochléaire de 448 adultes âgés de 18 à 55 ans, répartis dans 13 populations à travers le monde, notamment en Équateur, en Angleterre, au Gabon, en Afrique du Sud et en Ouzbékistan.


    Les chercheurs ont utilisé une technique appelée émissions otoacoustiques transitoires (TEOAE) pour mesurer la sensibilité de l’oreille interne. Cette méthode consiste à envoyer des sons brefs dans l’oreille et à enregistrer les réponses acoustiques produites par la cochlée, fournissant ainsi une mesure objective de la sensibilité auditive sans nécessiter de réponse active du participant.


    Différence entre les sexes : Les femmes ont montré une sensibilité auditive supérieure de 2 décibels en moyenne par rapport aux hommes, et ce, dans toutes les populations étudiées. 


    Facteurs influents : Le sexe est apparu comme le facteur le plus déterminant dans la variabilité de l’audition humaine, suivi par l’environnement, puis l’âge et enfin la latéralité (oreille gauche ou droite). 


    Influence de l’environnement : Les personnes vivant en milieu urbain présentaient une sensibilité accrue aux hautes fréquences, probablement en raison du bruit ambiant constant des villes. En revanche, celles vivant en forêt tropicale avaient une meilleure sensibilité auditive globale, tandis que les populations en haute altitude montraient une sensibilité réduite, possiblement liée à des adaptations physiologiques à l’altitude. 


    Les chercheurs suggèrent que cette différence entre les sexes pourrait être due à des facteurs biologiques tels que l’exposition hormonale pendant le développement embryonnaire ou à des différences structurelles dans l’anatomie cochléaire. De plus, les femmes ont également obtenu de meilleurs résultats dans des tests de perception de la parole, indiquant une capacité accrue à traiter les informations auditives. 


    Bien qu’une meilleure sensibilité auditive puisse sembler avantageuse, elle pourrait également rendre les femmes plus susceptibles aux effets négatifs du bruit environnemental, tels que les troubles du sommeil ou les maladies cardiovasculaires. Cette étude souligne l’importance de considérer à la fois les facteurs biologiques et environnementaux dans la compréhension de l’audition humaine.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Je vais vous parler d'une toute récente étude publiée dans la revue Brain and Behavior qui révèle qu'il existe un endroit dans lequel notre perception du temps ralentit considérablement...

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • La Chine ! Ce pays révoit bien de construire une centrale nucléaire sur la Lune, en partenariat avec la Russie, dans le cadre de leur ambitieux projet commun baptisé ILRS (International Lunar Research Station). Ce projet, annoncé officiellement par l’ingénieur chinois Pei Zhaoyu en mai 2025, s’inscrit dans la continuité du programme lunaire chinois Chang’e et vise à établir une base lunaire habitée de façon permanente à l’horizon 2030, avec un réacteur nucléaire opérationnel d’ici 2035.

    Pourquoi construire une centrale nucléaire sur la Lune ?


    L’enjeu principal est l’approvisionnement énergétique. Sur la Lune, les nuits lunaires durent environ 14 jours terrestres, période pendant laquelle l’énergie solaire devient inutilisable. Les écarts de température extrêmes (-173 °C à +127 °C) rendent la production et le stockage d’énergie très complexes. Une centrale nucléaire, en revanche, permettrait de fournir une alimentation stable, continue et indépendante de l’environnement extérieur. Cela est indispensable pour maintenir en fonctionnement une station lunaire habitée, gérer les systèmes de survie, les communications, les laboratoires et les installations minières.


    Un partenariat sino-russe fondé sur l'expérience

    La Chine compte sur l’expertise de la Russie en matière de nucléaire spatial. L’Union soviétique a été pionnière en la matière dès les années 1960, avec plus de 30 réacteurs spatiaux envoyés en orbite. Le réacteur TOPAZ, utilisé dans les années 1980-90, est un exemple notable de système thermionique capable de produire de l’énergie électrique dans l’espace. Cette technologie, adaptée à l’environnement lunaire, pourrait servir de base au futur réacteur.


    La mission Chang’e-8 comme tremplin

    La mission Chang’e-8, prévue pour 2028, jouera un rôle stratégique. Elle embarquera des équipements pour tester les technologies clés nécessaires à une base permanente, notamment des modules d’habitat, des dispositifs de production d’oxygène et potentiellement un prototype de centrale nucléaire miniature. L’objectif est de valider sur place les concepts nécessaires à une présence humaine prolongée.


    Une course énergétique… et géopolitique

    Ce projet lunaire s’inscrit dans une concurrence technologique avec les États-Unis. Si la NASA, via son programme Artemis, prévoit également des bases lunaires, elle n’a pas encore officialisé de projet aussi avancé de centrale nucléaire. La Chine pourrait donc marquer un coup diplomatique et scientifique majeur si elle devient la première à installer un réacteur nucléaire sur un autre corps céleste.


    En conclusion

    Construire une centrale nucléaire sur la Lune n’est plus de la science-fiction : c’est un projet stratégique, technologique et symbolique, qui marque une nouvelle ère dans l’exploration spatiale — et dans la rivalité sino-américaine pour la domination au-delà de la Terre.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Le sable est la seconde ressource naturelle la plus exploitée au monde, après l’eau. Essentiel à la fabrication du béton, du verre, de l’asphalte ou des composants électroniques, il est au cœur des projets d’urbanisation massive — et peu de pays en ont autant besoin que la Chine. Avec 1,4 milliard d’habitants et une urbanisation toujours galopante, la Chine consomme à elle seule une part gigantesque du sable mondial. Or, cette ressource devient de plus en plus rare, poussant le pays à développer son propre sable artificiel. Scientifiquement, cette démarche repose sur des constats environnementaux, économiques et technologiques.


    Le sable naturel, une ressource sous pression

    Contrairement à une idée reçue, le sable du désert n’est pas adapté à la construction, car ses grains, arrondis par l’érosion éolienne, n’adhèrent pas bien entre eux. Le sable utilisable provient donc des lits de rivières, des carrières ou des fonds marins. Mais son extraction massive provoque des dégâts écologiques majeurs : érosion des côtes, destruction d’écosystèmes aquatiques, pollution, ou encore perturbation des cycles sédimentaires. En 2019, le Programme des Nations Unies pour l’Environnement (PNUE) a sonné l’alarme sur le risque de pénurie mondiale de sable de construction.


    En Chine, le problème s’est accentué avec des politiques d’urbanisation intense. Résultat : entre 2010 et 2020, l’approvisionnement en sable naturel a chuté de près de 50 %, contraignant le pays à se tourner vers une alternative.


    Une réponse technologique : le sable manufacturé

    La solution chinoise est le sable artificiel, aussi appelé sable manufacturé. Ce sable est obtenu par concassage et tamisage de roches (comme le granite, le basalte ou le calcaire), ou de résidus miniers. Les grains ainsi produits sont calibrés pour offrir les mêmes propriétés mécaniques que le sable naturel. Ce procédé, bien que plus coûteux en énergie, est maîtrisé technologiquement et peut être adapté aux besoins précis de l’industrie du bâtiment.


    D’après une étude publiée en juillet 2024 dans Nature Geoscience, plus de 80 % du sable utilisé en Chine aujourd’hui est d’origine artificielle. Ce basculement a été rendu possible par des politiques publiques strictes et un encadrement gouvernemental visant à limiter l’extraction destructrice de sable naturel.


    Une démarche aussi environnementale

    La fabrication de sable artificiel ne vise pas uniquement à répondre à la demande, mais aussi à réduire les dommages environnementaux. Elle permet d’épargner les zones naturelles, de ralentir l’érosion côtière et de valoriser des déchets miniers qui, autrement, seraient stockés.


    En somme, la Chine fabrique son propre sable par nécessité, mais aussi par anticipation : pour soutenir son développement urbain tout en préservant ses écosystèmes fragiles.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Les jardins de poisons sont des espaces botaniques entièrement ou partiellement dédiés à la culture de plantes toxiques. Contrairement aux jardins classiques, leur objectif n’est pas de séduire par leur beauté ou leur parfum, mais d’éduquer sur les dangers du monde végétal, souvent dissimulés derrière des apparences inoffensives. Mélange fascinant de science, d’histoire et de légende, ces jardins ont une longue tradition.


    Une tradition ancienne

    L'idée d'entretenir des plantes toxiques remonte à l'Antiquité. Les Grecs et les Romains connaissaient déjà les propriétés létales de la cigüe, de la belladone ou de l’aconit. Hippocrate et Galien en ont décrit les effets, et Socrate est probablement le plus célèbre empoisonné de l’Histoire, exécuté avec une infusion de cigüe. Au Moyen Âge, les herboristes et les apothicaires classaient soigneusement les plantes selon leurs usages médicinaux ou dangereux.


    Mais c’est à la Renaissance que naissent véritablement les jardins de plantes vénéneuses. De nombreuses familles aristocratiques ou royales en faisaient cultiver à l’abri des regards, autant pour étudier leurs effets que pour se prémunir — ou pratiquer — l’empoisonnement, pratique politique redoutée à l’époque.


    Un jardin pédagogique… et mortel

    Scientifiquement, ces jardins permettent d’explorer les molécules toxiques naturelles : alcaloïdes, glycosides, saponines… qui affectent les systèmes nerveux, cardiaque ou digestif. La belladone dilate les pupilles, le ricin tue en quelques milligrammes, et l’if contient de puissants poisons cardiaques. Certaines de ces substances sont encore utilisées aujourd’hui en médecine (comme la digitaline) ou en pharmacologie expérimentale.


    L’un des plus célèbres exemples modernes est le Poison Garden d’Alnwick Castle, en Angleterre. Créé en 2005 par la duchesse Jane Percy, ce jardin est fermé à clé, et l’entrée s’effectue uniquement en visite guidée. Les visiteurs y découvrent des plantes mortelles soigneusement étiquetées, comme la datura, l’aconit ou la ciguë. Des panneaux avertissent : "Ne touchez rien, ne respirez pas trop près." Une mise en scène qui attire, fascine… et inquiète.


    Anecdotes et culture populaire

    Certaines anecdotes alimentent le mystère. À Alnwick, plusieurs visiteurs se seraient évanouis simplement en respirant l’odeur de certaines plantes. Des écrivains, comme Agatha Christie ou Shakespeare, se sont abondamment servis des poisons végétaux dans leurs intrigues. Même aujourd’hui, la peur ancestrale des plantes vénéneuses nourrit la fiction, du cinéma aux jeux vidéo.


    En somme, les jardins de poisons rappellent une vérité troublante : la nature peut être aussi belle que dangereuse. Leur objectif n’est pas de faire peur, mais de transmettre un savoir oublié, dans un monde où l’on ne reconnaît plus les plantes… mais où le poison est parfois à portée de main.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.