Powered by RND
PodcastsSciencesChoses à Savoir SCIENCES

Choses à Savoir SCIENCES

Choses à Savoir
Choses à Savoir SCIENCES
Dernier épisode

Épisodes disponibles

5 sur 2351
  • Pourquoi le dessalement de l’eau de mer n'est pas généralisé ?
    Face à la raréfaction de l’eau douce sur la planète, le dessalement de l’eau de mer semble une solution séduisante : après tout, les océans couvrent plus de 70 % de la surface terrestre. Pourtant, cette technologie reste peu développée à l’échelle mondiale. Pourquoi ?La première raison est énergétique. Dessaler l’eau de mer demande une quantité importante d’énergie. La méthode la plus courante aujourd’hui, l’osmose inverse, utilise des membranes sous haute pression pour filtrer le sel. Produire un mètre cube d’eau potable nécessite en moyenne entre 3 et 5 kWh. Cela reste beaucoup plus coûteux que le traitement de l’eau douce issue de nappes phréatiques ou de rivières.Or, dans de nombreux pays, cette énergie provient encore de sources fossiles. Résultat : les usines de dessalement émettent du CO₂, contribuant au changement climatique. Paradoxalement, en cherchant à compenser la pénurie d’eau, on alimente le réchauffement global qui aggrave justement cette pénurie.La deuxième limite est économique. Construire une usine de dessalement coûte cher : plusieurs centaines de millions d’euros pour des unités de grande capacité. L’eau ainsi produite reste donc plus onéreuse pour les consommateurs. Ce modèle est viable pour des pays riches (comme Israël, les Émirats arabes unis ou l’Espagne), mais reste inaccessible pour de nombreuses régions du monde.Enfin, il y a la question de l’impact environnemental. Le processus de dessalement génère un sous-produit appelé saumure : une eau extrêmement concentrée en sel, souvent rejetée dans la mer. Cela crée des zones de forte salinité au large des usines, perturbant les écosystèmes marins. La faune benthique, les poissons, les coraux peuvent en souffrir.Une étude publiée en 2019 dans Science of the Total Environment a révélé que pour chaque litre d’eau douce produite, 1,5 litre de saumure est rejeté. Avec plus de 16 000 usines de dessalement en activité dans le monde, cela représente un enjeu écologique majeur.Certaines solutions émergent : valoriser la saumure en extrayant des minéraux (magnésium, lithium), ou la diluer avant rejet. Mais ces techniques restent coûteuses et complexes.En résumé, le dessalement n’est pas généralisé car il est énergivore, coûteux et impacte les milieux naturels. C’est un outil précieux dans certaines régions arides, mais pas une solution miracle. Mieux vaut en parallèle renforcer les économies d’eau, recycler les eaux usées, et protéger les ressources existantes. La clé réside dans une gestion globale et durable de l’eau. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    1:46
  • Qu'est-ce que le “pistolet de soleil” des nazis ?
    Dans les années 1920 et 1930, Hermann Oberth, pionnier allemand de l’astronautique et mentor de Wernher von Braun, imagine un concept d’arme révolutionnaire pour l’époque : le « pistolet de soleil » Une arme qui fait partie d'un plan très sérieux mis en place par le régime nazi et découvert en 1945.L’idée, à mi-chemin entre science et science-fiction, repose sur un principe physique bien réel : la concentration de l’énergie solaire à l’aide de miroirs paraboliques. Le but ? Créer une arme spatiale capable de vaporiser des cibles terrestres à distance.Principe scientifiqueLe concept s’appuie sur les lois de l’optique géométrique, en particulier la capacité d’un miroir parabolique à concentrer les rayons parallèles (comme ceux du Soleil) en un point focal. Si l’on place un objet à ce point, il peut être chauffé à des températures extrêmement élevées.Oberth propose alors d’utiliser un miroir géant placé en orbite terrestre, orientable et capable de concentrer les rayons solaires sur un point précis de la surface terrestre. La surface du miroir, selon ses estimations, pourrait atteindre 100 km², construite en feuilles métalliques réfléchissantes assemblées dans l’espace. L’énergie concentrée suffirait, selon lui, à enflammer des villes entières, faire fondre des blindages ou neutraliser des installations stratégiques.Réalisation technique envisagéePour stabiliser la structure dans l’espace, Oberth imagine l’utiliser en orbite géostationnaire, c’est-à-dire à environ 35 786 km d’altitude, où l’engin resterait fixe par rapport à un point au sol. Le système devrait inclure un mécanisme d’orientation motorisée, probablement électromagnétique, pour diriger précisément le faisceau thermique. Les matériaux réfléchissants envisagés à l’époque étaient des feuilles d’aluminium ou de métaux brillants, fixées à une structure tubulaire en titane ou en acier léger.Limites physiques et critiquesPlusieurs obstacles rendent cette arme irréalisable avec les technologies du XXe siècle (et largement encore aujourd’hui) :Mise en orbite : placer des centaines de tonnes de matériaux à une telle altitude dépasserait de loin les capacités de lancement de l’époque.Précision : viser un point sur Terre depuis l’espace avec une structure aussi massive poserait des problèmes de stabilité thermique, de guidage et de dérive orbitale.Diffusion atmosphérique : les rayons concentrés traversant l’atmosphère perdraient une grande partie de leur énergie à cause de la diffusion Rayleigh et de l’absorption infrarouge, rendant l’effet au sol bien moins destructeur que prévu.Héritage scientifiqueSi le "pistolet de soleil" ne fut jamais construit, son concept a inspiré plusieurs recherches en énergie solaire concentrée, ainsi que des œuvres de science-fiction. Il est considéré comme l’un des tout premiers projets théoriques d’arme orbitale. Aujourd’hui encore, l’idée soulève des débats sur les applications civiles ou militaires de l’énergie solaire spatiale. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:59
  • Pourquoi est-il encore impossible de prévoir les séismes ?
    Prévoir un séisme avec précision — c’est-à-dire en déterminer l’heure exacte, l’endroit précis et la magnitude — est aujourd’hui quasiment impossible sur le plan scientifique. Cette limitation tient à la nature même des failles géologiques, aux lois de la physique des matériaux et aux limites technologiques actuelles. Voici pourquoi.1. Le comportement chaotique des faillesLes séismes sont provoqués par des ruptures soudaines le long de failles dans la croûte terrestre, dues à l’accumulation progressive de contraintes tectoniques. Ces contraintes s’exercent sur des décennies ou des siècles, jusqu’à ce qu’un seuil de rupture soit atteint.Le problème, c’est que le comportement des failles est chaotique : des failles géologiquement similaires peuvent produire des séismes très différents. Même si la tension accumulée semble importante, la rupture peut ne pas se produire, ou au contraire survenir sur une autre faille voisine. Cela rend les modèles déterministes inopérants.2. L’absence de signes précurseurs fiablesContrairement à d’autres phénomènes naturels, les séismes ne présentent pas de signes précurseurs universels et fiables. Certains événements isolés — comme des microséismes, des variations du niveau des nappes phréatiques ou des émissions de radon — ont été observés avant certains tremblements de terre. Mais ces phénomènes ne se produisent pas systématiquement, ou bien se produisent aussi sans séisme, ce qui rend leur valeur prédictive nulle.Les scientifiques parlent donc plutôt de probabilités à long terme, en étudiant les vitesses de glissement des plaques, les historiques sismiques et les propriétés des roches. Cela permet d’établir des zones à risque élevé, mais pas de prévoir un séisme à court terme.3. Les limites des instruments de mesureMême les réseaux de sismographes les plus denses ne permettent pas aujourd’hui de détecter précisément où une rupture va commencer, ni de capter les signaux annonciateurs en temps réel. À l’échelle de la croûte terrestre, la résolution spatiale des capteurs reste insuffisante pour repérer les micro-fractures précurseures d’une rupture majeure.Des technologies comme l’interférométrie radar (InSAR) ou le GPS haute fréquence permettent de mesurer la déformation des sols, mais elles donnent des résultats utiles après coup, ou seulement dans le cadre de modélisations de long terme.4. Une prédiction, oui, mais après le début du séismeIl existe un domaine où la prédiction fonctionne partiellement : l’alerte précoce. Lorsqu’un séisme commence, les ondes primaires (P), peu destructrices, précèdent les ondes secondaires (S), plus lentes et dangereuses. En captant les premières, certains systèmes (comme au Japon ou au Mexique) peuvent envoyer une alerte de quelques secondes à quelques dizaines de secondes, permettant de se mettre à l’abri ou de stopper des trains. Mais ce n’est pas une prédiction — c’est une réaction ultra-rapide à un événement déjà en cours.ConclusionPrédire un séisme avec précision reste hors de portée de la science actuelle, en raison de la complexité des failles, du manque de signaux fiables et des limites technologiques. Les chercheurs concentrent donc leurs efforts sur l’évaluation probabiliste des risques et les systèmes d’alerte rapide, bien plus efficaces pour sauver des vies que la recherche du « moment exact ». Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:37
  • Pourquoi vivre près d'un golf triple les risques de développer la maladie de Parkinson ?
    Une étude publiée en mai 2025 dans la revue JAMA Network Open, menée par le Barrow Neurological Institute et la Mayo Clinic, a révélé une association significative entre la proximité des terrains de golf et un risque accru de développer la maladie de Parkinson.Méthodologie de l'étudeLes chercheurs ont analysé les données de 419 patients atteints de la maladie de Parkinson et de 5 113 témoins appariés, issus du Rochester Epidemiology Project, couvrant une période de 1991 à 2015. Ils ont examiné la distance entre le domicile des participants et les terrains de golf, ainsi que la nature de leur approvisionnement en eau potable.Résultats principauxLes personnes résidant à moins d'un mile (environ 1,6 km) d'un terrain de golf présentaient un risque accru de 126 % de développer la maladie de Parkinson par rapport à celles vivant à plus de six miles.Le risque diminuait progressivement avec l'éloignement du terrain de golf, suggérant une relation dose-réponse.Les individus vivant dans des zones desservies par des systèmes d'eau potable alimentés par des nappes phréatiques situées sous des terrains de golf avaient un risque presque doublé de développer la maladie, comparé à ceux vivant dans des zones sans terrain de golf.Hypothèses explicativesLes terrains de golf sont souvent entretenus avec des quantités importantes de pesticides pour maintenir la qualité des pelouses. Aux États-Unis, l'utilisation de pesticides sur les terrains de golf peut être jusqu'à 15 fois supérieure à celle observée en Europe. Ces substances chimiques peuvent s'infiltrer dans les nappes phréatiques, contaminant ainsi l'eau potable des zones avoisinantes.De plus, certaines zones géologiques, comme celles avec des sols perméables ou des formations karstiques, facilitent la migration des pesticides vers les sources d'eau souterraines.Limites de l'étudeBien que l'étude établisse une association entre la proximité des terrains de golf et un risque accru de maladie de Parkinson, elle ne prouve pas une relation de cause à effet. Les chercheurs n'ont pas mesuré directement les niveaux de pesticides dans l'eau potable ni pris en compte d'autres facteurs environnementaux ou génétiques pouvant influencer le risque.Cette étude souligne l'importance de considérer les facteurs environnementaux, tels que l'utilisation intensive de pesticides sur les terrains de golf, dans l'évaluation des risques de maladies neurodégénératives comme la maladie de Parkinson. Des recherches supplémentaires sont nécessaires pour confirmer ces résultats et élaborer des recommandations de santé publique appropriées. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:08
  • Pourquoi le nouveau canon japonais est-il une révolution ?
    Le canon électromagnétique, aussi appelé railgun, est une arme qui utilise l’électromagnétisme pour propulser des projectiles à très haute vitesse, sans utiliser de poudre ou d’explosif chimique. C’est un concentré de physique appliquée, et sa présentation récente par le ministère de la Défense du Japon confirme l’intérêt croissant pour cette technologie futuriste.Comment ça fonctionne ?Un canon électromagnétique repose sur deux principes physiques fondamentaux :La loi de Lorentz : lorsqu’un courant électrique traverse un conducteur dans un champ magnétique, une force est générée, qui peut être utilisée pour mettre un objet en mouvement.L’induction magnétique : en générant un champ magnétique intense, on peut créer un mouvement mécanique dans un circuit conducteur.Concrètement, voici les éléments clés :Le projectile (non explosif) est placé entre deux rails conducteurs parallèles, d’où le nom « railgun ».Un courant électrique de très haute intensité (plusieurs millions d’ampères) est envoyé dans l’un des rails, traverse le projectile (conducteur) et repart par l’autre rail.Cette circulation crée un champ magnétique puissant perpendiculaire au courant, ce qui génère une force de Lorentz qui pousse le projectile à des vitesses pouvant atteindre Mach 6 à Mach 7 (environ 7 400 km/h).Pourquoi c’est révolutionnaire ?Pas de poudre, pas d’explosif : le projectile est inertiel, ce qui réduit les risques de stockage et d’explosion à bord des navires ou des bases.Vitesse extrême : la vitesse de sortie du projectile rend inutile l’usage d’explosifs ; l’énergie cinétique seule suffit à détruire la cible.Précision et portée : avec une trajectoire tendue et une vitesse très élevée, un railgun pourrait frapper une cible à plus de 200 km, voire plus à terme.Moins coûteux par tir que des missiles guidés, une fois la technologie maîtrisée.Les défis techniquesAlimentation électrique : il faut générer des courants immenses très rapidement. Cela nécessite des condensateurs géants ou des générateurs spécialisés.Usure des rails : les forces électromagnétiques et les frottements endommagent rapidement les rails. Leur durabilité est encore un point faible.Refroidissement : les décharges électriques chauffent énormément les matériaux. Il faut gérer les contraintes thermiques.Et le Japon dans tout ça ?Le Japon a présenté en mai 2025 un prototype opérationnel capable de tirer à plus de Mach 6, monté sur une base mobile. Il s'agit d’une première mondiale en matière de mobilité pour ce type d’arme. L’objectif affiché est de contrer les missiles hypersoniques et les menaces aériennes avancées, notamment en mer de Chine.ConclusionLe canon électromagnétique est à la croisée de l’ingénierie militaire et de la science pure. Il promet une révolution dans les systèmes d’armement… mais reste freiné par des obstacles techniques majeurs. Le Japon, en le présentant comme arme défensive avancée, rejoint les États-Unis et la Chine dans une nouvelle course à l’innovation militaire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:43

Plus de podcasts Sciences

À propos de Choses à Savoir SCIENCES

Développez facilement votre culture scientifique grâce à un podcast quotidien ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Site web du podcast

Écoutez Choses à Savoir SCIENCES, Science ou Fiction ou d'autres podcasts du monde entier - avec l'app de radio.fr

Obtenez l’app radio.fr
 gratuite

  • Ajout de radios et podcasts en favoris
  • Diffusion via Wi-Fi ou Bluetooth
  • Carplay & Android Auto compatibles
  • Et encore plus de fonctionnalités

Choses à Savoir SCIENCES: Podcasts du groupe

Applications
Réseaux sociaux
v7.18.5 | © 2007-2025 radio.de GmbH
Generated: 6/14/2025 - 1:51:29 PM