Afleveringen

  • Cela fait maintenant 30 ans que les diagnostics de cancers chez les jeunes adultes augmentent. Cette observation valable à l’échelle mondiale soulève des questions majeures sur les facteurs qui contribuent à la montée des cas. Elle exige également de mettre en place des stratégies de prévention et de détection précoces pour les publics les plus à risque.

    Tendances épidémiologiques

    Depuis 1990, le nombre d’adultes de moins de 50 ans diagnostiqués avec un cancer a augmenté de 79%. La hausse concerne plus précisément certains types de cancers, comme le cancer du sein, de la trachée et de la prostate. Bien que les techniques modernes permettent de dépister plus efficacement les cancers, y compris à des stades précoces, les avancées technologiques n’expliquent pas pourquoi autant de jeunes adultes sont concernés par l’augmentation des diagnostics.

    L’incidence du cancer varie par ailleurs d’une région à l’autre. En Amérique du Nord et en Europe occidentale, les taux s’avèrent beaucoup plus élevés. Ces disparités suggèrent que des facteurs environnementaux et liés au mode de vie ou à la santé publique pèsent aussi dans la prévalence des cancers chez les jeunes adultes.

    L’enjeu d’un tel changement se manifeste au niveau des systèmes de santé. La demande croissante de soins oncologiques adaptés à une population jeune implique de complètement réorganiser les ressources affectées aux patients atteints d’un cancer.

    Les facteurs de risques possibles

    L’une des pistes expliquant cette situation concerne le mode de vie. Les régimes alimentaires riches en viande rouge et en sel, courants en Europe et en Amérique du Nord, sont liés à un risque accru de certains cancers. La consommation moindre de fruits et de produits laitiers va également dans ce sens. D’autre part, l’alcool et le tabac restent une préoccupation majeure, en tant que facteurs de risques bien documentés pour divers cancers.

    En parallèle, le surpoids, le taux élevé de glycémie et le manque d’exercice physique contribuent à aggraver le risque de cancer. Ces conditions s’observent de plus en plus chez les jeunes adultes et provoquent inflammation chronique, déséquilibre hormonal et autres dysfonctionnements métaboliques. Ces terrains s’avèrent particulièrement propices au développement de tumeurs cancéreuses.

    Le poids de l’environnement

    Dans les pays développés ou les grandes villes des régions pauvres, la pollution de l’air expose les habitants à des particules fines et des polluants organiques persistants. Leur inhalation régulière augmente les risques de cancers des poumons ou de la trachée. De même, l’usage répété de produits chimiques au travail ou à la maison participe à cette hausse du risque.

    Conjointement à ces expositions externes, des perturbations du microbiome intestinal jouent sur la santé générale et le risque de cancer. L’usage excessif d’antibiotiques peut par exemple affaiblir considérablement la flore intestinale, donc le système immunitaire.

    La multitude de facteurs liés à la hausse des cancers chez les jeunes adultes fournit de nombreuses pistes pour établir une prévention efficace et ciblée de ces maladies graves.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Il s’agit d’une condition médicale rare et assez surprenante. Le syndrome de l’auto-brasserie concerne des personnes qui, sans avoir consommé une seule goutte d’alcool, se retrouvent en état d’ébriété. Un test d’alcoolémie indique alors la présence d’éthanol dans le sang, alors que l’entourage peut attester que l’individu n’a pas bu de boisson alcoolisée. Cette anomalie métabolique s’explique par une fermentation anormale de levures dans l’intestin.

    Le syndrome de l’auto-brasserie

    Dans le cas du syndrome de l’auto-brasserie, une fermentation se produit dans le système digestif, qui transforme le sucre en alcool. Concrètement, des levures ou d’autres micro-organismes agissent sur les glucides présents dans l’intestin et les fermentent en alcool éthylique. Lorsque la dose d’alcool est suffisamment élevée, l’individu ressent les symptômes de l’ébriété.

    La plupart de ces symptômes sont les mêmes qu’en cas d’ivresse alcoolique. Ils comprennent des troubles de l’équilibre et de la parole, une grande fatigue, des migraines et un état de désorientation notable. Sur le long terme, le syndrome de l’auto-brasserie menace la santé du foie et de l’état mental de façon identique que pour les personnes qui boivent régulièrement de l’alcool.

    Causes et facteurs de risque

    La fermentation inhabituelle implique généralement des levures et des champignons, comme Candida, un micro-organisme naturellement présent dans le système digestif. Si l’activité normale de ces organismes ne pose pas de problème, elle devient plus gênante quand elle dépasse les taux classiques. Certains facteurs influencent en particulier le développement des levures et champignons intestinaux.

    Un régime alimentaire riche en sucre fournit par exemple beaucoup d’énergie à ces levures, qui peuvent alors fermenter et se multiplier davantage que de coutume. Les perturbations de la flore intestinale qui suivent la prise excessive d’antibiotiques contribuent aussi à détruire les bonnes bactéries. Ces dernières contrôlent habituellement la croissance des levures. En leur absence, les micro-organismes se développent sans limite.

    Pose du diagnostic

    La rareté du syndrome de l’auto-brasserie rend son diagnostic complexe. Les médecins peuvent utiliser une combinaison de tests de tolérance au glucose et des analyses de sang ou d’urine pour détecter la présence d’alcool. Mais, comme les symptômes évoluent fortement selon le régime alimentaire de la personne, la pose du diagnostic nécessite généralement une observation prolongée et des évaluations répétées.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Zijn er afleveringen die ontbreken?

    Klik hier om de feed te vernieuwen.

  • Amatrice de formalités administrative, la France a prévu son lot de déclarations en présence d’un décès. Du fait de l’importance de ce type de situation, le constat du décès doit être réalisé en suivant scrupuleusement certaines règles établies. Ces dernières varient en fonction de la cause et du lieu du décès de la personne.

    Le rôle du professionnel de santé

    Lorsqu’une personne meurt, que ce soit chez elle, dans un établissement ou dans un lieu public, c’est au médecin de constater le décès. Les infirmiers intervenant à domicile peuvent parfois endosser ce rôle, notamment pour pallier le manque de médecins disponibles dans certaines régions.

    Le professionnel de santé vérifie l’absence de signe vitaux de la personne. Il s’intéresse en particulier à l’état de la respiration, du pouls et des pupilles, généralement figées lors de la mort. Ses observations sont notées sur le certificat de décès et comprennent la cause du décès, ainsi que l’heure approximative de la mort. Ce premier constat enclenche toute la procédure administrative de déclaration de décès.

    Cas particulier des décès suspects

    Si le médecin soupçonne un suicide ou un homicide, ou que la cause du décès n’est pas claire, il peut solliciter une enquête judiciaire. Dans ce cas, une autopsie est réalisée sur le corps par un médecin légiste. Dans le cas de procédures ultérieures, l’autopsie fournira des preuves cruciales relatives à des actes criminels ou de négligence. L’examen post-mortem induit un retard de la mise en œuvre de la procédure administrative, car le corps est réquisitionné et ne peut pas être enterré ou incinéré selon les délais habituels.

    La déclaration du décès au Gouvernement

    Le décès ayant été constaté par le médecin, les proches ou les responsables de l’institution doivent déclarer la mort de l’individu à l’État. Cette procédure se réalise dans les 24 heures suivant le constat, et nécessite de produire le certificat remis par le médecin qui sert de preuve officielle du décès.

    Les services de l’état civil enregistrent ensuite le décès. L’officier responsable émet un acte de décès qui certifie toutes les circonstances de la mort comme la date, l’heure et le lieu. C’est un document essentiel pour de nombreuses démarches administratives : gestion de la succession, règlement des pensions, annulation des documents d’identité, et autres procédures légales ou financières.

    Grâce à l’acte de décès, l’entourage de la personne peut finalement organiser les funérailles avec les pompes funèbres.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Alors que les centenaires sont désormais courants en France, les supercentenaires commencent à faire parler d’eux à leur tour. Dépassant l’âge phénoménal de 110 ans, ils s’avèrent fortement représentés dans une zone inattendue, celle des Antilles. Cette particularité a interpelé les chercheurs et démographes, qui tentent de proposer des hypothèses pour comprendre le secret de longévité des Antillais.

    Démographie et statistiques

    Une étude récente de l’Ined, Institut national d’études démographiques, a mis en lumière une concentration élevée de supercentenaires en Guadeloupe et en Martinique. Proportionnellement à leur population, ces îles comptent près de 8 fois plus de supercentenaires que la métropole. La hausse générale des centenaires en France s’explique par l’amélioration des conditions de vie et les avancées médicales notables. Mais l’exceptionnelle longévité antillaise reste un cas qui intrigue les chercheurs.

    D’autres régions du monde sont célèbres pour leur nombre de centenaires, comme l’île d’Okinawa au Japon, ou la Sardaigne en Italie. Certains facteurs semblent communs à ces populations, tels qu’un régime alimentaire sain, un mode de vie actif et un fort soutien communautaire. Mais la longévité des Antillais repose également sur d’autres conjectures.

    Pourquoi une telle espérance de vie aux Antilles ?

    L’une des hypothèses avancées pour expliquer cette situation s’intéresse à l’histoire des populations antillaises. Elle spécule que les ancêtres des actuels supercentenaires ont dû survivre à des conditions de vie très dures. En effet, tous les supercentenaires présents aux Antilles descendent d’anciens esclaves qui ont supporté la traversée de l’océan Atlantique et des conditions extrêmes de travail. Les survivants, qui ont donc pu obtenir une descendance, devaient être particulièrement robustes. Les chercheurs étudient la possibilité d’une sélection naturelle qui aurait favorisé l’émergence de caractéristiques génétiques précises, propices à la longévité.

    L’environnement et le mode de vie

    La génétique n’est pas seule responsable de l’âge avancé de certains Antillais. Le climat doux et ensoleillé des îles pourrait influencer positivement la santé. Souvent, les habitants insulaires conservent un mode de vie traditionnel qui inclut une alimentation riche en végétaux et en poisson frais. L’activité physique régulière dans le cadre de la vie quotidienne participe à maintenir une bonne santé cardiovasculaire.

    Il ne faut pas oublier l’importance de l’entraide et des liens sociaux. Dans les Antilles, la notion de communauté prend un sens bien plus large qu’en France métropolitaine. Les familles restent souvent proches malgré l’avancée en âge, ce qui contribue à limiter les effets néfastes du vieillissement sur la santé mentale. Finalement, ce sont sans doute tous ces facteurs mêlés à une génétique favorable qui permettent aux Antillais de rester en vie aussi longtemps.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Si les yeux bridés étaient autrefois perçus comme une rare exception en France, cette caractéristique physique est désormais plus courante grâce au brassage génétique issu des mélanges internationaux entre les ethnies. Il s’agit d’une particularité qui a montré son utilité d’un point de vue évolutif. Comment les yeux bridés se développent-ils, et dans quel but ?

    D’un point de vue génétique et biologique

    Les yeux bridés se caractérisent principalement par une forme ovale étirée, contrairement aux yeux occidentaux qui se montrent plus proches du rond. Cet aspect unique dépend de la présence d’un pli de peau au niveau de la paupière supérieure. Appelé pli épicanthique, il descend sur l’œil à la façon d’un rideau. Il est intéressant de constater que ce repli de peau n’influence pas le champ de vision, déterminé par la pupille seule. Les personnes aux yeux bridés voient donc exactement de la même manière que celles qui ont des yeux en amande.

    D’après les recherches scientifiques menées sur la question, les yeux bridés proviennent de l’expression de gènes spécifiques, qui se révèlent dès le développement de l’embryon. Ils guident la formation du tissu de la paupière, et ce dès les premières étapes de la vie dans l’utérus. 

    Adaptation évolutive

    Au-delà de l’aspect esthétique, les yeux bridés disposent d’une véritable fonction adaptative. Les théories qui vont en ce sens expliquent que le pli épicanthique sert de visière naturelle, protégeant les yeux contre des éléments extérieurs puissants.

    Dans les vastes steppes asiatiques ou en haute montagne, le vent fort et la luminosité élevée constituent autant de dangers pour les yeux. L’adaptation de la forme de l’œil chez les humains vivants dans ces conditions aurait alors pu réduire le dessèchement oculaire et limiter l’exposition aux UV. Cet avantage sélectif explique que, dans les régions concernées, l’espèce humaine ait davantage développé de telles caractéristiques, favorables à sa survie. L’analyse de la répartition géographique des populations avec les yeux bridés conforte cette hypothèse en démontrant une relation fine entre le climat et l’apparence des yeux.

    La diversité des traits oculaires prouve cependant que, même au sein d’une population où les yeux bridés sont courants, il existe une grande variété de formes des yeux. Cette diversité est le résultat de nombreux facteurs génétiques interagissant avec l’environnement.

    L’influence culturelle et sociale

    N’oublions pas le lien établi entre les considérations esthétiques d’une population et les traits physiques les plus représentés. Par exemple, les yeux bridés ont longtemps été corrélé à une certaine notion d’exotisme en France, ce qui a pu rendre plus rares les unions entre des personnes aux yeux ovales et d’autres aux yeux étirés. À l’inverse, le succès croissant des personnalités asiatiques, notamment musicales, qui a lieu ces dernières années en Europe pourrait influencer la prévalence future des individus présentant ce trait particulier en France.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Ils ont captivé le monde médical par leur condition rare, mais également par leur remarquable longévité. Les jumeaux craniopages Lori et George Schappell sont décédés à l’âge de 62 ans, après une vie passée collés l’un à l’autre, leurs cerveaux respectifs partageant 30% de structures osseuses et vasculaires. Explorons les facteurs qui ont contribué à cette longévité inespérée, puisque les jumeaux siamois ne devaient pas dépasser la trentaine d’après les prédictions des médecins.

    Les défis médicaux et physiques de George et Lori

    Une naissance sur 200 000 concerne un cas de siamois, c’est-à-dire de bébés qui sont reliés par une ou plusieurs parties de leur corps. Sur ces rares jumeaux, seulement 2% sont craniopages, partageant leurs cerveaux. À l’image de Lori et George, toute séparation s’avère alors presque impossible tant la structure neuronale est complexe. Mais la situation entraine aussi un ensemble de risques accrus, comme des complications au niveau neuronal ou circulatoire.

    Les médecins qui ont accompagné la famille après la naissance ont établi un pronostic vital de trois décennies, anticipant les problèmes qui pourraient survenir. En grandissant, George et Lori ont dû développer des méthodes adaptatives. Par exemple, George étant affecté par un spina-bifida, une malformation de la colonne vertébrale, il devait se déplacer en fauteuil roulant, poussé par sa sœur. Une telle dynamique impliquait coordination et compréhension mutuelle profondes. Malgré cette union inévitable, les deux jumeaux ont maintenu une autonomie dans leurs activités quotidiennes, démontrant une ingéniosité remarquable pour vivre pleinement chaque jour.

    L’état d’esprit optimiste et les nombreux projets personnels de cette étonnante fratrie ont certainement contribué à maintenir leur santé mentale et, dans une certaine mesure, physique au meilleur niveau possible.

    Vie privée et indépendance

    Les jumeaux Schappell ont toujours manifesté leur désir profond d’indépendance. Bien qu’hébergés pendant des années dans un centre pour handicapés mentaux, ils ont réussi, grâce à l’aide de l’épouse d’un ancien gouverneur, à quitter l’institution. Ils ont ensuite établi leurs quartiers dans un appartement adapté avec deux chambres, dormant à tour de rôle dans l’une et l’autre pour satisfaire au besoin d’espace personnel et d’autonomie de chacun.

    D’un point de vue professionnel, Lori et George ont mené des carrières distinctes avec brio malgré leur état. Lori a ainsi pu travailler au sein d’une blanchisserie durant des années, s’illustrant également dans une carrière de bowling. George, de son côté, s’est fait un nom dans la musique country, soutenu par sa sœur, l’une de ses premières fans.

    Dans leur vie amoureuse aussi, les jumeaux ont démontré une capacité remarquable à entretenir des relations sentimentales actives. Lori fut ainsi fiancée avant le décès tragique de son compagnon dans un accident de voiture. Durant les rendez-vous amoureux de chacun, le jumeau non concerné prenait un livre et se déconnectait de l’autre pour lui permettre de vivre des instants d’intimité autant que possible.

    Les barrières physiques n’ont ainsi pas empêché Lori et George de mener des vies bien distinctes, contribuant à leur épanouissement personnel si important pour la santé. Cet état d’esprit combiné à des soins médicaux réguliers et à une certaine dose de chance leur ont permis de vivre jusqu’à 62 ans, établissant un record mondial en termes de longévité d’un couple siamois.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Si le brossage des dents constitue un geste indispensable pour la santé bucco-dentaire, il doit être accompagné d’un dentifrice adapté afin d’offrir de bons résultats. Entre les adultes et les enfants, les besoins spécifiques varient considérablement. C’est pour cette raison que des dentifrices distinctifs sont commercialisés, présentant chacun leurs avantages pour la tranche d’âge ciblée.

    Composition chimique

    L’un des principaux composants des dentifrices est le fluorure, un élément qui renforce l’émail dentaire et limite l’effet de l’acide sur les dents. Chez les jeunes enfants, une concentration élevée en fluorure s’avère cependant problématique. Elle induit l’apparition de taches sur les dents, appelée fluorose dentaire. Les dentifrices pour les moins de 6 ans contiennent donc moins de 500 ppm (part par million) de fluorure. À l’inverse, les dentifrices pour les 12 ans et plus affichent une composition riche en fluorure pour maximiser la protection contre les caries. La concentration atteint jusqu’à 1500 ppm.

    En général, les dentifrices pour les tout-petits contiennent des ingrédients doux et non irritants. Plus susceptibles d’ingérer le dentifrice par accident, les enfants doivent utiliser en priorité ces produits sans danger pour leur système digestif. Les dentifrices adultes, quant à eux, incluent des agents blanchissants ou des abrasifs assez forts, efficaces pour la santé des dents mais qui ne doivent pas être avalés.

    Saveur et arômes

    Au-delà de la composition chimique des dentifrices, d’autres aspects entrent en jeu pour cibler plus précisément les adultes ou les enfants. Pour inciter les plus jeunes à se brosser régulièrement les dents, les fabricants misent sur des saveurs agréables et attrayantes comme la fraise, la pomme ou la pastèque. Chez les adultes, les consommateurs recherchent davantage un goût frais et mentholé, qui leur procure une sensation de propreté en bouche.

    L’importance du packaging

    Inciter les enfants à se brosser les dents passe aussi par le développement d’emballages attractifs. Couleurs vives, personnages de dessins animés : les fabricants ne lésinent pas sur les moyens pour stimuler l’intérêt des plus jeunes. À l’inverse, les gammes pour les adultes misent sur la sobriété et les visuels minimalistes, qui tendent à renforcer la confiance des consommateurs dans les produits d’hygiène.

    Le bon dosage

    Une fois le bon dentifrice trouvé, il faut encore s’assurer de respecter le dosage préconisé par les dentistes. Pour les adultes, la dose de dentifrice pour un brossage ne doit pas excéder la taille d’un petit pois. C’est encore moins pour un enfant. Chez les tout-petits, le dentifrice joue surtout un rôle facilitant, car le plus important reste d’adopter la bonne technique de brossage.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Jugées très appétissantes par bon nombre de Français, les chips n’en restent pas moins des aliments pointés du doigt quand il s’agit de la santé. Leur haute teneur en graisse saturées et en sel implique généralement une mauvaise note au Nutri-Score, cet indicatif nutritionnel de plus en plus apposé sur les produits alimentaires industriels. Pour éviter un déclin marqué de consommation, les fabricants rivalisent d’ingéniosité afin d’obtenir une meilleure note. L’amélioration des recettes permet ainsi à certaines chips d’afficher un Nutri-Score A ou B.

    Le Nutri-Score et son impact sur l’industrie alimentaire

    Le Nutri-Score est un système d’étiquetage nutritionnel qui évalue la qualité des aliments avec une échelle colorée allant de A à E, du vert au rouge. Le score évolue en fonction d’éléments favorables comme la teneur en bons nutriments, et d’éléments défavorables comme le nombre de calories ou le pourcentage de sucre.

    L’introduction de ce code couleur transforme les habitudes de consommation et les choix alimentaires. Comme il est facile à comprendre, il incite les consommateurs à s’orienter vers des produits mieux notés dans une perspective de maintien de la santé. Cette dynamique crée une pression sur les producteurs, en les incitant à reformuler leurs produits. Les chips, notamment, se retrouvent au cœur d’une course à l’innovation pour améliorer leur composition et limiter les ingrédients nocifs en réponse à la demande d’options plus saines.

    Comment les chips peuvent être améliorées

    Le changement significatif adopté par les fabricants de chips repose sur la réduction du sel et des graisses saturées dans les recettes. Ces deux composants pèsent très lourds dans le calcul du score. Diminuer le sel n’est pas si facile pour conserver un bon équilibre entre la saveur caractéristique du produit et la santé des consommateurs. Quant aux graisses saturées, leur réduction nécessite de complètement revoir le processus de choix et de traitement des huiles utilisées pour la cuisson des chips.

    Le défi est de taille pour maintenir la texture croustillante et le goût qui font le succès des chips. Certaines marques se sont tournées vers des techniques de cuisson permettant de réduire la quantité de graisse de façon exemplaire. C’est le cas de la cuisson au four ou à l’air chaud. D’autres fabricants ont expérimenté en introduisant des assaisonnements plus riches en herbes et en épices pour compenser la réduction du sel.

    L’amélioration du Nutri-Score repose aussi sur l’enrichissement en ingrédients bénéfiques. Parmi les stratégies adoptées, les marques peuvent ajouter des fibres par le biais de légumes secs broyés, ou augmenter la teneur protéique en intégrant du pois ou de la fève dans la composition des chips.

    De D ou E à B ou A : passer du rouge au vert

    Ces nouvelles formules mariant créativité culinaire et recherche scientifique ont permis à certains fabricants d’atteindre des scores de B ou de A pour leurs produits. De tels efforts contribuent à redéfinir les chips non comme des produits de snacking à éviter, mais comme des options possibles qui entrent dans le cadre d’une alimentation variée et équilibrée.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Le corps est une machine complexe et bien huilée, ponctuée de réflexes naturels qui jouent un rôle crucial pour notre santé. Bien que parfois embarrassants, les gaz, les éructations et les éternuements s’avèrent essentiels à notre bien-être. Il s’agit de réactions physiologiques conçues pour maintenir l’équilibre de notre système. Que se passe-t-il lorsque nous retenons volontairement ces gaz naturellement libérés par le corps ?

    Le point sur ces fonctions naturelles

    La digestion est un processus qui permet de décomposer les aliments pour que l’organisme puisse en absorber les nutriments, minéraux et vitamines. La fermentation des glucides par les bactéries intestinales entraine la formation de gaz qui s’accumulent soit dans l’estomac, soit dans les intestins. Le corps met alors en place un mécanisme de défense contre l’inconfort ou la douleur en libérant ces gaz sous la forme d’éructations et de flatulences.

    En ce qui concerne l’éternuement, le mécanisme concerne cette fois les voies respiratoires. Ce réflexe rapide et puissant expulse l’air des poumons à grande vitesse, emportant avec lui poussières, pollens et autres irritants. L’éternuement se déclenche à la suite d’une irritation des muqueuses nasales. Son rôle s’avère considérable dans la protection des poumons et la prévention des infections.

    Les risques liés à la rétention de ces réflexes

    En société, il est généralement mieux admis de retenir les gaz et éructations produits par le corps que de les laisser s’échapper. Pourtant, l’adoption répétée de cette pratique induit des conséquences potentiellement délétères.

    Rétention des gaz et éructations

    D’abord, le fait de retenir des gaz et des éructations amplifie les ballonnements et le gonflement des organes digestifs. La distension de l’estomac ou de l’intestin engendre des douleurs ainsi qu’une sensation de lourdeur et d’inconfort. Mais ce n’est pas tout.

    La rétention des gaz peut aussi produire des spasmes digestifs, des crampes et une altération de la motilité intestinale. Le fonctionnement normal du système digestif est perturbé, ce qui peut résulter en une constipation chronique ou des douleurs abdominales fréquentes. Sur le long terme, la rétention conduit à la distension abdominale chronique, les organes ne parvenant plus à reprendre leur forme normale. Les personnes concernées développent alors des pathologies liées comme le syndrome de l’intestin irritable.

    Rétention des éternuements

    Concernant l’éternuement, les risques immédiats de la rétention sont réels. En forçant l’air à rester dans les voies respiratoires, l’individu peut subir des lésions nasales ou aggraver une déviation de la cloison nasale déjà présente. Plus alarmant encore, la pression causée par l’air est susceptible d’endommager gravement les structures sensibles de l’oreille interne. Les conséquences résultent en des problèmes auditifs temporaires ou permanents.

    Dans de rares cas extrêmes, la force contenue de l’éternuement engendre la rupture de vaisseaux sanguins dans le cerveau ou les yeux, voire des lésions neurologiques faisant suite à la hausse soudaine de la pression intracrânienne.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bien que souvent associée à l’adolescence, l’acné continue en réalité de jouer les importunes sur la peau de nombreux adultes. Et si les bouleversements hormonaux typiques de la grossesse ou de la ménopause peuvent donner lieu à des poussées de boutons, d’autres facteurs jouent aussi dans la progression de ce trouble cutané. Parmi les facteurs aggravants de l’acné chez les adultes, les scientifiques ont relevé l’impact inattendu d’une glycémie mal régulée.

    Lien entre la glycémie élevée et l’état de la peau

    Rappelons d’abord que la glycémie mesure le taux de sucre présent dans le sang. Bien que vital, ce carburant peut engendrer des troubles divers lorsqu’il se retrouve en excès dans les fluides corporels. L’organisme dispose d’un système endocrinien performant qui ajuste finement le niveau de glucose sanguin. Cependant, une alimentation déséquilibrée, des perturbations hormonales ou un début de diabète peuvent altérer sérieusement la capacité du corps à réguler la glycémie.

    Un taux glycémique trop élevé se traduit par un pourcentage anormalement haut de sucre dans le sang lors d’un état de jeûne, c’est-à-dire après avoir passé 12 heures sans manger. Cette condition nourrit l’inflammation générale de l’organisme. Or, l’état inflammatoire est connu pour favoriser les manifestations cutanées comme l’acné.

    Les mécanismes biologiques

    L’inflammation systémique constitue une réaction massive du système immunitaire pour lutter contre ce qu’il identifie comme des situations périlleuses pour la santé. Lorsque l’on se fait piquer par un insecte, par exemple, l’inflammation localisée du lieu de piqûre vise à lutter contre les effets du venin et à éliminer l’éventuel dard restant dans la peau.

    Quand la glycémie grimpe, le corps identifie un danger et réagit en stimulant l’inflammation. Mais, contrairement à la piqûre d’insecte, l’organisme ne peut pas concentrer ses efforts sur une seule zone. L’inflammation se déclare alors de façon généralisée, notamment au niveau des follicules pilo-sébacés de la peau qui vont se comporter anormalement. La production excessive de sébum ou sa texture trop épaisse contribuent à boucher les pores et à aggraver l’état inflammatoire de la peau. C’est ainsi qu’apparaissent ou empirent les boutons d’acné.

    La glycémie élevée induit en outre une hausse de l’insuline, une hormone impliquée dans la gestion du taux de sucre sanguin. Cette insuline favorise la production de sébum et la prolifération des cellules cutanées. Ces deux éléments peuvent conduire à l’obstruction des pores, créant un terrain fertile pour l’acné.

    Enfin, la résistance à l’insuline, typique des états prédiabétiques, exacerbe le problème d’acné chez l’adulte. Comme le corps réagit moins bien à l’hormone, il va en produire davantage, amplifiant les conséquences sur le sébum et la multiplication des cellules. La résistance à l’insuline stimule aussi la production d’androgènes, des hormones susceptibles d’influencer la qualité de la peau de façon négative.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • En réaction à l’inflation, les Français tendent à modifier leur façon de s‘alimenter. Ils se tournent vers des ingrédients moins chers, adoptent des marques discount et réduisent la fréquence des courses. Le défi consiste alors à maintenir un bon équilibre alimentaire, surtout au sein des familles, pour éviter les conséquences sur la santé au long terme. À cet effet, l’œuf fait partie des aliments les plus consommés dans l’Hexagone, car il a l’avantage d’être une excellente source de protéines, accessible à moindre coût.

    Profil nutritionnel et économique de l’œuf

    L’œuf de poule fournit tous les acides aminés essentiels nécessaires au corps. Cette condition fait de lui une source complète de protéines. Mais ses atouts ne s’arrêtent pas là. L’œuf contient aussi de la vitamine A, impliquée dans la santé des yeux, de la vitamine D, cruciale pour le développement des os, et de la vitamine E, antioxydant qui favorise l’élimination des radicaux libres. D’autre part, l’œuf apporte de la vitamine B12, vitale pour le cerveau et le système nerveux, qui manque souvent aux personnes excluant la viande et le poisson de leur alimentation.

    En termes de minéraux, l’œuf reste une source de fer et de zinc appréciable pour soutenir la formation des globules rouges et le fonctionnement immunitaire. En comparaison avec d’autres sources de protéines comme le bœuf, le saumon, le poulet ou le thon, l’œuf reste très accessible d’un point de vue financier. Son coût reste relativement bas et stable, y compris en période d’inflation. Facile à produire, il nécessite peu de ressources pour une qualité identique de produit fini.

    L’impact de l’inflation sur l’alimentation

    Les denrées rapidement périssables comme la viande et le poisson souffrent beaucoup de l’inflation. Leur coût augmente avec la hausse des prix de production et de transport. D’après les études les plus récentes, le coût des aliments augmente plus vite que l’inflation générale, ce qui engendre une pression accrue sur le budget alimentaire. Les foyers doivent alors revoir leurs habitudes, souvent au détriment de la qualité et de la diversité.

    Produit dans toutes les régions de France, l’œuf se présente comme une solution économique efficace. Il remplace des ingrédients plus onéreux -poulet, dinde, veau, cabillaud- tout en conservant les mêmes qualités nutritionnelles. Il s’intègre en outre facilement dans une multitude de recette, qu’il s’agisse de quiches, d’omelettes, de salades ou de plats de pâtes.

    Recommandations de consommation

    Les œufs apportent de nombreux nutriments, mais ils doivent être consommés sans excéder les recommandations en termes de cholestérol et de calories pour rester bénéfiques. Les autorités gouvernementales préconisent par exemple de se cantonner à un ou deux œufs par jour, tout en agrémentant le repas de légumes, riches en fibres et vitamines. Il est également important d’adapter la portion à l’âge des enfants : un demi-œuf par jour maximum avant 1 an, 1 œuf par jour jusqu’à 10 ans, et 2 œufs par jour au-delà.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Avec le développement frénétique des intelligences artificielles se pose la question de savoir si les robots seront un jour capables de remplacer les humains. Durant les périodes de confinement vécues pendant le Covid, de nombreuses personnes se sont retrouvées démunies face à l’absence de contact humain, vital à notre bien-être. La présence d’un animal domestique était-elle suffisante pour apporter les bénéfices d’un vrai câlin ? Un robot aurait-il pu remplacer le toucher d’une autre personne ? Explorons ensemble les conséquences de ces échanges physiques pour les comparer à celles d’un câlin classique entre deux personnes.

    Être touché, un élément clé pour notre survie

    Dès la naissance, le nourrisson a besoin d’être pris dans les bras, materné et câliné pour se développer. En l’absence de toucher, il se renferme sur lui-même et se laisse dépérir, refusant de se nourrir ou de bouger. Les câlins consentis entre humains s’avèrent également bénéfiques à l’âge adulte. Ils rassurent, limitent le stress, ancrent le sentiment d’appartenance et de confiance en soi. Grâce à la libération d’ocytocine, une hormone qui favorise l’attachement, les câlins sont source de relaxation et de bien-être. Ils contribuent même à limiter les risques de connaitre une maladie cardiaque.

    Les études ne manquent pas pour prouver les bénéfices du contact entre les humains. Elles soulignent les bienfaits sur le système immunitaire, mais aussi sur la longévité. Finalement, être câliné reste un élément essentiel pour notre survie, et ce à tout âge.

    Les câlins d’animaux sont-ils aussi efficaces ?

    Il ne fait nul doute que les animaux de compagnie améliorent la qualité de vie de leurs propriétaires. Offrant soutien émotionnel, présence et réconfort, ils apportent un réel sentiment d’apaisement et de confort lors des séances de câlins. En fonction du lien qui unit l’animal à la personne, la libération d’ocytocine peut être similaire, voire plus forte que lors d’un câlin avec un humain.

    Les animaux s’abstiennent de juger et se montrent disponibles dès que leur maître en ressent le besoin. Ils entrent notamment dans le cadre de thérapies pour traiter les individus avec des troubles variés, allant de l’autisme à la dépression en passant par les troubles de stress post-traumatique. Ils remplacent très bien le contact humain pour les personnes qui ont du mal à nouer des liens intimes.

    Qu’en est-il des robots ?

    Le constat est tout autre pour les câlins prodigués par des robots. La science a récemment étudié l’efficacité des contacts entre humains et robots pour contrer le stress ou l’anxiété. L’absence de peau-à-peau limite d’une part fortement la libération d’ocytocine. Les robots peuvent contribuer à réduire une sensation de douleur, mais, en l’état actuel de leurs capacités, ils n’entrainent pas des bénéfices aussi marqués que les interactions avec des animaux ou des humains.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Les effets bénéfiques de la nature sur la santé ont maintes fois été démontrés. Mais comment faire lorsque l’on habite en ville pour en profiter ? Un forestier travaillant en milieu urbain a inventé une règle à base de trois nombres, la « 3-30-300 ». Plusieurs grandes villes françaises s’intéressent de près à cette façon de codifier la cohabitation entre la verdure et les humains, et ce pour une très bonne raison : respecter la règle du « 3-30-300 » améliore considérablement le bien-être des habitants, ce qui rend la ville plus attractive.

    Les principes de la règle

    Sous ce drôle de nom de « 3-30-300 » se cache un concept innovant pour la planification urbaine, visant à intégrer la nature dans l’environnement des citadins. Le principe cherche à assurer que chaque résident bénéficie d’une proximité bienfaisante avec la nature, un aspect essentiel pour la santé physique et mentale. La règle repose sur des études qui ont démontré l’impact positif des espaces verts sur le bien-être individuel. D’après les résultats, des interactions fréquentes avec la nature en milieu urbain réduisent le stress, augmentent la santé mentale et la longévité des habitants.

    Trois critères simples définissent donc la règle, basés sur les trois nombres.

    Chaque résidence devrait d’abord avoir au moins trois arbres visibles depuis l’une des fenêtres. Les arbres contribuent à améliorer la qualité de l’air et à réduire le bruit.

    Deuxièmement, chaque habitation devrait être située dans un quartier disposant d’au moins 30% d’espaces verts. Cette proximité encourage l’activité physique et les interactions sociales.

    Pour finir, un espace vert majeur devrait être présent à moins de 300 mètres de chaque foyer. Parfaits pour le loisir et les rencontres, ces parcs favorisent la cohésion communautaire et fournissent des échappatoires indispensables pour se détendre.

    Les impacts sur la santé

    Respecter la règle du « 3-30-300 » s’accompagne d’avantages significatifs qui améliorent la qualité de vie urbaine. L’accès aux espaces verts incite à marcher, courir ou faire du vélo, des activités physiques qui maintiennent la santé cardiovasculaire et préviennent l’obésité, surtout chez les plus jeunes. Les espaces verts purifient aussi l’air en filtrant les particules polluantes et en produisant de l’oxygène. La prévalence des maladies respiratoires diminue en leur présence. Les végétaux contribuent d’autre part à absorber la chaleur lors des épisodes de canicule.

    Psychologiquement, les bénéfices des espaces verts sont indéniables. La nature limite les niveaux de stress et d’anxiété des habitants. Elle fournit un espace pour se détendre et oublier la pression quotidienne de la vie urbaine. Les parcs encouragent aussi la cohésion sociale, vitale pour la santé mentale.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Près de 1,6 millions de personnes donnent chaque année leur sang à l’EFS, établissement français du sang. Chargé de l’autosuffisance du pays en termes de sang, de plaquettes et de plasma, cet institut réitère régulièrement son incitation à participer à la collecte. Découvrons en détails comment le corps réagit lorsqu’une certaine quantité de sang lui est prélevée.

    Le déroulement d’un don du sang

    La première étape, avant de pouvoir donner son sang, est de répondre à un questionnaire qui valide ou non la capacité du candidat à se soumettre à la procédure. Les critères stricts incluent une évaluation générale de la santé, un poids minimal et des intervalles précis entre plusieurs dons pour favoriser la récupération complète.

    Les donneurs passent des examens de santé minutieux, comme la vérification de leur taux d’hémoglobine. En-dessous de 125 g/L chez une femme et 130 g/L chez un homme, le don n’est pas possible car il peut mettre en péril la santé de la personne.

    Le don du sang en lui-même est un processus très contrôlé, pour minimiser l’inconfort et maximiser la sécurité. Le donneur a accès à de l’eau en permanence pour s’hydrater. Installé dans un fauteuil, il subit une procédure de désinfection minutieuse au site de ponction pour éviter toute infection. L’aiguille stérile est insérée par le professionnel dans la veine, en général au pli du coude. Le prélèvement de sang s’effectue pour un volume de 450 à 500 mL en fonction des capacités du donneur.

    Les réactions immédiates du corps

    Le corps réagit très vite quand il identifie la perte d’une quantité significative de sang. Son objectif est de maintenir l’équilibre et la stabilité des organes vitaux. La pression artérielle baisse à cause du prélèvement, le corps va donc augmenter la fréquence cardiaque et resserrer les vaisseaux sanguins pour la stabiliser. Cela favorise l’oxygénation constante des organes vitaux.

    Les donneurs sont parfois sujets à des étourdissements, de la fatigue ou une sensation de faiblesse lors du don. Ces symptômes résultent directement de la baisse temporaire du volume sanguin. Ils restent brefs et modérés dans la plupart des cas.

    Pour éviter ces désagréments, les donneurs doivent s’hydrater abondamment avant et après le don. Il leur faut aussi consommer un repas en amont pour stabiliser le taux de sucre dans le sang. Ils sont généralement invités à se restaurer juste après le don, afin de retrouver des forces et de rester sous surveillance pendant un petit moment.

    Sur le long terme

    Le corps entame ensuite un processus de régénération pour reconstituer le volume de sang perdu. Il dure plusieurs semaines, mais les donneurs retrouvent leur état normal en quelques jours. Ils doivent simplement s’assurer de consommer assez de fer pour renouveler les réserves du corps.

    Le don du sang offre certains bénéfices comme la réduction des risques de cancers et de maladies cardiaques. Cela s’explique par la réduction des niveaux de fer dans le corps qui évite le risque d’accumulation toxique.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Dessinant une courbe caractéristique sur le visage, le sourire constitue un langage universel chez l’être humain. Ce geste, qui peut être ou non spontané, tisse des liens invisibles entre les personnes. Quels sont les fondations anatomiques et les déclencheurs psychologiques de ce mécanisme ?

    Bases anatomiques du sourire

    La production d’un sourire repose sur un véritable ballet des muscles faciaux. Ces derniers se coordonnent sous la baguette du chef d’orchestre qu’est notre système nerveux. Celui-ci va faire intervenir le muscle zygomatique majeur, qui tire les coins de la bouche vers le haut. Il stimule aussi le muscle orbiculaire des lèvres, qui entoure et modèle les lèvres.

    Le système nerveux, situé dans le cerveau, envoie des instructions aux neurones moteurs. Ces messagers rapides relaient les ordres aux muscles du visage concernés. L’interaction entre les neurones moteurs et les signaux transmis s’avère essentielle pour transformer l’émotion intérieure en expression extérieure visible et communicative.

    Les déclencheurs psychologiques

    C’est principalement en réaction aux émotions positives que le système nerveux commande le sourire. La joie, l’amusement et le contentement déclenchent une apparition automatique du sourire, difficile à camoufler ou à retenir. D’ailleurs, la connexion bidirectionnelle entre les émotions et le sourire est si profonde qu’il suffit parfois de sourire pour inviter l’esprit à ressentir un bonheur accru.

    Le sourire ne se limite cependant pas à exprimer notre joie personnelle. Il constitue aussi un outil vital dans notre arsenal de communication non verbale. Le sourire social représente ainsi un pilier dans les interactions humaines pour exprimer la politesse, renforcer l’affiliation avec autrui ou apaiser une situation tendue. Ce type de sourire varie selon les codes culturels.

    En France, par exemple, le sourire est fréquemment échangé comme signe de courtoisie alors qu’en Norvège, sourire à un inconnu peut être interprété comme un signe de folie ou de malveillance. Au Japon, le sourire est parfois associé à la fourberie, voire à la corruption alors qu’il est signe d’ouverture aux États-Unis.

    Les effets du sourire

    Lorsque nous sourions, notre corps libère des endorphines. Ces hormones dites du bonheur améliorent l’humeur et réduisent le stress. IL s’agit d’une réaction chimique naturelle qui suggère que le sourire pourrait être une stratégie simple mais efficace pour augmenter le bien-être général.

    Le propos doit être cependant nuancé. Le sourire ne reflète pas toujours un sentiment de joie interne. Le sourire forcé, par exemple, masque des sentiments de tristesse ou de malaise et produit des effets contradictoires sur le corps. La dissonance émotionnelle ressentie engendre alors confusion et épuisement mental.

    Pour finir, la recherche a montré qu’un sourire contribue à améliorer la confiance et la coopération. C’est un outil très utilisé en négociation, car il procure un sentiment de fiabilité à l’interlocuteur.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Récemment, un médecin français a entamé une grève de la faim pour protester contre les contrôles qu’il subissait de la part des organismes de santé. Cette pratique a notamment été popularisée par Gandhi comme méthode d’opposition non violente. Passons en revue les mécanismes qui se mettent en œuvre dans le corps lorsqu’une personne cesse volontairement de s’alimenter.

    Les premiers jours

    Pendant les 24 à 72 premières heures de jeûne, le corps utilise toutes ses réserves de glucose. Stockées dans le foie sous forme de glycogène, elles fournissent l’énergie nécessaire aux cellules pour le fonctionnement du métabolisme de base. La sensation de faim est souvent intense durant cette période, avec des symptômes physiologiques tels que la faiblesse, les maux de tête et les vertiges.

    Adaptation métabolique

    Lorsque les réserves de glycogène sont épuisées, après quelques jours, le corps doit trouver une autre source d’énergie. Il entre en phase d’adaptation métabolique. Les graisses stockées sont converties en acides gras et en corps cétoniques, lesquels fournissent de l’énergie. Cette transition vers l’état de cétose caractérise l’adaptation du corps au jeûne. Le foie doit travailler activement pour transformer les acides gras en molécules alternatives au glucose, capables de subvenir aux besoins cellulaires.

    La cétose apparait avec la baisse de la faim. La personne se sent parfois très bien mentalement, et certains pratiquants évoquent même une clarté intellectuelle significative qui leur permet de se concentrer davantage.

    Les effets de la grève de la faim sur la santé

    La perte de poids notable est l’un des signes les plus flagrants de l’effet du jeûne. En général, la pression artérielle baisse à cause de la réduction du volume sanguin et des changements de régulation du sodium dans le corps. Les fonctions des reins et du foie sont fortement sollicitées, car elles doivent éliminer tous les produits de dégradation résultant du jeûne.

    Après les premiers temps de clarté mentale, le gréviste connait des états de confusion. Il sombre dans des périodes d’irritabilité ou de dépression à mesure que la privation affecte sa santé mentale.

    Sur le long terme, la grève de la faim entraine des dommages irréversibles. L’on parle notamment de point de non-retour lorsque les organes vitaux sont atteints à cause de la malnutrition prolongée. La personne peut développer une cardiomyopathie, affection cardiaque, à cause du manque de micronutriments qui affecte le fonctionnement du cœur.

    La déficience en vitamines induite aussi des maladies comme l’anémie, le scorbut ou des troubles neurologiques. Du fait de la perte de densité osseuse, la grève de la faim prolongée favorise l’ostéoporose. Plus le jeûne est long, plus la personne se rapproche d’une issue fatale.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • C’est une triste réalité que nous apprend l’Inserm. Au terme d’une enquête sur le décès de jeunes mères venant d’accoucher entre 2016 et 2018, il apparait que la cause numéro 1 de mortalité est le suicide. Cette forme de décès concerne ainsi 45 femmes sur les 272 cas étudiés. Qu’est-ce qui pousse les jeunes mères à se donner la mort alors qu’elles vivent à priori l’un des plus beaux moments de leur vie ?

    Contexte du post-partum

    Dès la naissance du bébé commence le post-partum, une période qui peut durer plusieurs mois et touche particulièrement la mère lors de sa première grossesse. Des changements hormonaux significatifs s’opèrent, bouleversant la façon de penser et de réagir de la femme. Si l’objectif évolutif de ces modifications est que la mère fusionne avec son bébé afin de répondre à ses besoins, la réalité montre que cette étape peut être difficile à vivre, surtout pour les mamans qui étaient très actives avant la naissance.

    Les jeunes mères se retrouvent souvent avec un corps qui ne leur plait pas, avec une grande charge mentale et une fatigue permanente qui usent leurs ressources. Les attentes sociétales concernant la maternité s’avèrent parfois si élevées qu’elles semblent inatteignables.

    Le risque majeur, durant le post-partum, est de développer une dépression. Cependant, il ne s’agit pas de l’unique cause des suicides maternels. L’instabilité dans laquelle se retrouve la mère peut aussi exacerber d’anciens troubles psychiatriques prédisposant au suicide.

    Les facteurs de risque

    Certains éléments doivent alerter le corps médical sur les risques majorés de suicide. Les mères qui ont connu des dépressions ou des troubles psychiatriques avant la grossesse sont plus à même d’avoir du mal à gérer la situation. La dépression du post-partum, caractérisée par une tristesse persistante, un manque d’intérêt général et des pensées parfois morbides envers l’enfant, augmente considérablement le risque de suicide.

    D’autres facteurs contribuent aussi à élever ce risque. L’isolement social et le manque de soutien après la grossesse peuvent mettre à mal les capacités de la femme à s’occuper de son bébé. Un couple instable ou une famille isolée souffrira davantage de la situation. Les difficultés financières peuvent aussi aggraver l’isolement et limiter les opportunités maternelles de chercher de l’aide. Finalement, tout l’environnement de la dyade mère-bébé contribue à amplifier ou réduire le risque de mort maternelle.

    Le silence, délétère pour les jeunes mamans

    La grossesse, l’accouchement puis la naissance et les premiers mois avec bébé engendrent des bouleversements majeurs dans la vie de la femme. Il est essentiel qu’elle puisse exprimer son ressenti sur ce qu’elle a vécu. Or, la société et le corps médical procurent beaucoup moins d’attention aux jeunes mamans après la naissance que pendant la grossesse. Cela rend plus difficile le fait de se faire aider, et surtout, de faire reconnaitre les difficultés traversées.

    Les jeunes mères qui ne parviennent pas à exprimer des traumatismes ou des émotions très fortes vécues durant l’accouchement et le post-partum sont chargées d’un poids supplémentaire qui, ajouté à la charge déjà monumentale parentale, peut influencer négativement la santé mentale.

    L’enjeu des pouvoirs publics est donc de travailler sur l’accompagnement des jeunes mères pour repérer les profils à risque et proposer des prises en charge précoces en prévention du suicide.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • L’excès de consommation de sucre augmente les risques d’obésité et de diabète. Ce fait bien connu des autorités sanitaires explique la mise en place de certaines actions, comme la disparition des distributeurs de snacks dans les collèges, ou les indications de prévention appliquées sous les publicités de friandises. Mais, pour limiter le sucre, encore faut-il pouvoir détecter sa présence.

    L’industrie alimentaire et ses tendances à ajouter du sucre

    C’est bien le problème que soulève l’Agence nationale de sécurité sanitaire de l’alimentation. En mars dernier, son rapport indiquait que 77% des aliments industriels contenaient des produits sucrants, y compris des aliments à priori salés. Indétectables au goût, ces sucres alourdissent l’addition calorique de la journée sans que le consommateur n’en soit pleinement conscient. Qui penserait que consommer un plat de viande préparé équivaudrait à boire une cannette de soda ?

    L’incorporation de sucre ajouté se fait souvent de façon biaisée, avec des noms méconnaissables comme le dextrose, le maltose ou le sirop de maïs. Cette pratique courante dans le monde de l’industrie alimentaire vise à améliorer le goût des aliments, mais aussi à masquer l’amertume de certains ingrédients ou à prolonger la durée de conservation du produit.

    De graves risques pour la santé

    Souvent, les consommateurs ne se rendent pas compte qu’ils ingèrent du sucre en excès en consommant des aliments industriels. Ils sont alors plus susceptibles de dépasser les seuils recommandés pour la prise quotidienne de sucre. Les risques liés à cette surconsommation de produits sucrés sont pluriels.

    D’abord, l’obésité est fortement associée à un apport élevé en sucre, en particulier à travers les aliments transformés. Le diabète de type 2, qui se caractérise par une glycémie trop élevée, est aussi corrélé à cette surconsommation. Un régime riche en sucres ajoutés augmente les risques de maladie cardiovasculaire à cause de son impact sur le poids, sur la tension et sur l’inflammation. Finalement, la consommation de sucre favorise l’émergence de caries en nourrissant les bactéries qui produisent de l’acide.

    Étiquetage et transparence

    Pour aider les individus à manger équilibré et à mieux gérer leur consommation de sucre, plusieurs pistes sont exploitées. L’étiquetage, en premier lieu, est constamment ajusté pour fournir des informations plus claires et plus compréhensibles. Il doit notamment faire figurer la quantité de sucres en grammes et en pourcentage de l’apport journalier conseillé.

    Les autorités sanitaires misent aussi sur l’éducation des consommateurs en leur fournissant des aides pour reconnaitre les différents noms du sucre sur la liste des ingrédients. Cet apprentissage devrait se traduire de façon adaptée dès le plus jeune âge.

    Des applications mobiles permettent en outre de vérifier la teneur en sucre d’un aliment. En scannant le code-barre, le consommateur peut obtenir des informations nutritionnelles détaillées et une note qui lui permet de faire un choix plus avisé.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Ces dernières années, la présence envahissante des écrans soulève de nombreux débats. Des études ont ainsi cherché à prouver combien les écrans étaient nocifs pour les jeunes enfants. Lorsque le contenu et le temps de visionnage sont adaptés, et que l’enfant peut discuter de ce qu’il voit avec un adulte, l’exposition aux écrans s’avère plutôt positive. En revanche, quand elle a lieu sans contrôle et sur des durées trop longues, elle impacte durablement le développement des plus jeunes.

    Les pôles de développement de l’enfant

    De sa naissance jusqu’à l’adolescence, le petit humain se construit de différentes façons. Il acquiert d’abord des capacités physiques et motrices, qui lui permettent de se déplacer et d’appréhender son environnement. Il développe aussi ses compétences cognitives, pour penser, apprendre et résoudre des problèmes. Enfin, il construit tout son pan social et émotionnel à travers les interactions avec les autres.

    Dans chaque aspect du développement de l’enfant, l’interaction avec ce qui l’entoure et les expériences vécues jouent un rôle clé. Ces éléments stimulent le cerveau et contribuent au développement abouti des compétences et comportements humains.

    L’impact des écrans sur le développement physique

    Un enfant exposé trop longtemps aux écrans réduit son activité physique. Les durées de station assise et passive augmentent les risques pour la santé, notamment d’obésité. Mais la moindre activité perturbe aussi le cycle de sommeil, car l’enfant ne bénéficie pas de suffisamment de lumière naturelle dans la journée pour produire de la mélatonine le soir. Il existe aussi un lien entre le temps passé devant les écrans et les troubles de la vision. Les jeunes qui deviennent accros aux écrans développent de la fatigue oculaire et de la myopie de façon précoce.

    Impact sur le développement cognitif

    Moins d’attention, de concentration et de capacités d’apprentissage : c’est ce qui attend les enfants trop exposés aux écrans. Le multitâche avec des appareils numériques diminue en effet l’efficacité de l’apprentissage et la capacité à se concentrer sur une tâche prolongée. L’exposition précoce et intensive aux écrans est également associée à des retards dans le développement du langage et de la lecture. Se retrouver devant un écran limite les opportunités cruciales d’interactions qui favorisent l’écoute de la parole, le jeu créatif, et finalement l’apprentissage des mots et des phrases.

    Impact sur le développement socio-émotionnel

    Un enfant qui passe des heures devant un écran n’apprend pas à interagir avec les autres et à percevoir les émotions. Les interactions humaines offrent en effet aux plus jeunes des occasions d’apprendre à lire les expressions faciales, le langage corporel et toutes les nuances de communication non verbale.

    Par ailleurs, certains contenus médiatiques influencent négativement les comportements des plus jeunes en les exposant à de l’agressivité ou à des stéréotypes nuisibles.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • La signalisation récente de deux cas de choléra à La Réunion et à Mayotte rappelle que cette maladie infectieuse au potentiel épidémique notable reste présente dans différentes régions du globe. En Inde et aux Comores, notamment, mais aussi en Afrique, la bactérie Vibrio cholerae se transmet surtout par ingestion d’eau ou d’aliments contaminés. Le choléra affecte chaque année des millions de personnes, entrainant par la même des dizaines de milliers de décès.

    Le point sur les cas récents

    C’est le 18 mars qu’un cas suspect de choléra a été détecté en provenance des Comores, à Mayotte. Deux jours plus tard, un autre cas était signalé à La Réunion. Les agences régionales de santé concernées ont réagi au plus vite, notamment en initiation des mesures de précaution et un contact tracing permettent de retrouver toutes les personnes susceptibles d’avoir été contaminées. L’objectif est clair : circonscrire la propagation de la maladie.

    Mayotte s’avère particulièrement sensible au choléra à cause de sa proximité avec les Comores, une région endémique où la maladie sévit régulièrement. Elle dispose d’un plan d’action spécifique pour gérer l’apparition de cas sur son territoire, plan qui s’est mis en œuvre et souligne l’importance d’une bonne préparation face à la maladie infectieuse.

    Explications sur le choléra

    Qu’est-ce que le choléra, exactement ? Cette infection est causée par une bactérie qui se développe dans l’eau ou la nourriture. Vibrio cholerae entraine une diarrhée aqueuse sévère, qui conduit à la déshydratation fatale sans traitement approprié. Les lieux les plus vulnérables sont ceux manquant d’accès à l’eau potable et à des installations d’assainissement adéquates comme les pays les plus pauvres. Les voyages vers des zones endémiques augmentent le risque d’exposition au choléra.

    Symptômes et diagnostic

    Le choléra se manifeste par des symptômes parfois légers, car beaucoup de personnes infectées ne s’en rendent pas compte. Mais, dans les cas graves, la maladie cause une diarrhée profuse et aqueuse, avec des vomissements et des crampes musculaires. Les conséquences de cet état sont la déshydratation rapide et le déséquilibre électrolytique. Sans traitement, la maladie peut être fatale en seulement quelques heures.

    Pour diagnostiquer le choléra, les médecins identifient la bactérie dans les selles du patient. Cette étape est cruciale afin de mettre en place un traitement efficace et des mesures de contrôle pour éviter la propagation de la maladie.

    Vaccination

    Plusieurs vaccins protègent du choléra et sont indiqués dans les zones endémiques. Administrés par voie orale, ils stimulent le système immunitaire pour qu’il produise des anticorps contre le Vibrio cholerae. Mais la protection ne dure que 2 à 3 ans. Il faut donc pratiquer des rappels fréquents lorsque l’on vit ou voyage dans les régions où le choléra reste fréquent.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.