| | | | | | | Edition du 27 Septembre 2019 |
| |
|
| Edito Peut-on vivre plus longtemps ?
Bonjour, Avant mon édito de ce jour intitulé " Peut-on vivre plus longtemps", je vous invite à vous poser la question : "La Lettre RT Flash va-t-elle vivre encore longtemps?". Je vous adresse ce message personnel car je viens de mettre en ligne la campagne de dons pour venir en aide à l'association l'ADIST qui gère la Lettre RT Flash Depuis son origine, il y a 21 ans, l’abonnement à RT Flash est gratuit et nous n'avons jamais accepté la publicité. A notre connaissance, notre Lettre est la seule en France à avoir respecté depuis plus de 2 décennies, une telle rigueur qui plait en particulier aux jeunes et aux chercheurs. Pendant 19 ans, l'ADIST a reçu des petites subventions des Organismes Publics de Recherche (CNRS, INSERM, CNES, CEA, INRIA, INRA, IFREMER, etc.) mais, en raison des difficultés grandissantes pour boucler leurs budgets, ces organismes ont cessé peu à peu de nous verser une subvention. Nous avons reçu, il y a 2 ans, la dernière subvention. Elle nous a été versée par l'INSERM. Ayant amassé depuis 1998, une petite trésorerie nous avons pu tenir pendant les 2 ans qui viennent de s'écouler mais maintenant c'est terminé. Pour la première fois depuis l'origine de RT Flash, j'ai dû en ce mois de Septembre régler avec des chèques personnels les factures obligatoires que doit nécessairement régler chaque mois l'ADIST. N'ayant pas une situation financière extraordinaire, je ne pourrais pas continuer à ainsi honorer avec mes moyens personnels les obligations de l'ADIST pour permettre à RT Flash de paraître chaque semaine. Aussi, je me tourne vers vous, chers lecteurs et lectrices de RT Flash, pour que vous fassiez un don à l'ADIST. Grâce à vous et à bien d'autres, je l'espère, RT Flash pourra continuer à vivre. Vous pouvez payer en ligne en toute sécurité. HelloAsso qui organise cette campagne de dons nous le garantit. D'avance je vous remercie. J'ai en plus une très bonne nouvelle à vous annoncer. Sur conseil d'un lecteur de RT Flash, j'ai consulté le service spécialisé du Ministère du Budget pour savoir si les personnes qui feraient un don à notre Association pourraient bénéficier d'une réduction fiscale Dans la réponse, j'ai alors appris que la mission de "diffusion de connaissances scientifiques française" remplie par RT Flash depuis 21 ans donnait à l'ADIST la qualification d'association d'intérêt général et en respect de l'article 200 du CGI, cela lui permet de faire parvenir à ses donateurs un reçu fiscal qui lui permettrait d'obtenir une réduction fiscale. Nous avons délégué cette tâche à HelloAsso. Par la loi cette réduction fiscale s'élève à 66 % ce qui signifie que si nous avions un donateur qui donne 300 euros (nous avons le droit de rêver...), son impôt sur le revenu diminuerait de 200 euros et son débours réel ne dépasserait pas 100 euros ! C'est une très bonne nouvelle pour RT Flash car je suis convaincu que cette déduction fiscale va "booster" notre campagne de dons. Cette collecte est ouverte depuis Dimanche dernier. Au moment où je rédige ce message, nous avons 56 donateurs dont les dons cumulés atteignent un total de 2.329 euros. Je remercie de tout cœur ces 56 personnes qui ont déjà fait un don à notre Association. Mais il faut être réaliste, nous sommes encore très loin du plancher de 15.000 euros qui permettrait à RT Flash, pendant les douze prochains mois, de continuer à être publié chaque semaine. A cet instant, puis-je me permettre de faire une suggestion à tous les amis de RT Flash qui ont déjà fait un don alors qu'ils ne savaient pas qu'ils pourraient bénéficier d'une réduction fiscale de 66 %. Si ils font un nouveau don de 2 alors qu'ils ont déjà fait le don de 1, leur don global ne leur reviendra pas plus cher que la somme qu'ils avaient décidé de donner lors de leur premier don sans aide fiscale. Si tous les amis donateurs qui ont fait un don sans compter sur une réduction fiscale agissaient ainsi, ce n'est pas seulement 2.329 € que nous aurions déjà amassés pour assurer l'avenir de RT Flash mais 6.987 euros. Cela ferait une énorme différence... Je le dis à nouveau : ces dons ne sont pas destinés à rémunérer des personnes puisque nous sommes tous bénévoles. Mais ils sont nécessaires pour faire fonctionner l'ensemble du système informatique (serveurs, maintenance, webmaster, etc...) qui permet chaque semaine à de très nombreuses personnes de lire RT Flash. Vous pouvez retrouver la campagne en cliquant sur ce lien : AIDEZ-NOUS, pour que RT Flash puisse continuer à vivre N’hésitez pas à m'adresser un mail à tregouet@gmail.com si vous avez besoin d'informations complémentaires. Je vous fais confiance A bientôt. Bien Cordialement René TRÉGOUËT Sénateur Honoraire Rédacteur en Chef de RT Flash Fondateur du Groupe de Prospective du Sénat Président de l'ADIST e-mail : tregouet@gmail.com EDITORIAL : Il est toujours bon de le rappeler, alors que les femmes et les hommes nés au début des années 1950 pouvaient espérer vivre en moyenne 47 ans, l’espérance de vie moyenne à la naissance dans le monde a dépassé les 72 ans en 2019, selon les Nations Unies. L'espérance de vie moyenne dans le monde aura donc progressé de plus de vingt années depuis 65 ans. L’écart entre les populations des régions développées et celle des régions les plus pauvres s’est par ailleurs, contrairement aux idées reçues, sensiblement réduit, passant de 23 années en 1950 à 9 ans en 2015. Toujours selon les projections des Nations unies, l’espérance de vie moyenne, au niveau mondial, devrait dépasser les 77 ans à l’horizon 2050. Après avoir péniblement progressé d’une quinzaine d’années entre l’Antiquité et le XIXème siècle, l’espérance de vie moyenne, pour l’ensemble des Humains, aura donc été, d’ici le milieu de ce siècle, multipliée par deux en moins de 200 ans, ce qui est sans précédent dans toute l'Histoire de l’Humanité. En France, d’ici 2050, la population française devrait atteindre 74 millions de personnes, contre 65,8 millions en 2013. Une augmentation qui résultera de l’évolution de l’espérance de vie – 90,3 ans pour les femmes en 2050, contre 85 ans en 2013, et 86,8 ans pour les hommes contre 78,7 ans aujourd’hui. S’agissant de l’espérance de vie en bonne santé, il n’est pas exact d’affirmer, comme on l’entend souvent dans les médias, que celle-ci régresse depuis plusieurs années. Comme le montre une récente note de la DREES, (Voir Drees), en 2016, l’espérance de vie en bonne santé à 65 ans s’établit à 10,5 ans pour les femmes et à 9,4 ans pour les hommes, un résultat stable par rapport à 2015. Au cours des dix dernières années, cet indicateur a progressé de 0,9 an pour les femmes et de 0,8 an pour les hommes, traduisant un recul de l’âge d’entrée en incapacité pour les personnes ayant atteint 65 ans. En revanche, avant 55 ans, la part des années en bonne santé diminue depuis 2006, ce qui reflète notamment un allongement de l’espérance de vie pour les personnes ayant des incapacités survenues plus tôt au cours de la vie. Au total, l’espérance de vie globale en bonne santé stagne depuis dix ans, les deux évolutions contraires selon l’âge se compensant. Parmi les moyens qui permettent d’espérer contrer de manière efficace et durable les effets du vieillissement, il est à présent bien établi scientifiquement que l’alimentation joue un rôle essentiel et qu’il faut à la fois mieux manger et moins manger. Selon une étude américaine dirigée par le Professeur William Kraus (Université Duke de Durham en Caroline du Nord), le fait de diminuer son alimentation quotidienne de 300 calories pourrait entraîner non seulement une perte de poids mais également une diminution du cholestérol et de l’inflammation de l’estomac (Voir The Lancet). Pour arriver à cette conclusion, des chercheurs américains ont suivi pendant deux ans 143 personnes en bonne santé, âgées de 21 à 50 ans. Ils leur ont demandé de réduire leur apport calorique de 25 %, sans forcement modifier leur alimentation. Dans le même temps, ils ont suivi un groupe témoin de 74 autres participants qui ne réduisait pas son apport calorique global. Cette étude a notamment permis de constater que, même avec un programme de formation intensif, incluant des séances de groupe et des visites régulières avec des nutritionnistes, les participants ne parvenaient pas à atteindre l’objectif – ambitieux il est vrai – d’une réduction d’un quart de l’apport calorique journalier. En moyenne, ils ne sont parvenus qu’à diminuer d’environ 12 % leur consommation totale de calories, soit environ 300 calories par jour. Mais surtout, les participants ont réduit leur consommation de matières grasses et de glucides, et augmenté les sels minéraux et les vitamines. Les chercheurs ont pu observer, au terme des deux ans qu’a duré cette étude, que les participants avaient non seulement perdu du poids (en moyenne 7 kg), mais que leurs taux de cholestérol et de glycémie s’étaient améliorés, ainsi que leur pression artérielle et la qualité de leur sommeil. "Nous nous attendions certes à des effets positifs, mais pas d’une telle ampleur. Chez les malades, il n'y a pas cinq médicaments combinés qui pourraient entraîner une telle amélioration globale du métabolisme et de l’état général", souligne le Professeur William Kraus, l'auteur principal de l'étude. Ces travaux confirment pleinement les observations empiriques réalisées depuis de nombreuses décennies dans certaines régions du monde (Caucase, Japon, Andes) où l’on trouve des populations qui bénéficient d’une longévité, en bonne santé, exceptionnelle (souvent plus d’un siècle) et ont comme point commun un régime alimentaire frugal, composé essentiellement de protéines végétales, de fruits et de légumes frais. Mais si l’alimentation et le mode vie constituent indubitablement deux leviers très efficaces pour augmenter à la fois la longévité et l’espérance de vie en bonne santé, la géroscience, nouvelle discipline apparue il y a une dizaine d’années, veut aller encore plus loin et rêve de pouvoir agir directement, à l’aide de traitements chimiques - et demain de thérapie génique - sur les mécanismes fondamentaux du vieillissement, soit pour les retarder, soit même pour les inverser. Il est vrai que les enjeux liés à un meilleur accompagnement social, médical et économique du vieillissement sont gigantesques, surtout quand on sait que, d'ici 2050, l’espérance de vie à la naissance risque de passer de 70 à 90 ans en moyenne dans le monde et, qu’à cet horizon, une personne sur six dans le monde aura plus de 65 ans (contre une sur onze en 2019). Dans un tel contexte, les laboratoires et centres de recherche redoublent d’effort pour mettre au point des traitements qui pourront lutter efficacement contre les effets du vieillissement et de nombreuses molécules sont actuellement à l’essai dans ce domaine. Des essais ont déjà débuté avec la metformine. Ce médicament générique prescrit contre le diabète de type 2 cible en effet plusieurs voies du vieillissement. Cette substance pourrait non seulement réduire les risques de mortalité cardiovasculaire et de cancer, mais également permettre de prolonger la vie en bonne santé. En 2020, une vaste étude américaine, portant sur 3 000 sujets âgés non diabétiques, devrait commencer et tenter d’évaluer le potentiel de cette molécule. Autre classe de médicaments à l’essai, les sénolytiques, qui ciblent la sénescence cellulaire. Dans ce processus, les cellules endommagées arrêtent de se diviser, mais sont incapables de mourir par apoptose. Résultat : elles s’accumulent et finissent par générer une inflammation dommageable pour l’organisme. Comme l’a montré le Professeur Kirkland (Mayo Clinic), les sénolytiques semblent avoir un effet antivieillissement intéressant, qui reste cependant à confirmer chez l’homme. Une autre équipe américaine, dirigée par le Professeur David Sinclair, de l’école médicale de Harvard (Boston, États-Unis), a montré pour sa part en 2016, qu’en donnant à une souris de deux ans une molécule spécifique, du NAD, qui agit sur les mitochondries, il était possible de rajeunir ses muscles et de lui redonner la vitalité de sa jeunesse (Voir Cell). Le NAD (nicotinamide adénine dinucléotide) est une coenzyme présente dans toutes les cellules vivantes. Cette molécule aide de nombreuses enzymes à réaliser correctement les cascades de réactions chimiques qui aboutissent à la formation de l’ATP, le carburant cellulaire fabriqué dans les mitochondries, qui sont les centrales énergétiques des cellules. Malheureusement, avec l’âge, la production de NAD diminue, ce qui a pour effet de perturber la production et la distribution de l’énergie à l’intérieur des cellules. Mais les recherches du Professeur Sinclar ont montré qu’en administrant du NAD pendant seulement une semaine à une souris en fin de vie, on observait un rajeunissement spectaculaire de l’animal, s’accompagnant d’un raffermissant des muscles et d’une baisse drastique du niveau d’inflammation . En juin 2016, une équipe de chercheurs du Laboratoire de physiologie intégrative de l’EPFL, en Suisse (LISP), dirigée par Johan Auwerx, a publié une autre étude qui a fait grand bruit, en montrant de manière très convaincante que le nicotinamide riboside (NR), un dérivé de la vitamine B3, réactivait la régénération cellulaire, en agissant sur le fonctionnement des cellules souches (Voir EPFL). Cette équipe a voulu comprendre de quelle manière ce processus de régénération s’altérait avec l’âge. En suivant plusieurs marqueurs, les chercheurs ont identifié la chaîne moléculaire régulant le fonctionnement des mitochondries, les « usine énergétiques » des cellules, et son évolution avec l’âge. « Pour la première fois, nous avons pu mettre en évidence l’importance du bon fonctionnement des mitochondries dans les cellules souches et avons également démontré que la fatigue des cellules souches était l’une des causes principales conduisant à une mauvaise régénération, voire une dégénérescence de certains tissus ou organes », souligne Johan Auwerx. Ces travaux ouvrent des perspectives tout à fait nouvelles dans le domaine de la médecine régénérative, car ils démontrent qu’il n’est pas nécessaire d’introduire des corps étrangers dans l’organisme et qu’on peut lui réapprendre à se réparer tout seul, avec un produit qu’il suffit d’ingérer avec son repas. En janvier 2019, une étude pilote de la Mayo Clinic a évalué un cocktail sénolytique - le dasatinib, un inhibiteur de tyrosine-kinase antileucémique, et la quercétine, un flavonoïde notamment présent dans les pommes - chez 14 patients souffrant de fibrose pulmonaire idiopathique, fatale. Cet essai a montré une meilleure mobilité des patients (test de marche de 6 minutes). Un essai plus long est prévu, afin d'évaluer l’effet sur la fonction pulmonaire. Enfin, il y a quelques jours, une étude scientifique publiée dans la revue « Aging Cell » a fait sensation. Ce travail intitulé « Inversion du vieillissement épigénétique et immunologique chez l'homme » a été réalisé sous la direction du Professeur Gregory M. Fahy (Université de Californie), gérontologue mondialement réputé (Voir Wiley). Dans le cadre de ces recherches, neuf volontaires en bonne santé ont pris pendant un an un cocktail composé d'une hormone de croissance et de deux médicaments contre le diabète. A la fin du protocole, les scientifiques ont découvert que leur âge biologique avait reculé d'environ 2,5 ans et que leur système immunitaire affichait des signes de rajeunissement. Commentant ces résultats, le généticien Steve Horvath a déclaré « Il s’agit à ma connaissance de la première étude scientifique rigoureuse qui montre de manière claire qu’il est possible, non seulement de ralentir, mais bien d’inverser sensiblement l’horloge biologique chez l’être humain, ce qui ouvre des perspectives considérables dans la prise en charge médicale du vieillissement et des pathologies qui y sont associées ». On peut en effet imaginer qu’un tel traitement « anti-âge », qui sera probablement disponible au cours de la prochaine décennie, pourra sans doute produire des effets encore plus bénéfiques et durables, s’il est combiné à un régime alimentaire personnalisé (déterminé en fonction du profil génétique de chaque individu) destiné à actionner des leviers épigénétiques favorisant eux aussi la lutte contre le vieillissement. S’il souhaite pouvoir vieillir dans les meilleures conditions et rester le plus longtemps possible en bonne santé physique et psychique, chacun d’entre nous devra demain être en mesure de faire des choix éclairés en matière d’alimentation et de mode de vie. Dans cette perspective, il est capital que nos concitoyens puissent bénéficier, dès la petite enfance, et tout au long de leur cursus scolaire, d’un enseignement de qualité leur faisant découvrir les règles fondamentales de la nutrition et de la diététique, qui doivent devenir des matières à part entière à l’école, au collège et au lycée. Il est également crucial que la collectivité, dans le cadre d’une politique de prévention active et personnalisée contre les grandes pathologies associées au vieillissement, propose le plus rapidement possible, dans le respect d’un strict cadre éthique et déontologique, d’une part, d’établir gratuitement la cartographie génétique complète de chaque individu, d’autre part, une consultation médicale de prévention ciblée qui intégrera, outre les recommandations en matière de mode de vie et de traitements préventifs, des régimes alimentaires « sur mesure », susceptibles d’actionner les « bons » leviers épigénétiques et de bloquer les « mauvais », c’est-à-dire favorisant l’expression des gènes identifiés comm e bénéfiques à la santé et réduisant au contraire la puissance d’expression des gènes néfastes. Une telle politique de santé permettrait, j’en suis convaincu, de franchir une nouvelle étape en matière de gains d’espérance de vie en pleine santé, mais également en matière de maîtrise des coûts collectifs que représentent les soins et la prise en charge des grands fléaux de nos sociétés : cancer, diabète, maladies cardio-vasculaires et maladies neurodégénératives notamment. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | | | La transformation du dioxyde de carbone (CO2) en molécules carbonées pour l’industrie chimique (alcools par exemple) et en carburants (hydrocarbures de type alcènes ou alcanes, par exemple) constitue une stratégie de plus en plus développée dans les laboratoires académiques et industriels. En effet, s’affranchir des sources carbonées fossiles traditionnelles et développer des procédés de synthèse chimique à partir de nouvelles sources de carbone constitue une réponse à la crise climatique. Le CO2 de l’atmosphère, ou plus sûrement celui capturé dans les grands centres industriels d’émission de ce gaz (raffineries, cimenteries, centrales thermiques, etc.), peut être l’un de ces précurseurs carbonés de nature à nous faire basculer vers une chimie plus verte. Si par ailleurs l’énergie utilisée pour les réactions de transformation du CO2 est une énergie renouvelable et intermittente, de tels procédés ont l’avantage de permettre un stockage de cette énergie sous une forme chimique durable. Ainsi les transformations discutées dans cette publication peuvent utiliser de l’énergie électrique « solaire » pour alimenter un électrolyseur où le CO2 est converti (par électroréduction) en produits carbonés divers. Ces électrolyseurs utilisent l’énergie électrique pour oxyder l’eau (et produire ainsi du dioxygène et des ions hydrogène) à une électrode (anode) et réduisent le dioxyde de carbone à l’autre électrode (cathode), où se produit également une réduction des ions hydrogène en gaz hydrogène. En raison de la grande stabilité du CO2 et de la complexité des réactions de sa transformation, la mise en œuvre pratique de ces procédés nécessite le développement de catalyseurs efficaces, peu coûteux, stables et sélectifs. Le métal le plus prometteur pour les électrocatalyseurs de demain est le cuivre, mais celui-ci souffre encore de défauts majeurs : efficacité insuffisante et faible sélectivité. En particulier, la réduction de l’eau utilisée comme solvant « vert » dans ces dispositifs entre en compétition avec la réduction du CO2, car l’eau est plus efficacement transformée en hydrogène. Cette concurrence conduit à des rendements en produits carbonés trop faibles pour être rentables. L’équipe de Marc Fontecave, professeur au Collège de France et titulaire de la chaire Chimie des processus biologiques, et de Victor Mougel, chargé de recherche du CNRS, vient de développer une nouvelle stratégie pour rendre des matériaux catalytiques à base de cuivre beaucoup plus sélectifs pour la réduction du CO2 en hydrocarbures. Cette stratégie tire une partie de son originalité dans le fait qu’elle s’inspire d’une stratégie naturelle développée par les araignées aquatiques pour maintenir, sous l’eau, à la surface de leur abdomen et de leurs pattes, des bulles d’oxygène leur permettant de respirer dans l’eau. Pour cela, elles utilisent l’« effet plastron » qui met à profit la pilosité de surface de leurs pattes et abdomens, hautement hydrophobes, donc repoussant l’eau et retenant efficacement des bulles d’oxygène. Considérant qu’une des clés pour l’amélioration de la sélectivité des catalyseurs à base de cuivre résidait d’une part dans l’accumulation du gaz CO2 et d’autre part dans une élimination de l’eau à la surface du matériau, les chercheurs se sont inspirés de cet « effet plastron ». En attachant simplement sur cette surface une couche de fils hydrophobes (ici des chaînes alkyles), qui d’une certaine façon miment les poils de l’araignée, ils ont radicalement changé la sélectivité de ce catalyseur favorisant la transformation du CO2 au détriment de la réduction de l’eau. Le résultat est impressionnant : alors que le catalyseur non modifié produit de l’éthylène avec un rendement faible de 9 % et de l’éthanol avec un rendement de 4 %, le catalyseur modifié produit de l’éthylène avec un rendement de 56 % et de l’éthanol avec un rendement de 17 %, s’accompagnant d’une chute drastique du rendement en hydrogène. L’éthylène et l’éthanol sont des produits particulièrement intéressants pour l’industrie chimique. En effet, le premier est le précurseur d’un grand nombre de polymères tandis que le second est à la fois un produit de base de l’industrie et un carburant. Outre le recyclage du CO2, cette avancée pourrait donc trouver de multiples applications dans l'industrie chimique. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Les sources d’énergies renouvelables comme l’éolien ou le photovoltaïque sont par nature intermittentes. Et, les pics de production ne correspondent pas nécessairement aux pics de consommation. Un des grands défis posés par la transition énergétique est donc le stockage de l’énergie verte lorsqu’elle est produite (en journée pour le photovoltaïque ou lorsque le vent souffle suffisamment pour l’éolien) afin de pouvoir l’utiliser lorsqu’on en a besoin. En termes de stockage par batterie, la technologie ion-lithium est actuellement la plus performante. Cette technologie est utilisée dans la petite électronique (smartphone, ordinateurs portables) et considérée comme la meilleure option pour les voitures électriques. Inconvénient ? Ces batteries ion-Li présentent, dans certains cas (erreur de fabrication), des risques d’inflammation. En cause, la présence dans la batterie d’un liquide organique indispensable, l’électrolyte, mais aussi hautement inflammable. La solution ? Remplacer cet électrolyte liquide et inflammable par un solide (c’est-à-dire passer à l’utilisation de batteries dites « tout-solide »).Une étape difficile à franchir entre autres parce que les ions lithium dans les solides sont moins mobiles que dans les liquides, ce qui limite les performances de la batterie en matière de vitesse de charge et de décharge. Les scientifiques recherchent donc depuis plusieurs années des matériaux qui permettraient d’inventer cette batterie du futur, dite tout-solide. Des chercheurs de l’UC Louvain, en collaboration avec des chercheurs de Toyota, ont identifié Le LiTi2(PS4)3 ou LTPS. Les chercheurs de l’UCLouvain ont observé dans ce matériau le plus grand coefficient de diffusion du lithium (une mesure directe de la mobilité) jamais mesuré dans un solide. Cette mobilité du lithium provient de la structure cristalline unique (l’arrangement des atomes) du matériau. La compréhension de ce mécanisme ouvre de nouvelles perspectives dans le domaine des solides conducteurs de lithium et, au-delà du LTPS, ouvre la voie à la recherche d’autres matériaux ayant des mécanismes de diffusion similaires. Les chercheurs doivent analyser plus en amont ce nouveau matériau, pour garantir sa commercialisation dans le futur. Cette découverte constitue un pas important dans la compréhension des matériaux à haute mobilité de lithium et vers le développement in fine des batteries du futur, offrant une alternative plus sûre aux batteries actuelles. L’usage pour le grand public ? Des smartphones en passant par les vélos et voitures électriques, le LTPS pourrait être utilisé dans de nombreux outils technologiques de notre vie quotidienne. Article rédigé par Georges Simmonds pour RT Flash UCL | | | |
| Les lentilles de haute qualité sont utilisées partout : caméras, voitures autonomes, robots, etc. Comme les moules employés pour les fabriquer coûtent extrêmement cher, pour des raisons évidentes de rentabilité, les fabricants de lentilles se limitent généralement à la production de masse d’un unique type de lentille. La production de lentilles sur-mesure est donc confrontée à un problème essentiellement économique. Une équipe conjointe de chercheurs de Washington State University et d’Ohio State University tente de remédier à ce problème. Dans un premier temps, ils ont naturellement pensé à l’impression 3D pour la fabrication de lentilles. Cependant, parce qu’ils ont constaté qu’il était difficile de contrôler précisément la forme des lentilles obtenues, ils se sont tournés vers une solution plus originale : utiliser des liquides magnétiques pour créer des moules fluides. L’idée de l’équipe dirigée par le professeur-assistant Lei Li de l’école de mécanique et d’ingénierie des matériaux (School of Mechanical and Materials Engineering) est la suivante : placer de petites particules de fer dans des gouttes liquides et concevoir un appareil permettant de contrôler la forme des gouttes avec des aimants. En raison de la présence du champ magnétique, la goutte prend la forme d’une lentille conique, ce qui crée un moule permettant de couler le matériau utilisé pour fabriquer les lentilles. Le plastique est ensuite durci et présente les mêmes propriétés optiques qu’une lentille du commerce ; il n’y a donc pas de perte de qualité d’image. Par ailleurs, la goutte liquide magnétique reste séparée de la lentille et peut donc être réutilisée. Le procédé développé par les chercheurs est bien entendu souple. En effet, les aimants peuvent être disposés de manière adaptée, de façon à contrôler le champ magnétique et obtenir une lentille de la forme désirée. Par ailleurs, en utilisant des gouttes plus ou moins grosses, il est possible de créer tout un panel de tailles de lentilles. Cette nouvelle technologie pourrait considérablement réduire le coût de fabrication des lentilles optiques de qualité. Article rédigé par Georges Simmonds pour RT Flash WSU | | | |
| Actuellement, des méthodes de recyclage du PET (Polytéréphtalate d'éthylène) existent mais elles comprennent certaines limitations. Il est par exemple impossible de fabriquer des bouteilles avec du PET 100 % recyclé. Un pourcentage de plastique doit forcément provenir de la matière brute. « Il faut recourir au pétrole et le transformer en éthylène glycol et acide téréphtalique, les deux composants nécessaires à la fabrication du PET », explique Samantha Anderson, fondatrice et CEO de la start-up de l’EPFL DePoly et doctorante au Laboratoire de simulation moléculaire (LSMO) de l’EPFL Valais-Wallis. De plus, en raison de contaminants chimiques ou alimentaires, voire de différents additifs et colorants, de nombreux contenants ne peuvent pas être recyclés. Ils sont pour la plupart incinérés. La start-up DePoly a développé une méthode innovante qui permet de recycler n’importe quel objet en PET, avec une technique de recyclage chimique qui permet d'obtenir ses composants de base purifiés. « Peu importe qu’il ait contenu de l’eau, du beurre de cacahuète ou du savon, ou qu’il soit de couleur transparente ou noire », déclare la chimiste. Plus besoin non plus de trier les plastiques par couleur, le procédé permet de les prendre en charge en une seule fois. Cerise sur le gâteau, ce recyclage chimique permettrait également de revaloriser les textiles comme un t-shirt que l’on décomposerait en coton et en fibre textile PET (polyester) de l’autre. Concrètement, la méthode consiste à dépolymériser le PET - d’où le nom choisi de DePoly. « Dans un réacteur, nous réunissons du PET et différents produits chimiques. Nous utilisons ensuite de la lumière pour provoquer une série de réactions. Elles auront pour effet de cibler et détruire les liaisons chimiques qui allient ces deux composants d’origine du PET, l’éthylène glycol et l’acide téréphtalique », annonce-t-elle. À la fin du processus, vous obtiendrez un liquide clair, l’éthylène glycol, et une poudre blanche, l’acide téréphtalique. Deux formes bien distinctes qui facilitent leur séparation. À cela s’ajoute une petite quantité de déchets, les colorants et autres additifs contenus dans le plastique originel. La jeune entrepreneure n’en dira pas plus, un brevet étant en cours d’obtention. La fondatrice de DePoly, Samantha Anderson, s’est entourée de deux collègues de laboratoires, Christopher Ireland, postdoctorant et Bardiya Valizadeh, doctorant, pour travailler sur son idée de base. Prochaine étape pour DePoly : passer du laboratoire à l’industrie. « En novembre, nous commencerons à construire une installation de plus grande capacité par rapport à ce que nous avons fait jusqu’à maintenant en laboratoire », poursuit Samantha Anderson. L’usine de traitement des ordures du Valais central (UTO) accueillera la start-up dans ses locaux à Uvrier. Une collaboration qui permettra à la start-up de tester et éventuellement perfectionner sa méthode à plus grande échelle. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Selon les conclusions d'un projet de recherche européen, une cellule solaire composée de cuivre-zinc-germanium-séléniure peut accroître le rendement énergétique des panneaux solaires. « Nous pourrions intégrer ce matériau sous forme de deuxième couche par-dessus la couche de silicium existante des panneaux solaires », explique Bart Vermang, chercheur à l'Université de Hasselt et à l'IMEC. « La génération actuelle de panneaux solaires en silicium atteint un rendement énergétique maximal d'environ 25 % », poursuit le professeur Vermang. « Avec ce pourcentage, nous nous rapprochons très fortement de la limite théorique d'un panneau solaire. Si nous voulons extraire encore plus d'énergie d'un panneau, nous devons donc chercher de nouvelles technologies et de nouveaux matériaux & raquo;. C'est la raison pour laquelle, dans le cadre du projet européen SWInG, on a cherché un matériau pouvant être placé au-dessus des panneaux solaires en silicium existants en tant que deuxième cellule solaire. Grâce à cette superposition des cellules solaires en "tandem", les panneaux peuvent générer encore plus d'énergie. « On cherche depuis longtemps déjà le matériau optimal pour une deuxième cellule solaire de ce type, mais les matériaux actuels présentent tous des inconvénients », explique le professeur Vermang. « Soit ils ne sont pas suffisamment performants, soit ils sont instables, soit ils sont trop rares, soit ils sont trop coûteux. Voilà pourquoi nous avons nous-mêmes mis au point un nouveau matériau composé de cuivre, de zinc, de germanium et de séléniure. Dans ce cas-ci, le germanium peut aussi être remplacé par du silicium ». D'après le professeur Vermang, les résultats de ce nouveau matériau pour cellules solaires sont stupéfiants : « Non seulement il s'agit ici d'un matériau très stable, qui est suffisamment disponible et pas trop coûteux. Mais, après trois ans de recherches, nous avons atteint avec notre prototype un rendement énergétique record à l'échelle mondiale de 8,4 %. C'est sans précédent et, si nous apportons d'autres modifications à la structure de la cellule solaire, ce matériau utilisé comme deuxième couche par-dessus les panneaux solaires en silicium pourrait accroître leur rendement au-delà de cette limite théorique de 30 % ». Les résultats de cette étude ont été publiés dans la revue scientifique Sustainable Energy & Fuels. Le projet de recherche a été mené au sein d'EnergyVille, la collaboration de recherche entre l'Université de Hasselt, l'IMEC, la KU Leuven et le VITO (institut flamand pour la recherche technologique). « Nous sommes très fiers de cette recherche, à laquelle nous avons œuvré avec toute une équipe d'institutions, dont l'université de Gand. Les entreprises aussi pourront bénéficier de ces résultats. Au cours de cette recherche, nous avons d'ailleurs déjà travaillé en étroite collaboration avec l'entreprise suédoise d'énergie solaire Midsummer. Nous espérons qu'à l'avenir, les entreprises pourront utiliser cette technologie dans le processus de fabrication des panneaux solaires », ajoute le professeur Vermang. Entre-temps, un nouveau projet de recherche européen a été lancé : Tech4Win. « Ce projet vise à mettre au point des panneaux solaires transparents dans les années à venir », explique Bart Vermang. « Il s'agit de panneaux solaires aussi transparents qu'une fenêtre en verre. Ils pourraient ainsi être parfaitement intégrés aux bâtiments. De tels panneaux capteront les rayons ultraviolets et infrarouges du soleil - invisibles à l'œil humain - et les convertiront en électricité verte. Nous espérons que les premiers prototypes seront prêts dans trois ans ». Article rédigé par Georges Simmonds pour RT Flash RSC | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | On le sait, le thé vert possède de remarquables vertus médicinales. Même si ses effets anti-cancer restent à confirmer, deux vastes études portant sur plus de 100 000 personnes (l'une australienne réalisée en 2007 et l'autre japonaise, réalisée en 2012) ont notamment montré qu'une forte consommation de thé vert (au moins 4 tasses par jour) permettait de réduire les risques de 20 % de tous types d'AVC. Cette fois, c'est une étude anglaise dirigée par le Docteur Jonathan W Betts (Université de Surrey) qui vient de montrer que le thé vert permettrait aussi d'améliorer l'efficacité de certains antibiotiques. Ces recherches ont permis de découvrir que les feuilles de thé vert contenaient un polyphénol appelé épigallocatéchine (EGCG), qui aurait des propriétés étonnantes lorsqu'il est associé à de l'aztréonam, un antibiotique utilisé pour détruire la bactérie Pseudomonas aeruginosa, responsable de graves infections. Il semblerait, selon ces recherches, que ce soit l' interaction de l'EGCG et de cet antibiotique qui produit cet effet remarquable et les chercheurs ont constaté qu'en combinant l'EGCG et l'aztréonam, le traitement était beaucoup plus efficace pour détruire la bactérie Pseudomonas aeruginosa. Des essais réalisés sur des chenilles et des cellules cutanées humaines ont par ailleurs confirmé que l'association et de l'EGCG et de l'aztréonam avait un effet antibactérien sensiblement plus puissant, en comparaison à la prise unique de cet antibiotique. Comme le souligne le Docteur Jonathan Betts, "Il est urgent de développer de nouveaux médicaments dans la lutte contre la résistance aux antibiotiques, surtout quand on sait que 25.000 personnes en Europe décèdent chaque année à cause d'infections dues à des bactéries résistantes. Article rédigé par Georges Simmonds pour RT Flash JMM | | | |
| La NAC ou n-acétylcystéine, un dérivé naturel de l’acide aminé cystéine, largement reconnu et utilisé pour ses effets antioxydants, avait déjà montré, avec une étude de l'Université Thomas Jefferson, un bénéfice très significatif chez les patients atteints de la maladie de Parkinson. Ce précurseur antioxydant pourrait bien réduire les symptômes de la maladie, confirme cet essai clinique mené par la même équipe. Cette fois, une nouvelle étude réalisée par des chercheurs de cette même Université américaine de Philadelphie, montre comment la NAC augmente la fonction dopaminergique chez les patients atteints de Parkinson. La N-acétylcystéine (NAC) est une molécule naturelle qui reconstitue l'un des antioxydants de l'organisme. La NAC confirme aujourd’hui ses bénéfices possibles dans le cadre d'un traitement standard pour les patients atteints de la maladie de Parkinson. L'étude met en évidence une amélioration des niveaux de dopamine, principal neurotransmetteur spécifiquement réduit dans la maladie, ainsi qu'une amélioration des capacités mentales et physiques des patients. Les traitements actuels de la maladie de Parkinson se limitent généralement à remplacer temporairement la dopamine dans le cerveau par des médicaments conçus pour ralentir la progression de la maladie. La destruction des cellules nerveuses dopaminergiques dans la maladie de Parkinson semble être due en grande partie au stress oxydatif qui réduit les niveaux de glutathion, une substance chimique produite par le cerveau pour lutter contre le stress oxydatif. Plusieurs études initiales ont montré que l’administration de NAC augmentait les niveaux de glutathion dans le cerveau, mais on ignorait si un tel effet augmenterait les niveaux de dopamine lorsque les neurones retrouvent leur fonction. L’étude permet de mieux comprendre comment la N-acétylcystéine pourrait constituer une nouvelle voie thérapeutique dans la maladie de Parkinson. La molécule semble permettre aux neurones dopaminergiques de recouvrer une partie de leur fonction. Des résultats qui confirment de précédentes conclusions de la même équipe, qui suggéraient déjà que la NAC pouvait augmenter la fonction dopaminergique chez les patients atteints de la maladie de Parkinson. Dans ces recherches, 42 patients atteints de la maladie de Parkinson ont poursuivi leur traitement actuel et ont été répartis en 2 groupes - le premier groupe a reçu une combinaison de NAC oral et intraveineux (IV) pendant 3 mois (en plus du traitement actuel) - le deuxième groupe n'a reçu que son traitement standard. Les patients du groupe intervention ont précisément reçu 50 mg / kg de NAC par voie intraveineuse une fois par semaine et 500 mg de NAC par voie orale 2 fois par jour, durant les jours « non IV ». Les patients ont été évalués à l’aide de l’échelle UPDRS (Unified Parkinson Disease Rating Scale), qui évalue différents symptômes, notamment les fonctions cognitives et motrices. Les patients ont également subi un scanner cérébral permettant de mesurer les niveaux de transporteur de dopamine dans les ganglions de la base, la région la plus touchée par la maladie. Ce test a été utilisé pour déterminer le niveau de récupération neuronale. Les patients ont été évalués initialement et 3 mois de traitement par NAC ou par le traitement standard. Cet essai montre que, vs témoins, les patients traités par la NAC, bénéficient d’une amélioration de 4 à 9 % de la liaison au transporteur de la dopamine et d’une amélioration de leur score d’environ 14 %. Une molécule naturelle telle que la NAC pourrait ainsi contribuer à améliorer la fonction des neurones dopaminergiques chez les patients atteints de la maladie de Parkinson, conclut le Docteur Andrew Newberg, expert en neuro-imagerie, professeur et directeur de la recherche au département de médecine intégrative. Article rédigé par Georges Simmonds pour RT Flash ASCPT | | | |
| Le projet 3D NeuroSecure (3DNS) a développé une plate-forme capable de modéliser le cerveau d’une souris en 3D à une résolution de 0,2 µm - soit vingt fois plus petit que la taille d’un neurone. Rappelons que le cerveau d’une souris a la taille d’un grain de riz. Quant à l’image d’une tranche, numérisée avec la plate-forme 3DNS, elle ferait plusieurs dizaines de mètres carrés si elle était imprimée avec une résolution standard de magazine. « L'idée du projet 3D NeuroSecure (3DNS) était de se doter d'outils d'analyse d'images 2D et 3D de très grande dimension pour pouvoir adresser des résolutions d'imagerie médicale qui soient cellulaires », indique Gilles Mergoil, président et fondateur de Neoxia, PME d’une centaine de personnes, qui pilote le projet. « Nous travaillons à 0,2 microns, soit vingt fois plus petit que la taille d’un neurone ». Achevé en juin, le projet entre en phase de commercialisation. Lancé en 2015 dans le cadre de la deuxième vague des programmes d’investissement d’avenir (PIA), 3DNS affiche un budget total de 7,5 millions d’euros. Outre Neoxia, il regroupe d’autres industriels comme Nvidia, Logic Instrument ou Tribvn. Mais aussi des académiques : le Commissariat à l’énergie atomique et aux énergies alternatives (CEA) est très présent avec sa direction de la recherche fondamentale et sa direction des applications militaires. La plate-forme 3DNS a pour ambition de devenir un nouvel et puissant outil de recherche sur le cerveau, qu'il s'agisse de son fonctionnement global ou de l'étude des maladies neurodégénératives, comme la SEP, Alzheimer ou Parkinson. La difficulté pour obtenir un tel modèle en 3D avec une telle résolution vient de la masse de données à traiter. « C'était le verrou technologique à lever », indique M. Mergoil. « Aujourd'hui, les laboratoires ne disposent d'aucun logiciel capable de traiter une telle quantité de données ». Car un cerveau de souris de 2 à 3 mm de long, scanné en 3D avec une résolution de 0,2 µm, représente 1,5 téraoctet (To) de données pour une seule modalité. Plusieurs modalités sont nécessaires dans le cadre d’une étude. C’est-à-dire plusieurs types d’images obtenues avec différents marqueurs qui représentent les informations désirées - nombre de neurones, inflammation, etc. Les croiser permet de faire des corrélations. « Il faut 4 ou 5 modalités par cerveau », précise M. Mergoil. « Et une étude sérieuse porte sur plusieurs souris. Donc nous arrivons vite à une centaine de téraoctets pour une étude ». Pour autant, la plate-forme n’a pas nécessairement besoin d’un supercalculateur pour fonctionner. « Nous sommes capables de faire tourner notre code sur un supercalculateur, mais aussi sur un cloud public comme celui d’Amazon par exemple, ce qui permet de le rendre accessible à tous les types de structures », détaille M. Mergoil. Au-delà de l’imagerie médicale en 2D et en 3D, Neoxia voit plus loin. Notamment dans la simulation moléculaire pour concevoir des médicaments avant de passer à l’analyse in vivo. « Nous avons développé sur notre plate-forme des outils pour présélectionner des molécules, en particulier des peptides qui sont des petits morceaux de protéines de plus en plus utilisées dans les médicaments », détaille M. Mergoil. « Or il s’agit de molécules complexes qui nécessitent de la puissance de calcul ». Article rédigé par Georges Simmonds pour RT Flash 3DNS | | | |
| Les cellules des rares individus contrôlant naturellement l’infection au VIH sont étudiées depuis près de 15 ans afin de décrypter leurs particularités. Des chercheurs de l’Institut Pasteur, grâce aux cohortes ANRS CO21 CODEX et CO6 PRIMO, ont décrit les caractéristiques des cellules immunitaires CD8 de sujets dits « contrôleurs du VIH ». Le pouvoir antiviral si particulier de ces cellules est dû à un programme métabolique optimal qui leur permet de persister et réagir efficacement contre les cellules infectées. Partant de ces découvertes, des chercheurs de l'Institut Pasteur sont parvenus à reprogrammer ex vivo des cellules d’individus infectés non-contrôleurs leur conférant le pouvoir antiviral des cellules des contrôleurs. Certaines personnes réussissent à contrôler naturellement le VIH, sans traitement. Chez ces individus, très rares, (moins de 1 % des personnes vivant avec le VIH), on ne détecte pas de multiplication du virus dans leur sang, en l’absence de traitement pendant plus de 10 ans d’infection. En 2007, les chercheurs de l’Institut Pasteur décrivaient comment leurs lymphocytes CD8 ont une activité antivirale extraordinaire. En effet, les CD8 de contrôleurs parviennent à détruire rapidement les cellules CD4 infectées, contrairement aux cellules CD8 de non-contrôleurs. Les chercheurs de l’unité VIH, inflammation et persistance à l’Institut Pasteur, ont donc poursuivi leurs recherches pour connaître les caractéristiques précises de ces cellules dans le but de les conférer aux cellules des sujets non-contrôleurs. D’apparence extérieure les cellules CD8, dites « mémoires », des contrôleurs sont identiques à celles des non-contrôleurs mais les chercheurs ont montré qu’elles ont un programme moléculaire différent. Ils ont décrit que chez les contrôleurs les cellules CD8 anti VIH ont un grand potentiel antiviral mais aussi qu’elles sont programmées pour survivre ; tandis que le programme des cellules des non-contrôleurs les prédisposent à l’épuisement et à la mort cellulaire. Pour mener leurs activités, les cellules CD8 des contrôleurs utilisent des ressources métaboliques variées et en particulier elles fonctionnent avec l’apport énergétique de leurs mitochondries, bien adapté pour permettre la survie de la cellule dans des conditions de stress. A l’inverse, les cellules des non-contrôleurs sont dépendantes d’une seule source d’énergie (le glucose) et leurs mitochondries montrent une activité limitée. « Nous avons donc identifié que l’activité antivirale des CD8 des contrôleurs est associée à la mise en place d’un programme optimal qui leur confère une plasticité dans l’utilisation des ressources énergétiques de la cellule », explique Asier Saez-Cirion, coordinateur de l’étude, chercheur au sein de l’unité VIH, inflammation et persistance à l’Institut Pasteur. Les scientifiques sont alors parvenus dans le laboratoire à stimuler l’activité des mitochondries chez les cellules CD8 anti VIH des non-contrôleurs. Grâce à une substance sécrétée par le système immunitaire, appelée interleukine 15 (IL-15), les cellules de non-contrôleurs récupèrent leur activité mitochondriale et augmentent leur potentiel anti-VIH. Les cellules CD8 reprogrammées des non-contrôleurs acquièrent ainsi une capacité à détruire les cellules CD4 infectées qui ressemble à celle des cellules des contrôleurs. « Nos travaux montrent que même si les cellules CD8 anti VIH des non-contrôleurs sont relativement inefficaces, les différences avec les cellules de contrôleurs ne sont pas insurmontables », conclut Asier Saez-Cirion. La reprogrammation métabolique des cellules immunitaires est une stratégie déjà actuellement en phase d’essais cliniques pour le traitement des cancers. Les chercheurs espèrent pouvoir tester ces stratégies in vivo prochainement pour ces facultés anti-VIH. Article rédigé par Georges Simmonds pour RT Flash Institut Pasteur | | | |
| Plus connue dans le domaine du cancer, la protéine AGR2 (Anterior-gradient 2), pourrait avoir un rôle déterminant dans le déclenchement de l’inflammation et des symptômes liés à la maladie de Crohn. Physiologiquement, cette protéine agit au sein du réticulum endoplasmique, le réseau membranaire intracellulaire dans lequel s'effectue, entre autres, la synthèse des protéines afin de contrôler la qualité des protéines qui y sont synthétisées. Mais dans des conditions de stress cellulaire, un déséquilibre aboutit à sa sécrétion. Une fois dans le milieu extracellulaire, la protéine se comporterait comme une chimiokine, attirant des cellules immunitaires au niveau des zones de brèches de la paroi intestinale. S’enclencherait alors les processus immunitaires et inflammatoires responsables des symptômes, souvent sévères et invalidants, liés à la maladie de Crohn. « La maladie de Crohn est, avec la rectocolite hémorragique, une maladie des modes de vie occidentaux, en plein essor, notamment dans les pays qui adoptent le même mode de vie », explique Éric Ogier-Denis qui a codirigé ces travaux avec Éric Chevet de Rennes. « C’est une pathologie inflammatoire d’origine multifactorielle, qui peut être très invalidante du fait des douleurs et des complications intestinales et extradigestives qu’elle induit ». Les médicaments actuellement disponibles sont insatisfaisants : ils ciblent essentiellement les médiateurs de l'inflammation responsables de ces manifestations, sans s’attaquer à la cause. Ils n’offrent pas toujours une rémission de la maladie et exposent à des risques au long cours. « Si les mécanismes initiant l’inflammation sont identifiés avec précision, ils constitueront des cibles thérapeutiques intéressantes pour de nouveaux traitements ». Éric Ogier-Denis et son équipe s’intéressent aux mécanismes cellulaires impliqués dans les maladies intestinales chroniques inflammatoires (MICI). Dans ce travail, leur attention s'est portée sur la protéine AGR2 : « la barrière épithéliale intestinale est le seul rempart entre le microbiote et le système immunitaire. Or en cas de stress chronique, le réticulum endoplasmique (RE) cesse d'y fonctionner normalement ce qui conduit à une inflammation intestinale. La perte de la protéine AGR2, qui joue un rôle clé dans le RE, est également associée à cette inflammation. Il restait à savoir si ces deux paramètres sont liés et impliqués dans la physiopathologie inflammatoire des maladies intestinales ». À travers trois étapes expérimentales, les chercheurs ont pu décrire le rôle central et précurseur d'AGR2 dans la physiopathologie de la maladie. En premier lieu, ils ont pu décrire que la protéine existe sous deux configurations, l’une monomérique (une unité), l’autre dimérique (assemblage de 2 unités), dont les proportions relatives semblent réguler la fonction normale du RE dans des cellules épithéliales étudiées in vitro. Ainsi, un excès de la forme monomérique est associé à la sécrétion anormale de la protéine hors de la cellule. Par une approche systématique d’invalidation de l’expression de l’ensemble des protéines du RE connues à ce jour, les chercheurs ont identifié celles qui stabilisaient la formation de dimères ou de monomère s d'AGR2. Ensuite, sur des biopsies, ils ont pu confirmer l'existence d'une altération de l’expression de certaines de ces protéines, associée à une sécrétion pathologique extracellulaire d’AGR2. Enfin, à partir de travaux menés sur des échantillons tissulaires, ils ont pu décrire que les cellules épithéliales sécrétant AGR2 présentaient des propriétés chimio-attractives vis-à-vis de certaines cellules immunitaires, capables de capturer, ingérer et détruire des particules ou des microorganismes notamment. Ces dernières favorisent leur migration au niveau des zones de brèches de la barrière intestinale, initiatrice d’un mécanisme inflammatoire. Deux importantes perspectives liées à ce travail se dessinent. La première est pronostique : il s’agira d’évaluer si le dosage d’AGR2 au niveau sanguin peut aider à évaluer la sévérité de la maladie et le sur-risque de cancer colorectal. La seconde est thérapeutique : « Nous développons un anticorps capable de reconnaître une autre molécule afin de faciliter son élimination thérapeutique visant à neutraliser l’AGR2. Nous cherchons également à identifier le récepteur cellulaire auquel se lie AGR2 au niveau des cellules immunitaires, afin de développer une petite molécule spécifique capable d’en bloquer l’accès ». Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Selon une vaste étude épidémiologique, comprenant plus de 36 millions de lectures de tension artérielle sur plus d'un million de personnes, la pression diastolique - le chiffre du bas - contribue elle aussi de manière importante à évaluer le risque cardiovasculaire. Cette étude a été réalisé par le réseau des soins à but non lucratif Kaiser Permanent, basé à Oakland, en Californie. Ses conclusions sont intéressantes, car elles vont ainsi à l'encontre de décennies de recherche selon lesquelles l'hypertension artérielle systolique était la plus susceptible d'entraîner des effets indésirables. Cette conviction a eu pour effet de concentrer les outils d'estimation du risque et les directives de cardiologie sur le nombre supérieur (systolique), certains experts estimant même que le nombre inférieur (diastolique) pourrait être "raisonnablement ignoré". Les chercheurs de Kaiser Permanente ont constaté que bien que la pression systolique ait un impact plus important, les deux pressions, systolique et diastolique, influaient fortement sur le risque de crise cardiaque ou d'accident vasculaire cérébral. « Cette recherche apporte une grande quantité de données sur une question fondamentale et donne une réponse aussi claire : dans tous les cas, les pressions systolique et diastolique sont importantes », souligne l'auteur principal Alexander C.Flint. La pression systolique mesure la force avec laquelle le coeur pompe le sang dans les artères alors que la pression diastolique indique la pression exercée sur les artères lorsque le cœur est au repos entre les battements. Le Docteur Flint affirme que cette découverte des impacts similaires des deux composants de la pression artérielle sur un risque cardiovasculaire au seuil inférieur de 130/80 apporte une justification aux modifications apportées récemment aux directives de l'American College of Cardiology et de l'American Hearth Association qui préconise un resserrement de la pression artérielle contrôlée chez les patients à haut risque souffrant d'hypertension. Article rédigé par Georges Simmonds pour RT Flash NEJM | | | |
| Lorsqu’une personne naît aveugle, la partie du cerveau qui est censée traiter la vue n’est pas correctement développée et est donc non fonctionnelle. Pour une personne devenue aveugle au cours de la vie, le cortex visuel situé dans le cerveau n’est pas endommagé, mais le cerveau ne reçoit plus les informations provenant de l’œil. Mais est-il possible grâce à des moyens technologiques de surpasser ce déficit ? C’est cet exploit que sont parvenus à accomplir les chercheurs du Baylor College of Medicine. Dans un extraordinaire procédé médical, six personnes aveugles ont partiellement recouvré la vue grâce à l’appareil Orion, signé Second Sight, un outil qui permet d’envoyer des images à partir d’une caméra, directement dans le cerveau, grâce à des implants. Bien que l’idée d’une prothèse corticale visuelle existe depuis des années, la technologie est enfin assez avancée pour faire de cet essai clinique une réalité. Ces 6 participants sont ainsi les premiers à bénéficier de cette technologie de pointe… « En contournant complètement l’œil, vous ouvrez le potentiel à beaucoup, beaucoup plus de gens », explique au Daily Mail, Alex Shortt, un chirurgien de l’hôpital ophtalmologique Optegra et qui n’était pas impliqué dans la recherche. « C’est, à mon avis, une percée énorme, une avancée incroyable et c’est très excitant », explique-t-il avant de poursuivre : « C’est un complet changement de paradigme pour traiter les gens avec une cécité totale. C’est un vrai message d’espoir ». Le dispositif Orion est assez simple puisqu’il combine deux éléments : un implant cérébral et une paire de lunettes. L’expérience consistait à poser un implant de 60 électrodes au cerveau, qui était relié et recevait des informations d’une caméra fixée sur les lunettes. Ainsi, cela a permis de délivrer les informations visuelles, avec un modèle de stimulation qui va produire la perception de l’image visuelle correspondante à la personne qui porte le dispositif, sans même passer par les yeux. Pour une étude de faisabilité, et ainsi tester le dispositif de Second Sight, les chercheurs ont demandé aux participants avec une cécité complète de regarder un écran d’ordinateur complètement noir en utilisant Orion. Lorsqu’un carré blanc faisait son apparition au hasard sur l’écran, les participants parvenaient à localiser correctement le carré la majorité du temps. « Si vous pouvez imaginer chaque endroit du champ visuel dans le monde visuel, il y a une partie correspondante dans le cerveau qui représente cette aire, cette position spatiale », explique Daniel Yoshor, professeur de neurochirurgie à Baylor College of Medicine, dans une vidéo. « Et nous savons que si nous stimulons le cerveau de quelqu’un… sur un point spécifique, nous produirons une perception d’un point de lumière correspondant à cette carte, dans le monde visuel ». Le professeur de neurochirurgie Yoshor pense que ce n’est qu’un début pour la restauration complète de la vue pour les personnes aveugles. « Pensez à un tableau qui utilise le pointillisme, où des milliers de petits points se rassemblent pour créer une image complète », illustre-t-il. « Nous pourrions faire la même chose en stimulant des milliers de points sur la partie occipitale du cerveau », explique le chercheur sur le blog du BCM. Même si le dispositif est à ses débuts, il contribue déjà à changer des vies. Benjamin James Spencer, un homme âgé de 35 ans, est devenu aveugle à l’âge de 9 ans et explique, toujours au Daily Mail, les miracles de ce dispositif qui lui a permis de voir sa femme et ses trois filles pour la première fois : « Je pouvais voir mes enfants courir pour me faire un câlin ». Il ajoute également : « Ce n’est pas une vision parfaite, mais l'impression que j'ai ressentie était extraordinaire ». Article rédigé par Georges Simmonds pour RT Flash BCM | | | |
| Comment se fait-il qu'après 80 ans, 60 % des malades d'Alzheimer soient des femmes, contre 40 % des hommes ? Pour tenter de répondre à cette question, des chercheurs du centre médical de l’Université Vanderbilt ont étudié le scanner cérébral de centaines d’hommes et de femmes et ont examiné le schéma d’une protéine appelée "tau". Certains participants étaient en bonne santé, tandis que d’autre présentaient une légère déficience mentale. Rappelons que l'une des caractéristiques principales de la maladie d'Alzheimer est la formation de protéines appelées “tau” dans le cerveau. Quand ces protéines forment des amas toxiques, les cellules du cerveau meurent, ce qui entraîne des problèmes de mémoire. Les chercheurs ont découvert que la structure des réseaux de tau est différente chez les hommes et les femmes, les femmes ayant un plus grand nombre de "régions de transition" reliant différentes zones du cerveau. Autrement dit, elles semblent avoir une meilleure connectivité entre les régions où la protéine tau s'accumule, ce qui a des répercussions sur le cerveau. Avec cette connectivité plus élevée, la protéine tau peut se propager plus facilement entre les régions du cerveau, augmentant la vitesse à laquelle elle s'accumule et exposant les femmes à un risque accru de maladie d'Alzheimer. Le docteur Jana Voigt, responsable de la recherche à Alzheimer's Research UK, a déclaré que l'étude révélait « des différences de connectivité cérébrale en fonction du sexe qui pourraient contribuer à la différenciation du risque de maladie d'Alzheimer chez les hommes et les femmes ». Des recherches supplémentaires sont nécessaires pour confirmer ces résultats. Si ceux-ci sont prouvés, des approches spécifiques en fonction du sexe pourront être étudiées pour prévenir la maladie d'Alzheimer. Le 9 juillet 2018, une étude menée par l’organisation internationale Women’s Brain Project et publiée par la revue spécialisée Nature, démontrait que plusieurs facteurs de risque augmentaient le risque d’Alzheimer chez les femmes. Les femmes vivent plus longtemps que les hommes, six ans de plus en moyenne en France. De ce fait, à 70 ans, le nombre de femmes atteintes est deux fois supérieur à celui des hommes, et à partir de 80 ans le ratio monte à deux-tiers environ. La dépression est un autre facteur de risque : cette maladie psychologique est liée à la maladie d’Alzheimer. Or, les femmes y sont plus sensibles. En effet, en France, pour deux hommes touchés par un épisode dépressif, il y a entre 3 et 4 femmes. La progression plus rapide de la maladie chez les femmes s’expliquerait notamment par la présence des œstrogènes chez les femmes dont l’effet serait 'protecteur' sur l’organisme et en particulier sur le cerveau. Dès lors, la chute des taux d’œstrogènes à la ménopause pourrait se traduire par la perte de ces effets protecteurs sur le cerveau et ainsi celui-ci se trouverait plus vulnérable que celui des hommes à cette maladie neurodégénérative. Les complications de grossesse et les traitements hormonaux pris durant la ménopause pourraient également entraîner une démence des années plus tard. Article rédigé par Georges Simmonds pour RT Flash BBC | | | |
| On estime à 47 millions le nombre de personnes démentes à travers le monde. À côté des facteurs de risque bien connus, la prise de médicaments anticholinergiques (parmi lesquels certains antihistaminiques, antidépresseurs, des produits contre les troubles gastro-intestinaux ou vésicaux) représente un facteur de risque distinct, mais modifiable, bien que, jusqu’à maintenant, l’on ne sache pas avec précision si leur consommation sur une longue durée accroît le risque de démence. C’est là l’intérêt d’une vaste étude, menée par CAC Coupland et coll. afin de préciser l’association possible entre traitements anticholinergiques et risque de démence, chez des sujets âgés d’au moins 55 ans, à partir d’une large cohorte représentative de la population britannique, en analysant la prescription de différents types d’anticholinergiques jusqu’à 20 ans avant le diagnostic de démence. Il s’agissait d’une étude cas-témoin intégrée, issue du QRearsch qui est une banque de données informatiques regroupant plus de 30 millions d’individus, suivis prospectivement pour les soins médicaux de base. Ont été inclus tous les sujets de 55 ans ou plus, du 1er janvier 2004 au 31 janvier 2016, non déments à l’entrée dans l’étude. Le nombre de patients déments a ensuite été noté, tout comme celui des sujets ayant reçu une un inhibiteur de l’acétylcholine estérase (donépézil, galantamine, mémantine, rivastigmine,…). Les démences spécifiques liées à une maladie de Huntington, de Parkinson, de Creutzfeldt-Jakob ou au VIH ont été exclues, tous comme les patients parkinsoniens, atteints d’une maladie de Huntington ou d’une sclérose en plaques. Chaque sujet dément a été apparié à 5 cas contrôles indemnes, en tenant compte de l’âge, du sexe, des soins courants et de la date. L’étude a couvert une période d’au moins 10 ans soumise à l’exposition potentielle aux anticholinergiques référencés. Les médicaments en cause, soit 50, ont été identifiés selon les critères BEER de l’American Geriatric Society 2012. Le paramètre essentiel analysé a été la durée totale de l’exposition aux médications anticholinergiques, avec calcul de la dose totale standardisée journalière par patient (TSDD), pour chaque type de médicaments (antihistaminiques, antidépresseurs, antivertigineux, anti-émétiques, antiparkinsoniens, antipsychotiques, antimuscariniques agissant sur la vessie, relaxants musculaires, antispasmodiques, anti-arythmiques, antiépileptiques et bronchodilatateurs). Plusieurs covariables ont été incluses dans l’analyse dont l’indice de masse corporelle, les consommations alcoolique et tabagique, les principales comorbidités, l’origine ethnique et les autres médicaments utilisés. L’exposition aux anticholinergiques a été classée en 5 catégories suivant la TSDD : 0, de 1 à 90, de 91 à 365, de 366 à 1 095 et au-delà de 1 095 TSDD, pour 11 types différents de médicaments. En outre, des analyses par sous-groupes ont été conduites selon le sexe et le type de démence ainsi que des analyses de sensibilité. La cohorte de base comprenait 3 638 582 individus, âgés de 55 à 100 ans. Durant un suivi total de 20 005 739 personnes-années, 128 517 démences ont été diagnostiquées. Après exclusions diverses, 58 769 cas ont été retenus, appariés à 225 574 témoins. L’âge moyen, lors du diagnostic, était de 82,4 ans ; 63,1% des patients étaient de sexe féminin. Globalement, 60,1 % des démences retenues étaient de type alzheimérien, 36,3 % de type vasculaire et 3,6 % d’autres types. Dans les années précédentes, allant de 1 à 11 ans, 56,6 % des malades déments (n= 33 253) et 51 % des témoins (n= 115 094) avaient eu une prescription d’au moins un anticholinergique. Il s’agissait le plus souvent d’antidépresseurs (dans, respectivement, 27,1 % et 23,3 % des observations), d’antivertigineux ou d’antihistaminiques (23,8 % et 21,7 %) ou de médicaments agissant sur la motricité vésicale (11,7 % et 8,3 %). Une augmentation significative du risque de démence suivant la prise d’antidépresseurs anticholinergiques a été mise en évidence (OR ajusté : 1,2 ; IC : 1,24-1,34). Il en est allé de même avec les médicaments antiparkinsoniens (OR ajusté : 1,52 ; IC : 1,16-2,00), les antipsychotiques (OR ajusté : 1,70 ; IC : 1,53-1,90), les muscariniques actifs sur la motricité de la vessie (OR ajusté : 1,65 ; CI : 1,56-1,75) et les antiépileptiques (OR ajusté à 1,39 ; IC : 1,22-1,57) pour une TSDD conséquente, au-delà de 1 095. A contrario, aucune augmentation significative n’a été trouvée avec les antihistaminiques, les myorelaxants, les antispasmodiques, les anti-arythmiques et les bronchodilatateurs antimuscariniques. Au total, cette large étude cas-témoin démontre que le risque de démence est accru en cas de prise régulière de certains médicaments anticholinergiques. Il est aussi plus élevé avant l’âge de 80 ans et en cas de démences vasculaires. On trouve une augmentation de 50 % du risque quand l’exposition totale dépasse 1 095 TSDD sur une période de 10 ans, ce qui équivaut à une prise quotidienne pendant 3 ans d’un seul anticholinergique puissant, à la dose minimale recommandée. En conclusion, cette étude renforce la preuve qu’il existe un risque de démence associée à la prise régulière d’anticholinergiques. À côté de leurs bénéfices potentiels, les effets secondaires de ces médicaments doivent donc être pris en considération et des traitements alternatifs proposés, quand ils sont possibles. Ces résultats renforcent enfin l’importance de réduire le recours aux anticholinergiques aux âges moyens et avancés de la vie. Article rédigé par Georges Simmonds pour RT Flash JIM | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | Si la batterie est un élément capital pour les performances des véhicules électriques, le moteur joue également un rôle important. Son poids (qui influence la consommation d’électricité) et son rendement déterminent en bonne partie le caractère écologique du véhicule. Tandis que le rendement des moteurs thermiques est inférieur à 40 % – c’est-à-dire que plus de 60 % de l’énergie contenue dans le réservoir part « en fumée » et n’est donc pas utilisée pour mouvoir le véhicule – celui des moteurs électriques est supérieur à 90 %. En d’autres termes, plus de 90 % de l’électricité stockée dans la batterie sera transformée par le moteur en énergie mécanique transmise aux roues. Les 10 % de pertes sont dues au dégagement de chaleur provoqué par le passage du courant dans les fils du bobinage. C’est ce qu’on appelle l’effet Joule. Pour rendre le véhicule électrique encore plus « vert », des chercheurs de l’Institut Fraunhofer et du Karlsruhe Institute of Technology, en Allemagne se sont donné comme objectif d’améliorer le rendement du moteur électrique et d’en réduire le poids ainsi que le prix. « L’aspect novateur de notre concept se trouve dans le stator » nous confie Robert Maertens, chercheur au Fraunhofer Institute. Un moteur électrique est constitué d’un rotor mobile et d’un stator fixe. Le stator contient les bobinages de fils de cuivre au travers desquels passe le courant électrique et c’est à cet endroit que se réalise la majorité des pertes de rendement. Pour éviter la surchauffe du moteur électrique d’un véhicule, le dégagement de chaleur dans le stator est conduit de manière classique par le corps métallique du moteur vers un carter double enveloppe dans lequel circule de l’eau. Cette conception permet de réduire le poids et les dimensions jusqu’à 25 % par rapport à un moteur refroidi par air. L’équipe de chercheurs a remplacé les fils de cuivre ronds du stator par des fils à section rectangulaire, lesquels peuvent être bobinés de manière plus serrée. Cela économise de l’espace pour insérer dans le stator des tubes dans lesquels circule le fluide réfrigérant. « Cette conception élimine la nécessité de conduire la chaleur au travers d’une ossature métallique vers le carter extérieur. En fait il n’y a plus besoin de carter réfrigérant et il n’est plus nécessaire que le châssis soit métallique » explique Robert Maertens. En outre, le nouveau design comprend une solution de refroidissement du rotor qui permet également aux pertes de chaleur de celui-ci d’être dissipées directement dans le moteur. Les partenaires ont alors conçu un moteur dont le corps est constitué d’un polymère. Il s’agit d’un plastique thermodurcissable renforcé de fibres qui offre une haute résistance à la température et aux réfrigérants agressifs. Par rapport aux châssis traditionnels en aluminium, le poids est réduit et la fabrication est aussi simplifiée. Selon Maertens, « cette solution offre également d’autres avantages, notamment une inertie thermique plus faible et une densité de puissance du moteur plus élevée ». Ces choix permettent de concevoir des géométries complexes pour la carcasse du moteur sans nécessiter d’usinages ultérieurs. Le châssis en polymère est fabriqué par un processus automatisé de moulage par injection d’un composé phénolique. Le cycle de production dure 4 minutes, ce qui permet une fabrication de masse à coût réduit. Développé parallèlement aux nouvelles technologies d’accumulateurs comme les batteries solides, ce moteur révolutionnaire, s’il tient ses promesses, permet d’entrevoir des véhicules électriques moins coûteux, plus performants et plus écologiques. Article rédigé par Georges Simmonds pour RT Flash Fraunhofer | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|