RTFLASH Recherche & Technologie
NUMERO 1292
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 10 Janvier 2025
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Première téléportation quantique sur l'Internet classique
Avenir
Un robot portable révolutionnaire pour décupler la force musculaire des travailleurs
Des chercheurs australiens transforment l’ADN en matériau pour créer des nanorobots
Matière
Un nouveau laser révolutionnaire permet la fabrication des processeurs beaucoup plus rapides et sobres en énergie
Un transistor cryogénique pour des ordinateurs quantiques plus puissants
Climatiser les vêtements grâce aux nanoparticules
Terre
Une nouvelle théorie pour expliquer l'origine de l'eau sur Terre
Vivant
L’ARN messager pour combattre le cancer du poumon
Les pesticides pourraient être un facteur de risque sous-estimé du cancer du pancréas
Une IA pour mieux prévenir le cancer du pancréas
Vers une nouvelle famille d'antibiotiques après 50 ans de recherche
Détecter les bactéries dans les liquides à l’aide d'un simple gel
Une bactérie pour soigner le cancer du côlon
Cancer : L'Interleukine-15 améliore l'efficacité des cellules GPC3 CAR T
La stimulation cérébrale, nouvel outil contre la paralysie
Edito
Les trous noirs remodèlent l'Univers et pourraient aussi lui insuffler la vie...



Prévus par il y a plus d'un siècle par la théorie de la relativité générale d’Einstein et formalisés par le cosmologiste belge Georges Lemaître, les trous noirs ont commencé à prendre une consistance théorique en 1939, quand le grand physicien américain Robert Oppenheimer (le père de la bombe atomique) a proposé un modèle d’effondrement d’une étoile massive. Il a cependant fallu attendre 2016 pour que l'existence des trous noirs soit enfin validée par des preuves expérimentales, avec la première observation directe des ondes gravitationnelles. Le10 avril 2019, les premières images d'un trou noir furent publiées ; il s'agissait du trou noir supermassif M87, situé au centre de la galaxie du même nom. Enfin, en 2022, la communauté scientifique découvrait des images provenant de Sagittarus A, le t rou noir situé au centre de notre galaxie, la Vie Lactée.

Après avoir très longtemps été considérés comme des curiosités cosmologistes, les trous noirs, ont révélé, il y a seulement quelques années, leur rôle de plus en plus important dans la structure du cosmos et son évolution. Une série de découvertes intervenues au cours de ces derniers mois est venue conforter la place considérable et peut-être fondamentale que jouent ces étranges et fascinants objets dans notre Univers. Deux études publiées en février 2023 semblent en effet indiquer que les trous noirs pourraient être à l’origine de la mystérieuse énergie sombre ou énergie noire (découverte en 1988 par Saul Perlmutter et Adam Riess) qui expliquerait l’expansion accélérée de notre Univers depuis au moins 8 milliards d'années (Voir IOP et IOP).

Cette force répulsive semble contrebalancer la force attractive de la gravitation (l'une des 4 grandes forces de l’Univers), qui tend à attirer les masses les unes vers les autres. Selon les cosmologistes, cette énergie noire représenterait environ les deux tiers de ce que contient l’Univers. Le reste serait constitué de la non moins mystérieuse matière noire, représentant plus du quart de l'Univers, et, enfin, de seulement 5 % de matière "baryonique", c'est-à-dire la matière ordinaire, constituant les étoiles, planètes objets célestes et êtres vivants. Les trous noirs naissent de l’explosion cataclysmique de grosses étoiles en fin de vie. Contrairement à ce qu'on a longtemps pensé, il en existe de toute taille, certains étant microscopiques, d'autres absolument gigantesques, comme le monstre TON618, situé à 10,4 ann&ea cute;es-lumière de la Terre (heureusement pour nous), qui fait 66 milliards de fois la masse de notre Soleil et est 30 millions de fois plus grand que la Terre. Les trous noirs peuvent grossir de plusieurs façons, soit en avalant littéralement des corps célestes (planètes ou étoiles) qui passent trop près d'eux, soit en fusionnant avec d’autres trous noirs, dégageant alors des vagues d'ondes gravitationnelles, à présent détectables, qui vont modifier la texture de l'espace-temps.

Selon une étude publiée en 2022, il existerait au moins 40 milliards de milliards de trous noirs de toute taille dans l'univers observable (Voir IOP) et ceux-ci représenteraient au total environ 1 % de la matière totale. Ces étranges objets auraient une durée de vie qui défie l'imagination, allant de 100 milliards d'années pour ceux de taille moyenne, à 1000 milliards de milliards d'années pour les plus gros, qui mettent un temps presque infini à s'évaporer... Une équipe de chercheurs de l'université de Californie à Irvine a calculé en 2017 qu'il pourrait y avoir environ une centaine de millions de trous noirs rien que dans notre seule galaxie, soit environ un pour trois étoiles... (Voir Arxiv).

De manière très convaincante, ces deux étude publiées il y a un an ont analysé des données couvrant neuf milliards d’années d’histoire cosmique, et ont montré que certains trous noirs continuaient de grossir alors qu’ils étaient situés dans des galaxies devenues inactives, qui ne produisent plus d’étoiles ou d’objets célestes depuis des milliards d’années. L'étude souligne que « Les trous noirs d’aujourd’hui, dans les galaxies dormantes, sont 7 à 20 fois plus grands qu’ils ne l’étaient il y a neuf milliards d’années, alors qu'ils n'ont pourtant plus rien à absorber ». Comment cela se fait-il ?

Pour expliquer ce mystère, ces scientifiques de l'université d’Hawaï proposent l'hypothèse hardie, mais finalement logique, que les trous noirs sont la source de l'énergie noire. Selon eux, cette énergie noire est produite lorsque la matière normale est comprimée lors de la mort et l'effondrement de grandes étoiles. Cette étude soutient qu'il existerait un "couplage cosmologique" entre trous noirs et énergie noire, ce qui voudrait dire que la croissance des trous noirs au fil du temps serait en fait liée à l’expansion de l’Univers lui-même. Ils augmenteraient leur masse à mesure que l’Univers poursuivrait son expansion. Ces scientifiques pensent qu'il est possible pour les trous noirs de fournir la quantité d’énergie du vide nécessaire pour rendre compte de toute l’énergie noire que nous mesurons dans l’Univers aujourd’hui. « Si cette hypothèse s'avère correcte, cela expliquerait non seulement l’origine de l’énergie noire dans l’univers, mais nous ferait également repenser radicalement notre compréhension des trous noirs et leur rôle dans le cosmos », concluent les auteurs Chris Pearson et Dave Clements.

Notre Système solaire subit également les nombreuses conséquences liées à l'activité d'un trou noir situé à quelque 25 000 années-lumière, au centre de notre galaxie. Notre Voie Lactée abrite un trou noir de taille modérée, qui s'alimente de façon régulière et sans excès. Elle a donc bien plus de chances d'avoir une zone « tempérée », épargnée par les rayonnements cosmiques, qu'une galaxie dotée d'un gros trou noir. Nous savons à présent que si les trous noirs sont trop actifs, la formation de nouvelles étoiles et d'éléments nécessaires à la vie risque d’être très faible. Si, au contraire, les trous noirs sont trop peu actifs, les jeunes étoiles explosives risquent d'être trop nombreuses et le milieu interstellaire ne se ra pas assez recomposé pour favoriser l'apparition de la vie. Il semblerait donc que, sans cet équilibre subtil, et cet effet régulateur de notre trou noir, l'apparition de la vie sur notre Terre (et peut-être ailleurs dans notre galaxie) aurait été bien plus improbable.

Le cosmologiste américain Paul Mason pense qu’il est probable que la vie complexe sur des planètes habitables, comme la Terre, ait pu être grandement favorisée par des trous noirs. En 2016, ce professeur à l’Université d’État du Nouveau-Mexique à Las Cruces, a présenté ses travaux lors de la réunion de l’American Astronomical Society à Kissimmee, en Floride. Selon lui, en favorisant l'expansion des galaxies et de l'Univers, les trous noirs auraient pu jouer un rôle important pour diminuer l'intensité néfaste des rayons et radiations cosmiques, permettant ainsi le développement d'une vie de plus en plus complexe sur notre Terre et peut-être sur d'autres planètes. « Nous comprenons à présent à quel point le rythme d'expansion de l'univers joue un rôle important pour les chances d'apparition de la vie &raqu o; souligne Paul Mason (Voir IFL Science).

Il y a quelques mois, l'équipe de Martijn Oei, chercheur à Caltech, en Californie, a observé la plus grande irruption de jets énergétiques de trous noirs jamais enregistrée à ce jour (Voir Nature). Ces jets se propagent sur une distance inimaginable de 23 millions d'années-lumière de longueur, soit l'équivalent de 140 galaxies comme la nôtre, mises bout à bout. Ce jet incroyable a été baptisé Porphyrion, en référence à un géant de la mythologie grecque. Situé à 7,5 milliards d'années-lumière de la Terre, il date d'une époque où notre Univers était bien plus jeune et n'avait que 6,3 milliards d'années. Cette découverte conforte l'hypothèse selon laquelle ces jets géants pourraient a voir eu une influence majeure sur la formation des galaxies. « Si des jets lointains comme ceux-ci peuvent atteindre l'échelle du Cosmos, alors chaque endroit de l'univers a pu être affecté par l'activité des trous noirs à un moment donné du temps cosmique », explique Martijn Oei.

On sait, depuis 2015, que des jets de trous noirs peuvent transporter une énergie 10 milliards de fois plus grande que celle rayonnée par le soleil. Ces flux d'énergie sont si puissants qu'ils peuvent empêcher la condensation de gaz qui conduit à la formation de nouvelles étoiles et modifier l'évolution des galaxies (Voir Arxiv). Une équipe internationale a notamment pu observer que les jets de trous noirs pouvaient accélérer le milieu interstellaire en observant la galaxie IC5063, située à 160 millions d’années-lumière de la Terre. Cette galaxie a une particularité rare : son jet est étendu dans l’espace et il est presque aligné avec son disque de gaz. Grâce à cette configuration particulière, un groupe de chercheurs regroupant des scientifiques amé ricains, français et grecs, dont la professeur Françoise Combes (Observatoire de Paris), a découvert que ce jet incroyablement puissant engendre des vents d'hydrogène moléculaire d'une vitesse inouïe (1200 km/seconde), susceptibles de remodeler cette galaxie et d'influer sur la création de nouvelles étoiles.

Il y a un an, une autre étude internationale a montré, grâce au télescope spatial à rayons X XMM-Newton de l'ESA, que les trous noirs et les galaxies qui les abritent influencent fortement leur évolution respective. Des scientifiques ont en effet observé qu’un trou noir très actif et très vorace renvoyait de puissants jets gazeux très loin dans son environnement, empêchant la naissance de nouvelles étoiles, au centre de Markarian 817 (Voir Arxiv), une galaxie qui se trouve à 430 millions d'années-lumière de notre Terre, dans la Constellation du Dragon. Incapable de produire de nouveaux soleils, cette galaxie est contrainte de modifier sa structure. Toutes ces récentes études montrent que les trous noirs et leurs galaxies hôtes interagissent et modifient leur évolution re spective et que de nombreuses galaxies, dont notre Voie lactée, présentent de vastes régions autour de leur centre dans lesquelles très peu de nouvelles étoiles se forment. Il y a quelques semaines, une autre étude de l'université de Tokyo laisse penser que les trous noirs pourraient bien également être à l'origine de la mystérieuse matière noire, qui représente environ un quart du contenu de l'Univers.

Permettez-moi d’évoquer pour terminer ce trop rapide tour d'horizon sur les trous noirs, la fascinante hypothèse des “trous blancs”, défendue avec conviction par le grand physicien Carlo Rovelli. Celui-ci souligne que la relativité générale échoue à elle seule à répondre à une question pourtant simple : que devient la matière qui tombe au cœur d'un trou noir ? Selon les équations d'Einstein, la densité de matière qui s'accumule au centre des trous noirs finit par produire une singularité, un point où la densité d'énergie et la courbure de l'espace-temps deviennent infinies.

Pour essayer de supprimer ce problème, la gravitation quantique à boucles, défendue par Rovelli, suppose que l'espace lui-même est soumis à la physique quantique. Concrètement, cela signifie que l'espace n'est pas divisible à l'infini mais est constitué de grains élémentaires, des quantas, minuscules d'une taille infime mais finie de 10-35 mètre. Dans ce nouveau cadre quantique, le problème de la singularité disparaît : quand la matière en effondrement sur elle-même atteint ces échelles de taille, la géométrie de l'espace-temps s'inverse et génère une force répulsive qui provoque un rebond de cette matière. Résultat, la matière contractée est brusquement expulsée et les trous noirs se transforment en trous blancs. Ce scenario quantique permet également de surmonter le problème r&eacut e;current de la singularité des trous noirs et d'éliminer le fameux paradoxe d'Hawking portant sur la violation du principe de conservation de l'information, lorsqu'un objet est absorbé par un trou noir.

Mais alors, pourquoi n'observe-t-on pas un peu partout des trous blancs ? Pour une raison simple, précise Rovelli qui souligne que, pour la plupart des trous noirs, de tels événements se produisent sur des échelles de temps si grandes que nous n'avons pas encore pu les observer. Mais ce n'est pas le cas pour les très nombreux petits trous noirs qui s'évaporent bien plus vite et pourraient déjà avoir entamé leur transformation en trous blancs. Dans cette hypothèse, la transformation de ces minuscules trous noirs en trous blancs s'accompagnerait d'une forte éjection de photons gamma, portant une signature particulière (à cause du décalage spectral vers le rouge) et donc théoriquement décelable à l'aide d'instrument suffisamment sensibles. Si de futures observations confirment que ces fameux trous blancs existent réellement, cela démontrerait qu'il faut compléter le cadre de la relativité générale et que les lois fondamentales qui régissent notre univers doivent inclure la physique quantique à toutes les échelles spatiales et temporelles...

En tout état de cause, il est troublant de constater que ces trous noirs, qui sont les objets les plus destructeurs du Cosmos et les plus proches du concept de néant que nous puissions imaginer, semblent également jouer un rôle considérable, voire déterminant, dans la formation décisive des conditions physiques très précises et très particulières permettant l'émergence de la vie et son évolution vers une conscience réflexive capable en retour d’appréhender l'ordre caché et l'étrange beauté de notre Univers...

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Première téléportation quantique sur l'Internet classique
Mardi, 07/01/2025 - 17:24

Malgré son potentiel, la téléportation quantique présente un défi majeur : les photons uniques qui transportent les données quantiques sont extrêmement fragiles. Dans un câble à fibre optique classique, ces particules de lumière risquent d’être écrasées par le bruit généré par des millions d’autres particules lumineuses transportant les communications traditionnelles. Cela revient à tenter de faire passer un vélo dans un tunnel bondé de camions roulant à pleine vitesse. Jusqu’à présent, la solution consistait à construire une infrastructure complètement séparée pour les communications quantiques, ce qui était coûteux et complexe. Cependant, les travaux de l’équipe de Northwestern (Chicago) changent la donne.

Sous la direction de Prem Kumar, les chercheurs ont réussi à surmonter ces obstacles en trouvant une solution innovante. Après avoir étudié avec soin comment la lumière se diffuse dans les câbles à fibre optique, ils ont identifié une longueur d’onde peu encombrée où les photons quantiques peuvent voyager sans interférence. Ils ont également conçu des filtres spéciaux pour réduire le bruit généré par le trafic Internet normal. Dans leur expérience, l’équipe a installé un câble à fibre optique de trente kilomètres et a envoyé simultanément des données classiques et quantiques. En mesurant la qualité des informations quantiques à l’arrivée, ils ont constaté que la téléportation avait réussi même en présence d̵ 7;un trafic Internet intense. Cette réussite est une première mondiale.

La téléportation quantique sur des câbles Internet classiques pourrait transformer l’avenir des communications. Elle rend les réseaux quantiques plus accessibles en éliminant la nécessité de construire une infrastructure spécialisée. Cela signifie que les technologies quantiques pourraient être déployées plus rapidement et à moindre coût. Un autre atout majeur de cette technologie est sa capacité à garantir des communications ultra-sécurisées. En exploitant les principes de l’intrication quantique, il devient en effet possible de transmettre des informations de manière imperméable aux interceptions. Cela en fait une solution idéale pour des secteurs sensibles tels que les transactions bancaires, les échanges diplomatiques, ou encore les communications militaires.

Les réseaux quantiques pourraient aussi transformer la collaboration scientifique à l’échelle mondiale. Imaginez des laboratoires situés sur différents continents partageant instantanément des données complexes grâce à cette technologie. Cela accélérerait les découvertes dans des domaines cruciaux comme la physique fondamentale, la médecine ou encore l’exploration spatiale. Enfin, la téléportation quantique joue un rôle central dans le développement de l’informatique quantique. En connectant des ordinateurs quantiques distants, elle ouvre la voie à une informatique distribuée capable d’exécuter des calculs d’une puissance inégalée. Cette interconnexion permettrait de résoudre des problèmes jusque-là insurmontables avec des applications allant de l’optimisation industrielle &a grave; la modélisation climatique.

Cette avancée marque un tournant dans le domaine des communications. En montrant que la téléportation quantique peut coexister avec les infrastructures existantes, elle ouvre la voie à un futur où les réseaux quantiques seront accessibles à grande échelle. Kumar et son équipe prévoient maintenant d’étendre leurs expériences sur des distances plus longues et d’utiliser deux paires de photons intriqués pour démontrer l’échange d’intrication, une étape cruciale pour les réseaux quantiques mondiaux.

Article rédigé par Georges Simmonds pour RT Flash

NorthWestern

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot portable révolutionnaire pour décupler la force musculaire des travailleurs
Mercredi, 08/01/2025 - 19:21

Hyundai Motor, géant de l’industrie automobile, vient de dévoiler un robot portable révolutionnaire conçu pour améliorer la force musculaire des travailleurs industriels. Ce nouvel appareil promet non seulement d’augmenter l’efficacité au travail, mais aussi de réduire considérablement les blessures musculo-squelettiques. Dans un secteur où la santé et la sécurité des employés sont primordiales, cette innovation marque un tournant décisif. Le dispositif, nommé X-ble Shoulder, a été présenté lors d’un événement technologique organisé au Hyundai Motorstudio Goyang. Développé par le laboratoire de robotique de Hyundai en collaboration avec Kia, le X-ble Shoulder est un exosquelette porté sur les épaules.

Ce robot portable assiste les muscles de l’utilisateur lors de travaux en hauteur. Il réduit jusqu’à 60 % la charge sur les épaules et jusqu’à 30 % l’activité musculaire, améliorant ainsi la qualité de vie au travail. Le X-ble Shoulder se distingue par l’utilisation de matériaux composites en carbone. Ces matériaux sont non seulement résistants à l’usure, mais aussi légers, ce qui est essentiel pour un appareil destiné à être porté pendant de longues heures. Pesant environ 1,9 kilogramme, le dispositif est modulaire et détachable. Ses composants peuvent être lavés, garantissant ainsi une hygiène optimale pour les utilisateurs.

Hyundai prévoit d’appliquer cet exosquelette dans ses propres départements de production et de maintenance, ainsi que ceux de Kia. À terme, la société envisage d’étendre l’utilisation du dispositif à 27 filiales du groupe Hyundai Motor, tout en ciblant également des entreprises externes. Le marché international n’est pas en reste. Hyundai projette de lancer le X-ble Shoulder à l’étranger dès 2026, témoignant de son ambition de révolutionner le secteur industriel au niveau mondial. Dans le contexte industriel actuel, où les tâches physiques sont souvent à l’origine de blessures, l’introduction de ce robot portable représente une avancée significative. Les blessures musculo-squelettiques, fréquentes dans les environnements de travail exigeants, pourraient voir leur occurrence réduite grâce &a grave; l’utilisation de l’X-ble Shoulder.

Article rédigé par Georges Simmonds pour RT Flash

Hyundai

Des chercheurs australiens transforment l’ADN en matériau pour créer des nanorobots
Mardi, 07/01/2025 - 17:22

Les équipes du Nano Institute de Sydney travaillent à faire avancer la médecine moderne, notamment grâce à la convergence entre biologie moléculaire et robotique. Leur approche leur a permis de concevoir des robots microscopiques dont les dimensions se mesurent en millionièmes de millimètre. Théoriquement, ces nanorobots, en tant que machines biologiques programmables, pourraient accomplir des missions thérapeutiques précises.

L'équipe australienne repousse les limites de la miniaturisation en créant un véritable catalogue de nanostructures. Parmi leur collection de plus de cinquante créations figurent une carte de l'Australie de 150 nanomètres, un dragon, un minuscule dinosaure. Le Docteur Shelley Wickham, qui considère celui-ci comme sa création favorite, explique que sa structure combine zones rigides et parties articulées, une configuration « impossible à obtenir au hasard ».

Ces réalisations, observables uniquement au microscope électronique, constituent une vitrine des possibilités offertes par cette technologie. Chaque forme créée représente un défi technique sérieux, nécessitant un contrôle précis de l'assemblage moléculaire pour obtenir la structure désirée. La fabrication de ces nanorobots repose sur une méthodologie d'assemblage moléculaire très précise, comparable à un jeu de construction microscopique. Le processus débute par l'extraction d'ADN de bactériophages, des virus spécialisés dans l'infection de bactéries. Cet ADN subit ensuite un processus de pliage contrôlé, grâce à une technique baptisée origami ADN, générant des structures cylindriques baptisées voxels (oui, comme les blocs de base qui constituent le monde de Mine craft).

Ces composants élémentaires intègrent 300 séquences d'ADN spécifiques, agissant comme des points d'ancrage moléculaires. Le Docteur Wickham compare ce processus à un système de velcro microscopique : chaque séquence ADN possède une "signature" unique qui détermine où et comment elle se fixera aux autres composants. Les voxels, dotés de sites de liaison externes programmables sur leur surface, s'auto-assemblent en configurations prédéfinies selon un plan précis, formant ainsi des nanorobots fonctionnels. Cette technique permet une construction modulaire et programmable, où chaque composant trouve automatiquement sa place dans l'architecture finale.

Le professeur Arnan Mitchell du RMIT (Institut royal de technologie de Melbourne) souligne le potentiel thérapeutique de ces nanorobots, particulièrement dans l'administration ciblée de médicaments. « Ces machines moléculaires pourraient transporter des agents thérapeutiques jusqu'à leur cible, les protéger durant leur trajet, puis les libérer sous l'effet de stimuli externes comme la lumière ou la chaleur ».

Article rédigé par Georges Simmonds pour RT Flash

Science

^ Haut
Matière
Matière et Energie
Un nouveau laser révolutionnaire permet la fabrication des processeurs beaucoup plus rapides et sobres en énergie
Mercredi, 08/01/2025 - 19:28

En Californie, le fameux laboratoire Lawrence Livermore National Laboratory (LLNL), est à la pointe du développement de la lithographie extrême ultraviolet (EUV), une technique utilisée pour fabriquer des semi-conducteurs, principalement dans la production de circuits intégrés pour les microprocesseurs. Des chercheurs planchent sur une nouvelle évolution à laquelle ils ont donné le nom de "lithographie au-delà de l’EUV". Cette nouvelle étape vise à en finir avec les limitations actuelles de la technologie EUV pour rendre possible la production de semi-conducteurs plus petits, plus puissants et plus efficaces.

Concrètement, ce projet repose sur l’élaboration d’un nouveau système laser développé par le laboratoire, le “Big Aperture Thulium” (BAT), dont l’objectif est d’augmenter l’efficacité des sources EUV d’environ dix fois par rapport aux lasers à dioxyde de carbone (ou laser CO₂), actuellement utilisés dans l’industrie. Cette avancée pourrait permettre de fabriquer des puces plus petites, plus puissantes et plus rapides, tout en consommant moins d’énergie.

De premières démonstrations du laser BAT ont été réalisées. Selon Brendan Reagan, physicien du laboratoire, les simulations théoriques et les démonstrations pratiques menées ces cinq dernières années ont permis de poser les bases de ce projet. « Notre travail a déjà eu un impact important sur la communauté de la lithographie EUV », détaille-t-il dans le communiqué. « Nous sommes maintenant impatients de franchir cette nouvelle étape ».

La lithographie EUV utilise des lasers puissants pour chauffer de minuscules gouttes d’étain et créer un plasma qui émet de la lumière ultraviolette servant à graver des circuits sur les puces de semi-conducteurs.L’objectif des recherches en cours est de s’assurer si la technologie laser BAT, qui utilise un laser spécial à base de thulium (un métal rare), peut rendre ce processus plus efficace en augmentant la puissance et l’intensité des lasers. Ce plasma génère de la lumière à une longueur d’onde de 13,5 nanomètres (nm), ce qui est crucial pour graver des circuits aussi fins selon les principes de la lithographie EUV.

Le projet inclura des tests combinant le laser BAT avec des technologies qui génèrent de la lumière EUV à partir d’impulsions très rapides (nanosecondes) et qui produisent des rayons X ou des particules à haute énergie en utilisant des impulsions ultracourtes sub-picosecondes (qui sont des impulsions de très courte durée, inférieures à une trillionième de seconde, permettant ainsi d’obtenir des niveaux d’énergie extrêmement élevés). Cette avancée devrait avoir un impact majeur sur l’industrie des semi-conducteurs, permettant de produire des microprocesseurs de plus en plus petits et puissants.

Article rédigé par Georges Simmonds pour RT Flash

LLNL

Un transistor cryogénique pour des ordinateurs quantiques plus puissants
Mardi, 07/01/2025 - 17:29

Un transistor est un petit dispositif électronique utilisé pour amplifier ou contrôler des signaux électriques. C’est l’un des composants clés de toute l’électronique moderne, des smartphones aux ordinateurs. Il permet de réguler l’électricité et donc d’effectuer des calculs et de stocker des données. Les ordinateurs classiques que nous utilisons au quotidien reposent sur des milliards de transistors pour effectuer des millions d’opérations par seconde.

Cependant, les ordinateurs quantiques fonctionnent de manière très différente. Ils ne se basent pas sur des bits traditionnels (0 ou 1), mais sur des qubits. Les qubits ont la capacité unique de représenter à la fois 0 et 1 en même temps grâce à un phénomène appelé superposition. Cela permet aux ordinateurs quantiques de traiter une énorme quantité d’informations simultanément, rendant certains types de calculs beaucoup plus rapides et puissants que ceux effectués par les ordinateurs classiques.

Toutefois, les qubits ont besoin d’être dans un état très particulier pour fonctionner correctement. Ils doivent en effet être refroidis à des températures extrêmement basses, proches du zéro absolu (-273,15°C), afin d’atteindre un état de cohérence quantique. L’un des principaux défis des ordinateurs quantiques actuels est donc de maintenir ces températures ultra-basses. À ces températures, la moindre chaleur générée par les composants électroniques traditionnels peut perturber le fonctionnement des qubits et ralentir les calculs. Les systèmes actuels de refroidissement des ordinateurs quantiques sont coûteux et complexes, car chaque ajout de composant électronique génère de la chaleur qu’il faut constamment évacuer pour maintenir les conditions nécessaires.

Pour surmonter cet obstacle majeur, des ingénieurs de la société finladaise SemiQon ont mis au point un transistor cryo-CMOS, capable de fonctionner efficacement à des températures extrêmement basses, proches de 1 kelvin (soit environ -272°C), ce qui est encore plus froid que la température nécessaire pour que les qubits atteignent leur état de cohérence. Une des caractéristiques les plus impressionnantes de ce transistor est sa capacité à ne dissiper quasiment aucune chaleur. Contrairement aux transistors classiques qui génèrent beaucoup de chaleur lorsqu’ils sont utilisés, le transistor cryo-CMOS émet très peu de chaleur, ce qui réduit considérablement la consommation d’énergie des systèmes électroniques. En fait, ce transistor est capable de consommer mille fois moins d’énergie que les t ransistors traditionnels.

Cela représente un immense progrès pour l’informatique quantique. En réduisant la dissipation de chaleur, ce transistor permet de maintenir plus facilement des températures ultra-basses, tout en ajoutant davantage de composants électroniques à un système quantique sans nuire à son efficacité. Cette avancée pourrait rendre les ordinateurs quantiques beaucoup plus rentables en réduisant les coûts liés à la gestion de la chaleur et au refroidissement. Au-delà des applications dans les ordinateurs quantiques, le transistor cryo-CMOS pourrait également être utilisé dans d’autres domaines de l’informatique avancée. Citons par exemple les supercalculateurs qui sont utilisés pour effectuer des calculs extrêmement complexes dans des domaines comme la modélisation climatique, la recherche en biologie ou encore l’intell igence artificielle. Ils doivent également fonctionner à des températures très basses pour optimiser leurs performances et ce transistor pourrait rendre leur fonctionnement plus efficace et moins énergivore.

Article rédigé par Georges Simmonds pour RT Flash

New Electronics

Climatiser les vêtements grâce aux nanoparticules
Mardi, 07/01/2025 - 17:20

Des scientifiques de l’université du Massachusetts (Etats-Unis) ont mis au point un procédé pour transformer des vêtements ordinaires « en outils de rafraîchissement personnel passif ». Pour parvenir à ce résultat, Ils ont enduit des tissus de nanoparticules de carbonate de calcium et de sulfate de baryum, issues respectivement de coquilles d’huîtres broyées et de barytine, un minéral naturel servant de produit de contraste pour des radiographies gastriques. Après de multiples essais, deux très fines couches alternées de chaque matériau ont permis d’obtenir des résultats thermiques « qui nous ont étonnés nous-mêmes », reconnaît la scientifique Trisha Andrew, professeure de chimie et de génie chimique, qui dirigeait la recherche. Le vêtement enduit a permis à la personne qui le portait de re ssentir en moyenne 3,4°C de moins que s’il portait un vêtement classique. Les scientifiques sont en discussion avec plusieurs industriels pour développer le prototype obtenu.

« Lorsqu’une personne sort sous un soleil brillant, son corps et ses vêtements absorbent la lumière, qui est transposée en chaleur par une multitude de mécanismes moléculaires. » D’où la conception de ce matériau qui rejette, in fine, la chaleur du soleil tout en laissant la peau respirer. « Ce n’est pas un mécanisme de refroidissement actif mais un processus radiatif passif », précise-t-elle. Ces recherches constituent une avancée significative car elles pourraient permettre de mieux adapter à la chaleur des vêtements ordinaires de façon pratique et simple.

Article rédigé par Georges Simmonds pour RT Flash

UMA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Une nouvelle théorie pour expliquer l'origine de l'eau sur Terre
Mercredi, 08/01/2025 - 19:24

Une équipe dirigée par un astronome de l'Observatoire de Paris – PSL au sein du Laboratoire d’études spatiales et d’instrumentation en astrophysique (LESIA – Observatoire de Paris – PSL / CNRS / Sorbonne Université / Université Paris Cité), a mis en évidence un nouveau mécanisme potentiel d'apport d'eau sur Terre, offrant une perspective prometteuse par rapport aux théories précédentes. Cette étude se base sur de nombreuses observations du Système solaire, ainsi que sur d’autres, faites au radiotélescope ALMA, de disques de débris extrasolaires.

L'eau est un élément essentiel à la vie sur Terre ; pourtant, les scientifiques pensent que la jeune Terre en était dépourvue à sa formation. Située trop près du Soleil, notre planète aurait en effet été trop chaude pour conserver de l'eau, à son origine. Les théories actuelles suggèrent donc un apport d'eau provenant de l'extérieur, intervenu au cours des 100 premiers millions d'années de l'histoire terrestre. Jusqu'à présent, la théorie dominante supposait que des corps glacés, similaires à des comètes, avaient percuté la Terre, apportant ainsi l'eau. Cependant, ce scénario nécessite un “jeu de billard” cosmique, où des mécanismes dynamiques complexes envoient ces objets glacés vers la Terre, à un moment précis et en quantité suffisante. Pour le moins al éatoire, ce scénario est questionné quant à sa robustesse, et sur son universalité à travers tous les systèmes extrasolaires.

Sur la base de données précises, issues de mesures isotopiques réalisées dans l’atmosphère de la Terre, ainsi que d’observations récentes d’astéroïdes (notamment les résultats des missions spatiales qui se sont rapprochées des astéroïdes comme Hayabusa 2 et OSIRIS-REx), un nouveau modèle d’évolution de la ceinture d’astéroïdes a pu être mis en place puis testé sur les données terrestres. En complément, des observations de disques extrasolaires, apparentés à notre ceinture d’astéroïdes, ont été réalisées à l’aide du radiotélescope ALMA, pour tester l’universalité de ce nouveau mécanisme d’apport d’eau ; celui-ci pourrait potentiellement s’appliquer avec succès à une variété de s ystèmes extrasolaires.

La nouvelle étude propose un mécanisme alternatif, moins aléatoire et ne nécessitant pas d'impacts directs avec la Terre. Si, comme on le pense aujourd'hui les astéroïdes se sont formés, glacés, dans un disque primordial froid, alors à la disparition de ce jeune disque, les astéroïdes, se réchauffant, ont progressivement relâché leur glace sous forme de vapeur d'eau. Cette vapeur d'eau a ensuite formé un nouveau disque principalement composé d'eau entourant la ceinture d'astéroïdes et orbitant autour du Soleil. Sous l'effet de forces dynamiques, ce disque de vapeur d'eau s'est progressivement étalé, finissant par atteindre les planètes internes du Système solaire, dont la Terre. Lorsqu'elles se sont retrouvées dans ce bain de vapeur d'eau, les planètes ont pu en capturer une partie, contribuant ainsi à la formation des océans. Ce mécanisme permet également d'expliquer la présence d'eau sur d'autres planètes du Système solaire. Susceptible d’endosser une portée universelle, il offre une piste prometteuse pour identifier des exoplanètes à même d’abriter de l'eau et, potentiellement, la vie.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
L’ARN messager pour combattre le cancer du poumon
Mercredi, 08/01/2025 - 19:26

Des patients du Centre universitaire de santé McGill (CUSM) sont les premiers au Canada, et parmi les premiers au monde, à tester l'efficacité d'une technologie basée sur l'ARN messager pour combattre la forme la plus courante de cancer du poumon. Ces essais cliniques randomisés s'adressent plus spécifiquement aux patients qui ont reçu un diagnostic du cancer du poumon non à petites cellules de stade II ou III et qui ont subi une intervention chirurgicale. Les cancers de stade II ou III sont guérissables, mais il y a souvent des micrométastases [qui nous échappent], a expliqué le Docteur Jonathan Spicer, du CUSM. Pour 75 % et plus de ces patients-là, il y a des cellules qui vont se loger dans le cerveau, dans les os, dans les glandes surrénales et ailleurs, et la majorité [des patients] va faire une récidive.

C'est pour cela qu'on essaie d'ajouter d'autres traitements qui vont s'attaquer à ces micrométastases, explique le Docteur Spicer, d'autant plus que les progrès réalisés au chapitre du dépistage du cancer du poumon permettent d'identifier de plus en plus de patients dont la maladie en est à ces stades. Après la chirurgie, la tumeur est analysée en laboratoire pour déterminer ses particularités génétiques et les protéines qui en dérivent (appelées néoantigènes). Cela permet de développer un ARNm avec des séquences spécifiques à ces néoantigènes qui est ensuite injecté au patient.

Cette stratégie s'inscrit dans le cadre de la médecine de précision ou de la médecine personnalisée, qui voit des traitements être développés sur mesure pour un patient en fonction de ses caractéristiques génétiques ou de celles de sa maladie. L'immunothérapie, a expliqué le Docteur Spicer, aide le système immunitaire à repérer et à détruire les cellules cancéreuses résiduelles qui peuvent se cacher dans l'organisme après la chirurgie et les autres traitements. La réponse n'est toutefois pas parfaite. Les chercheurs espèrent que la nouvelle thérapie individualisée propulsera le système immunitaire vers de nouveaux sommets d'efficacité.

On ajoute un vaccin à l'immunothérapie des patients, a-t-il expliqué. Ça permet d'activer le système immunitaire pour qu'il puisse reconnaître les néoantigènes. On espère que ça va réduire les récidives, augmenter les taux de survie et ainsi de suite. L'ARN messager est entré dans le jargon populaire pendant la pandémie de COVID-19, quand la technologie a mené au développement de vaccins contre le SRAS-CoV-2. Les essais cliniques qui sont aujourd'hui réalisés au CUSM sont directement tributaires des progrès fulgurants réalisés pendant la crise sanitaire mondiale, a confié le Docteur Spicer, puisque cela a mené au développement de vaccins anticancer qui ont déjà démontré leur efficacité face au mélanome.

Article rédigé par Georges Simmonds pour RT Flash

Radio Canada

Les pesticides pourraient être un facteur de risque sous-estimé du cancer du pancréas
Mardi, 07/01/2025 - 17:26

Le Docteur Antoine Hollebecque, cancérologue à l'institut Gustave Roussy, souligne qu’entre « 1990 et 2023, le nombre de cancers du pancréas a été multiplié par quatre. Selon certaines estimations, ce cancer sera peut-être la deuxième cause de décès par cancer à l'horizon 2030 ». Mais comment expliquer cette hausse ? Des chercheurs français se sont penchés sur le rôle des pesticides et le risque d’adénocarcinome pancréatique, la forme la plus fréquente de cancer du pancréas. Il convient de préciser que ces travaux ne permettent pas d’établir une relation de causalité, d'autres facteurs de risques pouvant être impliqués dans la hausse des cas de cancers du pancréas.

Pour en arriver à ces résultats, les chercheurs ont cartographié l’apparition des maladies en fonction de la localisation sur le territoire. Pour ce faire, ils se sont basés sur les données médico-administratives françaises de 134.102 patients atteints d'un cancer du pancréas. Les données ont été recueillies entre 2011 et 2021. Les chercheurs ont analysé les niveaux d’exposition à différents pesticides. De plus, les auteurs précisent que les analyses ont été ajustées pour tenir compte de facteurs tels que les maladies induites par le tabac, celles liées à l'alcool et l'obésité morbide, ou encore l'accessibilité à la médecine communautaire.

Le chercheur Mathias Brugel coauteur de ces travaux, souligne qu’on « sait que la France est un grand pays agricole, où l’usage des pesticides est l’un des plus intenses au monde ». Ce dernier ajoute : « Nous avons donc voulu tester l’hypothèse d’un lien entre l’usage de ces produits et l’incidence locale de la maladie ». Les chercheurs ont constaté que le risque de cancer du pancréas « était hétérogène dans l'espace, le risque étant plus élevé autour de Paris, dans le centre de la France et sur la côte méditerranéenne ». Dans leurs conclusions, les chercheurs soulignent que « l'association avec l'exposition aux pesticides devrait être confirmée et les mécanismes sous-jacents compris à l'aide d'études au niveau individuel ».

Article rédigé par Georges Simmonds pour RT Flash

Pubmed

Une IA pour mieux prévenir le cancer du pancréas
Lundi, 06/01/2025 - 17:56

Les petits kystes ou lésions qui se forment dans le pancréas sont très fréquents, touchant jusqu’à 20 % des personnes de plus de 60 ans. Cependant, selon le Centre de Cancérologie de l’Ohio, environ un quart de ces kystes pourrait évoluer vers une forme mortelle de cancer. Les médecins de ce centre utilisent désormais l’intelligence artificielle pour déterminer lesquels de ces kystes sont susceptibles d’être inoffensifs et lesquels pourraient représenter une menace pour la vie sans traitement. Grâce à des caméras optiques au laser miniatures, ils parviennent à accéder au pancréas à l’aide d’une procédure appelée échographie endoscopique.

Ils exploitent ensuite l’IA pour analyser les vidéos obtenues à l’intérieur du pancréas afin d’identifier des signes pouvant indiquer si un kyste pourrait se transformer en cancer. Pour accélérer ce processus et améliorer la précision des résultats, un médecin collabore avec un ingénieur en informatique pour entraîner un algorithme d’IA à reconnaître et à signaler en quelques secondes les caractéristiques cliniques du cancer du pancréas, au lieu de plusieurs heures.

« Bien que l’œil humain bien formé, comme quelqu’un ayant réalisé plus de 200 ou 300 de ces procédures, puisse raisonnablement évaluer le risque, l’application de cette expertise à l’ensemble des gastro-entérologues est exactement là où l’IA entre en jeu », explique le Docteur Somashekar Krishna. « L’objectif est d’utiliser l’IA en temps réel pendant que le médecin effectue la procédure. L’IA fournit une évaluation immédiatement après l’intervention ».

Jim Blair, l’un des patients du Docteur Krishna, traité pour des kystes précancéreux au Centre de Cancérologie de l’Ohio, craignait de devoir subir une chirurgie après avoir découvert la présence de kystes dans son pancréas. Le médecin a utilisé cette nouvelle technologie d’IA pour déterminer le meilleur traitement à suivre. « Il m’a dit : C’est une nouvelle procédure. Nous n’allons pas essayer de tout faire dès la première fois. Il se pourrait que nous devions intervenir une seconde fois », raconte Blair. « Nous sommes donc revenus une seconde fois et il n’a pas été nécessaire d’agir. La première intervention a suffi et il n’y avait pas de nouvelles lésions », ajoute-t-il.

Cette information offre une meilleure visibilité sur le chemin à suivre pour les patients. Pour Jim, il s’agissait d’une nouvelle procédure, développée par le Docteur Krishna, qui traite les kystes par des méthodes thermiques – une alternative à la chirurgie majeure pour éliminer la menace du cancer du pancréas avant qu’elle ne se développe.

Article rédigé par Georges Simmonds pour RT Flash

OSU

Vers une nouvelle famille d'antibiotiques après 50 ans de recherche
Lundi, 06/01/2025 - 17:53

En 1974, des chercheurs ont découvert, dans le sol d’un cratère volcanique, des pigments rouges produits par des bactéries terrestres. Ceux-ci ont révélé l’existence de biomolécules complexes appelées naphtocyclinones. Ces composés, appartenant à une famille d’antibiotiques aux propriétés biologiques prometteuses, ont immédiatement attiré l’attention des scientifiques. Cependant, leur synthèse artificielle s’est révélée un véritable casse-tête qui a tenu les chercheurs en échec pendant près de cinq décennies. Un demi-siècle plus tard, une équipe de scientifiques japonais de l’Institute of Science Tokyo, dirigée par le professeur associé Yoshio Ando, a enfin relevé ce défi. Cette percée ouvre ainsi la voie à de nouvelles appl ications médicales, biologiques et environnementales.

La difficulté de synthétiser les naphtocyclinones réside dans leur structure moléculaire sophistiquée. Ces molécules sont composées de deux blocs de construction appelés monomères A et B, reliés par un pont chimique complexe connu sous le nom de noyau bicyclo[3.2.1]octadiénone. Ce noyau, qui lie les deux monomères, impose des contraintes spatiales très précises : les atomes doivent être positionnés avec une orientation spécifique et la formation de sous-produits indésirables doit être évitée. De plus, les étapes de synthèse nécessitent une stéréosélectivité rigoureuse. Cela signifie que les réactions chimiques doivent produire une organisation précise des groupes d’atomes dans l’espace, un aspect crucial pour obtenir des molécules fonctionnelles.

Ces exigences élevées ont rendu la tâche extrêmement complexe. Pendant des décennies, aucune stratégie ne semblait capable de surmonter simultanément tous ces défis, jusqu’à l’approche révolutionnaire adoptée par l’équipe du professeur Ando. Pour résoudre ce problème, les chercheurs ont utilisé une approche dite d’analyse rétrosynthétique, une technique qui consiste à remonter le temps en décomposant la molécule cible (ici, la β-naphtocyclinone) en éléments précurseurs plus simples. Une fois ces composants identifiés, ils ont alors conçu un plan détaillé pour les assembler en respectant les contraintes structurelles.

L’équipe a développé une méthode en deux étapes pour relier les monomères A et B et former le noyau bicyclo[3.2.1]octadiénone. Ces étapes incluaient une addition catalysée par le rhodium et une cyclisation réductrice utilisant des composés soufrés. Par ailleurs, les chercheurs ont innové en concevant une molécule intermédiaire commune, à partir de laquelle ils pouvaient facilement dériver les deux monomères. Cette simplification a rendu le processus plus efficace et reproductible.

Le résultat est la synthèse réussie de la β-naphtocyclinone avec un rendement d’au moins 70 % à chaque étape, un exploit impressionnant dans le domaine de la chimie organique. En utilisant une technique supplémentaire appelée lactonisation oxydative, l’équipe a ensuite transformé la β-naphtocyclinone en γ-naphtocyclinone avec un rendement remarquable de 87 %.

L’un des points clés de cette avancée est que les molécules synthétisées en laboratoire sont identiques aux naphtocyclinones naturelles, comme le confirment des analyses spectrales. Cette réussite ouvre des perspectives importantes dans plusieurs domaines. D’une part, les naphtocyclinones pourraient être utilisées pour développer de nouveaux antibiotiques, essentiels pour lutter contre la résistance croissante aux traitements actuels. Leur structure chimique complexe pourrait également inspirer la conception d’autres composés biologiquement actifs.

D’autre part, cette méthode de synthèse fournit un outil précieux pour les chimistes, car elle pourrait être adaptée pour produire des composés apparentés à la naphtocyclinone ou d’autres biomolécules complexes. Ces travaux ouvrent donc la voie à une nouvelle ère de créativité en chimie organique. Enfin, la disponibilité accrue de ces composés grâce à cette méthode pourrait faciliter leur utilisation dans des études biologiques ou environnementales, élargissant ainsi leur potentiel d’application.

Après 50 ans d’efforts, la synthèse des naphtocyclinones est donc une victoire symbolique et pratique pour les chercheurs en chimie organique. L’approche novatrice développée par l’équipe japonaise résout non seulement un casse-tête scientifique, mais ouvre également des perspectives excitantes pour le développement de nouveaux traitements antibiotiques et la compréhension des biomolécules complexes.

Article rédigé par Georges Simmonds pour RT Flash

Angewandte Chemie

Détecter les bactéries dans les liquides à l’aide d'un simple gel
Lundi, 06/01/2025 - 17:50

Les bactéries sont responsables d’infections, de maladies et parfois de décès. Pour limiter ces risques, il est essentiel de pouvoir les détecter, mais certains tests sont techniques et fastidieux, et ne peuvent être réalisés que par des professionnels qualifiés. Pour faciliter la détection de ces micro-organismes, des chercheurs, de l’université McMaster au Canada, ont créé un nouveau test, simple d’utilisation. Composé d’un gel, il permet de repérer les bactéries dans différents liquides dont l’urine.

Ce nouvel outil a été créé grâce aux bactériophages. « Les bactériophages sont la forme de vie la plus courante sur Terre, précisent-ils dans un communiqué. Chaque type de bactériophage est spécialisé pour détruire une forme de bactérie ». Dans leur test, ils utilisent des bactériophages inoffensifs, capables de localiser les bactéries. « Les phages – comme on les appelle familièrement – trouvent et attaquent les bactéries cibles dans un échantillon, ce qui amène les bactéries à libérer des quantités microscopiques de matériel intracellulaire que le test peut lire, déclenchant un changement de couleur facilement visible à l’œil nu », indiquent les scientifiques canadiens. Lorsqu’il n’y a pas de bactérie dans l& #8217;échantillon, la couleur ne change pas. L’équipe a confirmé l’efficacité de son nouveau test sur des échantillons d’urine : les résultats de cet outil expérimental étaient identiques à ceux des tests de laboratoire traditionnels. « Le test a également fonctionné avec précision pour détecter E. Coli dans des échantillons d’eau de lac », précisent-ils.

Par ailleurs, il suffit de quelques heures pour obtenir le résultat du test, contre plusieurs jours pour certains tests de culture en laboratoire. « Aujourd’hui, les personnes qui soupçonnent une infection urinaire doivent consulter un médecin et parfois attendre des jours pour obtenir un résultat », rappelle l’auteur principal de cette étude, Tohid Didar, professeur agrégé de génie mécanique et biomédical. « Cette technologie permettrait aux gens de se tester eux-mêmes à domicile et d’obtenir un résultat en quelques heures ».

En dehors des tests urinaires, elle pourrait être utilisée dans les liquides alimentaires ou dans l’eau, pour les personnes n’ayant pas accès à l’eau de ville. « Les tests de contamination dans des liquides complexes comme le lait, le sang ou l’urine sont particulièrement difficiles, ce qui rend les alternatives simples et fiables comme le nouveau test très utiles », affirment ces spécialistes. Ils espèrent désormais obtenir les autorisations nécessaires pour le commercialiser.

Article rédigé par Georges Simmonds pour RT Flash

AM

Une bactérie pour soigner le cancer du côlon
Lundi, 06/01/2025 - 17:48

Des chercheurs anglais et écossais ont découvert comment la Salmonella, à l’origine de l’infection salmonellose, empêchait les cellules T, des cellules immunitaires clés pour protéger l’organisme des infections et du cancer, de fonctionner correctement, notamment pour arrêter les cellules malignes colorectales. Il faudrait donc modifier la bactérie Salmonella pour qu’elle opère aux côtés du système immunitaire de l’organisme afin que les lymphocytes T soient aptes à attaquer les cellules cancéreuses.

« Nous savons que les salmonelles atténuées et d'autres bactéries ont le pouvoir de lutter contre le cancer, mais jusqu'à présent, on ne savait pas pourquoi elles ne s'avéraient pas aussi efficaces qu'elles auraient dû l'être. Nos recherches ont permis de découvrir que c’est un acide aminé appelé asparagine que les bactéries attaquent et qui est essentiel à l’activation des cellules T », explique le chercheur principal, le Docteur Kendle Maslowski, du Cancer Research UK Scotland Institute de Glasgow et de l'Université de Glasgow (Ecosse). Nous pensons que ces connaissances pourraient permettre de modifier les bactéries pour qu’elles n’attaquent pas l’asparagine, ce qui permettrait aux cellules T d’agir contre les cellules tumorales et de développer de nouveaux traitements efficaces contre le cancer &raq uo;.

Pour information, les travaux des chercheurs ont porté sur des souris atteintes de cancer colorectal. Le premier auteur de l’étude, le Docteur Alastair Copland, chercheur en immunologie à l'Université de Birmingham, poursuit : « Nous avons (…) mis le doigt sur une cible génétique intéressante qui pourrait nous aider à exploiter tout le potentiel de cette thérapie (bactérienne, NDLR). Il est particulièrement gratifiant de transformer un microbe pathogène comme la salmonelle en un microbe capable de lutter contre le cancer ».

« Les thérapies bactériennes ne sont pas devenues courantes malgré les progrès considérables réalisés dans les immunothérapies qui utilisent le système immunitaire de notre propre corps pour attaquer le cancer », commente quant à elle le Docteur Catherine Elliott, directrice de recherche au Cancer Research UK, qui a financé la recherche. « Mais il est reconnu depuis longtemps que les bactéries ont un potentiel considérable pour lutter contre les maladies ».

Et de conclure : « Ce développement passionnant du Cancer Research UK Scotland Institute pourrait conduire à des traitements plus efficaces pour les patients atteints de cancer colorectal et d'autres cancers à l'avenir, offrant ainsi de l'espoir aux patients ».

La salmonelle peut être présente dans les intestins de nombreux animaux, comme les poules, les vaches et les porcs. Elle peut ainsi contaminer la viande, les œufs ou encore les fruits et légumes ayant été en contact avec les animaux infectés, ce qui peut provoquer une infection alimentaire chez les consommateurs. Cette dernière se manifestera le plus souvent sous la forme d’une gastro-entérite. En effet, les symptômes comprennent diarrhée, crampes d’estomac, nausées, vomissements et fièvres. Ils se développent le plus souvent dans les 12 à 72 heures après exposition à la bactérie et durent quatre à sept jours.

Article rédigé par Georges Simmonds pour RT Flash

UOG

Cancer : L'Interleukine-15 améliore l'efficacité des cellules GPC3 CAR T
Lundi, 06/01/2025 - 17:46

Des chercheurs américains de l'Université de Houston (Texas) ont montré que l'ajout d'interleukine-15 (IL-15) aux cellules du récepteur T de l'antigène chimérique Glypican-3 (GPC3 CAR T) pouvait améliorer la capacité des cellules à se développer, à survivre et à combattre les tumeurs chez les personnes atteintes de cancers solides.

Les cellules CAR T ont montré des taux de réponse complète de plus de 80 % dans certains cancers du sang. La thérapie cellulaire CAR T est prometteuse pour améliorer la survie des patients atteints de tumeurs solides. Cependant, les chimiothérapies et radiothérapies conventionnelles sont limitées dans leur capacité à traiter les cancers volumineux ou métastatiques et ont des effets secondaires importants.

L’efficacité des cellules CAR T dans les tumeurs solides est souvent entravée par le microenvironnement tumoral (TME). Le TME peut contenir des signaux inhibiteurs bloquant les réponses immunitaires et manquant de cytokines comme l’IL-15, qui sont essentielles au fonctionnement et à la survie optimaux des lymphocytes T.

À propos de l'étude

Quatre essais cliniques ont été menés pour évaluer la thérapie par lymphocytes T utilisant un CAR de deuxième génération ciblant GPC3 dans les tumeurs hépatiques. Deux essais portaient sur des patients pédiatriques et deux sur des adultes. Les essais visaient à évaluer l'innocuité, la tolérabilité et la dose recommandée pour le traitement des tumeurs hépatiques récidivantes.

Des vecteurs rétroviraux portant les gènes GPC3 CAR et IL-15 ont été produits à l'aide d'une lignée cellulaire et modifiés pour empêcher certaines traductions protéiques. Les lymphocytes T des patients ont été stimulés et transduits avec les gènes CAR. Les cellules ont été développées, testées et cryoconservées.

La cytométrie en flux a été utilisée pour évaluer les caractéristiques immunitaires des cellules CAR T et pour vérifier leur persistance et leur fonction après perfusion. Les tests de cytotoxicité impliquaient de mélanger des cellules T avec des cellules tumorales pour mesurer l’efficacité avec laquelle les cellules CAR T tuaient les cellules tumorales.

Après activation avec des cellules tumorales, les cellules T ont été testées pour la production de cytokines (molécules de signalisation immunitaire) afin d'évaluer leur fonctionnalité. La persistance des cellules CAR T dans l’organisme a été mesurée en suivant leur matériel génétique à l’aide de méthodes quantitatives de réaction en chaîne par polymérase (PCR).

Les niveaux de cytokines dans le sérum ont été mesurés à l'aide d'un test à base de billes. Un médicament utilisé pour contrôler l’activité des cellules CAR T a été administré aux patients à des doses spécifiques. Le séquençage de l’acide ribonucléique unicellulaire (scRNA-seq) a ensuite été utilisé pour analyser le comportement des cellules CAR T au niveau moléculaire, aidant ainsi à comprendre leur fonction et leur persistance.

Résultats

L'IL-15 a amélioré de manière significative l'efficacité antitumorale des thérapies cellulaires CAR T par rapport aux cellules CAR T traditionnelles, comme le montre cette étude. Les chercheurs ont développé des cellules 15.CAR T conçues pour co-exprimer l’IL-15, une cytokine qui améliore la survie et la fonction des cellules T. Ces cellules T modifiées présentaient une expansion, une fonction et un ciblage tumoral supérieurs, liés à la capacité de l'IL-15 à stimuler la phosphorylation oxydative et à promouvoir un phénotype de cellules T mémoire, améliorant ainsi la persistance à long terme dans le TME.

L’étude a révélé que l’IL-15 renforçait le métabolisme oxydatif dans les cellules 15.CAR T, améliorant ainsi leur activité cytotoxique et leur différenciation en cellules effectrices. Cela a conduit à une polyfonctionnalité accrue, essentielle à la destruction efficace des tumeurs. Cette étude met en évidence le potentiel des cellules CAR T modifiées par l’IL-15 pour améliorer les résultats du traitement des tumeurs solides en améliorant la fonction, l’expansion et le ciblage des cellules T tout en maintenant un profil de sécurité gérable.

Article rédigé par Georges Simmonds pour RT Flash

Nature

La stimulation cérébrale, nouvel outil contre la paralysie
Lundi, 06/01/2025 - 17:43

Des scientifiques de l'EPFL et du CHUV, dirigés par le professeur Grégoire Courtine et la professeure Jocelyne Bloch, ont franchi une étape importante dans le traitement des lésions de la moelle épinière. En appliquant la stimulation cérébrale profonde (SCP) à une région du cerveau peu connue pour être impliquée dans la marche, l'hypothalamus latéral (HL), l'équipe a amélioré la récupération des mouvements des membres inférieurs chez deux personnes souffrant de lésions médullaires partielles, ce qui a grandement amélioré leur autonomie et leur bien-être.

Wolfgang Jäger, 54 ans, originaire de Kappel, en Autriche, est en fauteuil roulant depuis 2006, après un accident de ski qui lui a causé une lésion de la moelle épinière. En participant à l'essai clinique, il a pu constater par lui-même que la stimulation cérébrale profonde pouvait lui restaurer sa mobilité et son indépendance. « L'année dernière, en vacances, j’étais capable de descendre quelques marches et retourner à la mer en utilisant la stimulation », a partagé Jäger, décrivant la liberté retrouvée grâce à la stimulation cérébrale profonde. Au-delà de la marche, cette thérapie a également amélioré les tâches quotidiennes. « Je peux aussi atteindre des objets dans les placards de la cuisine », a-t-il ajouté.

La SCP est une technique neurochirurgicale bien établie qui consiste à implanter des électrodes dans des régions spécifiques du cerveau afin de moduler l'activité neuronale. Traditionnellement, la SCP était principalement utilisée pour traiter les troubles du mouvement tels que la maladie de Parkinson ou le tremblement essentiel en ciblant les zones du cerveau responsables du contrôle moteur. Cependant, l'application de la SCP à l'hypothalamus latéral pour traiter une paralysie partielle est une approche novatrice. En se concentrant sur l’HL, les scientifiques de .Neurorestore ont exploité une voie neuronale inattendue, jusqu’alors inexplorée pour la récupération motrice.

L'étude a révélé que la SCP produisait non seulement des résultats immédiats pour améliorer la marche pendant la rééducation, mais aussi des améliorations à long terme qui persistaient même lorsque la stimulation était arrêtée. Ces résultats suggèrent que le traitement a favorisé une réorganisation des fibres nerveuses résiduelles qui contribue à des améliorations neurologiques durables. « Cette recherche démontre que le cerveau joue un rôle clé dans le processus de récupération d'une paralysie. Étonnamment, il n'est pas en mesure de tirer pleinement profit des projections neuronales qui survivent après une lésion de la moelle épinière. Ici, nous avons découvert comment exploiter une petite région du cerveau, auparavant inconnue pour son r&ocir c;le dans la production de la marche, afin d'engager ces connexions résiduelles et d'améliorer la récupération neurologique chez les personnes souffrant de lésions de la moelle épinière », explique Grégoire Courtine, professeur en Neurosciences à l'EPFL, au CHUV, et à l'UNIL et co-directeur du centre .Neurorestore.

L'identification de l'hypothalamus latéral comme acteur clé de la récupération motrice après une paralysie constitue en soi une découverte scientifique importante, étant donné que cette région n'est traditionnellement associée qu'à des fonctions telles que l'éveil et l'alimentation. Cette avancée est le fruit d'une méthodologie novatrice en plusieurs étapes, qui a débuté par une cartographie anatomique et fonctionnelle du cerveau entier afin d'établir le rôle de cette région dans la marche, suivie d'expériences sur des modèles précliniques pour identifier les circuits précis impliqués dans la récupération. Enfin, ces résultats ont conduit à des essais cliniques sur des participantes et participants humains.

« C’est grâce à une recherche fondamentale, incluant la création de cartes détaillées de l’activité cérébrale, que nous avons pu identifier l'hypothalamus latéral dans la récupération de la marche. Sans ce travail fondamental, nous n'aurions pas découvert le rôle inattendu que joue cette région dans le processus de récupération de la marche », explique Jordan Squair, l'un des principaux auteurs de l'étude. Ces résultats remarquables ouvrent la voie à de nouvelles applications thérapeutiques pour améliorer la récupération après une lésion de la moelle épinière.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr