| | | | | | | Edition du 15 Septembre 2023 |
| |
|
| Edito La quête vers l’ordinateur quantique progresse à grand pas...
Le 20 juin dernier, Microsoft annonçait sa « feuille de route » vers un ordinateur quantique opérationnel d'ici 10 ans. Microsoft et son équipe ont travaillé sur la création de qubits topologiques. Pour parvenir à cet objectif ambitieux, Microsoft, au lieu d'utiliser des qubits classiques qu’il est difficile d’isoler et de contrôler, mise sur l’approche topologique, qui permet de stabiliser le qubit afin qu’il comporte moins d’erreurs. Les systèmes quantiques qui les exploitent pourraient en effet bénéficier d’une durée de vie 10 milliards de fois plus longues que les autres technologies quantiques utilisant des qubits topologiques, ce qui ouvrirait la voie vers des machines capables d'effectuer un million d'opérations quantiques par seconde. Quelques jours avant cette annonce de Microsoft, Intel présentait son premier processeur quantique public. Appelé Tunnel Falls, ce processeur de seulement 12 qubits de spin porte en lui la promesse d’une montée en puissance plus rapide que ses concurrents. Et pourtant IBM, dont le processeur quantique Osprey lancé en fin d’année dernière affiche 433 qubits, s’apprête à sortir son “Condor”, qui en aura 1121... La France s’est, elle aussi, lancée dans cette course technologique à l'ordinateur quantique : fin juin, la société française Quandela, leader du calcul quantique photonique, a franchi une étape décisive, en ouvrant à Massy, dans l'Essonne, sa première usine de production d'ordinateur quantique en Europe. Issue du CNRS, Quandela développe depuis 2017 un calculateur quantique basé sur la lumière pour produire des qubits photoniques. Depuis l’automne 2022, la société propose l’accès via le cloud à Ascella, son premier ordinateur quantique à 6 qubits pour lequel elle affirme avoir des utilisateurs dans le monde entier. En mars dernier, elle a reçu sa première commande d’ordinateur quantique en propre de la part d’OVHcloud, démarrant ainsi la commercialisation de son ordinateur MosaiQ, dont la première version propose une puissance de calcul de 2 qubits, évolutive grâce à une conception modulaire. Il doit être livré en octobre. Cette nouvelle usine va permettre à la start-up tricolore de fournir à ses clients trois machines en six mois, au lieu d'une seule actuellement. Alors que les premiers ordinateurs quantiques, bien qu'encore cantonnés à des usages et types de calcul très particuliers arrivent sur le marché, la recherche fondamentale et appliquée progresse à pas de géants dans le domaine de l'informatique quantique. En Juin, Google a annoncé que son ordinateur quantique, baptisé Sycamore, a effectué en quelques secondes des calculs qui auraient pris 47 ans à un ordinateur classique. Cette percée, si elle est confirmée, représenterait une avancée majeure dans le développement de l’informatique quantique. Elle ouvre la voie à des applications innovantes dans divers domaines, allant de la recherche scientifique à la sécurité informatique, tout en posant de nouveaux défis et questionnements (Voir Interesting Engineering). Alors que Google faisait cette annonce retentissante, des chercheurs de l'université de Caroline du Nord révélaient avoir créé un nouveau matériau à partir de silicium baptisé Q-silicon qui pourrait être utilisé dans la spintronique. Alors que l'électronique classique exploite la charge des électrons, la spintronique utilise également le spin des électrons, c'est-à-dire son moment cinétique. Cette propriété quantique liée à la rotation de l'électron sur lui-même permet notamment de traiter et stocker l’information au niveau atomique. Ces chercheurs ont développé une technique de fabrication du Q-silicon qui consiste à chauffer du silicium amorphe avec un laser pendant quelques nanosecondes avant de le refroidir (Voir Taylor & Francis online). Le nouveau matériau ainsi obtenu acquiert alors des propriétés remarquables, dont celle d’être ferromagnétique à température ambiante, ce qui lui permet de créer des qubits de spin pour l’informatique quantique. Cette découverte pourrait donc permettre de créer de nouveaux appareils plus petits et plus rapides, tout en réduisant leur consommation électrique. Toujours aux États-Unis, des chercheurs du MIT viennent de montrer qu'il est possible de construire un ordinateur quantique en utilisant uniquement des photons “type qubit” et des optiques linéaires simples, à condition d'avoir des photons préparés de manière adéquate (Voir MIT News), de façon à ce que chaque photon corresponde exactement aux caractéristiques quantiques du précédent. Pour atteindre ce résultat, les chercheurs ont eu recours à une nouvelle source de photons constituée de nanoparticules de pérovskite à base de plomb-halite. Résultat : la moitié des photons produits sont indiscernables et utilisables en calcul quantique et comme ce type de photons peut être produit très facilement, ces scienti fiques pensent qu'ils pourront rapidement les améliorer et les intégrer dans des ordinateurs quantiques photoniques. D'autres chercheurs américains de l'Université de Rochester, dirigés par le Pr. Blok, développent des techniques pour améliorer les circuits supraconducteurs, ce qui pourrait permettre de créer des ordinateurs quantiques plus puissants. Contrairement aux conducteurs classiques, tels que le cuivre, où une partie de l’énergie est perdue à cause de la résistance intrinsèque de ce matériau, un supraconducteur ne présente aucune résistance, ce qui autorise une conductivité électrique sans aucune perte d’énergie. Contrairement aux ordinateurs traditionnels, qui fonctionnent selon une logique binaire (0 ou 1), les ordinateurs quantiques se basent sur des qubits. Ces derniers, régis par les lois de la mécanique quantique, peuvent être, grâce au principe de superposition, à la fois “0” et “1”. Les circuit s supraconducteurs ont justement pour objet de créer ces qubits, de les placer en superposition d’états différents et de manipuler ces superpositions. « En contrôlant minutieusement les interactions entre ces qubits, nous pouvons exécuter des algorithmes quantiques, offrant ainsi une puissance de calcul bien supérieure à celle des ordinateurs classiques », affirme le Pr. Blok. Cette équipe travaille sur une nouvelle approche pour stocker et transférer de l’information quantique de manière plus efficace en utilisant des qudits au lieu des qubits. Un processeur basé sur des qudits peut avoir trois ou plusieurs états logiques (“0”, “1”, “2”, etc.) pour encoder de l’information. Cette approche repose sur l’utilisation de photons pour créer et manipuler des qudits afin d’effectuer des calculs. Cette méthode a pour objet de mieux isoler l’information quantique du "bruit" ambiant qui ne doit surtout pas venir perturber les calculs quantiques, sous peine d’arrêt du calculateur. Comme le souligne le Pr. Blok, « Nous visons à concevoir des circuits supraconducteurs qui protègent contre le bruit dans les futurs ordinateurs quantiques et à développer une technologie pour rendre ces ordinateurs plus puissants et fiables » (Voir University of Rochester). Une autre équipe de l’Université du Maryland a également réalisé une percée remarquable vers une meilleure stabilité du calcul quantique. Ces chercheurs ont développé un qubit fluxonium, qui a pu conserver l’information durant 1,43 milliseconde, soit dix fois plus longtemps que les technologies qubit précédentes. Cette avancée dégage la voie vers des ordinateurs quantiques plus stables et plus fiables (Voir APS). L’un des grands avantages de l’utilisation de systèmes supraconducteurs pour mesurer les propriétés quantiques des électrons est qu’ils sont déjà basés sur des circuits électroniques, ce qui laisse envisager une intégration plus facile. Il est important de souligner que cette avancée place ce concept de qbits fluxonium en concurrence directe avec le type de qubit supraconducteur utilisé par IBM ou Google pour développer leurs ordinateurs quantiques. Cela pourrait potentiellement conduire à une diversification des technologies utilisées dans l’informatique quantique. Mais l’avancée la plus surprenante dans le domaine de l’informatique quantique est peut-être celle présentée récemment par des scientifiques du Caltech (California Institute of Technology) en Californie, qui viennent de présenter une nouvelle méthode permettant de traduire les états quantiques électriques en sons et vice versa. Cette découverte ouvre la voie vers une toute nouvelle solution permettant de stocker les données dans les futurs ordinateurs quantiques. Un ordinateur, qu’il soit classique ou quantique, a besoin d’un système de stockage pour conserver les nombreuses données sur lesquelles il travaille (Voir Nature Physics). Avec cette nouvelle technique, qui permet de traduire efficacement les états quantiques électriques en sons et inversement, il devient envisageable de stocker des informations quantiques produites par les ordinateurs quantiques. Concrètement, cette approche repose sur les phonons, qui sont les équivalents sonores des photons, les particules élémentaires qui constituent la lumière. Le phonon représente un quantum d’énergie provenant d’atomes oscillant au sein d’un cristal, de la même façon que le photon est un quantum d’énergie électromagnétique ou lumineuse. Contrairement au photon, le phonon ne peut pas se propager dans le vide. Il se comporte comme une onde de type classique mais peut acquérir certaines propriétés propres aux particules. Ces chercheurs ont montré qu’il était possible d’utiliser ces phonons pour st ocker de l’information quantique et construire des dispositifs suffisamment miniaturisés pour stocker des ondes mécaniques. L’équipe de recherche du California Institute of Technology a mis au point un petit appareil équipé de lames flexibles. Ces dernières se mettent à vibrer à des fréquences très élevées quand on les expose à des ondes sonores. Lorsque ces lames sont chargées électriquement, elles peuvent interagir avec des signaux électriques porteurs d’information quantique. Il devient alors possible de stocker l’information dans l’appareil et de la récupérer plus tard. L'approche proposée par ces scientifiques du Caltech en Californie utilise un matériau à base de silicium qui fonctionne dans la bande de fréquence du gigahertz. De manière très intéressante, cette approche est indépendante des propriétés spécifiques du matériau qu’on utilise, ce qui permet d’utiliser cet te technique avec des dispositifs quantiques existants basés sur les micro-ondes. Cette nouvelle technologie permet donc le stockage des informations quantiques à partir de circuits électriques pendant des durées beaucoup plus longues que des systèmes mécaniques compacts. La Chine est évidemment dans cette course à l’ordinateur quantique et, il y a quelques semaines, des chercheurs de l’Université des sciences et technologies de Chine, dirigée par Xiao-bo Zhu, ont annoncé une avancée importante vers l'ordinateur quantique, en intriquant un nombre record de 51 qubits dans un ordinateur quantique de la série Zuchongzhi. La maîtrise de ce phénomène d'intrication est capitale pour le bon fonctionnement des algorithmes quantiques, comme l’algorithme de Shor pour la factorisation des nombres. L’intrication de plusieurs qubits reste un véritable défi scientifique et technique car, à chaque fois que les chercheurs essayent d’ajouter un qubit supplémentaire au système, cela augmente sa complexité de manière exponentielle. En outre, nous l’avons vu, ces qubits sont extrêmement sensibles à la mo indre perturbation provenant de leur environnement et perdent facilement leur état d’intrication par un phénomène bien connu des physiciens, appelé décohérence. C’est donc bien une véritable prouesse qu’ont accomplie ces scientifiques chinois, en parvenant à établir et contrôler l’intrication de 51 qubits supraconducteurs, établissant ainsi un nouveau record mondial. Ces qubits supraconducteurs sont particulièrement adaptés à l’informatique quantique en raison de leur faible décohérence, ce qui signifie qu’ils peuvent maintenir leur état quantique pendant une période relativement longue. Les chercheurs ont utilisé des micro-ondes pour contrôler l’état des qubits. En ajustant la fréquence et la phase des micro-ondes, ils ont pu manipuler les qubits pour qu’ils prennent les états quantiques désirés. De plus, ils ont ajusté l’interaction entre différents qubits en les frappant avec des impulsions de champs magnétiques, ce qui leur a permis de co ntrôler l’intrication entre les qubits. En utilisant ce système de contrôle, les chercheurs ont pu appliquer des portes logiques quantiques à de nombreuses paires de qubits simultanément. Les portes logiques quantiques sont des opérations qui changent les états quantiques des qubits selon certaines conditions d’entrée. Finalement, ces chercheurs ont réussi à intriquer un nombre record de 51 qubits disposés en ligne et 30 qubits disposés dans un plan bidimensionnel. En France, des scientifiques de l’Institut Charles Sadron (CNRS) ont réussi début juillet à synthétiser des systèmes moléculaires dont les états électroniques de spin peuvent être manipulés grâce à des impulsions de micro-ondes, ouvrant la voie à des applications en informatique quantique. En outre, le recours à des matériaux organiques pourrait rendre beaucoup plus facile le calcul quantique, car ce type de matériaux peut être facilement produit à grande échelle et contrôlé de manière très fine par la chimie. Et justement, ces scientifiques de l‘Institut Charles Sadron (CNRS) travaillent sur des systèmes moléculaires photo-induits appelés "dyades chromophore–radical". Ces molécules présentent une caractéristique particulièrement intéressante : leur état de spin peut être contrôlé par la lumière et persister suffisamment longtemps pour permettre de réaliser des opérations quantiques. Dans le cadre d’une collaboration avec l’Université de Freiburg, ces chercheurs ont combiné deux stratégies : pour réduire les mouvements moléculaires qui réduisent la durée de vie des états quantiques, ils ont remplacé les atomes d’hydrogène par du deutérium et ils ont par ailleurs utilisé une matrice polymérique rigide. Ces innovations ont permis d’obtenir des temps de cohé ;rence de mémoire de 0,7 µs à température ambiante, ce qui constitue un record pour ces systèmes. Une autre avancée remarquable a été annoncée au début de l'été par l'EPFL, en collaboration avec des équipes de recherche de Caltech, de l’Université libre de Berlin et du Los Alamos National Lab. Ces chercheurs, en utilisant des réseaux neuronaux quantiques (QNN) ont trouvé un nouveau moyen d’apprendre à un ordinateur quantique à comprendre et à prédire le comportement de systèmes quantiques, même avec quelques exemples simples (Voir Nature Communications). Comme le souligne Zoe Holmes qui dirige ces recherches, « Jusqu'à présent, si nous voulions apprendre quelque chose à un ordinateur, nous devions lui fournir énormément d’exemples, mais nous avons pu montrer qu’avec juste quelques exemples simples appelés « états de produit », l’ordinateur était capable de comprendre le fonctionnement d’un système quantique, même quand il est confronté à des états intriqués, plus compliqués. Cela signifie qu’il est possible d’étudier et de comprendre des systèmes quantiques en utilisant des ordinateurs plus petits et plus simples, utilisant des programmes plus résistants aux erreurs ». Enfin, signalons qu’une équipe russe vient de montrer qu’un système d’IA générative hybride, associant un réseau neuronal profond et un ordinateur quantique commercial, le D-Wave quantum annealer, était déjà capable de proposer des structures chimiques uniques, réalisables en synthèse et possédant des propriétés thérapeutiques originales (voir Scientific Reports). Ce rapide tour d’horizon scientifique des récentes avancées dans le domaine du calcul quantique montre à quel point l’effervescence est grande dans ce champ de recherche qui reste néanmoins très ouvert. En fait, il semble probable qu’en attendant la réalisation d’un hypothétique ordinateur quantique universel (dont certains scientifiques doutent qu’il soit réalisable), et qui serait capable de faire beaucoup plus vite tous les types de calcul d’un ordinateur classique, on s’oriente plutôt vers la conception et la production de simulateurs quantiques spécialisés qui utiliseront différentes technologies (qubit silicium, qubit à ions piégés qubit photonique ou qubit supraconducteur) en fonction du type de calculs et de problèmes à résoudre. Ces machines quantiques spécialisées devraient se généraliser d’ici une dizaine d’années dans la recherche, la finance, l’industrie, la biologie, la logistique ou encore la météorologie. Elles permettront de véritables ruptures en matière de modélisation et de prédiction et vont, j’en suis convaincu, bouleverser nos sociétés dans au moins trois domaines essentiels. Le premier est celui de la médecine et de la biologie, confrontées à d’immenses défis avec le vieillissement de nos populations. Les machines quantiques vont pouvoir concevoir bien plus rapidement, et à un coût moindre, de nouvelles molécules thérapeutiques ciblées pouvant traiter de nombreuses pathologies aujourd’hui encore incurables. Je pense au cancer bien sûr mais aussi aux redoutables maladies neurodégén&eacu te;ratives qui explosent avec l’allongement de la vie. Le deuxième domaine est celui, capital pour notre avenir, du climat et de l’énergie. Là encore, ces machines quantiques vont nous aider à concevoir de nouveaux matériaux et de nouveaux outils permettant de produire, convertir et stocker bien plus efficacement les immenses quantités d’énergies propres dont le monde aura besoin dans la seconde moitié de ce siècle. Le troisième domaine est celui de la prévention des catastrophes naturelles, tremblements de terre, éruptions volcaniques mais aussi événements météorologiques extrêmes, qui pourront enfin être prédits et anticipés de manière fiable et précise, ce qui sauvera des millions de vie chaque année dans le monde. Face à de tels enjeux de société, on voit à quel point il est important que notre pays maintienne son effort de recherche publique et il faudra sans doute encore augmenter l’enveloppe d’un milliard sur 5 ans, décidée en 2021, dans le cadre du plan quantique national, si nous voulons rester dans cette course scientifique et technique vitale pour notre avenir. Comme le répète avec passion notre Prix Nobel de physique Alain Aspect, « Alors que nous allons bientôt fêter les 100 ans de la théorie quantique, notre pays n’a pas le droit de rater cette deuxième révolution quantique qui s’annonce et va bouleverser notre société à un point que nous ne pouvons pas encore imaginer ». René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Nanotechnologies et Robotique | |
| | | Des chercheurs montréalais ont développé une interface qui permet à un animal paralysé de ses pattes arrière de recommencer à marcher en stimulant en alternance les deux hémisphères de son cerveau. Cette équipe est à l'avant-garde des recherches dans le domaine des lésions de la moelle épinière qui causent la paralysie des jambes. Ces essais précliniques ont été menés sur un modèle animal de grande taille ressemblant davantage à l'humain que les souris, utilisées précédemment pour des tests qui emploient la même approche. Les animaux employés pour ces essais présentaient des blessures semblables aux blessures humaines. Durant ces expériences, les deux cortex du cerveau ont été stimulés en alternance pour remettre en mouvement les deux pattes paralysées, similairement à ce qu'on observe dans le cas de la paraplégie humaine. « Quand vous marchez, vous alternez vos mouvements des deux jambes. Nous, c'est ce qu'on veut faire avec cette technique-là, et c'est ce qu'on a réussi à faire chez ce modèle animal », indique Marina Martinez, chercheuse permanente à l'Hôpital du Sacré-Cœur de Montréal et professeure au département de neurosciences de l'Université de Montréal. Le succès de ces tests a permis de passer à une étape supérieure, selon Mme Martinez, puisque les technologies utilisées ressemblent beaucoup plus à ce qu'on pourrait éventuellement mettre en œuvre chez l'humain, ce qui faciliterait le transfert de connaissances. L'équipe de Mme Martinez est d'ailleurs la seule au monde à travailler sur une telle stratégie pour un jour permettre aux paraplégiques de retrouver l'usage de leurs jambes. « L'objectif ultime de notre équipe, c'est d'aider les patients et ceux qui en ont besoin. C'est pour ça qu'on travaille : c'est vraiment pour eux, c'est notre motivation principale », citation de Marina Martinez. La technologie que ses collègues et elle s'affairent à perfectionner s'applique uniquement aux blessures incomplètes de la moelle épinière. Toutefois, la chercheuse se réjouit du fait que le succès de ces essais constitue une occasion de se rapprocher davantage des cas de blessures complètes de la moelle épinière chez l'humain. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | | |
| Des véhicules robotisés pilotés par l'intelligence artificielle (IA) pourraient servir à acheminer l'aide alimentaire dans les zones de conflit et sinistrées dès l'année prochaine, dans le but de réduire les risques pour les travailleurs humanitaires, a déclaré à Reuters un responsable du Programme alimentaire mondial (Pam).Selon les Nations unies, les attaques contre les travailleurs humanitaires se sont intensifiées ces dernières années. Le Pam, l'agence d'aide alimentaire des Nations unies, a perdu à lui seul trois employés au début de l'année dans le cadre du conflit soudanais. « Parfois, il est trop dangereux d'envoyer un chauffeur ou du personnel du Pam. L'utilisation de cette technologie pourrait donc constituer un changement radical », a déclaré Bernhard Kowatsch, qui dirige le département de l 'innovation du Pam. Bernhard Kowatsch s'exprimait en marge d'une conférence organisée par l'Union internationale des télécommunications à Genève afin de plaider en faveur d'une mise à contribution de l'IA pour atteindre les objectifs mondiaux des Nations unies, tels que l'éradication de la famine. Les camions sont amphibies et peuvent transporter environ 1 à 2 tonnes de nourriture chacun. Ils ont été initialement conçus durant la bataille d'Alep, en Syrie, entre 2012 et 2016, lorsque les travailleurs humanitaires avaient du mal à acheminer l'aide vers les quartiers assiégés de la ville, a expliqué Bernhard Kowatsch. L'agence de l'ONU utilise déjà une cinquantaine de ces véhicules au Sud-Soudan, mais ils ont besoin de chauffeurs. Dans le cadre du projet AHEAD (Dispositifs autonomes d'aide humanitaire d'urgence), mené conjointement avec le Centre aérospatial allemand, le Pam les testera sans chauffeur au début de l'année prochaine, a indiqué Bernhard Kowatsch. Article rédigé par Georges Simmonds pour RT Flash Sciences & Avenir | | ^ Haut | |
|
| | | Une collaboration entre les instituts Joliot et Iramis montre qu'il est possible de réaliser la photo-production continue d'hydrogène à partir de l'eau, par la combinaison d'oxyde de titane, de nanotubes de carbone et de nanoparticules d'or dans une puce microfluidique. L'hydrogène gazeux est considéré comme un vecteur d'énergie durable et une alternative prometteuse aux carburants à base d'hydrocarbures. Encore faut-il pouvoir le produire “proprement” (i.e. sans émission de carbone issu de ressources fossiles). Bien qu'abondant dans la nature, l'hydrogène H est généralement associé à d'autres éléments, sous forme solide ou liquide. La source principale est la molécule d'eau H2O, où deux atomes d'hydrogène sont chimiquement liés à un atome d'oxygène, et qu'il faut donc dissocier pour obtenir le gaz souhaité ; - L'énergie nécessaire pour y parvenir (∆H° = 286 kJ/mole) doit elle-même être de nature durable/renouvelable (i.e. non carbonée). La décomposition de l'eau en dioxygène (O2) et en dihydrogène (H2) par photocatalyse solaire constitue l'une des pistes les plus intéressantes. L'utilisation de l'oxyde de titane (TiO2), matériau semi-conducteur, a largement été explorée pour cette transformation. Mais la méthode présente deux inconvénients : d'une part, la performance photocatalytique globale est réduite par un phénomène de recombinaison de charges ; d'aut re part, l'activation se fait à des longueurs d'onde électromagnétiques dans la région des UV, soit une fraction limitée du spectre de la lumière naturelle (environ 5 % du spectre solaire). Des chercheurs de l'équipe Nanosciences du CEA, en collaboration avec la direction des énergies du CEA et l'École Polytechnique, ont combiné leurs savoir-faire pour optimiser la photodissociation de l'eau par le TiO2 et développer un dispositif photo-catalytique permettant la production continue de dihydrogène. Ils ont associé le TiO2 à des nanotubes de carbone qui permettent la dissociation des charges et minimisent le phénomène de recombinaison. Ils ont également eu recours à des nanoparticules d'or pour permettre une “sensibilisation” du matériau TiO2 à la lumière visible. Ces scientifiques ont pu intégrer leur dispositif sur une puce microfluidique grâce au réseau enchevêtré des nanotubes de carbone. Cette approche présente l'avantage d'un rapport surface/volume élevé, favorisant d'autant plus l'efficacité de la réaction. Le TiO2, les nanotubes de carbone et les nanoparticules d'or travaillent en synergie. Leur association permet de multiplier la production d'hydrogène par 2,5 par rapport à la simple combinaison TiO2/nanotubes de carbone et par 20 par rapport au TiO2 seul. Article rédigé par Georges Simmonds pour RT Flash MDPI | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | La pénurie de médicaments et de vaccins et la non-observance pourraient appartenir au passé grâce à cette nouvelle technologie. La méthode en question, développée à la Rice University (Houston), propose de délivrer, en une seule injection, des médicaments à libération prolongée et des vaccins pendant des mois, relevant ainsi et aussi les défis de l’observance des traitements -notamment en cas de maladies chroniques et de polymédication- mais aussi des schémas vaccinaux à plusieurs doses. L’auteur correspondant, Kevin McHugh rappelle la prévalence très élevée de la non-observance, soit le taux de 50 % des patients qui ne prennent pas correctement leurs médicaments. Les conséquences de cette non-observance sont massives : aux seuls États-Unis, on estime qu’elle est responsable de plus de 100.000 décès, de jusqu'à 25 % des hospitalisations et de plus de 100 milliards de dollars en coûts de santé. Cette approche galénique prometteuse repose sur de nouveaux procédés ingénieux d’encapsulation de médicaments dans des microparticules qui se dissolvent et libèrent les substances actives au fil du temps. Ici les chercheurs ont utilisé une technique d'encapsulation plus sophistiquée et plus polyvalente que les précédentes. Baptisée PULSED (pour Particles Uniformly Liquified and Sealed to Encapsulate Drugs), la technologie utilise l'impression 3D haute résolution et la lithographie pour produire des ensembles de plus de 300 cylindres non toxiques et biodégradables suffisamment petits pour être injectés avec des aiguilles hypodermiques standard. Ces recherches ont montré qu’il est possible de fabriquer et de charger des particules d'un diamètre allant de 400 microns à 100 microns, injectables et à libération retardée. En synthèse, la nouvelle technologie surpasse les méthodes actuelles d'encapsulation de médicaments, dont le résultat est qu'une grande partie du médicament est libérée tôt, le premier jour alors qu’au jour 10, le patient reçoit 10 fois moins de principe actif que le premier jour. « La plupart du temps, c'est vraiment problématique, soit parce que la dose du premier jour vous rapproche de la toxicité, soit parce qu'en obtenir 10 fois moins ultérieurement n’est plus suffisamment efficace ». Dans de nombreux cas, il serait idéal que les patients reçoivent en effet la même dose, régulièrement et tout au long du traitement. Dans le cas de la vaccination, le schéma repose souvent sur plusieurs doses réparties sur plusieurs mois. Cette observance du schéma vaccinal pose tout particulièrement problème dans les pays à revenu faible ou intermédiaire en raison des problèmes d’accès aux soins de santé. Des particules à libération pulsatile peuvent constituer un moyen fiable de définir et de différer la libération. AM | | | |
| Une étude fascinante d'une équipe du CEA a décrypté les mécanismes de transformation morphologique des cellules : avec le CNRS et l'Université d'Utrecht (Pays-Bas). Cette équipe a mis en lumière le rôle central des microtubules dans le fonctionnement cellulaire. « Comment des cellules qui mesurent près de cinquante microns de large, lorsqu'elles s'étalent sur des boîtes de culture, peuvent-elles passer au travers de constrictions dix fois plus petites dans les tissus les plus denses de l'organisme ? », expose Manuel Théry, biologiste au CEA-Irig où il a co-fondé le CytomorphoLab. Depuis une dizaine d'années, l'équipe cherche à déterminer les principes élémentaires qui régissent l'architecture intérieure des cellules. Au centre de ses études, deux éléments clés du cytosquelette : l'actine et les microtubules, que les chercheurs ont décidé d'étudier non pas séparément mais ensemble. Une approche novatrice avec laquelle ils étaient parvenus à contrôler la forme et la division de cellules souches. Une première à l'époque ! C'est par cette approche qu'ils découvrent aujourd'hui les mécanismes à l'œuvre dans la transformation morphologique des cellules. Cette contorsion cellulaire se fait au prix d'un effort mécanique considérable, classiquement attribué à la contraction des filaments d'actine par des moteurs moléculaires, les myosines. Or, il s'avère que ces moteurs ne sont pas suffisants pour comprimer la cellule toute entière et lui permettre de s'infiltrer dans les plus petits interstices. Les chercheurs sont alors partis de l'hypothèse que les microtubules étaient également impliqués, jouant le rôle de capteurs de force, et en ont démontré l'effet direct et la mesure précise. Une nouvelle première ! « Exercer ces forces à l'intérieur même de la cellule reste bien loin de notre portée. Mais l'un des chercheurs de l'équipe s'était intéressé auparavant à la plasticité des noodles (nouilles asiatiques) ! Cela nous a inspiré un dispositif basé sur une sorte de film plastique où sont greffées des cellules vivantes ; film que l'on étire afin de leur imposer des déformations précises ». Grâce à ce dispositif, ils ont exercé des forces à des vitesses, fréquences, directions et cycles de pression-relaxation parfaitement contrôlés : « les étirements sont minimaux, de l'ordre de 10 %, c'est-à-dire que les cellules mesurant par exemple vingt microns ne sont étirées que sur deux microns, ce qui est à peine visible au microscope&n bsp;», précise le directeur de recherche. En caractérisant l'effet de ces faibles contraintes à l'intérieur des cellules, les chercheurs ont observé que les microtubules, en général très dynamiques, se plient et se stabilisent lorsque les cellules sont compressées. Et ce sont les protéines habituellement situées à leur extrémité en croissance, impliquées dans leur élongation rapide, qui assurent cette stabilisation en se repositionnant dans les zones déformées. « Les microtubules réagissent aux étirements de manière extrêmement sensible : moins de deux minutes de déformation suffisent à les stabiliser pendant une demi-heure, ce qui confère à la cellule une forme de mémoire de ce qu'elle a subi ». Une autre découverte qui conforte par ailleurs l'hypothèse à contre-courant des chercheurs, selon laquelle les microtubules ne constituent pas le système « osseux » de la cellule, sa charpente, mais bien son système nerveux. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| Des chercheurs de l’Institut Pasteur, du CNRS, de l’Institut universitaire de France, d’Université Paris Cité et de l’AP-HP, ont comparé des données génétiques de 13 000 personnes avec autisme à celles de près de 200 000 individus issus de la population générale. Si 4 % des individus avec autisme portent des variations génétiques fortes impliquées dans l’autisme, près de 1 % des individus issus de la population générale les portent également et présentent des performances cognitives moindres conjuguées à un niveau socioéconomique plus faible. Au sein des troubles du neurodéveloppement, l’autisme se caractérise par des difficultés de communication sociale et par des comportements, activités ou intérêts restreints et répétitifs. La forte contrib ution génétique à l’apparition de ce trouble est aujourd’hui établie. C’est au laboratoire de Génétique humaine et fonctions cognitives, dirigé par le Professeur Thomas Bourgeron, à l’Institut Pasteur, qu’ont été découverts, en 2003, les premiers gènes associés à l’autisme. Depuis, des variations génétiques rares dans plus de 200 gènes ont été identifiées, illustrant la complexité des mécanismes en jeu dans la survenue de l’autisme. « C’est pour tenter de mieux cerner l’architecture génétique de l’autisme – la combinaison de gènes et de variants qui explique son expression – et ce qui module l’intensité de ses manifestations que nous avons entrepris ce travail de fourmi », retrace Thomas Rolland, chercheur CNRS dans l’unité Génétique humaine et fonctions cognitives1 à l’Institu t Pasteur, et premier auteur de l’étude. « S’agissant de variations génétiques rares, dont chacune ne touche que quelques pourcentages des personnes avec autisme, il nous fallait d’abord réunir les données d’un nombre conséquent d’individus. L’idée originale, ensuite, a été de rechercher la présence ou non de ces variants en population générale – c’est-à-dire chez des personnes sans diagnostic d’autisme – pour voir s’ils avaient un effet et le cas échéant lequel ». Pour cela, les chercheuses et chercheurs ont analysé les données génétiques de 13 000 personnes diagnostiquées avec autisme, données issues de plusieurs cohortes de différents partenaires à l’international. Ils ont comparé ces données à celles d’une population générale, sans diagnos tic d’autisme, constituée de 180 000 individus. Thomas Rolland précise : « Nous nous sommes intéressés aux variants rares dans une liste de 185 gènes, bien connus pour être fortement associés à l’autisme. Et en effet, nous avons retrouvé ces variants chez 4 % des personnes avec autisme. De manière plus surprenante, certains variants sont présents également chez 1 % des individus non-diagnostiqués. Cela laisse penser que la conjonction d’autres facteurs, génétiques et environnementaux, est nécessaire pour aboutir à la manifestation d’un trouble autistique ». Pour tenter de comprendre l’effet de ces variants, l’équipe a croisé ces informations avec les données médicales, cognitives et socioéconomiques attachées aux individus nondiagnostiqués. Et le résultat est inédit : « Les variants semblent affecter les performances cognitives des personnes sans diagnostic d’autisme qui en sont porteuses, ainsi que leur niveau d’éducation avec des niveaux de diplômes plus bas, leur niveau de revenus avec des salaires nets plus bas, et leurs conditions matérielles de vie » explique Richard Delorme, professeur à Université Paris Cité, chef du service de psychiatrie de l’enfant et de l’adolescent à l’hôpital Robert-Debré AP-HP et chercheur dans l’unité Génétique humaine et fonctions cognitives à l’Institut Pasteur. « L’architecture de l’autisme est très complexe, nos observations le montrent encore ! Il y a plusieurs "façons génétiques" d’aboutir à sa survenue. La première est d’être porteur d’une variation génétique rare à l’effet fort, suffisante apparemment à elle seule pour donner un autisme. La seconde repose sur la concomitance chez un individu d’un ensemble de nombreuses variations. Prises indépendamment, elles n’auraient pas d’effet notable ou seulement un effet léger, mais combinées, elles favoriseraient l’apparition de traits autistiques chez la personne et dans certains cas un diagnostic », explique Thomas Bourgeron, Professeur à Université Paris Cité, responsable de l’unité Génétique humaine et fonctions cognitives à l’Institut Pasteur et dernier au teur de l’étude. Par ailleurs, dans les populations de femmes avec autisme, les variants génétiques rares associés à un diagnostic d’autisme sont davantage présents. Les données montrent cependant que les femmes et les hommes de la population générale ont la même probabilité de porter ces variants. « Les résultats de notre étude suggèrent que les hommes seraient plus sensibles à la présence de variants à effet plus léger pour l’autisme par rapport aux femmes ». Le professeur Thomas Bourgeron conclut : « Ce que nous observons avec ces variants n’est que la partie émergée de l’iceberg, puisqu’ils ne rendent compte que de quelques pourcents des cas identifiés d’autisme. L’architecture de l’autisme est très complexe et l’environnement, au sens large, joue un rôle crucial dans l’intensité des symptômes et la qualité de vie de la personne. C’est pourquoi nous devons avoir une approche globale des personnes avec autisme, qui prenne en compte cet environnement. Ce n’est qu’à cette condition que nous identifierons les facteurs qui modulent la survenue et l’intensité ; des difficultés que rencontrent les personnes autistes et que nous pourrons définir des programmes d’accompagnement efficaces et personnalisés ». Un Institut Hospitalo-Universitaire, inovAND, a été récemment créé à l’hôpital Robert-Debré AP-HP pour répondre à ces questions ainsi qu’une étude internationale R2D2- MH, financée par la Commission européenne, fondée sur le principe de la recherche participative, et coordonnée par le Professeur Thomas Bourgeron. Ces initiatives ont pour objectifs de déterminer l’ensemble des facteurs et des accompagnements qui peuvent conduire à une meilleure trajectoire pour les personnes ayant un trouble du neurodéveloppement. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| En intégrant plusieurs technologies de pointe dans un seul système, des chercheurs de l’EPFL ont accompli une avancée majeure dans le diagnostic des maladies neurodégénératives telles que la maladie de Parkinson et la maladie d’Alzheimer. Ce dispositif novateur est appelé capteur ImmunoSEIRA. Il s’agit d’une technologie qui permet de détecter et d’identifier les biomarqueurs de protéines mal repliées associés à ces maladies. Cette recherche tire parti du potentiel de l’intelligence artificielle (IA) en utilisant des réseaux neuronaux pour quantifier le stade de la maladie et sa progression. Cette avancée technologique importante est prometteuse non seulement pour la détection précoce et le suivi des maladies neurodégénératives, mais aussi pour l’évaluation des options thérapeutiques à différents stades de la maladie. Le traitement de ces maladies fait face à un défi de taille en raison de l’absence de méthodes de diagnostiques efficaces pour la détection précoce et le suivi de la maladie. Le pliage incorrect des protéines, un mécanisme fréquent dans la neurodégénérescence, a été identifié comme un événement clé dans la progression de la maladie. On suppose que les protéines saines se replient mal, d’abord en oligomères aux premiers stades, puis en fibrilles aux stades plus avancés de la maladie. Ces agrégats de protéines mal repliées circulent dans le cerveau et les fluides biologiques et s’accumulent sous forme de dépôts dans le cerveau des personnes décédées atteintes de troubles neurodégénératifs. Le développement d’outils permettant de détecter ces signes caractéristiques de la maladie, appelés biomarqueurs, s’est avéré difficile jusqu’à présent. Pour créer ce capteur avancé de biomarqueurs, des chercheurs du Laboratoire de systèmes bionanophotoniques (BIOS) de la professeure Hatice Altug et du Laboratoire de neurobiologie moléculaire et neuroprotéomique (LMNN) du professeur Hilal Lashuel ont combiné plusieurs domaines scientifiques : la biochimie des protéines, l’optofluidique, la nanotechnologie et l’intelligence artificielle (IA). « Contrairement aux approches biochimiques actuelles qui reposent sur la mesure des concentrations de ces molécules, notre approche se base sur la détection de leurs structures anormales. Cette technologie nous permet également de différencier les taux des deux principales formes anormales, les oligomères et les fibrilles », déclare Hilal Lashuel. Le capteur ImmunoSEIRA utilise une technologie appelée spectroscopie d’absorption infrarouge exaltée par la surface (SEIRA). Le capteur est pourvu d’un immunodosage unique, qui agit comme un détective moléculaire, identifiant et capturant ces molécules spécifiques associées à la maladie avec une grande précision. « ImmunoSEIRA présente une sensibilité structurelle et est en mesure de surveiller un panel de biomarqueurs complémentaires avec une spécificité élevée à partir de petits volumes d’échantillons dans des biomatrices complexes », explique la doctorante et principale autrice de l’article, Deepthy Kavungal. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Encore mal caractérisée, la tétracenomycine X, une molécule naturelle qui cible les ribosomes nécessaires à la survie des bactéries, pourrait servir de base au développement de nouveaux antibiotiques efficaces contre les bactéries résistantes aux thérapies actuelles. L’antibiorésistance est une menace pour la santé publique qui nécessite une action urgente et coordonnée. L'une des stratégies clés pour lutter contre les bactéries résistantes aux antibiotiques passe par le développement de nouvelles molécules ciblant spécifiquement ces pathogènes. Dans ce contexte, l'identification et la caractérisation de composés naturels présentant des propriétés antimicrobiennes est une priorité. Des scientifiques du laboratoire ARNA (CNRS/Inserm) et de l'Institut européen de chimie et de biologie (CNRS/Inserm/Université de Bordeaux) ont caractérisé le mode d'action de la tétracénomycine X, composé naturel doté d’une activité antimicrobienne liée à son action contre le ribosome bactérien. Le ribosome, véritable usine moléculaire produisant l’ensemble des protéines nécessaires à la survie des cellules, est en effet la cible majeure des antibiotiques. Pour comprendre comment la tétracenomycine X inhibe le ribosome bactérien, les chercheurs ont développé une technique innovante appelée "toeprinting inversé" couplé au séquençage massif (iTP-seq). Associée à des mesures de cryo-microscopie électronique à haute résolution, elle leur a permis de montrer que la tétracenomycine X bloque la production de protéines contenant l’acide aminé glutamine suivi d’une lysine par le ribosome. Ce blocage s’effectue par le biais d'un mécanisme inhabituel impliquant un ARN de transfert chargé d’apporter l’acide aminé lysine dans les protéines naissantes. La découverte du mécanisme d'action de la tétracénomycine X est une étape importante pour transformer ce composé en un antibiotique capable de contrer efficacement les bactéries résistantes aux thérapies actuelles. Cependant, un verrou majeur reste encore à lever car la tétracénomycine X cible également les ribosomes des cellules humaines. Les recherches s’orientent donc vers de nouvelles molécules dérivées ciblant de manière spécifique les ribosomes bactériens. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Le syndrome de Down se produit chez les personnes qui naissent avec un chromosome supplémentaire. Ce syndrome de Down entraîne généralement des difficultés d'apprentissage et des anomalies physiques. Les scientifiques travaillent actuellement sur un vaccin pour prévenir le développement de la maladie d'Alzheimer chez les personnes atteintes du syndrome de Down. Des études ont révélé que deux tiers des personnes atteintes de cette maladie génétique seront touchées par la maladie d'Alzheimer, la principale cause de démence, avant l'âge de 60 ans. Les experts estiment que ces personnes sont plus susceptibles de contracter la maladie en raison d'un défaut de leur ADN qui limite la capacité de leur organisme à éliminer une protéine toxique appelée plaque amyloïde, largement considérée comme la cause de la maladie d'Alzheimer. La société pharmaceutique suisse AC Immune a annoncé avoir administré la première dose de son vaccin anti-amyloïde à un patient atteint du syndrome de Down. Elle a récemment obtenu l'autorisation d'étendre l'essai aux États-Unis afin de proposer le vaccin à un plus grand nombre de personnes atteintes de cette maladie. En cas de succès, d'autres tests du vaccin, actuellement appelé ACI-24060, seront effectués pour évaluer son potentiel de prévention de la maladie d'Alzheimer chez les personnes âgées ne souffrant pas du syndrome de Down. Cette nouvelle intervient peu de temps après l'approbation, récemment, d'un médicament contre la maladie d'Alzheimer aux États-Unis. Ce médicament, appelé lecanemab, agit en éliminant la plaque amyloïde du cerveau. Cependant, le lecanemab a suscité la controverse en raison de graves effets secondaires, notamment des hémorragies cérébrales. Les chercheurs estiment que le nouveau vaccin pourrait constituer une alternative plus sûre et plus efficace aux traitements tels que le lecanemab. Le professeur Michael Rafii, neurologue à la Keck School of Medicine et investigateur principal de l'essai, a déclaré que l'ACI-24060 était très prometteur en tant que nouvelle thérapie capable de réduire les plaques amyloïdes afin de retarder, voire de prévenir, l'apparition des symptômes cliniques de la démenc e. Il a également souligné les avantages potentiels en termes de sécurité, d'efficacité et de logistique offerts par le vaccin par rapport au lecanemab. Le lecanemab est le premier médicament prouvé pour ralentir la progression de la maladie d'Alzheimer, qui affecte près d'un million de personnes au Royaume-Uni. Administré par perfusion intraveineuse toutes les quelques semaines, il a démontré sa capacité à ralentir la dégénérescence cérébrale de 27 %. Cependant, trois patients sont décédés lors d'essais après avoir souffert de graves effets secondaires potentiellement liés au médicament. Article rédigé par Georges Simmonds pour RT Flash Daily Mail | | | |
| L'impact négatif d'un manque de sommeil sur la mémoire semble moindre chez les gens qui ont une bonne santé cardiorespiratoire, indique une étude publiée par des chercheurs de l'Université McGill. Le mécanisme protecteur qui pourrait être en jeu n'est pas clair, et on ne peut pas non plus évoquer un lien de causalité entre une bonne santé cardiorespiratoire et une meilleure mémoire en cas de manque de sommeil, mais la piste est néanmoins intrigante, estiment les auteurs de l'étude. On remarque vraiment une tendance globale vers la privation de sommeil, malheureusement, il est donc important de trouver des stratégies qui pourraient potentiellement sauver certains aspects de la cognition, incluant la mémoire, a dit Béatrice Ayotte, une étudiante à la maîtrise sous la direction du professeur Marc Roig, de l'École de physiothérapie et d'ergothérapie de McGill. Mme Ayotte, M. Roig et leurs collègues ont recruté 29 jeunes participants en santé pour leur étude. Dix-neuf d'entre eux ont été privés de sommeil pendant 30 heures consécutives, puis on leur a demandé de mémoriser 150 images. Les dix autres ont pu dormir normalement avant de voir les images. Quatre jours plus tard, le groupe privé de sommeil a éprouvé plus de difficultés à se souvenir des images, comparativement à l'autre groupe. En revanche, les sujets du groupe privé de sommeil qui avaient la meilleure santé cardiorespiratoire (telle que mesurée sur un vélo stationnaire) ont offert une meilleure performance que les autres membres de ce groupe. C'est seulement quelque chose qu'on a pu voir, en fait, dans le groupe qui était privé de sommeil, a dit Mme Ayotte. On n'a pas vu cette association-là dans le groupe qui n'était pas privé de sommeil. Donc ça nous indique que quand on est privé de sommeil ou qu'il y a une atteinte à la mémoire [...] le fait d'avoir une meilleure santé cardiorespiratoire pourrait avoir un effet protecteur sur la mémoire. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | | |
| Selon une étude de la NYU Langone Health, prendre ses repas plus tôt dans la journée améliore la santé métabolique. Ces recherches préconisent un mode "d’alimentation précoce à durée limitée" (eTRF : Early time-restricted feeding) avec des effets très bénéfiques : l’eTRF améliore la glycémie et les marqueurs inflammatoires, et même en l'absence de perte de poids. Consommer plus de calories quotidiennes plus tôt dans la journée, précisément 80 % des calories consommées avant 13 H, permettrait néanmoins de contrer la prise de poids, en plus de réduire les fluctuations de la glycémie et la durée pendant laquelle la glycémie est au-dessus des niveaux normaux. « Ce type d'alimentation, par son effet sur la glycémie, peut empêcher les personnes at teintes de prédiabète ou d'obésité de progresser vers le diabète de type 2 », résume l'auteur principal, le Dr Joanne H. Bruno, chercheur en endocrinologie à NYU Langone Health. L’étude a évalué cette combinaison de jeûne intermittent et de chrononutrition, l'alimentation précoce à durée limitée (eTRF), donc limiter la prise alimentaire aux 8 premières heures de la journée vs un schéma d’alimentation "normal". De précédentes études avaient déjà suggéré que cette forme de jeûne intermittent peut améliorer la santé cardiométabolique et la glycémie. Cependant, l'équipe a voulu préciser si ces améliorations étaient liées à la perte de poids ou à la stratégie de jeûne. Les chercheurs ont donc comparé l'eTRF (80 % des calories consommées avant 13 h) à un schéma d'alimentation habituel (50 % des calories consommées après 16 h) chez 10 participants atteints de prédiabète et d'ob& eacute;sité. Les 2 groupes ont été inversés au bout de 8 jours. Les aliments étaient fournis aux participants qui ont été équipés de moniteurs de glycémie (glycémie) en continu tout au long de l'étude. L’analyse confirme les effets d'une alimentation précoce à durée limitée sur la glycémie et l'inflammation, indépendamment de la perte de poids : la durée des niveaux élevés de sucre dans le sang est réduite, avec seulement une semaine d’eTRF : l'alimentation précoce limitée dans le temps a entraîné une diminution de l'amplitude moyenne de l'excursion glycémique et une diminution du temps au-dessus de la plage (glycémie > 140 mg/dL) par rapport aux habitudes alimentaires habituelles. En conclusion, il semble que consommer la majorité de ses calories plus tôt dans la journée améliore ainsi la santé métabolique. Si l'eTRF semble donc une stratégie diététique prometteuse pour la prévention du diabète et le maintien d’un poids de santé, il reste à confirmer ces bénéfices sur un échantillon bien plus large de patients. Article rédigé par Georges Simmonds pour RT Flash EurekAlert | | | |
| Une étude réalisée par des chercheurs de l'École suédoise des sciences du sport et de la santé de Stockholm et de l'Institut Karolinska a suivi 177.000 hommes âgés de 18 à 75 ans sur une période allant de 1982 à 2019. Les chercheurs ont relevé des informations telles que l'indice de masse corporelle, la taille et les habitudes de vie, comme la consommation de tabac ou d'alcool. La santé cardiorespiratoire des participants était mesurée par un test de condition physique à vélo et un questionnaire. Au cours de cette étude, un total de 499 cancers du côlon, 283 cancers du poumon et 1.918 cancers de la prostate sont survenus sur une durée moyenne de suivi de 9,6 ans. Par ailleurs, 152 décès ont été enregistrés dus au cancer du côlon, 207 à celui du poumon et 141 au cancer de la prostate. L'analyse des données révèle que plus la condition cardiorespiratoire était bonne, plus le risque de développer ces cancers du côlon ou du poumon diminuait. En outre, les hommes avec une meilleure forme physique présentaient un risque moindre de mourir de ces cancers ainsi que celui de la prostate. Pour les chercheurs, le grand public doit faire la distinction entre l'activité physique et la condition cardiorespiratoire. L'activité physique se réfère à l'exercice physique effectué (souvent mesuré par auto-évaluation), tandis que ce qu'on appelle aussi condition physique est la réponse physiologique du corps au sport (mesurable scientifique). « Il est important que le grand public comprenne que l'activité physique à haute intensité a des effets plus importants sur la condition cardiorespiratoire et est susceptible d'être plus protectrice contre le risque de développer et de mourir de certains cancers », écrivent-ils. Article rédigé par Georges Simmonds pour RT Flash JAMA | | | |
| Depuis une décennie, l'immunothérapie, qui consiste à stimuler les défenses immunitaires d'un organisme pour lutter contre une pathologie présente, a révolutionné la prise en charge des patients en oncologie. Une équipe du Centre de recherches en cancérologie de Toulouse (CRCT – CNRS/Inserm/UT3) a découvert que des lymphocytes spécifiques activés localement dans les tumeurs du côlon jouent un rôle clé dans l'immunité antitumorale et ont une influence bénéfique au contrôle du développement des métastases tumorales. Des travaux menés par Christel Devaud et Virginie Feliu, dans l’équipe "Immunité antitumorale et immunothérapie" dirigée par Maha Ayyoub et Jean-Pierre Delord, enseignants-chercheurs au CRCT (UT3/Inserm/CNRS), en collaboration avec l’IUCT-Oncopole, montrent la capacité de lymphocytes T intestinaux à migrer vers les métastases et à les contrôler. Les stratégies actuelles d’immunothérapie sont basées sur des anticorps monoclonaux qui lèvent les freins des lymphocytes T antitumoraux préexistants chez les patients. Malgré le caractère immunogène du cancer colorectal (CRC), les immunothérapies, éprouvées dans la majorité des essais cliniques chez les patients atteints de cancer colorectal métastatique (mCRC), ne s’avèrent malheureusement efficaces que pour un faible nombre de patients. Les métastases hépatiques, les plus fréquentes dans le CRC, sont particulièrement difficiles à traiter. En utilisant un modèle original de mCRC chez la souris, consistant à implanter des tumeurs en orthotopique, c’est-à-dire dans le tissu d’origine de la tumeur, ici le côlon, et dans les sites métastatiques, Feliu et al. ont montré que les tumeurs de côlon pouvaient stimuler des lymphocytes T CD8 antitumoraux, capables spontanément de contrôler, dans une partie des souris, la croissance de la tumeur primaire mais aussi de métastases à distance, en particulier hépatiques. Ces lymphocytes T CD8 effecteurs, jouant un rôle déterminant dans le contrôle des métastases, ont une origine intestinale, confirmée par l’expression à leur surface de l’intégrine alpha 4 beta 7, physiologiquement responsable de la localisation et de la rétention intestinale des cellules de l’immunité. Les résultats obtenus chez la souris ont été validés par une analyse des lymphocytes T CD8 alpha 4 beta 7 dans les métastases et le sang de patients souffrant de mCRC et traités par immunothérapie. La présence de ces lymphocytes était associée à une meilleure réponse à l’immunothérapie. « Nos travaux démontrent que les tumeurs coliques peuvent activer localement des lymphocytes T CD8 intestinaux qui peuvent ensuite exercer des fonctions antitumorales systémiques aboutissant au contrôle de la maladie métastatique », confie Christel Devaud. Article rédigé par Georges Simmonds pour RT Flash Université Toulouse III-Paul Sabatier | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|