| | Edito Et si la vie obéissait à la Physique Quantique ?
L’édification de la physique quantique fut certainement l’une des plus grandes aventures scientifiques de tous les temps et représente un saut conceptuel majeur dans notre connaissance intime du réel et des lois qui gouvernent la Nature. De 1900 à 1927, une génération de physiciens et théoriciens géniaux, parmi lesquels on retrouve Einstein, Planck, Bohr, De Broglie, Dirac, Born, Pauli, Schrödinger et Heisenberg, pour ne citer que les principaux, construisit une nouvelle représentation de l’infiniment petit et du monde des particules et des atomes. Le parachèvement théorique de cette nouvelle physique, souvent déroutante et particulièrement abstraite, fut le principe d’indétermination d’Heisenberg (1927), et la fonction d’onde, pressentie par De Broglie, en 1924 et formalisée par l’Autrichien Schrödinger en 1927. En moins de 30 ans, les physiciens avaient dû se rendre à l’évidence, au grand dam d’Einstein qui, bien qu’ayant joué un rôle majeur dans l’émergence de la mécanique quantique (avec la découverte de l’effet photoélectrique qui lui vaudra son prix Nobel), n’accepta jamais complètement les immenses conséquences épistémologiques et philosophiques de cette étrange physique qui impose ses lois déroutantes dans le domaine de l’infiniment petit. A cette échelle atomique et subatomique, les lois et règles de la physique classique cessent de s’appliquer et il devient impossible d’isoler de manière précise, dans le temps et dans l’espace, les « objets », que représentent les particules et les atomes. Ceux-ci n’existent plus indépendamment de l’observateur et, en outre, ils se comportent, selon les méthodes employées pour les observer, tantôt comme des ondes, étendues dans l’espace, tantôt comme des particules ponctuelles… Mais la propriété sans doute la plus étrange de la physique quantique est le principe d’intrication, qui veut que, lorsque deux particules, deux photons par exemple, sont issues d’une même source et sont ensuite séparées, même par d’immenses distances, elles restent liées entre elles, de sorte que, toute mesure sur l’une de ses particules aura une influence immédiate sur le comportement de l’autre ! Il fallut cependant attendre 1982 pour qu’une série d’expériences mémorables, menées sous la direction du grand physicien français Alain Aspect, à l’Institut d’optique d’Orsay, démontre de manière incontestable la réalité de cet étrange principe d’intrication quantique. C’est au cours de la même période, à partir des années 1980, que quelques scientifiques de renom, comme Roger Penrose ou John Eccles (Prix Nobel de Médecine 1964), commencèrent à poser l’hypothèse imaginant que les lois de la physique quantique ne se limitaient peut-être pas au monde des particules et se manifestaient probablement, sous des formes qui restaient à découvrir, dans le domaine de la biologie, qu’il s’agisse des processus d’échange et de transformation d’énergie, ou même des mécanismes de production et d’échanges d’informations à l’œuvre dans notre cerveau. Depuis une dizaine d’années, physiciens, chimistes et biologistes n’ont cessé de repousser les limites de manifestation des phénomènes quantiques, et ont montré, par exemple, que, dans certaines conditions expérimentales précises, on pouvait observer la nature ondulatoire de la matière, non seulement pour les particules, mais aussi pour les atomes, et même pour de grosses molécules organiques. Dans ce domaine, une avancée décisive a été accomplie en 2012, quand une équipe internationale réunissant des scientifiques autrichiens, israéliens et suisses, a mis au point un nouveau dispositif très sophistiqué, conçu pour révéler d’éventuelles franges d’interférences pour des molécules massives. Ces chercheurs ont réussi à concevoir un dispositif expérimental composé d’un ensemble de fentes parallèles reprenant le célèbre principe des fentes (imaginé et testé par Thomas Young en 1804), ainsi qu'un système optique capable de réaliser l'image de chaque molécule et de la localiser sur l'écran avec une précision de dix nanomètres. Ces scientifiques ont ainsi pu constater qu’après avoir traversé le dispositif de nanofentes, les molécules venaient frapper une plaque en verre éclairée par un laser, ce qui permettait de réaliser un film vidéo, à l’aide d'une caméra CCD ultrasensible. Et sur ce film, on pouvait voir de manière très nette la présence caractéristique de fanges d'interférence (alternance de bandes sombres et claires) formées par ces molécules, en l’occurrence de la phtalocyanine, un colorant synthétique utilisé dans la fabrication des encres et peintures, ce qui démontrait sans ambiguïté que ces objets, pourtant bien plus massifs et volumineux que des particules, avaient manifesté, eux-aussi, un comportement ondulatoire. En 2007, les physiciens Graham Fleming, Gregory Engel, avaient déjà montré que les Bacteriochlorophylles, des pigments photosynthétiques présents dans les bactéries sulfureuses vertes étaient capables de cohérence quantique, dans des conditions de très basses températures (-196 °) pour optimiser le transfert de l'énergie lumineuse absorbée. Quelques années plus tard, la même équipe alla plus loin, en montrant cette fois qu’on pouvait également observer ce phénomène de cohérence quantique pendant un temps-record (300 femtosecondes) à la température, beaucoup plus « chaude » de 4°C. Plus récemment, une autre équipe, dirigée par Gregory Scholes, de l'Université de Toronto, est allée encore plus loin, en montrant que, dans les algues Chroomonas et Rhodomonas, les cellules réceptrices qui captent les photons savent utiliser les propriétés quantiques pour optimiser les transferts d'énergie le long des pigments moléculaires. Ces travaux ont également montré que la cohérence quantique, dans ce cas précis, était maintenue pendant 400 femtosecondes (4 × 10-13 seconde) à température ambiante, ce qui était, jusqu’alors, considéré comme impossible… Enfin, il y a quelques jours, une équipe internationale de recherche de l'Université de Vienne a publié une étude montrant la présence de franges d'interférence, avec des molécules de gramicidine, un antibiotique naturel composé de 15 acides aminés (Voir Nature). Pour mettre en évidence ce comportement quantique, les scientifiques ont eu recours à une technologie de pointe : ils ont utilisé des impulsions laser ultra-brèves pour manipuler et transporter ces molécules à très basse température, sans les détériorer. Grâce à ce dispositif ingénieux, les chercheurs ont alors pu observer que les molécule de gramicidine produisait des franges d’interférence associées à une longueur d'onde de 350 femtomètres (1 femtomètre est égal à 10-15 mètres), soit exactement la longueur d’onde prévue par la théorie quantique… Fort de ces résultats, ces chercheurs se disent persuadés qu’avec ces nouveaux dispositifs expérimentaux très sensibles, il sera bientôt possible de démontrer que l’ensemble des molécules bio logiques, protéines, enzymes, ADN, expriment des propriétés quantiques encore ignorées, ce qui ouvre d’immenses et passionnantes perspectives de recherche et jette un nouveau pont entre le monde de la physique et celui de la biologie. La neurobiologie et les neurosciences s’intéressent également à la dimension quantique que pourrait revêtir le fonctionnement de notre cerveau et de notre système nerveux. Le physicien quantique Matthew Fisher est par exemple persuadé que les capacités et propriétés extraordinaires de notre cerveau ne pourront être pleinement comprises qu’en prenant en compte les lois de la physique quantique qui se manifestent au niveau de son fonctionnement atomique et moléculaire. Matthew Fisher, contrairement à ses prédécesseurs, notamment Penrose et Eccles, a revu ses ambitions à la baisse, Il ne prétend pas démontrer une nature quantique de la conscience, mais cherche, dans un premier temps, à mettre en lumière l’existence de certains phénomènes quantiques dans certains mécanismes et processus biochimiques relativement simples, qui se déroulent dans notre cerveau. Dans cette perspective, l’angle d’attaque de Matthew Fisher concerne les raisons de l’efficacité thérapeutique du lithium, toujours inexpliquée, sur certains troubles psychiatriques ou cognitifs. Fisher pose l’hypothèse que la physique quantique pourrait bien expliquer cette action incomprise du lithium sur notre cerveau. En effet, les noyaux atomiques possèdent une propriété quantique spécifique, le spin. Le spin peut se définir comme le moment cinétique propre du noyau, ou, pour simplifier et être plus concret, sa capacité de rotation sur lui-même. Le spin ne peut prendre que certaines valeurs « discrètes », correspondant à des multiples entiers ou demi-entiers de la constante de Planck. Selon Fisher, grâce à son spin bas (1/2), un noyau lithium est suffisamment protégé des perturbations électromagnétiques ambiantes dans le cerveau pour éviter la décohérence quantique pendant de longues minutes, ce qui expliquerait sa capacité d’action. Mais le lithium n'est pas présent naturellement dans le cerveau, ce qui n’est pas le cas de l’acide phosphorique, constitué d’atomes de phosphore dont le noyau possède un spin de ½, lui permettant précisément de rester cohérent plusieurs minutes. Fisher pense qu’il existe très probablement de nombreuses réactions chimiques dans le cerveau, susceptibles de produire des états d’intrication quantique entre spins de noyaux. Parmi ces réactions, il en a identifié une qui l’intéresse particulièrement. Il s’agit de celle qui implique une enzyme, la pyrophosphatase. Au cours de cette réaction, la liaison entre deux ions phosphates est brisée, ce qui produit deux ions phosphates séparés. Au cours de ce processus, les noyaux de ces ions devraient, en théorie, connaître un état d’intrication quantique. Fisher veut à présent démontrer, sur le plan expérimental, son hypothèse, ce qui lui permettrait de prouver que l’action thérapeutique du lithium sur le cerveau a bien un fondement quantique. Comme le souligne Fisher, « Si depuis 3,5 milliards d’années, la vie a appris à utiliser les propriétés quantiques pour rendre aussi efficace la photosynthèse chlorophyllienne, pourquoi n'aurait-elle pas également cherché à exploiter les lois de la physique quantique pour améliorer l’efficacité de notre cerveau au cours de notre longue évolution, donnant ainsi à notre espèce un avantage compétitif décisif ? » Fisher souligne également que notre cerveau n’est pas seulement capable, pour une consommation d’énergie dérisoire, au regard de celle de n’importe quel ordinateur, de réaliser des calculs très complexes, il est également apte à produire, évaluer, comparer instantanément des scénarios imaginaires, face à un problème imprévu, et surtout à donner un sens, une intention aux actions qu’il conçoit, ce qui le distingue radicalement d’un ordinateur, même surpuissant, qui ne sait pas ce qu’il fait et n’est pas conscient de son existence. Pour que notre cerveau possède une telle capacité à comprendre le réel et à agir effacement sur son environnement, il est donc raisonnable d’imaginer qu’il puisse fonctionner à un niveau quantique, ou du moins, exploiter les lois de la physique quantique pour réaliser certaines opérations de conceptualisation ou de représentation hautement complexes. Il se pourrait bien que la matière, la vie et la conscience soient finalement toutes gouvernées par les étranges lois de la physique quantique, ce qui n’exclut pas, bien sûr, l’existence et l’émergence d’autres niveaux d’organisations, régis par d’autres lois, spécifiques au vivant. On le voit, la recherche et le dévoilement progressif de la dimension quantique de la vie et des organismes vivants, loin de conduire à un nouveau réductionnisme, éclairent d’une lumière nouvelle la prodigieuse évolution du vivant vers une complexité toujours plus grande, jusqu’à voir l’émergence d’une espèce singulière entre toutes, homo sapiens, capable de reconstruire et de comprendre sa propre genèse, et d’imaginer sa destinée, en regardant les étoiles. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Nanotechnologies et Robotique | |
| | | La firme Nvidia, leader mondial des processeurs et cartes graphiques, a développé une nouvelle approche pour favoriser l’échange d’objets entre robots et humains. Si cette opération peut paraît simple, tant elle est naturelle chez l’homme, elle reste complexe pour un engin dans l’impossibilité de visualiser entièrement l’objet dont il doit se saisir – partiellement caché par une main. En outre, un opérateur n’a souvent pas le temps de veiller à faire le bon geste dans le but que l’engin reconnaisse ce qui lui est tendu. La technique mise au point par Nvidia s’appuie sur l’apprentissage par visualisation. Le robot rejoint l’humain à mi-chemin, analyse comment ce dernier tient l’objet qu’il veut donner. Il calcule alors précisément la trajectoire à adopter dans le but d'optimiser ses facultés de préhension. Les chercheurs de la société américaine ont catégorisé les différentes façons de tenir un objet : cela pourrait se faire la "paume ouverte", avec un "pincement du fond" ou un "pincement du dessus ou du dessous" ou alors par "soulèvement". Ces gestes ont été filmés sous tous les angles et compilés près de 152 000 fois pour entraîner le système. Les spécialistes sont, d’ailleurs, toujours plus nombreux à estimer que cette méthode, que l’on appelle l’"observation", fait ses preuves. Pour leur part, les experts de Nvidia ont ainsi modélisé les transmissions d’objet – action à laquelle ils font référence sous le nom quelque peu barbare de "système logico-dynamique robuste" dans le cadre de l’étude. Si le robot ne parvient pas à déterminer l’approche à adopter, il reste en sommeil et inactif. Un cas de figure devenu très rare, selon les dires des scientifiques, qui assurent que leur essais ont été "concluants". Deux robots "Panda" de la marque allemande Franka Emika ont embarqué leur brique d’IA et seraient ainsi parvenus à se saisir quasi-naturellement des pièces de couleurs différentes. Les auteurs de l’étude notent que leur modèle "fait passer le taux de transaction réussies de 80 à 100 %", le tout pour un temps d’exécution réduit : "17,83 secondes contre 20,93" pour les engins qui n’en sont pas équipés. De quoi envisager une hausse importante de la productivité en entreprise à bien des égards, selon les chercheurs, qui disent désormais vouloir apprendre aux robots à composer avec davantage de gestes pour répondre à des cas d’usage extrêmement diversifiés. Article rédigé par Georges Simmonds pour RT Flash The Robot Report | | ^ Haut | |
|
| | | En électronique et en informatique, l'énergie produite par la chaleur est généralement perdue. Elle est dissipée grâce à des caloducs ou des ventilateurs pour éviter la surchauffe. Dans les smartphones, plusieurs éléments contribuent à produire de la chaleur. Les principaux sont (dans le désordre) la lumière des écrans LCD, le chipset, le récepteur de radiofréquence, le contrôleur de charge de la batterie ou encore la batterie en elle-même. Que ce soit en informatique ou en électronique, les batteries produisent systématiquement de la chaleur. L’efficacité d’une batterie peut d’ailleurs se mesurer en faisant le rapport entre la quantité d’énergie qu’elle apporte et la chaleur qu’elle émet. Et donc qu’elle perd. Et c’est évidemment dommage d’en perdre quand l’autonomie de cette batterie est un enjeu de plus en plus important, auquel les industriels répondent aujourd’hui en réduisant les temps de charge. Et s’il était possible de convertir cette chaleur en énergie réutilisable ? Une équipe de chercheurs, répartis entre l’Université de Wuhan et l’Université de Los Angeles, a présenté dans la revue scientifique Nano Letters les résultats de travaux qui démontrent qu’il serait possible de récupérer l’énergie thermique pour la transformer en énergie électrique. Pour cela, les chercheurs utilisent un gel. Et plus précisément, un hydrogel. Il s’agit d’une substance qui n’est pas soluble dans l’eau, mais qui gonfle au contact de l’eau pour se transformer en gel. Mais ce n’est pas tout. Ici, le gel, appelé gel galvanique, contient de l’eau et des ions (lesquels contiennent donc une charge électrique). Quand le gel est placé autour d’une source de chaleur (une batterie par exemple), l’énergie thermique évapore l’eau de l’hydrogel, permettant aux ions de libérer une charge électrique. D’où la production d’électricité. Une fois la chaleur dissipée, la substance du gel capte les atomes d’eau dans l’air et se reforme. Aujourd’hui, la production électrique d’un tel gel est encore trop faible pour être exploitable. Mais les chercheurs pensent pouvoir améliorer ce rendement énergétique, ce qui ouvrirait la voie à de multiples applications, notamment dans l’automobile, qui pourrait utiliser cette nouvelle technique pour étendre l’autonomie des véhicules. Article rédigé par Georges Simmonds pour RT Flash PA | | | |
| L’entreprise britannique ITM Power et l’énergéticien danois Ørsted cherchent à intégrer un électrolyseur dans une éolienne pour produire de l’hydrogène. Un dispositif qui vise à réduire le coût de production de l’hydrogène vert, selon ITM Power qui espère à terme voir des installations offshore de production d’hydrogène. Pour rappel, l’hydrogène est un gaz invisible, inodore et non toxique, plus léger que l’air, mais qui ne se trouve pas naturellement dans cet état. Il faut donc le produire, en faisant passer du courant dans l’eau, qui va décomposer la molécule d’eau en oxygène (O2) d’un côté, et en hydrogène (H2) de l’autre. C’est l’électrolyse de l’eau. Le dispositif présenté prévoit d’intégrer un électrolyseur résistant à l’environnement marin dans une éolienne ou à proximité immédiate. L’eau nécessaire est prélevée dans la mer et purifiée. L’énergie produite par la turbine est transmise via une connexion en courant continu à l’électrolyseur, avec une perte d’énergie minime. L’hydrogène produit est comprimé puis exporté par des tuyaux vers le rivage, ce qui est plus économique que d’avoir recours à des câbles électriques sous-marins, affirme ITM Power. Ce projet, qui en est encore à la phase de conception, n’est pas sans rappeler celui de la start-up nantaise Lhyfe qui veut produire de l’hydrogène vert à partir d’énergies renouvelables. Pour cela, elle a imaginé un système modulaire pouvant s’adapter à chaque territoire et à ses ressources (photvoltaïque, éolien, biomasse, géothermie, hydraulique, biogaz). Article rédigé par Georges Simmonds pour RT Flash Mer et Marine | | | |
| Des chercheurs de l’Université polytechnique de Tomsk, en Russie, et de l’Université de Lille ont mis au point une éponge magnétique superhydrophobe, capable de purifier l’eau des produits pétroliers. Basée sur du polyuréthane ordinaire, le matériau obtenu repousse l’eau, tout en absorbant les molécules d’hydrocarbures. « Les nouvelles méthodes de production de pétrole, en particulier celles liées à la production dans les fonds marins, augmentent le risque de fuites. Nous connaissons tous l'impact environnemental de l'accident survenu sur une plateforme de forage dans le golfe du Mexique en 2010. Par conséquent, l'un des enjeux scientifiques les plus urgents est d'obtenir des matériaux absorbants sélectifs, capables d'extraire les produits pétroliers d'un mélange eau-huile, en évitant les interactions avec l'eau » explique Pavel Postnikov, professeur à l’Université polytechnique de Tomsk. En mer, les produits pétroliers sont souvent présents sous forme d’émulsions – un mélange hétérogène avec l’eau – au point qu’il est parfois difficile de séparer les deux éléments. Les chercheurs ont donc voulu concevoir un matériau hydrophobe, qui n’absorbe que les hydrocarbures. A partir d’une éponge standard, les scientifiques ont donc mis au point un matériau superhydrophobe, qui repousse l’eau tout en absorbant les molécules de pétrole, une propriété obtenue avec des sels de diazonium chauffés à 60°C. « Nous avons ainsi obtenu un matériau qui n'interagit quasiment pas avec l'eau, malgré le fait que ce soit une éponge » résume Pavel Postnikov. L’équipe voulait également le rendre facilement récupérable une fois chargé en hydrocarbures ; en plus du diazonium, il est également chargé en nanoparticules de fer, ce qui le rend magnétique. « Nous avons testé notre matériau avec des émulsions à la fois très stabilisées et peu stabilisées. Les expériences ont démontré que le matériau est excellent. Nous avons également testé son efficacité sur des huiles industrielles qui peuvent polluer les plans d'eau naturels. Le matériau a également montré sa haute efficacité » se félicite Pavel Postnikov. Article rédigé par Georges Simmonds pour RT Flash Yachting Art | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | L'entreprise américaine Hypergiant Industries, spécialisée dans le développement de systèmes d’intelligence artificielle, a imaginé une solution de haute technologie afin de réduire nos émissions de dioxyde de carbone. Son prototype de bioréacteur est capable de piéger et de stocker de grandes quantités de gaz carbonique en mettant à contribution des algues vertes. Ce végétal aquatique joue, depuis toujours, un rôle majeur dans les cycles géo-biologiques du carbone et de l'oxygène de notre planète. Et si nous respirons à pleins poumons une atmosphère oxygénée aujourd’hui, c’est bien grâce à elles. Les algues ont libéré par la photosynthèse une grande quantité d'oxygène et favorisé la formation de la couche d'ozone qui nous protège des ultra-violets biocides. De nombreuses entreprises emploient ces éponges à carbone pour produire du biodiesel ou encore pour capter les métaux lourds dans les rejets industriels. Pour proliférer, ces algues n'ont besoin que d'eau, de lumière et surtout de beaucoup de CO2. Elles sont au cœur du bioréacteur dénommé EOS développé par l’entreprise américaine. Le prototype ressemble à une petite armoire, d’une hauteur de 17,8 cm et 7,6 cm de côté. La machine est pilotée par un programme d’intelligence artificielle qui régule le pH de l’eau, c’est-à-dire le taux d'acidité convenant le mieux aux plantes, gère la température de leur bain et bien d’autres paramètres pour optimiser la croissance des algues. « Notre bioréacteur à base d’algues absorbe 400 fois plus vite le CO2 que les arbres », affirment ses concepteurs. L’appareil de démonstration aurait ainsi une capacité d’absorption du gaz carbonique équivalente à une surface forestière de 4 000 m2. En fin de vie, les algues constitueront une biomasse réutilisable qui sera transformée en carburants, en huiles, fertilisants ou encore en produits cosmétiques. L’entreprise texane vise en premier le marché des futures villes intelligentes pour installer des boîtiers géants anti CO2 dans les cités. Mais la société n’oublie pas les particuliers avec une version miniature de son dispositif, capable de purifier l’air intérieur de nos habitations. Cette innovation, si elle tient toutes ses promesses, nous permet de supposer qu’un monde décarboné est peut-être possible. Article rédigé par Georges Simmonds pour RT Flash HI | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Une équipe de scientifiques du Massachusetts Institute of Technology (MIT) a mis au point une technique pour imprimer en 3D des implants cérébraux souples. Ses travaux ont été publiés dans la revue Nature Communications le 30 mars 2020. En principe, les implants cérébraux sont en métal ou composés de matériaux rigides qui peuvent provoquer une inflammation des tissus. Depuis quelques années, des ingénieurs du MIT travaillent sur la fabrication d'implants souples capables de s'adapter au mieux à l'anatomie particulière du cerveau. Les implants cérébraux ont divers usages. Ils peuvent être utilisés pour mesurer l'activité neuronale d'un humain et pour soigner certains maux grâce à la stimulation cérébrale profonde ou neurostimulation. Ce traitement est par exemple utilisé pour diminuer les symptômes de la maladie de Parkinson. Il consiste à implanter symétriquement deux électrodes dans une zone de chaque côté du cerveau. Elles sont reliées à un boîtier de stimulation fixé sous la peau. Des impulsions électriques sont alors émises pour corriger les conséquences cérébrales du manque de dopamine, principale cause de cette maladie chronique. Ces nouveaux travaux se sont concentrés sur la création d'un plastique souple conducteur. Dans son état de base, ce plastique très spécifique est trop liquide pour servir d'encre à l'impression 3D. Les chercheurs ont réussi à l'épaissir tout en conservant sa conductivité électrique, élément essentiel pour communiquer avec les neurones. « Nous condensons les nanofibres et les rendons visqueuses comme du dentifrice, afin que nous puissions les presser comme un liquide épais et imprimable », explique un des auteurs de l'étude, Xuanhe Zhao, professeur de génie mécanique et de génie civil et environnemental. En guise de premier test, un implant a été inséré dans le cerveau d'une souris. Les scientifiques ont alors découvert que l'électrode était capable de capter l'activité électrique au neurone près. Cette faculté permet d'apporter aux scientifiques une image extrêmement précise de l'activité dans une zone du cerveau. Ces travaux pourraient en conséquence servir à améliorer les thérapies cognitives existantes, en ciblant très précisément la zone du cerveau à stimuler. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Voilà une découverte qui pourrait révolutionner la paléontologie. Des chercheurs de l’Institut de paléontologie et paléoanthropologie des vertébrés attaché à l’Académie chinoise des sciences ont examiné des échantillons de squelettes fossilisés de très jeunes Hypacrosaures (Hypacrosaurus stebingeri) – de la famille des hadrosaures ou dinosaures à bec de canard – mis au jour dans le Montana dans les années 1980. Sur un fragment cartilagineux de crâne, ces scientifiques ont identifié des cellules pétrifiées en pleine division. Une masse sombre pouvait être observée au cœur du noyau de ces dernières, là où les chromosomes sont censés se condenser : une trace d’ADN de dinosaure aurait subsisté ! Pour être certains qu'ils avaient bien découvert des molécules d'ADN intactes, les chercheurs ont injecté de l’iodure de propidium dans ces cellules pétrifiées. Cette molécule fluorescente s’intercale spécifiquement entre les acides nucléiques, les “briques” qui composent l’ADN, pour les révéler. Au microscope, un point rouge intense s’est alors allumé, prouvant la présence de molécules d’ADN encore intactes ! Et selon les chercheurs, vu la position précise de la fluorescence, pas de doute possible : cet ADN est bien dinosaurien et ne provient pas d’une bactérie qui aurait pu se nicher sur le fossile. Autrement, ce dernier en aurait été recouvert. Par contre, pour le moment, il n’est pas encore certain que cet ADN puisse être exploitable ou même séquençable. Mais si tel est le ca s, la génétique et la paléontologie pourraient s'en trouver bouleversées… Article rédigé par Georges Simmonds pour RT Flash NSR | | | |
| Les microtubules sont des bio-polymères, minuscules tubes creux présents à l’intérieur des cellules. Ils forment un réseau dense appelé cytosquelette, littéralement « squelette de la cellule ». Ils déterminent la forme des cellules et participent à des événements essentiels comme la division et la mobilité cellulaires. Les microtubules sont abondants dans les neurones : ils sont nécessaires au maintien des prolongements de ces cellules, les axones et dendrites qui assurent la transmission de l’influx nerveux dans le cerveau. Par ailleurs, les microtubules sont des structures dynamiques : ils sont capables de s’allonger et de raccourcir. Ce remodelage des microtubules permet de moduler l’architecture et l’activité des cellules. Dans les neurones, les microtubules dynamiques co-existent avec des microtubules ultra-stables, ces derniers garantissant le maintien des prolongements neuronaux à la base du câblage du système nerveux. Cette stabilité des microtubules est assurée par des protéines spécialisées qui se lient aux microtubules et qu’on appelle des MAP (pour Protéines associées aux microtubules). Élucider les mécanismes d’action de ces MAP constitue donc un enjeu majeur dans la compréhension du comportement des microtubules, et plus particulièrement dans le contexte du neurone. Des chercheurs de l’Institut des Neurosciences de Grenoble et de l'Irig s’intéressent à MAP6, une protéine neuronale découverte pour sa capacité à stabiliser les microtubules. Des souris déficientes en MAP6 souffrent de troubles sévères proches de ceux observés chez les patients atteints de schizophrénie, ce qui est dû, au moins en partie, à une altération de la stabilité des microtubules. Dans ce contexte, les chercheurs ont identifié de nouvelles propriétés de MAP6. Ils ont découvert que cette protéine se localise dans la lumière des microtubules, identifiant ainsi le premier composant localisé à l’intérieur des microtubules neuronaux. Cette localisation de MAP6 induit la croissance des microtubules sous forme d’hélice, une structure très particulière jamais observée auparavant. Les microtubules en hélices générés par MAP6 ont une largeur équivalente à celle des axones ; ils pourraient donc définir le diamètre des axones et/ou conférer aux axones une résistance physique face aux forces de compression qu’ils rencontrent dans les tissus du cerveau au cours de leur croissance. Cette découverte pionnière de la première protéine présente dans la lumière des microtubules neuronaux ouvre un tout nouveau champ d’investigation pour comprendre cette face cachée des microtubules. Explorer la vie intérieure des microtubules neuronaux, jusqu’à ce jour inconnue, devrait révéler de nouvelles fonctions de ces bio-polymères. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| Un nouveau scanner médical inventé à partir d’un travail de recherche sur la détection de la matière noire, c’est le projet de recherche que mène actuellement Subatech, le laboratoire de physique subatomique et des technologies associées. Ce projet, baptisé Xémis, regroupe l’Institut Mines-Télécom Atlantique, le CNRS et l’université de Nantes. « Au sein d’une équipe internationale, nous travaillons sur la détection de signaux de matière noire à partir du xénon à l’état liquide », explique Dominique Thers, chercheur et responsable d’une équipe de recherche de ce laboratoire à l’IMT Atlantique. « Ce gaz rare est présent dans l’air à une densité de 10-7 atomes par molécule d’air. Nous avons eu l’ idée de nous en servir pour développer une nouvelle technique d’imagerie médicale ». Le scanner se présente sous la forme d’une baignoire cylindrique en forme de tube à l’intérieur duquel le patient peut s’allonger. Les parois, de 12 centimètres d’épaisseur, sont remplies de xénon. L’appareil s’inspire directement de l’imagerie par tomographie par émission de positons (TEP-Scan), technique qui repose sur l’injection dans le sang d’un traceur faiblement radioactif. Habituellement, le fluor18 est utilisé car il émet, lors de sa désintégration, deux photons gamma diamétralement opposés (180°). Cette propriété permet de tracer une ligne qui passe dans le corps du malade et de localiser la zone d’émission, proche de celle où l’atome s’est fixé. Des algorithmes se chargent ensuite de traiter tous les points afin de reconstruire une image. « Nous employons un autre traceur : le scandium 44 », révèle le chercheur. « Il a la particularité d’émettre un 3ème photon qui passe par le point d’émission et permet ainsi une triangulation directe de la position et donc une meilleure qualité de l’image ». Autre différence significative : le xénon liquide fait office de caméra. Nul besoin de faire déplacer un anneau de capteurs le long du corps du patient, comme c’est le cas avec les appareils actuels. Les images ne sont plus retranscrites « en tranches » mais offrent un champ de vision homogène dans toutes les directions. Là encore, avec une meilleure précision. Pour obtenir une image de qualité égale aux scanners actuels, les chercheurs pensent utiliser 100 fois moins de médicament radioactif. Normalement, quelques mégabecquerels sont injectés par kg de patient. « Ici, quelques kilobecquerels suffiront », analyse Dominique Thers. « Les patients seront ainsi beaucoup moins exposés à la radioactivité ». Un bénéfice car le risque individuel d’une telle exposition n’est pas nul et chaque indication d’examen doit être soigneusement pesée suivant le bénéfice attendu. Ce scanner au xénon offrira ainsi la possibilité, pour un même patient, de faire plus d’examens. Une fréquence plus élevée qui permettra une plus grande personnalisation de l’examen avec une meilleure précision du diagnostic et du suivi thérapeutique pratiqué en cancérologie. La durée du scannage devrait aussi être plus courte, permettant ainsi de réaliser plus d’examens quotidiennement pour chaque appareil. Actuellement, un temps d’environ vingt minutes est nécessaire pour chaque patient. Ici, quelques minutes seulement devraient suffire. Ce projet de recherche va à présent rentrer dans sa phase d’essai. Un premier prototype va être installé au CHU de Nantes et des tests vont débuter sur des souris et des rats. La baignoire, d’une longueur de 24 cm, permettra de scanner le corps entier de ces petits mammifères en une seule fois. Un scanner à l’échelle de l’homme pourrait voir le jour à l’horizon 2025-2026. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| Des chercheurs d’INRAE et du CNRS ont élucidé la structure précise d’une molécule présente à la surface de la bactérie et essentielle à son échappement au système immunitaire. Leurs résultats, parus le 21 avril dans mBio, proposent une structure complète de ces motifs, ce qui ouvre des perspectives pour la lutte contre ce pathogène. Enterococcus faecalis fait partie des entérocoques, qui sont des bactéries commensales mais aussi d’importants agents pathogènes opportunistes responsables d’infections chez l’homme, et chez certains animaux, dont les poules et poulets d’élevage. Chez l’Homme, elle cause des infections nosocomiales telles que des infections urinaires et des bactériémies chez des patients immunodéprimés, lors d’une antibiothérapie par exemple. Les entérocoques sont naturellement résistants aux céphalosporines – une classe d’antibiotiques fréquemment prescrits – mais ils peuvent aussi acquérir une résistance aux antibiotiques de dernier recours tels que la vancomycine. Comment ces bactéries peuvent-elles se retrouver dans le sang sans se faire repérer par le système immunitaire ? Ce dernier différencie les bactéries inoffensives des bactéries pathogènes grâce aux motifs présents à leur surface. Il semblerait que le système immunitaire ne soit pas capable de reconnaître la molécule de surface d’Enterococcus faecalis, constituée d’un assemblage de sucres, appelé EPA (Enterococcal Polysaccharide Antigen). Cet EPA est nécessaire à la colonisation du tractus digestif, à la formation d’un biofilm (amas de bactéries fixées à une surface), à la résistance aux antibiotiques et à la pathogenèse. C’est pourquoi il est primordial de connaître ses constituants et sa structure complète afin de mieux comprendre son rôle et mieux le contrer. En combinant des techniques de biochimie et de génétique, des chercheurs d’INRAE et du CNRS ont réussi à accéder à la structure complète et détaillée de cet EPA. Les bactéries possèdent une paroi, dont le composant majeur, le peptidoglycane, est constitué de chaînes de sucres reliées par de courtes chaînes d’acides aminés. C’est ce peptidoglycane qui, chez certaines bactéries, peut porter des motifs de surface propres à chaque espèce, reconnaissables par le système immunitaire. Les chercheurs ont montré dans leurs travaux que chez Enterococcus faecalis EPA est constitué d’une chaîne de six sucres décorée d’un motif exposé à la surface qui permet aux bactéries d’échapper au système immunitaire et de mieux résister aux antibiotiques. L’élucidation de cette structure complète a permis aux chercheurs d’identifier les différentes étapes impliquées dans l’assemblage (ou chaîne de biosynthèse) de cet EPA. Il devient donc désormais possible de concevoir des antimicrobiens ciblant certaines étapes clés de l’assemblage. Cette étude va permettre l’identification de nouvelles cibles afin de développer des approches préventives et thérapeutiques contre les entérocoques. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| On savait déjà que des personnes ayant subi une expérience traumatisante peuvent ensuite développer des troubles neuropsychiatriques comme de l’anxiété ou une dépression. Cette fois, des chercheurs américains de l'Ecole de Médecine de la Nouvelle Orléans ont montré comment le stress modifie physiologiquement le fonctionnement du cerveau. « Le stress altère les fonctions cérébrales et produit des changements durables dans le comportement et la physiologie de l'homme. L'étude de la neurobiologie du stress peut révéler comment le stress affecte les connexions neuronales et donc les fonctions cérébrales. Cette connaissance est nécessaire pour développer des stratégies de prévention ou de traitement de ces troubles neurologiques courants liés au stress », explique le docteur Si-Qiong June Liu de la LSU Health New Orleans School of Medicine (Etats-Unis) en préambule de l’étude. Au cours de cette dernière, ses collègues et lui ont travaillé sur des souris qu’ils ont exposées à l’odeur d’un prédateur. Ce faisant, ils ont remarqué qu’une seule fois suffisait à provoquer un changement durable dans le cerveau. En réponse au stress, les rongeurs ont développé l’hormone norépinéphrine qui a supprimé une voie moléculaire produisant une protéine appelée GluA1. Cette dernière contrôle la forme et la plasticité des astrocytes, des cellules gliales essentielles à la formation et au maintien des connexions synaptiques. Ainsi, à cause d’une expérience stressante, les astrocytes des souris se sont éloignés des synapses, structures permettant à l’information de passer d’une cellule à l’autre via des neurotransmetteurs. Résultat : la communication neurale a été perturbée. « Le stress affecte la structure et la fonction des neurones et des astrocytes », explique Liu. « Parce que les astrocytes peuvent moduler directement la transmission synaptique et sont impliqués de manière critique dans le comportement lié au stress, prévenir ou inverser le changement induit par le stress dans les astrocytes est un moyen potentiel de traiter les troubles neurologiques liés au stress. Nous avons identifié une voie moléculaire qui contrôle la synthèse de GluA1 et donc le remodelage des astrocytes pendant le stres s », poursuit-il. Si les chercheurs continuent d’étudier le rôle des astrocytes dans les connexions synaptiques, ils sont certains de leurs contributions essentielles. L’équipe prévoit également de mener d’autres études pour déterminer si l’effet du stress chez les souris est le même chez les humains. Toutefois, il y a de fortes de chances pour que les voies moléculaires impliquées chez les rongeurs existent également chez l’Homme, assure Liu. A terme, le chercheur espère que ces découvertes permettront de fournir une nouvelle voie thérapeutique. « Cela suggère de nouvelles cibles pharmacologiques pour une éventuelle prévention ou inversion des changements induits par le stress ». Article rédigé par Georges Simmonds pour RT Flash JDN | | | |
| Le syndrome d’apnée obstructive du sommeil est le trouble respiratoire du sommeil le plus commun, touchant plus de 30 % de la population après l’âge de 65 ans. Chez les sujets qui en sont atteints, cette pathologie se traduit par des interruptions incontrôlées et répétées de la respiration pendant le sommeil, liées à l’obstruction temporaire des voies aériennes supérieures, au niveau de la gorge. Les apnées du sommeil sont associées à de nombreux problèmes de santé, au premier rang desquels les maladies cardiovasculaires. Cependant, cette pathologie reste assez longtemps silencieuse, si bien qu’elle est probablement sous-estimée dans la population générale. Ces dernières années, les données scientifiques se sont également accumulées, montrant un lien entre la qualité du sommeil, et notamment la présence d’apnées du sommeil, et le développement de la maladie d’Alzheimer. Néanmoins, les mécanismes biologiques qui sous-tendent cette association restaient à élucider. Pour y voir plus clair, la chercheuse Inserm Géraldine Rauchs a mené une étude dans le laboratoire Physiopathologie et Imagerie des maladies neurologiques (Inserm/ Université de Caen-Normandie) en collaboration avec le laboratoire Neuropsychologie et imagerie de la mémoire humaine (Inserm/Université de Caen-Normandie/Ecole Pratique des Hautes Etudes – PSL). Dans ces travaux, les chercheurs ont utilisé plusieurs techniques d’imagerie cérébrale afin de cartographier les changements cérébraux chez des personnes atteintes d’apnées du sommeil non traitées, à la fois sur le plan structurel et moléculaire, mais aussi sur le plan fonctionnel. Les chercheurs ont d’abord recruté 127 participants de plus de 65 ans. En bonne santé, ceux-ci ne présentaient pas de problèmes cognitifs. Au moyen d’un appareil portatif permettant d’enregistrer à domicile leur sommeil et leur respiration au cours de la nuit, les chercheurs ont détecté la présence d’apnées du sommeil, à des degrés de sévérité variables, chez 75 % d’entre eux. Tous les participants ont aussi été soumis à une série de tests visant à évaluer leur fonctionnement cognitif, notamment la mémoire et les fonctions exécutives. Ils ont répondu à des questionnaires portant sur les perceptions qu’ils avaient de leur fonctionnement cognitif et sur la qualité de leur sommeil. Plusieurs examens d’imagerie cérébrale ont ensuite été réalisés, afin d’étudier leur cerveau sous tous les angles et d’identifier d’éventuels changements pouvant être associés à la maladie d’Alzheimer. Si aucune différence entre les participants n’est observée en ce qui concerne leurs performances cognitives, l’imagerie cérébrale révèle toutefois plusieurs changements notables dans le cerveau des personnes atteintes d’apnées du sommeil. En effet, chez ces participants, l’accumulation de protéine bêta-amyloïde dans le cerveau est plus marquée. Caractéristique de la maladie d’Alzheimer, cette protéine s’accumule sous forme de plaques, qui selon leur distribution dans le cerveau et leur densité peuvent conduire à l’apparition de signes cliniques de la pathologie. Par ailleurs, les chercheurs ont observé une augmentation de la masse de matière grise et de la consommation de glucose, suggérant la présence de processus inflammatoires dans le cerveau. « A l’heure où les essais cliniques visant à tester des traitements contre la maladie d’Alzheimer ne sont pas encore couronnés de succès, l’identification de facteurs de risque et de protection sur lesquels agir intéresse de plus en plus les chercheurs. Grâce à l’utilisation de plusieurs méthodes d’imagerie cérébrale, cette étude nous a permis de préciser les mécanismes expliquant les liens entre qualité du sommeil, risque de déclin cognitif et de maladie d’Alzheimer », explique Géraldine Rauchs. « Cela ne veut pas dire que ces personnes vont nécessairement développer la maladie, mais elles présentent un risque plus élevé. De plus, il existe des solutions efficaces pour traiter les apnées du sommeil. Détecter les troubles du sommeil, notamment les apnées du sommeil, et les traiter ferait donc partie des moyens pour favoriser le vieillissement réussi ». Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Le diabète de type I se caractérise par la destruction des cellules bêta- pancréatiques, productrices d’insuline, par un phénomène auto-immun. La perte progressive des cellules bêta fait suite à l’inflammation des îlots, en même temps que d’une tentative de régénération de celles-ci. La production d’insuline devient toutefois insuffisante et la glycémie n’est plus correctement régulée. Des travaux ont suggéré que 15 % à 40 % de la fonction des cellules bêta persistent chez les patients en hyperglycémie. Il peut s’agir de cellules ayant résisté à la destruction ou ayant amélioré leurs fonctions à la suite de la mise en route de l’insulinothérapie ou d’un traitement immuno-modulateur. Cela permet souvent de réduire les besoins en insuline après un diagnostic de diabète de type I. Il s’agit de ce que l’on appelle la phase de rémission partielle, qui peut durer plusieurs semaines ou plusieurs années. Des études ont été menées pour évaluer l’efficacité, sur l’évolution du diabète, de traitements agissant sur l’auto-immunité et l’inflammation (rituximab, abatacept, greffes autologues de cellules souches, étanercept, voire BCG). Une équipe turque publie les résultats d’une récente étude évaluant l’influence d’une vaccination contre la rougeole, avec le virus vivant atténué, sur la rémission partielle de jeunes patients atteints de diabète de type I. Une baisse de la réponse immunitaire à d’autres antigènes que ceux de la rougeole a en effet été observée après une vaccination par le vaccin vivant atténué contre la rougeole. Cette baisse immunitaire peut persister plusieurs semaines à plusieurs mois. Au total 55 enfants entre 5 et 17 ans ont été inclus dans cette étude. Une partie d’entre eux avait été vaccinée contre la rougeole dans les 3 mois suivant le diagnostic de diabète, l’autre partie n’avait pas reçu ce vaccin. L’étude porte sur 12 mois de suivi. Une rémission partielle survient chez 56,4 % des enfants, le plus souvent avant 6 mois. Les données montrent que la rémission partielle est plus fréquente chez les enfants vaccinés que chez les non vaccinés. Les auteurs expliquent cet effet par l’immuno-modulation induite par le vaccin vivant atténué contre la rougeole, par l’intermédiaire de la suppression de la production de l’interféron-Υ. Dans cette étude, d’autres facteurs sont prédictifs de la survenue d’une rémission partielle. Il s’agit de l’absence d’acido-cétose, de la présence d’un taux élevé de peptide-C et de besoins faibles en insuline au moment du diagnostic. Article rédigé par Georges Simmonds pour RT Flash JIM | | | |
| Dans toutes les populations humaines, les femmes vivent en moyenne plus longtemps que les hommes. Neuf supercentenaires (personnes dépassant l'âge de 110 ans) sur dix sont d'ailleurs des femmes. Mais en est-il de même chez les autres mammifères, dans la nature ? Une équipe menée par Jean-François Lemaître, chercheur CNRS au Laboratoire biométrie et biologie évolutive (CNRS/Université Claude Bernard Lyon 1/ Vetagro Sup), a compilé des données démographiques de 134 populations de 101 espèces de mammifères, des chauve-souris aux lions en passant par les orques ou les gorilles, ce qui fait de leur étude la plus vaste et la plus précise à ce jour. Dans 60 % des cas, les femelles vivent plus longtemps que les mâles : leur longévité est en moyenne supérieure de 18,6 % à celle des mâles (la différence n'est que de 7,8 % chez les humains). Est-ce parce que le taux de mortalité augmente plus vite avec l'âge chez les mâles ? Pas nécessairement, d'après l'équipe scientifique : pour environ la moitié des populations étudiées, cette augmentation est même plus prononcée chez les femelles. Mais celles-ci conservent néanmoins à tous les âges de la vie un risque de mortalité plus faible que celui des mâles. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| La maladie de Parkinson affecte plus de 10 millions de personnes dans le monde, provoquant une neurodégénérescence et des difficultés motrices, qui augmentent avec le temps et réduisent la qualité de vie. Ces scientifiques de l’Université de Leeds identifient, avec cette recherche au niveau moléculaire, une cible pour des thérapies contre la maladie de Parkinson : 2 régions de contrôle maîtres de la protéine alpha-synucléine qui caractérise la maladie. Sans ces sites de contrôle, la protéine devient alors incapable de s’agréger en plaque amyloïde. Ces résultats ouvrent un espoir de traitement, alors qu’il n’existe actuellement aucun remède contre la maladie. L'apparition et la progression de la maladie de Parkinson sont en effet caractérisées par l’agrégation d’une protéine, l’α-synucléine humaine (αSyn) en plaque amyloïde toxique. On sait déjà que la région centrale de la protéine αSyn contient un composant (β) non amyloïde (NAC), crucial pour l'agrégation. Ces chercheurs britanniques se sont focalisés sur l’alpha-synucléine, présente normalement dans les cellules saines du système nerveux, mais qui, lorsqu’elle s'agglutine ou s'agrège en plaques appelées amyloïde, peut perturber le fonctionnement normal du cerveau. Alors que cette courte région NAC a déjà été suspectée d’être une clé de la maladie de Parkinson, ici les scientifiques constatent que deux autres régions jouent un rôle essentiel dans la formation de l'alpha-synucléine en plaque amyloïde. Découverte de deux nouvelles zones clés de αSyn : l’équipe montre en laboratoire que la suppression de ces régions désactive la capacité d’agrégation, même si NAC est toujours présente. Afin de démontrer l'importance de ces régions dans l'agrégation des protéines dans les cellules vivantes, les chercheurs ont inséré de l'alpha-synucléine et une variante de la protéine dépourvue de ces régions « clés » dans les cellules musculaires de vers nématodes et ont surveillé l'agrégation des protéines et leurs effets sur la mobilité des vers. Les chercheurs constatent que sans ces régions clés, la protéine αSyn n’est plus capable de s’agréger. Les vers modifiés sont plus sains et plus mobiles, même à un âge av ancé, par rapport aux vers exprimant la protéine alpha-synucléine normale. L’étude identifie ainsi 2 domaines clés à cibler : « Notre découverte de ces régions « maîtres » de l’agrégation va permettre d’avancer dans la compréhension de la mutation de la séquence protéique qui cause la maladie. Nous avons peut-être trouvé le talon d'Achille pour ces protéines à cibler pour une future intervention thérapeutique ». Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|