| | | | | | | Edition du 02 Juillet 2021 |
| |
|
| Edito Une nouvelle aventure scientifique est en train de naître : l’informatique quantique moléculaire
Bien conscients des immenses enjeux scientifiques, industriels et financiers, IBM, Amazon, Google, et tous les géants du numérique, se sont lancés à corps perdu dans une course technologique effrénée pour être le premier à mettre au point et à commercialiser le premier ordinateur quantique « universel », c’est-à-dire une machine réellement polyvalente, capable de réaliser n’importe quel type de calcul, dans n’importe quel domaine, et pas seulement d’effectuer certaines opérations mathématiques dans des champs précis d’application. IBM, qui a déjà développé une machine de 65 qbits, travaille sur un prototype de 125 qbits, qui devrait être présenté avant la fin de l’année, et prévoit la réalisation d’une machine de 433 qbits en 2022 et de 1000 qbits pour 2023. Le géant du commerce en ligne Amazon, après avoir lancé fin 2019 un service d'informatique quantique baptisé Amazon Braket (destiné aux développeurs d'entreprises cherchant à tester leurs algorithmes sur des calculateurs quantiques), a décidé de se lancer dans la conception de son propre ordinateur quantique, en partenariat avec les meilleurs centres de recherche publics et privés américains. Enfin Google, après avoir annoncé un peu prématurément qu’il était parvenu à la suprématie quantique, vient de dévoiler une feuille de route plus qu’ambitieuse, puisqu’il vise la réalisation d’une machine quantique à un million de qbits pour 2029, alors que les ordinateurs quantiques actuels ont toutes les peines du monde à dépasser (en conservant des performances acceptables de stabilité et de correction d’erreurs) les 100 bits. En début d’année, le Président de la République a annoncé une enveloppe globale (crédits publics et privés) d’1,8 milliard sur 5 ans (dont un milliard venant de l’Etat), pour développer les différentes étapes allant jusqu’à la conception de l’ordinateur quantique universel, ce qui devrait placer notre pays au 3eme rang mondial de cette compétition scientifique majeure, derrière la Chine et les Etats-Unis. Sur le plan scientifique, on a longtemps cru que la physique et ses étranges propriétés ne s’appliquaient qu’au niveau des particules et des atomes, mais n’étaient plus valables au niveau moléculaire, en raison du phénomène de décohérence, qui se traduit par une brusque perte des propriétés quantiques d’un système physique, lorsque celui-ci se trouve déstabilisé par des interactions avec son environnement. Mais depuis quelques années, les frontières et les limites d’application de la physique quantique se sont brouillées car plusieurs expérimentations ont pu montrer que, placées dans des conditions adéquates, certaines molécules pouvaient, elles aussi, acquérir des propriétés quantiques remarquables, ce qui ouvre une nouvelle voie vers le calcul quantique moléculaire. La réalisation d’ordinateurs quantiques moléculaires est l’un des objectifs du programme de recherche européen Flagship Technologies Quantiques. Dans ce cadre, des chercheurs des Instituts de Science des Matériaux et de Nanosciences d’Aragon en Espagne et de l’Institut des NanoSciences de Paris (Sorbonne Université), ont développé les moyens d’introduire des bits quantiques basés sur le spin de molécules magnétiques directement sur la surface de dispositifs. Ils ont en effet réussi à synthétiser une nouvelle molécule à base d’ions nickel (Ni) spécialement conçue pour être insensible au bruit magnétique, molécule qui pourrait ainsi entrer dans les processeurs quantiques moléculaires des ordinateurs de demain. Fin 2016, une équipe germano-américaine dirigée par Chin-wen Chou (Institut de Technologie de Californie), et Christoph Kurz (Institut Boulder de Technologie), a réussi l’exploit de contrôler les propriétés quantiques d’une molécule tout entière (Voir Nature). Pour y parvenir, les chercheurs ont piégé deux atomes de calcium chargés (ions calcium Ca+) dans une cavité optique de quelques microns de diamètre, placée dans une chambre à vide. En injectant de l'hydrogène gazeux dans cette enceinte, ils ont fait réagir ces deux atomes avec l'hydrogène présent, de manière à former une molécule CaH+ (ion moléculaire). Confinés dans la cavité optique, l'atome et la molécule ont interagi entre eux un&nb sp; peu comme le feraient deux boules reliées par un ressort : leurs charges identiques créent un effet répulsif alors que le confinement les attirent l'une vers l'autre. Mais tout l’intérêt de cette expérience réside dans le fait que la molécule acquiert une propriété quantique que ne possède pas l'atome : l'atome H, lié à cette molécule, vibre de manière aléatoire dans toutes les directions : c’est la rotation quantique de la molécule. Ce phénomène modifie constamment la force de répulsion entre Ca+ et CaH+, ce qui crée des oscillations aléatoires entre cet atome et cette molécule. Mais en visant cet atome à l’aide d’un laser, ces chercheurs sont parvenus à ralentir ces oscillations. Puis à moduler ces dernières, de façon à contraindre la mol&e acute;cule à adopter un mode de rotation déterminé. Fin 2019, des physiciens de l'Université de Vienne, en Autriche, ont observé le phénomène d'intrication quantique pour des molécules massives contenant 2000 atomes. « Nos résultats montrent un excellent accord avec la théorie quantique et ne peuvent pas être expliqués de manière classique » ont déclaré les chercheurs (Voir Science alert). Une autre équipe de l’Université de Vienne a montré en 2020 que, contre toute attente, on observait des franges d’interférences montrant un comportement ondulatoire quantique sur des molécules de gramicidine, un antibiotique naturel composé de 15 acides aminés (Voir Nature communications). A l’Institut de chimie moléculaire et des matériaux d’Orsay (ICMMO, dans l'Essonne) du CNRS, l’équipe de recherche de Talal Mallah travaille à la conception de molécules pouvant faire partie d’un processeur quantique moléculaire. (Voir Chemical Science). Ces chercheurs ont réussi à synthétiser une nouvelle molécule, à base d’ions nickel, à la fois insensible aux interférences magnétiques et manipulable à distance. Pour réaliser cette prouesse, ils ont eu l’idée de remplacer les qubits moléculaires habituellement utilisés, qui possèdent un spin demi-entier, très sensible à l’environnement magnétique, par ces molécules d’ions nickel, de spin entier, qui présentent l’avantage de ne pas être magnétiques, ce qui les rend insensibles aux bruits magnétiques environnants. En manipulant ces molécules grâce à des micro-ondes, ces chercheurs ont pu gagner un temps précieux de cohérence, et atteindre les 100 millisecondes, une durée suffisante, en théorie, pour réaliser des calculs quantiques. Mais pour pouvoir obtenir un ordinateur quantique moléculaire opérationnel, ces scientifiques ne peuvent pas utiliser un cristal moléculaire ordinaire, composé de molécules identiques et sensibles aux mêmes fréquences. Ils ont donc décidé d’utiliser une nouvelle molécule particulière contenant au moins deux atomes de nickel sensibles à des fréquences différentes, ce qui devrait leur permettre de manipuler chaque qubit sur une fréquence différente et donc de réaliser des opérations informatiques. Cette molécule est un cristal bi-nickel qui possède toutes les propriétés nécessaires pour réaliser des calculs quantiques. Il y a quelques semaines, une autre équipe internationale de l'Institut de technologie de Karlsruhe (KIT, Allemagne), du Centre européen des sciences quantiques de Strasbourg (CESQ) et du CNRS à Chimie ParisTech (Paris, France) a annoncé qu’elle avait conçu une nouvelle molécule à base de terres rares qui contient des spins nucléaires pouvant constituer des qubits manipulables par la lumière. Cette molécule appartient à la famille des polymères et ne contient que deux composantes : il s’agit d’une chimère d'europium trivalent (qui accepte trois liaisons chimiques). Ces scientifiques ont pu montrer qu’il était possible d’orienter le spin nucléaire par un faisceau lumineux dans cette molécule contenant de l'europium. Cette avancée ouvre la voie vers des systèmes informatiques quantiques basés sur des molé cules à base de terres rares (Voir Nature communications). Il y a quelques semaines, des chercheurs américains dirigés par Cheng Chin, professeur de physique à l’Université de Chicago, ont également réussi un véritable exploit : rassembler des milliers de molécules différentes en un seul et même état quantique, particulièrement difficile à obtenir et à stabiliser, appelé « Condensat de Bose-Einstein » (Voir Eurekalert). Comme l’explique Cheng Chin : « Les atomes sont de simples objets sphériques, alors que les molécules peuvent vibrer, tourner, et se comporter comme de minuscules aimants. Parce que les molécules peuvent faire tant de choses différentes, cela les rend plus utiles, et en même temps beaucoup plus difficiles à contr& ocirc;ler ». Pour parvenir à produire ce condensat, ces chercheurs ont dû refroidir ce système moléculaire à une température de 10 nanokelvins, proche du zéro absolu. Ils ont ensuite maintenu ces molécules dans le vide, à plat, pour limiter leurs possibilités de déplacement. Au final, ces molécules, ainsi piégées et figées, ont basculé dans un état quantique unique, comme si elles étaient toutes parfaitement identiques (même orientation, même fréquence de vibration). Cet exploit scientifique et technologique devrait permettre, à terme, de contrôler de vastes ensembles de particules. « Dans le monde quantique, toutes les molécules agissent ensemble, dans un comportement collectif. Cela ouvre une toute nouvelle voie pour explorer comment les molécules peuvent toutes réagir ensemble pour devenir un nouveau type de molécule », explique Cheng Chin. Parmi les nombreux champs d’applications du calcul quantique, il en est un qui devrait être révolutionné par l’arrivée de cette nouvelle technologie : la modélisation du cerveau humain. Actuellement, l'étude des réseaux de neurones du cerveau bute en effet sur l’absence de cartographie complète et fine de l’ensemble de notre cerveau humain. Pourtant, si l’on pouvait comprendre comment nos différents types de cellules nerveuses interagissent entre elles, il serait sans doute possible de réaliser des avancées décisives, non seulement sur la connaissance des mécanismes cognitifs fondamentaux, mais également sur les causes complexes qui provoquent les graves pathologies neurodégénératives et troubles du cerveau (Alzheimer, épilepsie, Parkinson, sclérose en plaques, maladie de Charcot, troubles psychiatriques) qui affecte nt à présent plus d’un tiers de la population européenne. C'est pour cette raison que les chercheurs de Google AI, la division de Google dédiée à l'intelligence artificielle, et le Lichtman Lab de l'Université d'Harvard, spécialisé dans la cartographie des connexions neuronales, ont décidé de cartographier le cortex frontal (Voir Interesting Engineering). Cette partie du cerveau, également appelée substance grise, est une structure complexe qui joue un rôle crucial dans la plupart des fonctions cognitives, telles que la pensée, la mémoire, la planification, la perception, le langage et l'attention. Elle est composée d'une centaine de type de neurones organisés en six couches. La carte 3D construite par Google AI et le Lichtman Lab est le plus grand échantillon de tissu cérébral imagé et reconstruit à ce niveau de finesse (4 nanomètres par tranches), toute espèce confondue, selon ces chercheurs. Pour l’instant ces chercheurs n'ont cartographié qu'une minuscule partie du cortex cérébral. A terme, ces scientifiques voudraient cartographier l’ensemble du cerveau humain en haute résolution. Mais, pour réaliser une telle entreprise, deux défis majeurs doivent être surmontés : d’une part le stockage d’une quantité phénoménale de données (sans doute plus de cent exaoctets), d’autre part il faudra disposer d’une puissance de calcul qui permette de traiter en un temps raisonnable cet océan d’informations. Et c’est là qu’intervient le calcul quantique qui devrait offrir suffisamment de puissance et de rapidité pour reconstruire entièrement un modèle numérique très précis et fidèle du cerveau humain, ce qui permettrait d’accomplir des pas de géants dans la connaissance de notre cerveau et des nombreuses pathologies qui peuvent l’affecter et constituent à présent un sérieux défi de société, avec le vieillissement inexorable de notre population. Ces récentes recherches montrent que l’informatique quantique moléculaire ouvre, de manière inattendue, comme cela est souvent le cas dans la recherche scientifique, une nouvelle et prometteuse voie de recherche, parallèlement aux autres approches explorées (qbits supraconducteurs, qbits sur silicium, ions piégés et photonique), vers un ordinateur quantique universel, fiable et performant. Reste que la mise au point d’un tel calculateur moléculaire doit encore franchir de nombreux obstacles, et nécessitera une étroite coopération entre les sciences de la matière (physique, chimie et matériaux) et les sciences du vivant (biologie, biochimie, génétique). Dans ce domaine, absolument stratégique pour notre avenir, de l’informatique quantique, seule à même de résoudre des problèmes d’une complexité insoluble par les outils actuels, comme dans celui, connexe, du nanostockage massif d’informations sur ADN, on voit donc à quel point l’élaboration de nouveaux « ponts » conceptuels et théoriques entre mathématiques, physique et sciences de la vie sera décisive pour effectuer ce grand bond en avant vers le calcul quantique qui va révolutionner l’ensemble de la connaissance et des outils scientifiques avant le milieu de ce siècle et profondément bouleverser nos sociétés. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Nanotechnologies et Robotique | |
| | | Ses petits robots autonomes actuellement expérimentés auprès des professionnels seront certainement les assistants du futur. Depuis 2017, l’entreprise Soben, implantée à Cahors (Lot) et spécialisée à l’origine dans la production d’amortisseurs pour véhicules, s’est lancée dans la création de robots autonomes porteurs de charges avec sa marque commerciale TwinswHeel. Alors que ses engins sont testés par les techniciens de la société Enedis à Toulouse (Haute-Garonne) ou les entreprises de livraison dans le centre-ville de Montpellier (Hérault), la PME lotoise veut accélérer le développement de cette activité en levant 10 millions d’euros. « Notre robot n’a pas vocation à remplacer l’humain mais à l’assister dans le port de lourdes charges, en suivant la personne », explique Benjamin Talon, le président de Soben qui a confié à son frère Vincent l’activité concernant les droïdes. Cela permet de gagner du temps et de ne pas chercher un stationnement et c’est écologique. La réglementation ne permet pas encore l’utilisation de véhicules autonomes en ville, sauf en expérimentation, mais la loi doit être votée en 2023. Ces robots à 4 roues peuvent porter 50, 100 ou 300 à 600 kg. La société Soben a déjà vendu une cinquantaine de ses droïdes en France, en Allemagne, en Suisse et aux Etats-Unis. Comptant actuellement une vingtaine de salariés, elle prévoit de recruter une dizaine de personnes. Article rédigé par Georges Simmonds pour RT Flash Le Parisien | | | |
| Débuté en 2018 et financé par l’ANR (Agence nationale de la recherche), le challenge ROSE vise à développer plusieurs solutions technologiques innovantes afin de réduire l’utilisation des produits phytosanitaires sur les grandes cultures. Plus précisément, les innovations se focalisent sur le désherbage intra-rang, c’est-à-dire de l’espacement entre les plants d’une même rangée. Quatre solutions sont actuellement développées et seront mises en compétition en juin prochain à l’occasion d’épreuves d’évaluation sur le site expérimental INRAE de Montoldre dans l’Allier. L’une d’elles porte sur la conception d’un robot capable de détruire les adventices grâce à des décharges électriques et couplé à un drone. Encore à l’&e acute;tat de recherche, ce projet baptisé WeedElec devrait se concrétiser par le développement de trois nouvelles briques technologiques. « L’idée de départ était de faire voler un drone au-dessus d’un champ afin d’évaluer l’état sanitaire de la parcelle », explique Christophe Guizard, le coordinateur du projet WeedElec et chercheur à l’INRAE. « S’il repère des tâches d’infestation liées à de mauvaises herbes, il envoie les informations au robot qui se déplace à l’endroit indiqué pour détruire les adventices. Une semaine à quinze jours plus tard, on refait passer le drone afin d’évaluer le désherbage réalisé et, si besoin, demander au robot d’intervenir à nouveau ». Pour mettre au point ce dispositif, l’équipe de recherche tente de lever un premier verrou technologique en identifiant les mauvaises herbes de la manière la plus fine possible. Pour cela, ils testent une caméra hyperspectrale qui ajoute une information spectrale à la différence des caméras classiques qui se basent souvent sur la couleur et la morphologie des plantes. L’une des difficultés rencontrées se situe au niveau de la puissance de calcul demandée. Le spectre est en général de 128, voire 256 longueurs d’onde, ce qui signifie que chaque point de l’image contient 128 ou 256 informations. Avec des images de 5 mégapixels, le volume de données à traiter devient considérable. « Pour contourner cette difficulté, nous utilisons d’abord le traitement de l’image classique pour repérer les régions d’intérêt et nous le combinons avec de l’imagerie hyperspectrale afin d’identifier les plantes de manière beaucoup plus fine. Cette piste de recherche est à ce stade très prometteuse », révèle le chercheur. Contrairement aux robots généralement développés pour désherber, celui-ci doit être capable de repérer directement les adventices et non pas identifier dans un premier temps les plants de culture (maïs, haricot…) puis détruire toutes les mauvaises herbes autour. L’identification des plantes est d’autant plus importante que le robot, muni d’un bras et d’une électrode, ajuste sa décharge électrique en fonction de la plante à détruire, c’est-à-dire de son espèce, de son stade de croissance… Ce dispositif innovant représente la deuxième brique technologique développée. On parle ici de désherbage chirurgical car le degré de précision du robot, lui aussi équipé d’une caméra, est de quelques millimètres. « En fonction de chaque adventice, le robot est capable de faire varier la durée de la décharge électrique, sa fréquence et son intensité », précise Christophe Guizard. « La décharge s’élève à plusieurs kilovolts et est équivalente à la décharge d’une bougie de voiture ; quant à la durée, elle est de l’ordre de 50 millisecondes ». Ce système a une efficacité comparable à celle du glyphosate et à un désherbage systémique puisque la décharge électrique descend jusqu’à la racine. Le choc électrique provoque un effet thermique sur la plante, qui se recroqueville immédiatement après. « Nous nous sommes aperçus que parfois, la décharge ne tue pas la mauvaise herbe mais la maintient dans un état végétatif », confie le chercheur. « Cet effet est intéressant car il pourrait servir à maintenir un couvert végétal autour de la culture, permettant d’éviter que le sol ne se dessèche trop vite ou que d’autres plantes ne poussent. Nous sommes très confiants sur notre procédé qui donne de bons résultats ». Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| « Imogo » est un mot japonais qui désigne les sols, de couleur jaune brunâtre, formés par l'altération des cendres volcaniques. Depuis 1962, on sait que ces terrains contiennent un matériau composé d'aluminium, d'oxygène et de silicium auquel, tout naturellement, les chercheurs nippons qui l'ont découvert ont donné le nom d'« imogolite ». « Il se présente sous la forme de nanotubes d'un diamètre de 2-3 nanomètres [milliardièmes de mètres], est facile à synthétiser et ne présente aucun risque lorsqu'on le relâche dans la nature », s'enthousiasme Antoine Thill, chercheur du CEA au Nimbe, laboratoire de nanosciences et d'innovation pour les matériaux, la biomédecine et l'énergie. « Surtout, l'imogolite est très efficace pour absorber et réagir avec quelque chose », souligne Sophie Le Caër Bolis, directrice de recherche du CNRS dans le même laboratoire. Par exemple, l'entreprise américaine Kodak avait déposé des brevets pour utiliser l'imogolite pour récupérer l'argent - très polluant - contenu dans les bains de développement des films photo argentiques ou pour empêcher l'accumulation d'électricité statique sur les bobines des films de cinéma. L'origine précise de ce pouvoir de séparation et d'absorption était longtemps restée mystérieuse. Des calculs théoriques affirmaient que cela était dû à la courbure de ces nanotubes et à la très faible épaisseur de leur paroi, qui auraient favorisé leur action catalytique lorsqu'ils sont exposés à la lumière. C'est cette hypothèse que viennent de confirmer expérimentalement Sophie Le Caër Bolis, Antoine Thill et sept autres collègues du Nimbe, de l'Institut de chimie physique (ICP) et du LCPME (Laboratoire de chimie physique et microbiologie pour les matériaux et l'environnement). Leurs travaux publiés dans « Nanoscale », une revue scientifique dédiée aux nanotechnologies, ouvrent la voie à des applications industrielles. « Le pouvoir de séparation des imogolites est très intéressant pour attirer et réagir avec des molécules ciblées dans des domaines aussi variés que l'énergie, la catalyse, la dépollution et d'autres sur lesquels nous travaillons encore », sourit Antoine Thill. Article rédigé par Georges Simmonds pour RT Flash Les Echos | | ^ Haut | |
|
| | | Aliyasin El Ayouch se définit comme chercheur-entrepreneur. Ce spécialiste des métamatériaux acoustiques, après sa thèse de doctorat en sciences de l’ingénieur en 2015 au laboratoire Femto-St de Besançon, a décidé de créer, avec deux collègues, son entreprise pour valoriser la technologie unique au monde qu’il a développée. Actuellement, pour isoler un lieu du bruit, on utilise des solutions contraignantes et limitées, type laine de roche ou mousse. Le procédé breveté développé par la start-up Métabsorber permet de transformer n’importe quelle matière, bois, métal, plastique, verre, pierre, en métamatériaux, véritable pièges à son, le bruit se retrouvant absorbé et confiné à l’intérieur même du matériau. Partant du principe que chaque bruit a sa « signature spectrale », Aliyasin El Ayouch a travaillé sur la forme des matériaux à une échelle sub-longueur d'onde pour créer des métamatériaux. Ce sont des matériaux artificiels dont la structuration géométrique reconfigure l'interaction onde-matière, qui permet de piéger le bruit et de rendre absorbant n'importe quel matériau solide. « C'est la forme et la structuration que l'on donne au matériau qui contrôlent la propagation du son », explique-t-il. L'atout de cette technologie de rupture réside dans la transformation de matériaux existants et à leur adaptation à diverses applications. Aux propriétés mécaniques et thermiques du bois, du métal ou des polymères, peuvent ainsi s'ajouter des propriétés acoustiques. Les applications sont multiples : Les murs, les plafonds, mais aussi toutes sortes de meubles, de surfaces, peuvent devenir ainsi des capteurs de bruit très efficaces. « On peut transformer tous les objets qui nous entourent pour qu’ils absorbent le son et améliorent ainsi notre confort et notre santé » explique Aliyasin El Ayouch. Il est possible d’imaginer des usines silencieuses, où les machines absorberont elles-mêmes le bruit qu’elles produisent, et des « pièges à son » dans notre environnement quotidien, des tables et des chaises anti-bruit dans les bureaux, les écoles ou les restaurants par exemple. Mais la technologie peut aussi intéresser le secteur de l’automobile, de l’aéronautique, ou même de la défense à travers des applications furtives. Un million d’euros de fonds publics ont été investis depuis le début de l’aventure en 2015 par les collectivités, l’Université de Franche Comté et le CNRS. La société a développé des partenariats avec des industriels de la région pour fabriquer ses produits et les commercialiser à partir de cette année, Metabsorber compte ouvrir prochainement des show-room en région parisienne et à Besançon pour se faire connaître. Aliyasin El Ayouch rêve de voir un jour se construire des immeubles entiers avec son procédé, qui absorberaient tout le bruit de la ville. En attendant, l’école primaire Fourier dans le quartier bisontin de Planoise est le premier bâtiment à avoir bénéficié de cette technologie inédite lors de la rénovation des salles de classe. Article rédigé par Georges Simmonds pour RT Flash France Bleu | | | |
| Les batteries Li-ion actuelles utilisent des quantités importantes de cobalt, qui, dans plusieurs cas internationaux bien documentés, sont extraites par le travail des enfants dans des environnements dangereux. En outre, seul un très faible pourcentage des batteries Li-ion est recyclé, ce qui accroît la demande de cobalt et d’autres éléments stratégiques. Une équipe pluridisciplinaire de chercheurs de l’université A&M du Texas a fait une percée qui pourrait permettre à la production de batteries de s’affranchir du cobalt. Jodie Lutkenhaus, titulaire de la chaire Axalta Coating Systems et professeur au département de génie chimique Artie McFerrin, et Karen Wooley, professeur émérite au département de chimie et titulaire de la chaire de chimie W.T. Doherty-Welch au College of Science, travaillent sur une batterie totalement exempte de métal. Cette nouvelle plate-forme technologique de batterie utilise une construction de radicaux organiques polypeptidiques. « En s’éloignant du lithium et en travaillant avec ces polypeptides, qui sont des composants des protéines, nous entrons vraiment dans un domaine qui non seulement évite le besoin d’extraire des métaux précieux, mais ouvre des possibilités d’alimenter des appareils électroniques portables ou implantables et aussi de recycler facilement les nouvelles batteries », a déclaré M. Wooley, récemment honoré en tant que professeur SEC de l’année 2021. « Elles [les batteries polypeptidiques] sont dégradables, elles sont recyclables, elles sont non toxiques et elles sont plus sûres dans tous les domaines ». La batterie organique radicalaire entièrement polypeptidique composée de macromolécules d’acides aminés redox-actifs résout également le problème de la recyclabilité. Les composants de la nouvelle plate-forme de batterie peuvent être dégradés à la demande dans des conditions acides pour générer des acides aminés, d’autres éléments constitutifs et des produits de dégradation – l’une des principales percées de cette recherche, selon Lutkenhaus. « Le gros problème des batteries lithium-ion à l’heure actuelle est qu’elles ne sont pas recyclées dans la mesure où nous en aurons besoin pour la future économie des transports électrifiés », a ajouté M. Lutkenhaus. « Le taux de recyclage des batteries au lithium-ion est actuellement de l’ordre de quelques chiffres. La batterie lithium-ion contient des matériaux précieux, mais il est très difficile de les récupérer et cela demande beaucoup d’énergie ». Le développement d’une batterie organique radicalaire sans métal, entièrement polypeptidique, composée de macromolécules d’acides aminés redox-actifs qui se dégradent à la demande, marque un progrès significatif vers des batteries durables et recyclables qui minimisent la dépendance aux métaux stratégiques. Article rédigé par Georges Simmonds pour RT Flash Enerzine | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | L’impact des cours d’eau dans la grande mécanique climatique commence à être mieux connu. Après avoir démontré que les rivières et ruisseaux de montagne émettaient une quantité de dioxyde de carbone (CO2) - principal gaz à effet de serre - plus grande qu’estimée jusque-là, des chercheurs du Laboratoire de recherche en biofilms et écosystèmes fluviaux (SBER) de l’EPFL amènent une nouvelle pierre à l’édifice. Ces scientifiques ont observé que les émissions des eaux courantes sont beaucoup plus importantes de nuit que de jour. Ils mettent ainsi le doigt sur un biais responsable d’erreurs potentiellement importantes dans le calcul des contributions des rivières au cycle global du carbone. Pendant longtemps, on pensait que les cours d’eau jouaient dans ce cycle un rôle moins crucial que les océans, par exemple. Or, par nature connectés à la terre, les fleuves, rivières et ruisseaux charrient en continu de grandes quantités de matières organiques qui, en se décomposant, dégagent des flux de CO2 non négligeables. La dispersion et la complexité du réseau fluvial sillonnant l’intérieur des terres rend toutefois le calcul de ces flux difficile. Pour les estimer, on s’est jusque-là largement basé sur des mesures réalisées manuellement, et de jour. Et c’est là le biais dépisté par les auteurs de l’étude. Ceux-ci ont en effet relevé que 90 % de ces observations étaient réalisées entre 8h et 16h. En comparant ces données avec celles de capteurs automatisés et continus, il apparaît que seulement 10 % de ces journées d’échantillonnage présentaient des émissions maximales de CO2 dans cette fenêtre de temps. C’est pourquoi les chercheurs du SBER ont eu l’idée de compléter ces mesures manuelles par celles prises également de nuit par des capteurs. Et ceci sur un panel de 66 rivières réparties partout dans le monde et en intégrant des régions auparavant sous-représentées, telles que le Congo, l'Amazonie et diverses chaînes de montagnes. Grâce à ce patient décorticage, ils ont pu démontrer que les émissions de CO2 étaient jusqu’à 27 % plus importantes aux heures sombres qu’aux heures claires. Des résultats qui démontrent que l’utilisation d’un réseau de capteurs et de données à large échelle peut mettre au jour des dynamiques environnementales jusque-là insoupçonnées, relève Tom Battin, directeur du SBER. « Plusieurs facteurs expliquent cette différence entre le jour et la nuit », relève Lluis Gomez, chercheur au SBER et premier auteur de l’étude. « Le principal, c’est le processus de photosynthèse, qui capte une partie du CO2 émis par les rivières et en diminue ainsi les quantités relâchées en journée dans l’atmosphère ». La nature de l’écosystème, la végétation, la présence d’une canopée - c’est-à-dire d’un couvert - plus ou moins dense au-dessus du cours d’eau, l’altitude, la déclivité de la pente et l’intensité des turbulences sont autant de paramètres pouvant également influer sur les émissions de CO2 et leurs variations au cours de 24 heures. Les plus grandes amplitudes jour/nuit ont été relevées dans les forêts tempérées et les prairies de montagne. Elles ont également été systématiquement observées pendant l'été et sur les parties de rivières caractérisées par une canopée ouverte, tandis qu’elles étaient nettement réduites à couvert fermé. Le taux d’absorption du CO2 est en effet plus élevé en journée, dans les lieux à canopée ouverte et pendant l'été, la chaleur et la lumière étant les moteurs des processus de photosynthèse. Par cette recherche, les scientifiques montrent encore une fois toute la complexité et l’imbrication des systèmes environnementaux terrestres et la nécessité d’outils de mesures fins et de technologies novatrices permettant de tenir compte de tous les paramètres pour les analyser, et en l’occurrence ici mieux comprendre et quantifier le rôle des ruisseaux et rivières dans le cycle global du carbone. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | C’est un scientifique breton passionné par la physique des ondes. A partir des années 90, Mickaël Tanter va s’intéresser tout particulièrement aux « ondes de cisaillement ». « Dans le corps humain, les ondes de cisaillement, ce sont les ondes que vous voyez naturellement lorsque vous tapez à la surface de votre ventre », explique le chercheur, « et ces ondes, elles se propagent aussi à l’intérieur du corps. Elles se propagent à quelques mètres par seconde et donc, elles traversent nos organes en 10 millisecondes typiquement. Donc, tout va très vite ! » Avec son confrère Mathias Fink, lui aussi physicien, Mickaël Tanter va vite comprendre tout l’intérêt des recherches menées pour la santé humaine, tout le potentiel pour le diagnostic médical. Car la vitesse de déplacement de ces fameuses ondes en dit long « sur l’état de santé des organes ». « Elle révèle », explique Mickaël Tanter, les paramètres d’élasticité ou de rigidité du corps humain. Et c’est un paramètre fondamental de la médecine que les médecins estiment intuitivement lors de la palpation. « (…) Plus le tissu est dur et ferme, plus les ondes vont vite. Plus il est mou, plus les ondes vont lentement ». Fort de ce constat, tout le défi était donc de mettre au point un système capable de suivre la propagation de ces ondes. D'où l'idée de ces physiciens d’inventer un échographe ultrarapide, un appareil d’échographie d’un nouveau genre pour permettre notamment d’améliorer le diagnostic des cancers et de diminuer le recours aux biopsies. Il s’agit d’un système d’imagerie numérique à ultrasons capable non seulement de déclencher ces fameuses « ondes de cisaillement », de suivre leur déplacement et de cartographier les tissus humains selon leur souplesse ou leur rigidité. « La sonde est placée contre le corps du patient. Le médecin voit une image à la cadence standard de 50images /seconde. Et puis, à un moment, il va appuyer sur un bouton pour passer en mode « mesure d’élasticité ». La machine va envoyer une onde focalisée à l’intérieur du corps pour créer une micro palpation qui engendre cette onde de cisaillement à distance ». « L’imagerie ultra rapide de cette onde permet alors de cartographier l’élasticité de l’organe avec une précision millimétrique ». Avec cette carte d’élasticité, on peut « diminuer énormément le nombre de biopsies pour le cancer du sein et c’est vrai aussi pour le foie, la thyroïde, les maladies cardio-vasculaires ». Et d’ajouter qu’il y a bien d’autres applications. La première machine clinique est sortie en 2009. Près de 3000 ont été vendues dans le monde par la start-up créée par Mickaël Tanter et Mathias Fink. Des appareils que l’on peut trouver généralement dans des hôpitaux ou des cliniques radiologiques. Mais d’ores et déjà, pour Mickaël Tanter, c’est une fierté que cette aventure industrielle et surtout scientifique soit reconnue : « Nous sommes fiers de cette nomination parce qu’elle attire la lumière sur le travail de nos étudiants et de nos équipes. La recherche française est excellente et a besoin d’être plus fortement soutenue car il serait catastrophique d’oublier que l’innovation et la recherche, c’est l’avenir d’un pays et ses emplois pour les futures générations ». Article rédigé par Georges Simmonds pour RT Flash FIB | | | |
| Selon une récente étude américaine, réalisée par des chercheurs de l'Université de Washington à Saint-Louis, les vaccins contre le Covid-19 de Pfizer et Moderna pourraient offrir une protection durable contre le virus. L'étude évaluée par les pairs révèle que ces deux vaccins pourraient déclencher dans l'organisme une réaction immunitaire permettant d'assurer une protection contre le SRAS-CoV-2 pendant plusieurs années. Des dernières découvertes qui viennent s'ajouter aux preuves de plus en plus nombreuses qui suggèrent que les personnes ayant reçu un vaccin à ARN messager n'ont pas besoin d'un rappel vaccinal. L'étude a été menée sur 14 personnes ayant bénéficié de deux doses de ces vaccins. Les chercheurs ont prélevé des échantillons de ganglions lymphatiques des sujets à 5 reprises entre 3 et 15 semaines après la première dose. Dans 100 % des cas, le nombre de cellules mémoires, ces cellules qui permettent d'identifier puis de le combattre le virus, n'avait pas diminué, même 15 semaines après l'administration de la première dose. « Habituellement, au bout de 4 à 6 semaines, il ne reste plus grand chose. Mais avec les vaccins à ARN messager, elles sont toujours actives des mois plus tard et avec peu de déclin chez la plupart des gens » précise Deepta Bhattacharya, immunologiste à l'Université d'Arizona. Une récente étude réalisée par l'institut de virologie de Strasbourg avait déjà montré que l'immunité pouvait durer plusieurs années chez les personnes infectées par le virus puis vaccinées par la suite, mais elle n'avait toutefois pas démontré que la vaccination seule pouvait protéger de manière aussi durable contre le Covid-19. L'auteur principal de l'étude, le Docteur Ali Ellebedy, a déclaré que les résultats étaient "un bon signe pour la durabilité de notre immunité contre ce vaccin". L'immunologiste à l'Université de Washington à Saint-Louis souligne que si le vaccin fabriqué par Johnson & Johnson n'a pas été pris en compte dans cette étude, il s'attend à ce que la réponse immunitaire soit moins durable que pour les vaccins à ARN messager. Les résultats de cette étude montrent également que la grande majorité des personnes ayant bénéficié de ces vaccins seront protégées à long terme contre les variants déjà existants du Covid-19. Les scientifiques ont en effet noté une augmentation des anticorps capables de neutraliser les variants Alpha, Beta et Delta, bien que ces deux derniers soient connus pour être plus résistants aux vaccins. Cependant, les personnes âgées, celles qui ont un système immunitaire faible et celles qui prennent des traitements immunosupresseurs, pourraient avoir besoin d'une troisième dose de rappel. Article rédigé par Georges Simmonds pour RT Flash Medrxiv Nature | | | |
| Les femmes dont la ménopause survient très tôt, vers l'âge de 40 ans, présentent ensuite un risque accru de maladies cardiovasculaires, confirme une nouvelle étude américaine. La méta-analyse effectuée par les chercheurs de l'Université Northwestern regroupait quelque 10 000 femmes âgées de 55 à 69 ans qui ne souffraient d'aucune maladie cardiovasculaire au début de l'étude. Les données ont montré que les femmes chez qui la ménopause était survenue vers l'âge de 40 ans augmentaient ensuite de 40 % leur risque de développer une maladie cardiovasculaire, comparativement à celles dont la ménopause était survenue vers l'âge habituel de 50 ans. Les chercheurs ont suivi l'évolution de l'état de santé des participantes pendant plusieurs dizaines d'années. L'association se maintenait même en tenant compte de facteurs comme le tabagisme, l'hypertension, l'obésité et le diabète de type 2. C'est une étude qui vient nous confirmer encore plus que la ménopause précoce doit être prise comme un problème de santé, contrairement à une ménopause physiologique, a commenté la gynécologue Sylvie Dodin-Dewailly, qui est professeure titulaire à la faculté de médecine de l'Université Laval. L'impact de la ménopause précoce sur le risque de maladie cardiovasculaire est quand même bien connu, a-t-elle ajouté. Les femmes chez qui la ménopause survient quand elles sont très jeunes perdent du même coup la protection que leur conféraient leurs œstrogènes, et le fait de perdre ces œstrogènes fait que ces jeunes femmes vont perdre leur profil cardiovasculaire un peu bénéfique, a dit la Docteure Dodin-Dewailly. On essaie de bien expliquer aux femmes que si elles ont une ménopause avant 40 ans, on doit avoir une approche thérapeutique en leur redonnant des suppléments d'œstrogènes, a-t-elle précisé. On parle presque d'un traitement, plutôt que de la prévention. L'impact ne se limite pas non plus à la santé cardiovasculaire, puisque la perte des œstrogènes pourra aussi entraîner une perte prématurée de la masse osseuse. Tout ça fait que c'est vraiment une pathologie différente de la ménopause normale, physiologique, qui apparaît autour de 50 ans, a conclu la Docteure Dodin-Dewailly. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | | |
| D'ici à cinq ans, un vaccin pourrait rejoindre l'arsenal thérapeutique contre le cancer. « Chaque semaine, les équipes produisent un lot de vaccins thérapeutiques individualisés contre le cancer unique pour chaque patient » se réjouit Hedi Ben Brahim, PDG de Transgene. Cette société pionnière en biotechnologie met au point cette innovation depuis plus d'une décennie. Comment ? En modifiant l'ADN de virus inoffensifs qui, une fois injectés dans l'organisme humain, stimulent le système immunitaire. Des globules blancs sont ainsi générés pour détruire de manière rapide et efficace les tumeurs cancéreuses, empêchant ensuite leur propagation. Il s'agit toutefois d'être patient car la conception de ce vaccin nécessite près de trois mois. Les médecins doivent d'abord récupérer un morceau de la tumeur afin d'analyser précisément le profil génétique du malade. Des superordinateurs dotés d'intelligence artificielle les aident à identifier les gènes, indispensables à la fabrication du vaccin sur mesure. Cela revient à passer au crible plus de trois milliards de données. « Pour un patient, c'est l'équivalent d'une grande bibliothèque de données », illustre Kaidre Bendjama, chef de projet dans la start-up strasbourgeoise. Un premier patient à Toulouse a déjà reçu le traitement en janvier dernier. Mais il faudra encore attendre quelques mois pour obtenir les premiers résultats. En attendant, une trentaine de patients de l'Institut Curie à Paris et à Toulouse - souffrant de cancers ORL, incurables par traitement classique - vont recevoir cette nouvelle biotechnologie. « Il y a à peu près la moitié des patients qui vont récidiver de leur cancer et potentiellement en mourir. Donc, ce qu'on souhaite, c'est diminuer de façon drastique ce risque de récidive », explique le Professeur Christophe Le Tourneau, responsable du département des essais cliniques précoces. Article rédigé par Georges Simmonds pour RT Flash LCI | | | |
| Dans le cancer, un grand nombre de dérèglements biologiques se produit : les gènes mutent, les processus moléculaires changent considérablement et les cellules prolifèrent de manière incontrôlée pour former des tissus entièrement nouveaux appelés tumeurs. De nombreux éléments dysfonctionnent à différents niveaux. Cette complexité explique en partie la difficulté à étudier et à traiter le cancer. Il va de soi que les chercheurs ciblent leur attention sur l’origine de tous les cancers : le génome. Si l’on parvient à comprendre ce qui se passe au niveau de l’ADN, alors un jour on pourra peut-être non seulement traiter, mais aussi prévenir les cancers. C’est ce qui a amené une équipe de chercheurs de l’EPFL et de l’Université de Lausanne (UNIL) à faire une découverte révolutionnaire sur une aberration génétique critique qui survient dans le cancer. Dans le cadre de leur collaboration, les équipes d’Elisa Oricchio (EPFL) et de Giovanni Ciriello (UNIL) ont utilisé une nouvelle méthode algorithmique pour comprendre comment les cellules cancéreuses réorganisent la structure 3D de leur ADN afin d’augmenter l’activité des gènes qui prédisposent au cancer, appelés «oncogènes». La recherche porte sur les chromosomes, où est enfermé notre ADN, et leur manière de s’organiser dans l’espace étroit du noyau cellulaire. Étant donné que chacun des milliards de cellules de notre corps contient environ deux mètres d’ADN, on peut comprendre que nous ayons développé un mécanisme pour les stocker correctement. Ce mécanisme implique l’enroulement de l’ADN autour de protéines spéciales appelées histones, telle une ficelle embobinée autour d’un yoyo. On obtient un complexe d’ADN et de protéines bien protégé et très enveloppé que l’on nomme chromatine. Plusieurs unités de chromatine constituent les structures que nous connaissons sous le nom de chromosomes. Normalement, chaque cellule porte 23 chromosomes et deux copies pour chaque chromosome. Or, dans le cancer, les cellules, leur structure et leur organisation, changent. Par exemple, un élément d’une copie du chromosome 8 peut être lié à une copie du chromosome 14. De plus, un chromosome peut prendre une structure plus détendue ou compacte, ce qui dépend de modifications chimiques appelées «marques épigénétiques ». Les chercheurs ont étudié comment des changements des marques épigénétiques spécifiques modifient les structures chromosomiques et l’expression des gènes qui favorisent la croissance tumorale, connus sous le nom d’oncogènes. L’équipe de Giovanni Ciriello de l’UNIL a mis au point une nouvelle approche algorithmique appelée Calder (d’après le sculpteur américain Alexander Calder) pour comprendre comment sont positionnées les régions génomiques les unes par rapport aux autres dans le noyau. « Nous avons utilisé Calder pour comparer l’organisation spatiale du génome dans plus de cent échantillons », explique Giovanni Ciriello. « Mais cette organisation n’est pas statique et, comme les sculptures mobiles d’Alexander Calder, les éléments peuvent être réagencés ». Les chercheurs ont eu recours à Calder pour détecter les régions de chromatine qui se sont «déplacées» d’une zone du noyau vers une autre à la suite de changements des marques épigénétiqu es. Parallèlement, l’équipe d’Elisa Oricchio de l’EPFL a utilisé Calder pour détecter les changements de la structure 3D de la chromatine dans des cellules normales et des cellules de lymphome B. Elle a découvert que dans les cellules de lymphome, des changements épigénétiques spécifiques entraînent le repositionnement des régions de chromatine dans différentes zones du noyau, ce qui aboutit à de nouvelles interactions locales qui suractivent l’expression des oncogènes. Elle a également découvert que, lorsque deux fragments de différents chromosomes sont rompus et échangés, ils adoptent une structure 3D qui se distingue des copies normales. Chose importante, ces changements de la structure 3D correspondent à différentes marques épigénétiques, et induisent une forte expression des gènes qui favorisent le développement de cellules tumorales. « La plupart du temps, on imagine notre ADN comme une longue molécule linéaire. Ce n’est que récemment que nous avons commencé à comprendre comment son organisation 3D est modifiée dans les cellules cancéreuses », déclare Elisa Oricchio. « La prise en compte de l’organisation spatiale de l’ADN dans le noyau donne un nouvel angle pour comprendre comment les cellules tumorales apparaissent et comment la modulation thérapeutique des marques épigénétiques peut bloquer leur progression ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Des scientifiques du CNRS, du CEA et de l’Université Grenoble Alpes confirment que le virus de la Covid peut utiliser des cellules immunitaires pour augmenter sa transmission à d’autres cellules. Les chercheurs ont également montré qu’il est possible d’inhiber ce nouveau mode de transmission du virus par l’utilisation de glycomimétiques, précédemment développés. Ce travail est le résultat d’une collaboration internationale avec des équipes espagnoles (Hospital Universitario 12 de Octubre, Madrid) et italiennes (Universitadegli Studi di Milano).D’une manière générale, les cellules portent sur leur surface des récepteurs, dont certains servent seulement à l’accrochage des virus alors que d’autres peuvent agir comme des serrures que les virus utilisent pour entrer. Ils possèdent pour cela un arsenal de protéines, comme un jeu de clés, qui leur permettent de franchir la barrière cellulaire. Par exemple, la glycoprotéine S, présente à la surface du SARS-CoV-2, autorise l’entrée du virus dans les cellules humaines via son interaction avec le récepteur ACE2, présent à la surface des cellules infectées. Des scientifiques de l’IBS1 et leurs collaborateurs ont découvert que la protéine S interagissait également, outre ACE2, avec d’autres récepteurs : des protéines de la famille des lectines (DC-SIGN, L-SIGN, MGL et Langerin), présentes sur les cellules immunitaires. « Cette interaction implique une reconnaissance multi-site de la protéine S en exploitant les différents glycanes (sucres) de surface de la protéine S », explique Franck Fieschi, professeur à l’Université Grenoble Alpes. La glycoprotéine S possèderait donc tout un jeu de clés pour permettre au SARS-CoV-2 de proliférer. Les scientifiques ont montré que cette interaction ne causait pas l’infection directe des cellules par le SARS-CoV-2. Par contre, parmi ces récepteurs, DC-SIGN et L-SIGN sont capables, une fois qu’ils ont accroché le virus à la cellule, de le transmettre aux cellules permissives possédant ACE2. Ils ont également démontré qu’il est possible d’inhiber ce mode de transmission du virus par l’utilisation de glycomimétiques, des molécules pouvant mimer les sucres de surfaces du virus. Ces résultats, déjà démontrés sur des pseudo virus, sont aujourd'hui confirmés par l’utilisation de virus SARS-CoV-2 authentiques, et sur des cellules respiratoires humaines. Les inhibiteurs glycomimétiques développés vont ainsi pouvoir constituer un premier outil pour étudier, dans les mois à venir, l’importance relative de ce nouveau mode de transmission. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| La dénervation rénale endovasculaire est à même de réduire la pression artérielle (PA) chez les patients atteints d’une hypertension artérielle légère ou modérée et plusieurs essais randomisés ou méta-analyses sont concluants sur ce point. Son efficacité dans le traitement de l’HTA réfractaire est moins bien établie, d’où l’intérêt d’un essai randomisé multicentrique international, mené à simple insu, dit RADIANCE-HTN TRIO trial, auquel ont participé 53 centres tertiaires implantés aux Etats-Unis et en Europe. Ont été initialement sélectionnés 989 patients atteints d’une HTA réfractaire, âgés de 18 à 75 ans. La PAS/PAD en consultation restait > 140/90 mm Hg en dépit d’un traitement combinant au moins trois antihypertenseurs et incluant un diurétique. Les participants éligibles ont alors reçu une association à doses fixes (un comprimé par jour) comprenant un inhibiteur calcique, un bêta-bloquant et un diurétique thiazidique. Au terme de quatre semaines de ce traitement, la PAS/PAD ambulatoire du matin était d’au moins 135/85 mm Hg chez 136 patients et c’est à ce moment que le tirage au sort est intervenu pour les répartir en deux groupes : dénervation rénale par ultrasons (n = 69) versus simulacre (n = 67). Deux mois après ce geste, l’observance thérapeutique était identique et élevée (82 %) dans les deux groupes. Dans les suites de la dénervation rénale, la PAS ambulatoire médiane a diminué de 8,0 mm Hg, versus –3,0 mm Hg dans l’autre groupe, soit une différence intergroupe médiane globale de –4,5 mm Hg. Si l’on restreint l’analyse aux seuls patients pour lesquels tous les enregistrements ambulatoires étaient exploitables, la différence intergroupe médiane a alors atteint –5,8 mm Hg. Aucun événement indésirable sérieux n’a été déploré quel que soit le groupe. Les résultats de cet essai randomisé confirment donc l’efficacité à court terme (2 mois) de la dénervation rénale endovasculaire par ultrasons dans l’HTA réfractaire. Ce geste pourrait constituer une alternative à une escalade de la pharmacothérapie pour peu que ces résultats soient confirmés à plus long terme. Article rédigé par Georges Simmonds pour RT Flash NIH | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | Alors que la SNCF et ses partenaires prévoient de faire circuler un prototype de locomotive autonome en 2023, le projet, lancé il y a deux ans et demi, avance à bon rythme. Entre début avril et mi-mai, de nouvelles phases de test ont eu lieu, avec succès. Le projet est toujours sur les rails et devrait, pour le moment, être à l'heure. Deux ans et demi après le lancement du développement du train autonome de la SNCF, la compagnie ferroviaire et ses partenaires - Alstom, Altran, Hitachi Rail et la filiale d'Airbus Apsys - franchissent une nouvelle étape. De nouveaux essais ont lieu actuellement sur le réseau ferré national à Busigny, dans le Nord. Ils permettront d'aboutir, dans les prochains mois, à la circulation en semi-autonomie en phase d'essai. Autrement dit, à une automatisation de l'accélération et du freinage du train, supervisée par un conducteur. Une étape clé vers l'objectif final fixé par le consortium : maîtriser l'autonomie complète en 2023. Début mars, le consortium a ainsi lancé, sous le contrôle d'un conducteur et de l'équipe du projet, ses premiers essais sur une voie commerciale, avec une « rame TER Regio 2N spécialement modifiée et équipée par l'usine Alstom de Crespin ». Bardé de capteurs, le prototype a circulé dans le Nord, entre Aulnoye et Busigny et entre Busigny et Calais. Le système de conduite de la locomotive, permettant d'automatiser l'accélération et le freinage, a ensuite été testé au Centre d'essai Ferroviaire (CEF) de Petite-Forêt, près de Valenciennes. Du 17 au 21 mai, une seconde série d'essais a été organisée sur ces mêmes lignes, dans le but de « mettre au point le système de conduite » de la rame, et d'aboutir, « dans les prochains mois », à une circulation semi-autonome. Le gouvernement veut « donner un avenir » aux petites lignes de train. Compte tenu des enjeux cruciaux de cybersécurité, le consortium se veut rassurant. Il assure que l'ensemble du projet est mené en « collaboration étroite » avec l'Agence nationale de la sécurité des systèmes d'information (ANSSI). « En dehors des périodes de recherche et de tests », cette rame sera, pendant les vacances scolaires « mise en circulation commerciale classique, et transportera des voyageurs », toujours sur la même ligne, ajoute le communiqué sans préciser de date exacte. Des trajets qui permettront de récolter des données - comme la couleur des feux de signalisation et l'environnement du train - pour améliorer et rectifier les algorithmes. Article rédigé par Georges Simmonds pour RT Flash Les Echos | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|