| | Edito Le niveau des océans peut-il monter de deux mètres d'ici la fin du siècle ?
On le sait, le dérèglement climatique de grande envergure qui touche la Terre ne fait à présent plus de doute et se manifeste déjà par des effets très concrets et de plus en plus dévastateurs, canicules, sécheresse, inondations plus fréquentes, disparition accélérée de la biodiversité qui n’a plus le temps de s’adapter à la rapidité de ce changement climatique, impact négatif sur les productions agricoles, migrations climatiques de plus en plus nombreuses et tensions géopolitiques accrues. Dernière alerte en date, et non des moindres, celle formulée à Paris, il y a quelques semaines, par la Plate-forme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (Voir IPBES). Cette agence de l’ONU a en effet révélé, dans le plus important rapport jamais réalisé sur cette question, que "La nature décline globalement à un rythme sans précédent dans l'histoire humaine", et qu’au rythme actuel, c’est un million d’espèces animales et végétales – soit une sur huit – qui risque de disparaître à brève échéance de la surface de la Terre ou du fond des océans. D’après l’Organisation météorologique mondiale, parmi les quatre dernières années qui ont été les plus chaudes jamais enregistrées depuis 1850, 2018 se situe au quatrième rang, derrière 2016, 2015 et 2017. L’année dernière, on ne compte plus les records de chaleur qui ont été battus à travers le monde. La période d’avril 2018 à mars 2019 est la séquence de douze mois la plus chaude jamais constatée au niveau mondial et en Europe. En France, 2018 restera également dans les annales, car jamais notre pays n’avait connu une température moyenne aussi élevée : 13,9°C. Soit 1,4°C au-dessus des moyennes de la période 1981-2010. La même situation a également été observée chez nos voisins allemands, suisses et autrichiens qui ont également connu des records de température annuelle en 2018. Depuis le début de cette année, notre planète connaît un épisode inédit de « chaleur polaire », avec des températures qui ont dépassé les 30°C en Russie, et un record absolu de 31,2°C mesuré à Koynas, une ville de 350.000 habitants, située à 65° N de latitude. Autre indicateur alarmant, la banquise de l’Arctique n’a jamais été aussi réduite depuis 40 ans, pour un mois d’avril, 13,42 millions de km², contre 13,69 en 2017, et 14,54 millions de km² en 2015. Quant aux glaciers du Groenland, leur vitesse de fonte a été multipliée par quatre entre 2003 et 2013, passant de 111 km³ de glace par an à 428 km³ par an, selon l’Institut technique du Danemark. L’une des conséquences de cette fonte accélérée des banquises et des glaciers est que le niveau moyen des océans a augmenté de plus de 20 cm depuis un siècle. Mais alors que cette progression moyenne pendant le siècle dernier a été de +1,7 mm/an, elle est déjà deux fois plus rapide depuis 25 ans, avec +3,2 mm/an. Notre pays n’a pas échappé à cette hausse du niveau des mers et océans, qui a été de 3,0 mm/an à Brest entre 1980 et 2004, de 2,6 mm/an pour Marseille sur la période 1980-2012. Depuis le début de ce siècle, la progression de la masse globale des océans a été la première cause de l’augmentation du niveau moyen des océans : fonte des calottes glaciaires du Groenland et de l’Antarctique et des glaciers de montagne, et modifications du cycle hydrologique. La seconde cause majeure de ce phénomène est l’augmentation de la température moyenne des océans, qui entraîne la dilatation des masses d’eau océaniques. Jusqu’à présent, les différents scenarii du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), tablaient sur une montée du niveau des océans allant de 26 à 82 cm d’ici la fin du XXIème siècle. Mais de récentes observations et recherches remettent en cause ces prévisions déjà alarmantes et montrent qu’il n’est pas exclu que cette hausse du niveau des mers puisse se compter en mètres d’ici la fin de ce siècle, ce qui aurait des conséquences dévastatrices d’une ampleur incalculable pour l’Humanité. Cette sombre perspective, qui semblait encore relever de la science-fiction il y a 20 ans, est malheureusement devenue une hypothèse crédible, selon plusieurs travaux récents et tout à fait sérieux. Il faut d’abord évoquer une vaste étude internationale publiée en avril dernier, les 20 000 glaciers se situant dans les chaînes de montagnes du monde entier ont perdu 9000 milliards de tonnes de glace entre 1961 et 2016, soit une moyenne de 335 milliards de tonnes par an (Voir Nature). C’est beaucoup plus que les 260 milliards de tonnes estimées lors de la précédente évaluation de 2013, qui concernait la période 2003-2009. Ces chercheurs ont pu reconstituer l’évolution de l’épaisseur de la glace de ces 20 0000 glaciers dans le monde. Avec plus de 3 000 Gigatonnes, ce sont les glaciers de l'Alaska (ALA) qui ont le plus contribué à la hausse du niveau de la mer. En cumulé, l’ensemble de ces glaciers a donc bien perdu plus de 9 000 milliards de tonnes de glace depuis 60 ans et, selon le principe des vases communicants, la montée des eaux a atteint 2,7 centimètres au cours de cette période, du seul fait de la fonte de ces derniers. Pour arriver à ce résultat, les chercheurs ont utilisé toutes les données physiques enregistrées sur les 450 glaciers sur lesquels les chercheurs procèdent à des carottages réguliers de fin d’été. Puis ils ont croisé ces mesures avec les images satellites qui donnent des photos précises de la surface des sols à différentes dates, ce qui permet d’estimer non pas l’épaisseur des glaciers mais la variation annuelle de leur volume. Ces travaux montrent de manière instructive que cette perte de masse de l’ensemble des glaciers n’a cessé de s’accélérer depuis un demi-siècle. Cette fonte correspond à présent à la perte de masse de la calotte glaciaire du Groenland et dépasse nettement celle de l’Antarctique. Cette étude révèle que les glaciers des Alpes européennes, du Caucase et de la Nouvelle-Zélande ont également enregistré d’importantes pertes de glace. En 2017, une étude de l’Université de Birmingham, portant sur les Alpes et les Andes sud-américaines, avait déjà montré que les surfaces de glace ont reculé de plus de moitié (54 %) depuis 1850. A ce rythme, il n’est pas exclu que ces glaciers puissent perdre à la fin du 21e siècle 90 % de la surface qu’ils avaient en 2003 (Voir Etude). Ces nouveaux travaux confirment que la fonte des glaciers dans le monde contribue actuellement à augmenter le niveau de la mer au rythme d’un millimètre par an et contribue désormais pour environ un tiers à la hausse de son niveau à l’échelle mondiale. « Globalement, nous perdons environ trois fois le volume de glace stocké dans l’ensemble des Alpes européennes chaque année ! », révèle Emmanuel Thibert, glaciologue à l’Institut national de recherche en sciences et technologies pour l’environnement et l’agriculture (Irstea). On sait également que sur le Groenland, qui enregistre un réchauffement de 3°C depuis cent ans, la fonte des glaces a été multipliée par quatre en dix ans, avec une moyenne de 280 milliards de tonnes de glaces perdues chaque année entre 2002 et 2016, selon une étude publiée en avril 2018. Ces travaux montrent que c’est bien l’ensemble de l’inlandsis qui est touché, notamment en raison du réchauffement de l’air qui fait fondre la surface de la calotte. « Le Groenland a atteint un point de basculement », souligne Michael Bevis, l’auteur principal, professeur à l’université d’Etat de l’Ohio, aux Etats-Unis (Voir Etude). Mais dorénavant, c’est également l’Antarctique qui préoccupe les scientifiques. La débâcle des glaces y est six fois plus rapide qu’il y a quarante ans, selon une autre étude publiée en janvier dernier. Ces travaux montrent que le ce continent a perdu 252 milliards de tonnes de masse glaciaire par an entre 2009 et 2017, contre 40 milliards chaque année sur la période 1979-1990 (Voir Etude). Les dernières études confirment que les courants sous-marins de plus en plus chauds attaquent la base des plates-formes glaciaires flottantes de l’Antarctique, qui finissent par se détacher sous forme d’icebergs. En Antarctique de l’Ouest, les glaciers de l’île du Pin et de Thwaites, exposés à ce phénomène, fondent de plus en plus vite. Or, comme le souligne Catherine Ritz, glaciologue à l’Institut des géosciences de l’environnement à Grenoble, « Thwaites est capable de vider la moitié de l’Antarctique de l’Ouest à lui tout seul ». En outre, ces récents travaux montrent également que l’Antarctique de l’Est est à présent également touché, par les effets du réchauffement, notamment la terre de Wilkes, qui contient davantage de glace que l’An tarctique de l’Ouest et la Péninsule antarctique réunis. Ces résultats et études devraient être intégrés dans le prochain rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), qui doit paraître en septembre sur les liens entre changement climatique, océans et glace. En 2013, le GIEC évoquait, dans son pire scénario, une élévation du niveau des mers de 98 cm d’ici à la fin du siècle, toutes causes confondues. Dans le cas d’un réchauffement de 5°C, l’hypothèse la plus vraisemblable des chercheurs estime à 51 cm la montée des océans liée à la fonte du Groenland et de l’Antarctique. Ces récents travaux et les nouvelles données accumulées changent la donne. En janvier et février 2018, les auteurs de l’étude ont alors interrogé vingt-deux experts, parmi les plus éminents connaisseurs des calottes glaciaires des pôles. Ces scientifiques réputés étaient interrogés sur trois mécanismes physiques – l’accumulation de précipitations neigeuses, l’écoulement des glaces et le ruissellement de surface – affectant le Groenland, l’Antarctique de l’Ouest et l’Antarctique de l’Est. Et ce, en fonction de deux scénarios de réchauffement : + 2°C d’ici à la fin du siècle par rapport à l’ère préindustrielle – soit le respect global de l’accord de Paris, et + 5°C, ce qui revient à poursuivre la trajectoire actuelle des émissions de gaz à effet de serre. A l’issue de cette analyse mêlant sciences du climat et statistiques, les auteurs concluent que la fonte des calottes glaciaires, soumises à une hausse de la température mondiale de 2°C, entraînerait une élévation du niveau des mers de 26 cm pour la valeur médiane, avec un risque de 5 % de dépasser 81 cm. Dans le cas d’un réchauffement de 5°C, la montée des océans liée à la débâcle de l’Antarctique et du Groenland atteindrait le plus vraisemblablement 51 cm, sans que l’on puisse exclure une hausse de 178 cm. Mais, en ajoutant la fonte des glaciers de montagnes et la dilatation thermique de l’océan, qui contribueraient à hauteur de 60 cm à l’élévation du niveau des mers pour un réchauffement de 5°C, ces experts en sont arrivés à la conclusion qu’une élévation totale de 2,38 mètres à la fin du siècle n’était pas impossible, dans la pire des hypothèses. Selon l’étude, une telle élévation du niveau de la mer entraînerait la perte de 1,8 million de km2 de terres, notamment dans des régions cruciales pour la production agricole, et provoquerait le déplacement de plusieurs centaines de millions de personnes. Bien entendu, ce dérèglement climatique majeur, à la fois par son ampleur et sa rapidité, a une cause principale, à présent bien identifiée et bien documentée sur le plans scientifique : l’augmentation sans précédent des rejets anthropiques de gaz à effet de serre, et notamment de CO2 dans l’atmosphère depuis un siècle. En 2018, les émissions mondiales annuelles liées à la combustion d’énergie fossile et à l’industrie, après trois ans de pause, sont reparties à la hausse et ont dépassé les 37 milliards de tonnes de CO2, ce qui est cinq fois plus que les émissions humaines de 1920. Résultat : alors que les scientifiques estimaient jusqu’à présent que le niveau actuel de dioxyde de carbone, un peu supérieur à 400 parties par million (ppm), n’était pas plus important que celui d’il y a 800 000 ans, des carottes de glace et de sédiments marins prélevés à l’endroit le plus froid de la planète révèlent désormais que la barre des 400 ppm a en fait été dépassée pour la dernière fois il y a 3 millions d’années, pendant le Pliocène. Les températures étaient alors 3 à 4°C plus élevées, des arbres poussaient en Antarctique et le niveau des océans était 15 mètres plus haut. Ces analyses sont corroborées par un nouveau modèle climatique développé par l’Institut pour la recherche sur le clim at de Potsdam (PIK) (Voir Article). Or, les derniers travaux du GIEC nous indiquent que les émissions mondiales nettes de CO2 (c’est-à-dire la différence entre le volume de CO2 émis et capturé) devraient être réduites d’environ 45 % à l’horizon 2030 par rapport au niveau de 2010, et de 90 % après 2050, pour espérer contenir à 1,5°C le réchauffement climatique d’ici la fin du siècle. Qu’on m’entende bien : il ne s’agit pas de se complaire dans un catastrophisme qui aboutit finalement à l’impuissance et au fatalisme. Mais nous devons entendre et voir les signes évidents et très préoccupants que nous envoie notre planète, et comprendre enfin que nous ne pouvons pas négocier avec la Terre. Nous pouvons encore modifier le cours des choses, car l’avenir n’est jamais écrit à l’avance, mais nous devons le faire maintenant, faute de quoi la vie continuera sur Terre, mais sans l’homme… Il nous reste 10 ans, pas plus, pour amorcer une mutation de société radicale – en transformant complètement les modes de production et d’organisation de l’agriculture, de l’énergie, des transports, de l’industrie et de l’économie numérique – de façon à nous engager de manière irréversible et résolue vers la décarbonisation massive de notre civilisation à l’horizon 2050. C’est un objectif difficile, qui va bouleverser nos modes de vie, nos organisations sociales et nos systèmes politiques, mais il est à notre portée, car jamais dans notre longue histoire, nous n’avons eu à notre disposition autant de connaissances, de moyens technologiques et, ce qui est le plus important, de ressources humaines. Au-delà de nos différences d’opinions, d’origine et de générations, il nous appartient de nous unir pour créer la dynamique humaine irrésistible qui fera mentir les sombres prévisions qui s’accumulent et permettre à notre Humanité de poursuivre sa belle aventure en se réconciliant avec la Terre. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Nanotechnologies et Robotique | |
| | | Il ressemble à une grosse boîte avec des milliers de médicaments rangés dans des rayons et que des bras articulés vont chercher pour les déposer ensuite dans des toboggans, et in fine dans des grosses boîtes bleues. C'est le nouveau robot que vient d'acquérir le CHU Grenoble Alpes pour équiper sa pharmacie. Ce système permet une gestion automatisée des commandes de médicaments par les services, ainsi qu'une chaîne de préparation automatisée des caisses, comme le précisele docteur Etienne Brudieu, responsable des approvisionnements de la pharmacie. Ce lourd investissement de 700 000 euros a pu être financé en partie par du "redéploiement de personnel". C'est à dire que le temps libéré pour la trentaine de personnes qui travaillent à la pharmacie peut être utilisé à d'autres missions "et notamment d'aller dans les unités de soin pour sécuriser le stockage aussi dans les unités de soin directement" explique le docteur Prudence Gibert, responsable de la dispensation des médicaments. Le robot permet aussi de mieux répondre à un rythme de commandes de médicaments qui augmente aussi vite que diminue le temps d'hospitalisation des patients. Ils se succèdent de plus en plus vite dans les chambres et les lits, chacun avec ses besoins. L'autre dimension de cette robotisation c'est la sécurité. L'humain reste présent pour contrôler les commandes, les quantités et la bonne exécution des délivrances de médicaments mais la machine offre des capacités supérieures en termes de traçabilité des boîtes de médicaments et de gestion fine des stocks. Le CHU Grenoble Alpes est par ailleurs en train de "co-construire" avec la société Omnicell, une nouvelle armoire permettant de gérer et sécuriser les commandes de médicaments sortis des boîtes et donc uniquement sous blister. Article rédigé par Georges Simmonds pour RT Flash France Bleu | | ^ Haut | |
|
| | | C'est une véritable révolution dans le domaine de la chimie : une équipe de chercheurs de l’Université de Tokyo, menée par le Professeur Yoshiaki Nishibatashi, a réussi, en première mondiale, à synthétiser de l’ammoniac à partir d’azote et d’eau. L’ammoniac est une matière première utilisée dans la production de tissus synthétiques ou d’engrais chimiques, et représente une production mondiale annuelle de 150 millions de tonnes. Il est aujourd’hui synthétisé à partir d’hydrogène et d’azote gazeux par la méthode de Haber-Bosh, qui requiert des températures de 400 à 650 degrés et des pressions entre 200 et 400 atmosphères, rendant donc ce processus très énergivore. La production d’hydrogène à partir de gaz naturel par vaporeformage est aussi un processus consommateur d’énergie et émetteur de CO2. La méthode développée par l’équipe du Professeur Nishibatashi synthétise quant à elle l’ammoniac dans des conditions de température et pression ambiantes et ne nécessite pas d’apport en hydrogène. L’utilisation d’un catalyseur contenant du molybdène et d’une solution liquide de iodure de samarium permet de former une grande quantité d’ammoniac à partir d’azote gazeux et d’eau, le mécanisme chimique n’étant pas complètement déterminé. Plusieurs défis restent encore à élucider avant de généraliser ce procédé. Le samarium étant un métal rare, il est nécessaire de trouver une solution de recyclage pour rendre le processus économiquement viable. L’équipe s’attache par ailleurs à diminuer les besoin énergétiques du processus, en utilisant par exemple l’électricité fournie par des énergies renouvelables. Son objectif est de développer une technologie bon marché, facilement disponible et à faible impact environnemental. Les questions énergétiques sont au centre de ce projet de recherche, mais aussi l’un des sujets phares de la stratégie scientifique et technologique du Japon. L’équipe prévoit ainsi d’adapter leur méthode de production d’ammonium à diverses applications énergétiques, de la génération d’électricité à domicile au transport de l’hydrogène. Article rédigé par Georges Simmonds pour RT Flash The Asahi Shimbun | | | |
| La photographie mesure la quantité de lumière de couleurs différentes qui atteint la pellicule. Cependant, la lumière est aussi une onde, caractérisée par conséquent par une phase. Cette dernière indique la position d’un point dans le cycle d’onde et est corrélée à la profondeur de l’information ; en d’autres termes, enregistrer la phase de la lumière diffusée par un objet permet d’obtenir sa forme complète en 3D. Une simple photographie ne peut pas parvenir à ce résultat. Il s’agit de la base de l’holographie optique, rendue célèbre par les hologrammes fantaisistes des films de science-fiction comme Star Wars. La résolution spatiale de la photographie/de l’hologramme est limitée par la longueur d’onde de la lumière, qui se situe autour de 1 μm (0,001 mm) ou juste en dessous. Ce qui n’est pas un problème pour les objets macroscopiques l’est par contre en nanotechnologie. Des chercheurs du laboratoire de Fabrizio Carbone à l’EPFL ont développé une méthode pour observer le comportement de la lumière à très petite échelle, bien au-delà des limitations imposées par la longueur d’onde. Ils ont utilisé un média photographique des plus inhabituels : des électrons en propagation libre. Appliquée dans leur microscope électronique ultrarapide, cette méthode peut coder des informations quantiques dans un motif holographique de lumière capturé dans une nanostructure. Elle repose sur un aspect exotique de l’interaction entre les électrons et la lumière. Les scientifiques ont utilisé la nature quantique de l’interaction entre les électrons et la lumière pour différencier le faisceau d’électrons de référence des faisceaux d’imagerie électronique par l’énergie et non l’espace (phase). Cela permet désormais d’utiliser les impulsions lumineuses pour crypter l’information sur la fonction d’onde de l’électron, laquelle peut être représentée grâce à un microscope électronique en transmission ultra-rapide. Cette nouvelle méthode peut nous procurer deux avantages cruciaux : d’une part, elle peut fournir des informations sur la lumière elle-même, ce qui en fait un outil puissant pour visualiser des champs électromagnétiques avec la précision de l’attoseconde dans le temps et du nanomètre dans l’espace ; d’autre part, la méthode peut être appliquée en informatique quantique pour manipuler les propriétés quantiques des électrons libres. « L’holographie conventionnelle peut extraire des informations 3D en mesurant la différence de distance parcourue par la lumière depuis diverses parties de l’objet », explique Fabrizio Carbone. « Cela nécessite toutefois un faisceau de référence supplémentaire d’une direction différente pour mesurer l’interférence entre les deux. Le concept est identique avec des électrons, toutefois nous pouvons désormais obtenir une meilleure résolution spatiale en raison de leur longueur d’onde beaucoup plus courte. Par exemple, nous avons réussi à enregistrer des films holographiques d’objets en déplacement rapide en utilisant les impulsions ultracourtes des électrons. » Au-delà de l’informatique quantique, la technique dispose d’une résolution spatiale beaucoup plus élevée que d’autres méthodes et pourrait changer notre conception de la lumière au quotidien. « Jusque-là, la science et la technologie se sont limitées à des photons en propagation libre, utilisés dans des dispositifs optiques macroscopiques », poursuit Fabrizio Carbone. « Notre nouvelle technique nous permet de visualiser ce qui arrive à la lumière à l’échelle nanométrique. Il s’agit de la première étape pour miniaturiser et intégrer des dispositifs lumineux dans des circuits intégrés ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Apparues sur le marché il y a environ 5 ans, les batteries domestiques pour le stockage de l’électricité sont de moins en moins coûteuses. Outre Rhin, plus de 120.000 ménages et petites entreprises ont investi une partie de leurs économies dans des panneaux solaires associés à un stockage par batterie. Et dans le monde, le nombre de ces « early adopters » (ou primo adoptants) dépasserait déjà le million. « Personne ne s’attendait à une croissance aussi rapide » nous confie Kai-Philipp Kairies, expert en systèmes de production et de stockage d’énergie à l’université RWTH d’Aachen. Aujourd’hui, une installation photovoltaïque sur deux, vendue en Allemagne, est associée &agr ave; un stockage par batterie. Le géant du meuble Ikea propose même des packs solaires incluant une capacité de stockage. Les prix des batteries ont tellement chuté que la banque de développement allemande a supprimé les incitants qu’elle proposait entre 2013 et 2018 sur ces systèmes de stockage. Les analystes estiment que cette croissance récente témoigne de l’adoption par des citoyens de plus en plus nombreux d’une vision écologique de l’avenir : une installation solaire sur chaque toit, un véhicule électrique dans chaque garage et une batterie dans chaque sous-sol. Ainsi, le cabinet de conseil McKinsey prédit que le coût des systèmes de stockage d’électricité baissera encore de 50 à 70 % d’ici 2025 « grâce aux progrès en matière de conception, aux économies d’échelle et à la rationalisation des processus industriels ». L’utilisation en seconde vie de batteries de véhicules électriques devrait encore accélérer cette tendance. Avec la croissance du parc de véhicules électriques, les constructeurs automobiles disposeront en effet d’un nombre de plus en plus important de batteries déclassées. Bien que la durée de vie de ces accumulateurs augmente sans cesse pour approcher celle du véhicule, il arrive un moment où leur capacité de stockage diminue au point que l’autonomie du véhicule n’est plus suffisante. Ils peuvent alors être valorisés en leur donnant une seconde vie pour du stockage stationnaire. Ces systèmes ne requièrent en effet pas la même capacité de stockage qu’une batterie de véhicule. Si plusieurs constructeurs comme Mercedes, Renault ou Nissan ont déjà expérimenté et mis au point l’utilisation en 2e vie de batteries de véhicules pour du stockage stationnaire de grande capacité destiné à supporter ou stabiliser le réseau, il est aussi possible de les utiliser comme stockage domestique associé à une installation photovoltaïque. Ainsi BMW, par exemple, propose carrément des batteries du modèle i3 d’une capacité de 22 ou 33 kWh utilisées quasi telles quelles. Pour l’instant, il s’agit encore le plus souvent de batteries neuves car celles des voitures électriques en circulation n’ont, la plupart du temps, par encore atteint l’âge de leur première retraite. Cette solution de stockage proposée notamment par le constructeur bavarois comprend un transformateur et une électronique de puissance qui permettent de gérer le flux d’énergie en provenance d’une installation solaire ou d’autres sources d’énergie renouvelable. Le pack est conçu pour s’intégrer parfaitement au système de fourniture électrique du bâtiment. Sa conception et sa taille permettent de l’installer sans problème dans la cave ou le garage d’une habitation. Article rédigé par Georges Simmonds pour RT Flash Révolution Energétique | | ^ Haut | |
|
| | | Le 19 décembre 2018, l’atterrisseur de la NASA, InSight, déposait le sismomètre français, SEIS, sur la surface de Mars. Le 6 avril 2019, 128ème jour martien de la mission, un signal sismique faible mais distinct a été détecté, semblable aux signaux sismiques captés à la surface de la Lune lors des missions Apollo. L’événement « Sol 128 » (128ème jour martien), détecté par SEIS, est le premier tremblement martien dont l’origine proviendrait de l’intérieur de la planète – par opposition à un mouvement causé par le vent – bien que les scientifiques n’en soient toujours pas entièrement sûrs. L'événement sismique est trop faible pour fournir des données utiles sur l'intérieur de Mars, l’un des objectifs principaux de la mission. Un tel tremblement n’aurait pas été détectable sur Terre mais la surface martienne, extrêmement stable, a permis aux capteurs très sensibles du sismomètre de capter ce faible signal. Plusieurs caractéristiques de « Sol 128 » correspondent au profil des séismes détectés à la surface lunaire. Les astronautes de la NASA ont mesuré des milliers de séismes en explorant la Lune entre 1969 et 1972, révélant que celle-ci était toujours géologiquement active. La réflexion des ondes sismiques ou la modification de leur vitesse de propagation en fonction des matériaux traversés ont donné aux scientifiques des informations sur la structure interne de la Lune, ainsi que la taille de son noyau. Ceci a permis de mieux appréhender le processus d’impact entre la Terre et la proto-Lune, ainsi que la formation de la Lune à partir des débris mis en orbite. Avec le sismomètre SEIS, des données similaires pourront être collectées sur Mars, elles permettront de mieux comprendre la formation d’une telle planète tellurique. « Les premières données relevées par InSight permettent de poursuivre les avancées scientifiques qui ont démarré avec les missions Apollo », note Bruce Banerdt, responsable scientifique de la mission Insight, du Jet Propulsion Laboratory (JPL) de la NASA basé à Pasadena, en Californie. « Jusqu’à présent, nous avons collecté des bruits de fond, mais ce premier séisme marque la naissance officielle d’une nouvelle discipline : la sismologie martienne ». Trois autres signaux qui pourraient également être d’origine sismique ont été détectés le 14 mars (« Sol 105 »), le 10 avril (« Sol 132 ») et le 11 avril (« Sol 133 »). L’interprétation de ces signaux est encore ambiguë pour l’équipe InSight, mais pour au moins deux d’entre eux, ils ne semblent pas être dus à l’effet du vent ni à d’autres sources de bruit parasite. En pratique, ces signaux sont bien plus faibles que celui de « Sol 128 », et ont seulement été détectés par les senseurs VBB ultrasensibles de l’instrument SEIS. L’équipe travaille d’arrache-pied pour préciser l’origine de ces nouveaux signaux. La mission InSight est pilotée par le JPL. Baptisé Seismic Experiment for Interior Structure (SEIS), le sismomètre déposé par l’atterrisseur spatial a été livré par le CNES qui en a assuré la maîtrise d’oeuvre. Philippe Lognonné, Professeur à l’Université Paris Diderot et géophysicien à l’IPGP, assume la responsabilité scientifique de SEIS en association avec des équipes du CNRS. « Nous avons attendu notre premier séisme martien pendant des mois », explique Philippe Lognonné. « C’est formidable d’avoir enfin le signe qu’il existe encore une activité sismique sur Mars. Nous sommes impatients de pouvoir communiquer des résultats détaillés, dès que nous aurons étudié de plus près et modélisé nos données ». Mars ne comporte pas de plaques tectoniques, qui sont à l’origine de la plupart des séismes sur la Terre. Mais les deux planètes ainsi que la Lune partagent un autre type de séisme, provoqué par des failles ou des fractures dans leur croûte. Lorsque celle-ci subit des contraintes trop importantes dues au poids ou à son lent refroidissement, elle se rompt et libère de l’énergie. La détection de ces séismes représente un véritable exploit technologique. Sur notre planète, des sismomètres ultraperformants sont souvent placés sous terre pour être protégés des variations de température et des intempéries. Mais le sismomètre SEIS ne peut pas être enterré sur Mars ; plusieurs dispositifs ingénieux ont donc été mis en place pour le protéger des variations de température, extrêmement importantes sur Mars, et des autres sources de bruit. Un bouclier protecteur construit par le JPL et baptisé « Wind and Thermal Shield » permet d’atténuer le bruit environnemental en protégeant SEIS du vent, de la poussière et des variations de température. En conséquence, à ce jour, la sensibilité de SEIS dépasse toutes les attentes de l’équipe. A l’occasion de cet événement, le Président du CNES, Jean-Yves Le Gall, a déclaré : « Le sismomètre français SEIS est la pierre angulaire de la coopération spatiale entre la France et les Etats-Unis. Alors qu’il vient tout juste de débuter sa mission, le succès est déjà au rendez-vous avec cette première mondiale qui nous en apprend toujours plus sur Mars, planète qui a été habitable par le passé. Les équipes du SISMOC, le centre de contrôle de la mission InSight au CNES à Toulouse, travaillent jour et nuit pour piloter SEIS et analyser les données transmises depuis la planète rouge. Une nouvelle fois, je félicite tous les scientifiques et les ingénieurs qui permettent cet extraordinaire succès à la surface de Mars ! ». De même, le Président du CNRS, Antoine Petit, souligne l’importance de ce résultat : « La Terre n’est plus la seule planète surveillée en permanence par des sismomètres. Le sismomètre SEIS, déployé sur Mars au début de l’année 2019, enregistre maintenant jours et nuits les faibles vibrations du sol Martien, qu’elles soient provoquées par l’atmosphère martienne et ses vents qui martèlent la surface ou par des futurs séismes et impacts de météorites. Mars devient ainsi le troisième corps tellurique du système solaire étudié par les sismologues, 130 ans après les débuts de la sismologie instrumentale sur Terre et 50 ans après le premier sismomètre déployé par Apollo 11 en Juillet 1969. Ce ne sont pas moins de 11 laboratoires du CNRS, en association avec différentes universités, qui travaillent aujourd’hui sur ces données exceptionnelles. Dans les mois et années à venir leurs études contribueront à mieux comprendre comment Mars s’est formée et pourquoi cette planète a vu son volcanisme disparaitre, devenant le désert froid et sec d’aujourd’hui ». Article rédigé par Georges Simmonds pour RT Flash CNES | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Datées au carbone 14, les couches les plus profondes du glacier du col du Dôme, dans le massif du Mont-Blanc, ont archivé l’état de l’atmosphère au cours de l’Antiquité romaine. Leur analyse, menée par une équipe internationale, et coordonnée par une scientifique du CNRS de l’Institut des géosciences de l’environnement (CNRS/IRD/UGA/Grenoble INP), montre une pollution atmosphérique très significative en métaux toxiques : la présence de plomb et d’antimoine (dont c’est le premier enregistrement dans la glace alpine ancienne) s’avèrent liées à l’activité minière et à la production de plomb et d’argent des Romains, donc bien avant le début de l’ère industrielle. Bien que moins bien datée qu’au Groenland, l’archive alpine retrace les grandes périodes de prospérité de l’Antiquité romaine, avec deux maximum d’émission de plomb bien distincts : durant la République (entre 350 et 100 ans av. J.-C.), puis l’Empire (entre 0 et 200 ans apr. J.-C.). Les Romains extrayaient le minerai de plomb argentifère pour produire le plomb nécessaire à la fabrication des conduites d’eau, et l’argent pour la monnaie. Le procédé de séparation plomb-argent passait par une fusion du minerai à 1200°C, ce qui entraînait d’importantes émissions de plomb dans l’atmosphère comme l’avaient déjà montré des archives continentales telles les tourbières, dont il est cependant difficile de déduire une information globale à l’échelle européenne. Cette toute première étude de la pollution durant l’Antiquité à partir de glace alpine permet de mieux évaluer l’impact de ces émissions anciennes sur notre environnement européen et de le comparer notamment à celui de la pollution plus récente liée à l’utilisation de l’essence au plomb dans les années 1950-1985. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Le cancer du sein type triple négatif représente 10 à 20 % des cas de cancers du sein. Il se caractérise par l’absence de récepteur des œstrogènes, de récepteur de la progestérone et de récepteur du facteur de croissance épidermique humaine (HER2). Ceci signifie qu'il ne répond ni à l’hormonothérapie ni à l’immunothérapie. Le manque de cibles moléculaires pour le traitement adapté de ce type de cancer très agressif reste un défi pour la communauté scientifique et médicale. Une équipe pluridisciplinaire de l’Inserm, du CNRS, du CEA-Irig, de Sorbonne Université, de l'Université PSL, de l'Université Grenoble Alpes et de l'ESRF, a étudié des molécules organométalliques de la famille des métallocènes, un dérivé du métabolite actif du tamoxifène, et précisé son mécanisme d’action au sein de cellules de cancer du sein type triple négatif. Ces composés organométalliques ont un large spectre d'efficacité envers différents types de cellules cancéreuses et un potentiel à surmonter la résistance aux médicaments anticancéreux. Mais par quels mécanismes d’action ? Les chercheurs ont utilisé la technique de pointe de nano-imagerie synchrotron, qui permet un éclairage unique sur la distribution intracellulaire de ce métallocène, avec une résolution de 35 nanomètres. Pour la première fois, l’équipe scientifique a montré comment la molécule pénètre aisément les membranes de la cellule cancéreuse en raison de sa nature lipophile et comment elle cible un organite cellulaire essentiel, le réticulum endoplasmique, un réseau de tubules membranaires (souvent interconnectées) dispersés dans tout le cytoplasme des cellules eucaryotes. La molécule, un dérivé osmocénique de l’hydroxy-tamoxifène, qui est oxydée à cet endroit, engendre des métabolites qui vont attaquer différentes parties de la cellule en même temps, menant à l'activité an ticancéreuse observée. « La cellule cancéreuse doit faire face à de nombreux feux démarrant à différents endroits dans la cellule. La cellule tumorale, débordée par autant d’attaques, ne peut faire face et meurt, ou s’inactive », expliquent les chercheurs. Les résultats sont prometteurs. En effet, cette nouvelle famille de composés organométalliques qui présentent un mécanisme d'action multi-cibles, pourrait devenir une alternative intéressante dans l’arsenal de chimiothérapie classique et permettre de surmonter la résistance aux médicaments actuels tout en ayant un coût faible. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| Des chercheurs de l'Université d'Oxford ont découvert un processus cérébral commun entre le sommeil et le vieillissement qui pourrait ouvrir la voie à de nouveaux traitements pour l'insomnie. Les scientifiques expliquent comment le stress oxydatif, impliqué dans le vieillissement et les maladies dégénératives, entraîne aussi le sommeil. Ce faisant, ils identifient aussi de nouvelles cibles thérapeutiques. L’étude pourrait aussi expliquer pourquoi le manque chronique de sommeil raccourcit la vie. L’auteur principal, le professeur Gero Miesenböck, directeur du Département des circuits et comportements neuronaux de l'université d'Oxford, explique à sa manière : « Ce n'est pas un hasard si les bouteilles d'oxygène portent des étiquettes indiquant le risque d'explosion : une combustion non contrôlée est dangereuse. Les animaux, y compris les êtres humains, font face à un risque similaire lorsqu'ils utilisent l'oxygène qu'ils respirent pour convertir les aliments en énergie : une combustion confinée entraîne un « stress oxydatif » dans la cellule. On pense que ce stress est une cause du vieillissement et responsable des maladies dégénératives. Notre recherche montre que le stress oxydatif active également les neurones qui contrôlent si nous allons dormir ou non ». L’expérience est menée chez les mouches des fruits, car chaque mouche possède un ensemble spécial de neurones de contrôle du sommeil, des cellules du cerveau que l'on trouve également chez d'autres animaux et que l'on suspecte chez l'homme. Lors de précédentes recherches, la même équipe avait découvert que ces neurones de contrôle du sommeil agissent comme un interrupteur : si les neurones sont actifs, la mouche est endormie ; s’ils sont éteints, la mouche est réveillée. Les chercheurs ont donc souhaité identifier les signaux qui activent les neurones de contrôle du sommeil, liés à la quantité de courant électrique circulant dans 2 canaux ioniques, appelés « Shaker » et « Sandman » ! Pendant le sommeil, la majeure partie du courant passe par Shaker. Mais qu'est-ce qui fait que l e courant électrique circule dans Shaker ? Une petite molécule, NADPH, fait la navette entre les 2 états chimiques qui régulent le courant de Shaker. Or l’état de NADPH, à son tour, reflète le degré de stress oxydatif. L'insomnie provoque un stress oxydatif, ce qui entraîne l’augmentation des niveaux de NADPH et induit le sommeil. Ainsi, l’étude montre en substance que le métabolisme énergétique, le stress oxydatif et le sommeil sont trois processus impliqués indépendamment dans la durée de vie, le vieillissement et les maladies dégénératives. Ils sont donc reliés mécaniquement. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Les lymphocytes T cytotoxiques (TCD8) sont capables de détruire spécifiquement des cellules infectées par un virus ou des cellules tumorales. Mais la quantité de lymphocytes TCD8 dirigés contre une cible spécifique n’est pas toujours suffisante pour garantir l’élimination de cette cible. Leur qualité, ou capacité effectrice, est également essentielle, et celle-ci varie en fonction des individus, de leur âge et de leur pathologie. L’équipe de Victor Appay étudie depuis près de vingt ans les facteurs qui font qu’une réponse des lymphocytes TCD8 est efficace ou non. Le jeu en vaut la chandelle puisqu'identifier les conditions d’une réponse optimum permettrait de trouver comment augmenter l'efficacité des stratégies vaccinales appliquées au traitement des cancers ou du sida. Une petite molécule cyclique dérivée de l’ADN de pathogènes, cGAMP, s’est révélée être un immunostimulant puissant, potentiellement utile dans ce type d'approche. Ses modes d’action restent cependant mal connus, limitant son usage. Cette équipe a plus précisément étudié la manière dont cet immunostimulant améliore la réponse immunitaire, dans le cas du mélanome. Victor Appay et son équipe ont pour cela développé un modèle d'étude in vitro original, à partir d’échantillons de sang de volontaires en bonne santé. Ce dispositif leur a permis de démontrer que cGAMP est capable d’induire la production de TCD8 humains spécifiques d'un antigène, et de très bonne qualité. "cGAMP interagit avec le récepteur STING des cellules présentatrices d’antigènes et induit la production d’interférons qui vont amplifier la sensibilité des TCD8 à l’antigène et les rendre particulièrement fonctionnels et efficaces", explique Victor Appay. Non seulement cGAMP est un adjuvant puissant, mais il est également plus efficace que d’autres pour induire une réponse de bonne qualité. Les chercheurs ont retrouvé cette grande efficacité in vivo, dans des modèles murins (tumoral et d'infection virale), que le mode d’administration de l’antigène soit nasal ou intramusculaire. Ils ont aussi démontré la capacité de cGAMP à stimuler, outre l’immunité cellulaire, les réponses immunitaires humorales et mucosales. « cGAMP présente ainsi de grandes potentialités d’application pour amplifier la réponse immunitaire contre d’autres cancers, mais aussi pour booster la réponse immunitaire contre des antigènes de virus », estime Victor Appay. « Nous travaillons avec des chercheurs japonais sur l’impact de cGAMP dans la réponse immunitaire induite par un antigène du VIH et nous avons de très bons résultats in vitro. Nous envisageons également d’étudier la capacité de cGAMP à contrebalancer la baisse de réaction immunitaire avec l’âge, par exemple pour obtenir des vaccinations plus efficaces ». Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Le cancer colorectal est devenu le troisième cancer le plus fréquent dans le monde après celui du sein et de la prostate et le deuxième plus meurtrier après celui du poumon. Mais une nouvelle étude pourrait bientôt changer la donne. En effet, des chercheurs américains ont mis au point un vaccin testé avec succès sur une dizaine de patients. Aux Etats-Unis, des chercheurs de Jefferson (Université de Philadelphie et Université Thomas Jefferson) ont créé un vaccin qu’ils ont ensuite administré à dix patients atteints d’un cancer du côlon de stade 1 ou 2. Un mois, 90 ou 180 jours plus tard, les participants ont fait des prises de sang. Grâce aux échantillons, les chercheurs ont pu voir que le vaccin avait activé la cellule T dans le sang des malades. Ainsi, cette dernière s’était mise en chasse des cellules cancéreuses pour les exterminer. Quant aux effets secondaires des participants, si quelques-uns se sont sentis faibles au moment de la piqûre, rien de sérieux n’a été rapporté par la suite. Dans le détail, le vaccin fonctionne en mobilisant le système immunitaire contre une molécule appelée GUCY2C, explique l’étude. Celle-ci est un marqueur de l’expression de la tumeur colorectale qui aide les cellules cancéreuses à se distinguer des cellules saines. Ici, les chercheurs ont associé GUCY2C à une autre molécule renforçant la réaction immunitaire dans le but que ce processus cible les cellules cancéreuses et les tue. « Cette étude majeure fournit la preuve qu’il pourrait être possible de diriger en toute sécurité le système immunitaire d’un patient pour chercher et détruire à ce type de cancer », se félicite Karen E. Knudsen, directrice du Centre contre le Cancer Sidney Kimmel à l’Institut de santé de Jefferson à Philadelphie. Grâce à ces résultats prometteurs, les chercheurs espèrent pouvoir bientôt entamer la phase deux de leur essai clinique. A terme, les scientifiques voudraient pouvoir développer une meilleure version du vaccin qui pourrait également servir à contrer d’autres types de cancers. En effet, le cancer colorectal n’est pas le seul à exprimer la molécule GUCY2C. C’est aussi le cas des cancers gastrique, de l’oesophage et du pancréas. Soit un groupe de maladies qui comptabilise une mort sur cinq dans les décès liés à un cancer. Article rédigé par Georges Simmonds pour RT Flash JITC | | | |
| Selon une vaste étude épidémiologique américaine dirigée par Kylia Lara (Clinique Mayo) et portant sur 16 000 patients, âgés de 64 ans en moyenne et suivis pendant 9 ans, une alimentation riche en fruits, en légumes et en protéines issues du poisson, aurait des bénéfices considérables sur la santé cardiovasculaire. Dans ce travail, les chercheurs ont étudié l’association entre cinq régimes alimentaires et le risque d’insuffisance cardiaque. Ils ont constaté que ceux riches en fruits, en légumes comme le régime méditerranéen, étaient associés à un risque plus faible d’insuffisance cardiaque chez les adultes sans maladie cardiaque connue. En revanche, les régimes dits "occidentaux" composés d’aliments frits, de boissons sucrées, de viande transformée et de graisses saturées sont, eux, associés à un risque accru. L’insuffisance cardiaque est marquée par une incapacité chronique du cœur à pomper suffisamment de sang ou à le pomper assez fort pour apporter l'oxygène nécessaire à l'organisme. Principale cause d'hospitalisation chez les personnes de plus de 65 ans, les facteurs de risque de ce trouble comprennent l'hypertension artérielle, l'hypercholestérolémie, le diabète, le tabagisme et les antécédents familiaux. En France, plus d’un million de personnes souffrent de cette pathologie, tandis qu’elle affecte entre 5 et 6 millions d’Américains. Pour établir la relation entre insuffisance cardiaque et habitudes alimentaires, les chercheurs ont suivi 16 608 personnes ne souffrant au départ d’aucune maladie cardiaque ou d’insuffisance. Ils ont aussi passé au crible 5 régimes alimentaires types consommés par ces volontaires : un premier appelé "de commodité", à forte teneur en viandes, pâtes, plats mexicains et fast-food. Un deuxième "végétal", riche en fruits, légumes, céréales et poissons. Un troisième "sucré", riche en pain, en aliments sucrés, en gras et en chocolat. Un quatrième "du sud" caractérisé par une forte consommation d’aliments frits, de viandes transformées, d’œufs, de graisses saturées et de boissons sucrées. Et enfin un dernier riche en alcool et en salades avec de la vinaigrette. Après 8,7 ans de suivi en moyenne, les chercheurs ont recensé 363 hospitalisations pour insuffisance cardiaque. Ils ont aussi constaté une diminution de 41 % du risque de nouvelle hospitalisation pour insuffisance cardiaque chez les participants qui suivaient le régime "végétal" à base de fruits et légumes, comparativement à ceux qui le suivaient moins. Et ce sont les personnes adeptes du régime "du sud" qui présentaient le risque le plus élevé d’insuffisance cardiaque. En consommant régulièrement des aliments frits, gras et des boissons sucrées, elles présentent un risque de 72 % plus élevé d’hospitalisation. Toutefois, précisent les chercheurs, lorsqu’ils ont ajusté ce régime à l'indice de masse corporelle (IMC), au "tour de taille, à l'hypertension, à la dyslipidémie, au diabète sucré, à la fibrillation auriculaire et à l'insuffisance rénale chronique", cette association n’était plus statistiquement significative. Ce qui pourrait signifier que ce régime alimentaire aurait une incidence sur le risque d’insuffisance cardiaque en raison de facteurs tels que l'obésité et l'excès de graisse abdominale. Pour les auteurs de l’étude, il est indispensable de considérer le régime alimentaire comme un facteur de risque de l’insuffisance cardiaque, et donc d’axer la prévention sur la nécessité d’adopter des habitudes alimentaires plus saines. Article rédigé par Georges Simmonds pour RT Flash JACC | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | C'est un nouvel engin qui se situe à mi-chemin entre le tramway et le bus. Son nom, l’Autonomous Rail Rapid Transit (ART). Equipé de roues en caoutchouc, l'ART est conçu pour circuler dans les rues sans conducteur, de façon autonome. Il est en phase de test à Harbin, dans le nord-est de la Chine, où il affronte des températures de -20°C. Avec son système de guidage optique autonome, ses bogies de type train à double essieu, son circuit hydraulique et ses pneumatiques spéciaux, ce véhicule hybride proposé par CRRC Times Electric vient enrichir la gamme des matériels roulants de transport urbain. Ce nouveau système de transport combine donc les avantages du tramway léger sur rail à ceux des véhicules routiers autonomes. Long de 35 mètres, l'ART peut transporter 300 passagers à une vitesse de 70 km/h. Et une version pour transporter 500 passagers est prévue. Son guidage optique, qui fait appel aux technologies GPS et Lidar, lui permet de se déplacer au millimètre près le long d'un marquage au sol invisible. En l’absence de caténaires, les concepteurs lui ont inclus des batteries en lithium-titanate, d’une autonomie de 40 kilomètres, qui se rechargent rapidement, 30 secondes de charge correspondant à 5 kilomètres d’autonomie et dix minutes à 25 kilomètres. De plus, sa vitesse maximale est de 70 km/h. Conçu en 2013, le premier tramway autonome chinois a quitté la chaîne de production de l'usine de CRRC Times Electric à Qingdao, dans la province du Shandong, le 28 juillet 2017. Le 8 mai 2018, la phase de test a débuté à Zhuzhou, au sud du pays, dans une version pilotée par l'homme et sur une ligne de 12 kilomètres. Tramway sans rails, il peut en effet être installé sur un réseau routier en un week-end et, pour ce faire, ne coûtera aux responsables des finances de la ville ou de l'agglomération que 5 à 7 millions d'euros du kilomètre. Par comparaison, en France, le coût moyen pour 1 kilomètre de tramway classique est de 24 millions d'euros. Un argument massue pour inciter les élus à remplacer les rails par des marquages au sol. Article rédigé par Georges Simmonds pour RT Flash France Diplomatie | | | |
| Le 6 juin, la start-up américaine Ampaire a fait voler pour la première fois son avion-prototype, un Cessna 337 Skymaster modifié, depuis l'aéroport de Camarillo (Californie). Rebaptisé Ampaire 337, ce bimoteur est "l'avion hybride-électrique de plus grande capacité ayant jamais volé", se targue la start-up. Un pilote et un mécanicien navigant étaient à bord pour ce vol inaugural de quelques minutes. Le bimoteur associe un moteur à combustion classique dans le nez et un moteur électrique dans la queue, alimenté par des batteries légères. Les deux moteurs travaillent de concert pour optimiser la puissance à mesure que l'avion vole. De quoi réduire la facture énergétique, le bruit et les émissions. Ampaire entend poursuivre ses tests dans la région de Los Angeles dans les prochains mois. La start-up a pour ambition de lancer dès fin 2019 un projet pilote sur une route commerciale sur l'île hawaïenne de Maui, avec un prototype de pré-production, en partenariat avec la compagnie Mokulele. La société vise en priorité ce type de compagnies aériennes régionales, qui desservent souvent des communautés éloignées et des régions insulaires avec des vols court-courrier. En plus du projet pilote à venir à Hawaii, Ampaire est également en collaboration avec Vieques Air Link (VAL), une compagnie aérienne régionale de Porto Rico, pour établir un projet pilote dans la région. Ampaire a signé des lettres d'intérêt avec 14 autres compagnies aériennes dans le monde au total. Article rédigé par Georges Simmonds pour RT Flash L'Usine Nouvelle | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|