| | Edito La Révolution du Télétravail, depuis si longtemps annoncée, arrive enfin...
Depuis le début de ce siècle, tel un serpent de mer, la révolution du télétravail est régulièrement annoncée comme imminente. Pourtant, il faut bien constater qu’alors que la puissance des ordinateurs portables et le débit de nos réseaux numériques ont été multipliés par 100 en 20 ans, le télétravail ne s’est jamais généralisé dans notre pays. D’après une étude récente de la DARES, environ 7 % des salariés, principalement des cadres, ont utilisé le télétravail au moins un jour par semaine en 2017 en France, contre 17 % en moyenne, dans l’Union Européenne… Mais dans ce domaine, comme dans bien d’autres, la pandémie mondiale de Covid-19 a tout changé. Le confinement très strict, et sans précédent, qui a été instauré en France du 17 mars au 11 mai, a fait exploser, sous la contrainte de la nécessité, le recours au télétravail, puisqu’on estime qu’environ un tiers des 16 millions de travailleurs que compte notre secteur tertiaire a travaillé à distance pendant le confinement. Reste à savoir si ce télétravail forcé a été, à l’issue du confinement, perçu de manière positive par les salariés et les entreprises. Et il semble bien que cela soit le cas, si l’on en croit une intéressante étude de WorkAnywhere qui vient d’être publiée. Ce cabinet a interrogé 6 523 collaborateurs issus de 150 entreprises et 14 secteurs d'activité, et les résultats sont sans appel : les deux tiers des sondés (65,5 %) se déclarent satisfaits de leur expérience de travail à distance. Cette enquête révèle également que 75 % des personnes interrogées déclarent avoir travaillé dans un climat de confiance avec leur hiérarchie, et que 68 % estiment que le télétravail n’a pas nui au travail en équipe. Enfin, les trois-quarts des personnes interrogées pensent que leur entreprise aurait tout intérêt à développer le télétravail. Il est vrai que, contrairement à une idée reçue tenace, les salariés qui pratiquent régulièrement le télétravail ont une productivité moyenne supérieure de 10 à 20 % à celle qu’ils ont au bureau. Reste que cette explosion du télétravail a révélé la réalité de la fracture numérique territoriale qui existe dans notre pays : alors que 41 % des actifs ont travaillé à distance en Île-de-France, ils étaient seulement 11 % en Normandie, selon le sondage Odoxa-Adviso. Les grandes entreprises ont également tiré les enseignements de ce développement aussi brusque qu’inattendu du télétravail. Le 12 mai dernier, Jack Dorsey, le patron de Twitter, a par exemple annoncé à ses salariés qu’ils pourront continuer à travailler depuis chez eux indéfiniment, et que la société contribuerait, sous forme de primes, à l’achat des équipements domestiques nécessaires. Quelques jours plus tard, c’est le patron de Facebook, Mark Zuckerberg, qui annonçait que la moitié des 45 000 employés de son groupe pourra travailler en télétravail d’ici 5 ans. C’est dans ce contexte que le Groupe d’études géopolitiques (GEG), issu de l’école Normale, a publié début mai une étude prospective sur les conséquences de la généralisation du télétravail. Selon ce travail, il est probable que l’on assiste à un essor bien plus rapide que prévu du télétravail, y compris dans des branches et domaines considérés jusqu’à présent comme non accessibles à cette pratique. A partir du moment où sont réunis à la fois une forte demande de compétences, une offre de savoir gigantesque disponible dans des pays à faible coût de rétribution, et des infrastructures et outils technologiques suffisamment performants pour relier ces deux facteurs, on peut s’attendre à ce qu’au moins la moitié de l’ensemble des postes de travail dans le secteur des services devienne potentiellement accessible à la fois à la délocalisation et au télétravail d’ici 2030… (Voir GEG). Cependant, le télétravail ne se développera pas mécaniquement au même rythme dans tous les domaines. En effet, pour des raisons à la fois culturelles et organisationnelles, les tâches qui requièrent à la fois une forte supervision et une forte coordination seront beaucoup plus difficiles à dématérialiser. C’est pourquoi cette étude souligne que l’Europe doit absolument favoriser une économie cognitive fortement collaborative et innovatrice, si elle veut éviter de voir une grande partie de sa valeur ajoutée lui échapper, pour être produite à des coûts plus faibles ailleurs. Selon l’économiste Richard Baldwin, il est certain que les travailleurs qualifiés devront faire face à une compétition mondiale de plus en plus rude avec des “télémigrants”, de plus en plus nombreux et de mi eux en mieux formés, qui peuvent à présent proposer directement leurs services aux entreprises et administrations du monde entier, via les réseaux numériques. Baldwin souligne toutefois que ce phénomène peut s’avérer finalement positif, car les économies européennes et américaines vieillissantes n’ont pas assez de travailleurs qualifiés dans de nombreux domaines. Vu sous cet angle, les télémigrants peuvent donc permettre à de nombreuses entreprises d’avoir accès à un coût compétitif à de nouvelles compétences et services qui leur font défaut pour assurer et accélérer leur développement. En fait, tout dépendra de la recomposition spatiale de la chaîne de valeur et, comme le dit Baldwin, cette dématérialisation de l’économie au niveau planétaire peut être profitable à tous, à condition toutefois que « Les télémigrants augmentent plus vite la taille du gâteau qu’ils n’en divisent les parts », ce qui pose la question des politiques d’adaptation qui seront mises en œuvre en Europe et en France, notamment dans les domaines cruciaux de la formation, de l’innovation, mas aussi de l’environnement et de l’u rbanisme. Il faut en effet bien comprendre que le télétravail, en découplant le lieu de vie et le lieu de travail pour une large partie de la population, va entraîner une révolution urbaine et une recomposition des territoires dont nous n’avons pas encore pris la mesure. Imaginons qu’en 2030, plus de la moitié des travailleurs en France travaillent plus de la moitié du temps chez eux, ou dans un endroit distant de leur entreprise. Dans un tel scenario, qui devient maintenant probable, toute l’organisation de nos villes et le développement urbain seront à repenser, qu’il s’agisse des bâtiments, des transports, publics et particuliers, des zones d’activités économiques, ou même des sites de production industrielle. Il deviendra notamment possible d’optimiser de manière extrême la production, la distribution, le stockage et la consommation d’&eacu te;nergie et de réduire enfin de manière considérable, en dépit de l’accroissement attendu de la population mondiale, le double effet désastreux et insoutenable à terme de nos émissions de gaz à effet de serre sur le climat et de la pollution sur notre santé (au moins huit millions de morts par an selon les dernières études). S’agissant de notre pays, nous avons la chance de posséder à la fois la richesse humaine, les compétences économiques et technologiques et le potentiel territorial et environnemental nécessaire pour réussir cette inévitable transition vers le travail et les activités à distance. Mais les grandes disparités d’utilisation du télétravail entre nos territoires, qui ont pu être observées pendant le confinement, doivent nous alerter. Si nous voulons favoriser un essor harmonieux et équitable du télétravail sur l’ensemble de notre territoire, nous devons absolument mieux articuler le déploiement des réseaux optiques à très haut débit et de la 5G, qui doivent être développés en cohérence. Mais nous devons également, pour pouvoir exploiter toutes les potentialités de ces rés eaux à très haut débit, rendre accessibles et utilisables par tous les travailleurs, qu’ils soient dans le domaine des services, de l’industrie ou de l’agriculture, les bureaux virtuels portables de nouvelle génération qui vont bientôt sortir des laboratoires. Ces bureaux virtuels associeront une puissance de calcul phénoménale, une capacité de stockage gigantesque, l’accès en ligne à des ressources d’intelligence artificielle capable de nous seconder en permanence dans l’exercice de nos tâches et un environnement portable de réalité augmentée qui démultipliera nos capacités d’actions, de décisions et d’innovations. Facebook a récemment présenté un concept de bureau en réalité augmentée qui préfigure notre environnement numérique de travail d’ici quelques années. Le géant des réseaux sociaux imagine un système intégrant un casque de réalité virtuelle, bardé de capteurs et de caméras et pouvant générer à la demande plusieurs écrans virtuels pour afficher et traiter les multiples informations disponibles, images, sons, vidéos, textes, graphiques, etc.… Ce bureau portable ressemblera, sous certains aspects, à ce qu’on peut voir dans le film, « Minority Report", de Spielberg. L’utilisateur pourra notamment exécuter des commandes et faire apparaître des fenêtres, ou images, en les pinçant entre deux doigts et en les déplaçant avec ses mains. Il pourra bien entendu combiner ce mode de commande avec la commande vocale et oculaire. La prise de note pourra se faire simultanément, en combinant l’écriture manuelle et le clavier (virtuel). En outre, ce « bureau » intégrera plusieurs collaborateurs numériques virtuels, qui travailleront de manière intelligente et invisible pour traiter, hiérarchiser et présenter les informations dont nous avons besoin, quand nous en avons besoin. Tous ces outils ne relèvent pas de la science-fiction ; ils existent déjà mais d e manière éparse, sans synergie logicielle collective pour les associer et les rendre totalement compatibles et interopérables. Les géants du numérique, qu’il s’agisse de Facebook, de Microsoft, de Google ou d’Apple, ont bien compris qu’une fois que les infrastructures numériques à très haut débit (incluant les flottes de mini-satellites pour un accès à Internet partout et à faible coût, comme dans le projet Starlink de SpaceX, qui a commencé à être déployé et qui prévoit la mise sur orbite basse de 12 000 satellites d’ici 10 ans), l’enjeu majeur sur les plans économique, politique, social et culturel, sera celui du contrôle des univers virtuels personnels portables, que nous utiliserons tous en permanence, pour travailler, mais aussi pour nous former et nous distraire. A ce propos, il faut souligner que l’arrivée de ces outils, couplés à la robotique collaborative (cobots), à l’intelligence artificielle, à la production additive en 3D, et sans doute à la possibilité d’accéder en ligne à la puissance de calcul quantique en réseaux, permettra également le télétravail dans l’industrie et la production matérielle, ce qui sera une révolution au moins aussi importante que le télétravail dans les services et le commerce. Si nous ne voulons pas que cette nouvelle ère du travail ubiquitaire et virtuel qui s’annonce soit entièrement placée sous le contrôle technologique, économique et politique des géants américains et chinois du numérique, nous devons absolument favoriser, au niveau européen, l’émergence de nouveaux acteurs numériques puissants qui soient en mesure de concevoir et de produire ces « bureaux virtuels personnels » qui seront demain notre seconde peau et dont l’usage deviendra aussi naturel que celui de l'Internet et de notre smartphone aujourd’hui. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | | | Les chercheurs japonais des universités de Nagoya et de Kyushu ont essayé d'exploiter l’énergie provenant du minuscule mouvement d’un liquide et ont mis au point un dispositif qui génère plus de 5 volts d’électricité directement à partir du mouvement d’une gouttelette liquide. Ce dispositif, constitué de films minces et flexibles, génère de l’électricité lorsque des gouttes d’eau glissent sur sa surface supérieure. Cette technologie pourrait être appliquée à des dispositifs auto-alimentés utilisés dans les liquides, notamment des capteurs contrôlant la qualité des eaux usées des usines. L’énergie générée par le minuscule flux de liquide existe dans divers environnements, comme à l’intérieur des tuyaux des usines, et dans les dispositifs à micro-fluides, mais ce type d’énergie n’a pas été utilisé efficacement jusqu’à présent. Il a été démontré qu’une feuille de graphène peut générer de l’électricité à partir du mouvement du liquide à sa surface. Cependant, sa tension de sortie est limitée à environ 0,1 volt, ce qui n’est pas suffisant pour faire fonctionner des dispositifs électroniques. Le groupe de recherche, composé d’Adha Sukma Aji de l’Université de Nagoya, de Ryohei Nishi et de Yutaka Ohno et Hiroki Ago de l’Université de Kyushu, a démontré que l’utilisation du disulfure de molybdène (MoS2) au lieu du graphène comme matière active dans le générateur permet de générer plus de 5 volts d’électricité à partir d’une gouttelette de liquide. « Pour utiliser le MoS2 pour le générateur, il a été nécessaire de former un film monocouche de MoS2 de grande surface sur un film plastique. Avec les méthodes conventionnelles, il était cependant difficile de cultiver le MoS2 de manière uniforme sur un substrat de grande surface », explique le professeur Ohno de l’Institut des matériaux et systèmes pour la durabilité de l’Université de Nagoya. Le générateur nouvellement développé est suffisamment flexible pour être installé sur la surface interne courbe de la plomberie, et devrait donc être utilisé pour alimenter les dispositifs IoT utilisés dans les liquides, tels que les pluviomètres auto-alimentés et les détecteurs de pluies acides, ainsi que les capteurs de qualité de l’eau qui peuvent générer de l’énergie à partir des eaux usées industrielles, tout en les surveillant. Selon le professeur Ohno, « notre nanogénérateur MoS2 est capable de récolter de l’énergie à partir de multiples formes de mouvements de liquides, notamment les gouttelettes, les pulvérisations et les vagues de la mer. Dans une perspective plus large, ce dispositif pourrait également être utilisé dans des applications impliquant l’hydrodynamique, comme la production d’électricité à partir des eaux de pluie et des chutes d’eau ». Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| L'une des grandes faiblesses de l'énergie solaire est sa nature doublement intermittente : elle n'est exploitable que le jour, et il y en plus des jours sans soleil. Mais une équipe d'ingénieurs de l'Université de Glasgow veut surmonter cet obstacle et travaille sur un projet visant à utiliser dans l'espace des réflecteurs qui pourraient rediriger la lumière du soleil vers des parties de la Terre situées dans l'obscurité - et ainsi permettre aux centrales solaires de fonctionner 24 heures sur 24. L'initiative, baptisée Solspace, vient de recevoir une subvention de 2,5 millions d'euros du Conseil européen de la recherche (CER) pour soutenir cinq années de recherche sur les moyens de faire en sorte que l'énergie solaire continue à circuler du crépuscule à l'aube. L'idée semble simple : de grands réflecteurs ultralégers en orbite autour de la planète réfléchiront la lumière du soleil sur de grandes fermes d'énergie solaire encore solidement ancrées sur Terre et qui fonctionneront normalement. Les réflecteurs augmenteront la production des fermes, en particulier au coucher et au lever du soleil, lorsque la production d'énergie diminue en raison du manque de lumière, alors que la demande augmente généralement de façon spectaculaire. Comme le souligne Colin McInnes, professeur de sciences de l'ingénieur à l'Université de Glasgow et fondateur du projet Solspace, « La mise en place d'un système opérationnel est manifestement à venir dans de nombreuses années mais le moment est venu d'explorer les technologies qui peuvent contribuer à étayer les systèmes d'énergie propre de l'avenir ». Actuellement, on estime que l'énergie solaire photovoltaïque fournit environ 600 TWh dans le monde, ce qui est à comparer à la production électrique mondiale, qui représente un peu plus de 2 % de la production électrique mondiale, qui est de l'ordre de 25 000 TWh par an. Cependant, selon la National Space Society, les technologies actuelles n'utilisent qu'une minuscule part de l'énergie solaire disponible dans l'espace, et le potentiel du soleil à fournir une énergie propre est encore largement inexploré. L'exploitation de ce potentiel fait l'objet d'études dans le monde entier depuis environ un demi-siècle. Parmi les premiers explorateurs de l'énergie solaire spatiale, on trouve les Russes qui, en 1993, ont lancé le projet Znamya, avec l'idée d'utiliser un miroir dans l'espace pour éclairer des points sur Terre avec une lumière équivalente à celle de plusieurs pleines lunes. Plus récemment, le Japon a dévoilé un plan sur 15 ans pour transformer l'énergie solaire dans l'espace en énergie utilisable sur Terre, mais le concept mis en avant par les chercheurs diffère légèrement de celui inventé par Colin McInnes. Au lieu de diriger la lumière du soleil vers des collecteurs situés à la surface de la planète, l'Agence japonaise d'exploration aérospatiale (JAXA) travaille au lancement de centrales électriques dans l'espace, qui transformeraient la lumière du soleil en micro-ondes en orbite, avant de renvoyer l'énergie produite vers la Terre sous la forme d'un laser. L'objectif de la JAXA est de construire une centrale électrique de 1 GW d'ici 2031, et de lancer une centrale électrique par an d'ici la fin des années 2030. Le gouvernement chinois, avec le même concept à l'esprit, espère lancer une centrale solaire basée dans l'espace qui puisse produire au moins 1 MW d'électricité d'ici 2030, et avoir une centrale à l'échelle commerciale dans l'espace d'ici les années 2050. Ces dernières années, des ingénieurs en aérospatiale de Glasgow ont également travaillé sur un projet multinational visant à envoyer de grandes structures énergétiques dans l'espace, pour produire de l'énergie solaire et la renvoyer ensuite sur Terre. Le coût du lancement des objets en orbite est suffisamment élevé pour expliquer pourquoi l'envoi de fermes d'énergie solaire dans l'espace n'est pas encore la nouvelle norme. Le projet Solspace est "tout à fait différent", a déclaré M. McIness, car la plupart des infrastructures des centrales resteront au sol, « l'infrastructure spatiale n'est constituée que de grands réflecteurs légers » a-t-il ajouté. La mise en orbite de grands réflecteurs, aussi légers soient-ils, s'accompagne toujours de coûts et d'obstacles techniques. C'est pourquoi l'équipe de M. McInnes étudie de nouvelles méthodes pour construire ces dispositifs directement dans l'espace. L'une des technologies qui se prête bien à cette idée est l'impression 3D. « Nous allons développer des méthodes pour fabriquer des réflecteurs ultra-légers en orbite, qui n'ont pas besoin d'être emballés puis dépliés après les rigueurs du lancement » a déclaré M. McInnes. « En fabriquant les réflecteurs en orbite, par exemple en adaptant les technologies d'impression 3D, nous pensons que des structures extrêmement légères peuvent être déployées ». La NASA a déjà testé des imprimantes 3D à bord de la Station spatiale internationale (ISS) afin de créer des composants et des fournitures pour des missions de longue durée. Cette solution technologie pourrait réduire considérablement le temps et le coût d'envoi des objets de la Terre aux astronautes. Toute la question est de savoir à quelle échéance la baisse des coûts de lancement et de construction de ces centrales solaires orbitales deviendra compétitive, par rapport aux énergies fossiles, mais également par rapport aux énergies renouvelables terrestres. Article rédigé par Georges Simmonds pour RT Flash UG | | | |
| Des chimistes du Centre interuniversitaire de recherche et d’ingénierie des matériaux (CIRIMAT/CNRS), et des universités d’Aalto (Finlande) et de Vienne (Autriche), ont mis au point un nouveau catalyseur, moins coûteux et plus performant, pour les réactions électrochimiques impliquant l’oxygène. Mettant en œuvre une association de nanotubes de carbone, de graphène et de métaux catalytiques, ce catalyseur est moins coûteux à produire et fonctionne aussi bien pour les étapes de consommation que de production d’oxygène, deux réactions essentielles à l’électrolyse de l’eau et au fonctionnement des piles à combustible. L'utilisation de l'oxygène dans les piles à combustible s'appuie sur la réduction de ce dernier (réaction de réduction de l'oxygène, ORR) et représente une alternative prometteuse aux énergies fossiles pour la production d'énergie électrique. La production d'oxygène (réaction d’évolution de l’oxygène, OER) est aussi concomitante de la production de l’hydrogène dans les électrolyseurs. Ces deux réactions de production et de consommation de l'oxygène sont toutefois très énergivores et nécessitent des catalyseurs performants pour que la technologie demeure rentable. « Les catalyseurs facilitent la mise en contact entre les réactifs et diminuent l'énergie et le temps nécessaires pour réaliser une réaction chimique. Ils permettent donc à la fois d'économiser de l'énergie et d'accélérer les réactions », explique Emmanuel Flahaut, directeur de recherche au CIRIMAT et co-signataire de la publication. Les catalyseurs actuellement utilisés sont composés essentiellement de métaux nobles comme l’iridium et le platine, très coûteux et ne fonctionnant que pour un seul type de réaction. Les chercheurs ont mis au point un nouveau catalyseur constitué d’atomes métalliques individuels dispersés sur des nanotubes de carbone et du graphène dopé à l’azote. Il est produit par synthèse en phase gazeuse. « Le cobalt et le molybdène sont tous deux utilisés pour la synthèse des nanotubes de carbone biparois. Ces deux métaux, qui ont une activité pour l’électrocatalyse, se retrouvent ainsi directement dispersés dans le produit final », précise Emmanuel Flahaut. Le carbone des nanotubes et du graphène provient de la décomposition de méthane et l’azote est incorporé par ajout d’une molécule organique, l’acétonitrile, qui est aussi un solvant très courant et peu onéreux. Ce matériau nanocomposite complexe, non seulement possède de meilleures performances par rapport aux catalyseurs classiques, mais peut également être utilisé à la fois dans les réactions OER et ORR. « Les performances accrues de ce nanomatériau sont sûrement liées à la répartition individuelle des atomes de métaux catalytiques. Ils peuvent être plus actifs qu’un ensemble d’atomes rassemblés en un agrégat sur lequel seuls les atomes à la surface jouent le rôle de catalyseur. Donc pour une même quantité d’atomes catalytiques, le matériau que nous avons mis au point est bien plus efficace », souligne Emmanuel Flahaut. Ce catalyseur associe nanotubes de carbone, graphène dopé à l’azote (en rouge) et atomes métalliques individuels (cobalt en vert, molybdène en bleu). Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | | |
| Des chercheurs de l’Institut Paul Scherrer PSI (Suisse) ont scruté l’intérieur d’un matériau prometteur pour les diodes organiques électroluminescentes (OLED). Cette substance présente un très bon rendement lumineux et sa fabrication à grande échelle serait peu coûteuse. Elle semble donc comme utile pour être utilisée dans des modules de grande surface d’illumination pour l’éclairage intérieur. Cela fait longtemps que les chercheurs sont en quête de matériaux présentant ces caractéristiques. Les nouvelles connaissances générées à ce sujet permettront à l’avenir de développer bientôt de nouveaux appareils d’éclairage à bas coût. Le composé en question est un solide jaunâtre. Lorsqu’on le dissout dans un liquide ou que l’on s’en sert pour enduire une électrode d’une couche mince avant d’appliquer un courant électrique, il émet une lumière verte intense. La raison : les molécules qui le composent absorbent l’énergie fournie, puis elles l’émettent à nouveau peu à peu sous forme de lumière. Ce processus est appelé électroluminescence. C’est sur ce principe que sont basées les diodes électroluminescentes. Cette substance est une candidate prometteuse pour la fabrication de diodes organiques électroluminescentes (OLED). Depuis trois ans environ, les OLED sont intégrées par exemple dans les écrans de smartphones. Aujourd’hui, les premiers écrans de télévision flexibles incluant ces matériaux arrivent sur le marché. Les OLED devraient aussi permettre l’avènement de modules de grande surface d’illumination pour l’éclairage intérieur. L’objectif de la recherche actuelle est de trouver des matériaux plus efficaces pour produire des écrans plus écologiques et peu coûteux, ainsi que des modules de grande surface d’illumination pour l’éclairage. Des progrès sont attendus de métaux bon marché et aisément disponibles comme le cuivre. Des chercheurs ont maintenant étudié en détail le composé de cuivre CuPCP. Au milieu de ces molécules, on trouve quatre atomes de cuivre entourés d’atomes de carbone et de phosphore. Le cuivre est un matériau relativement bon marché et le composé se prête bien à une production en grandes quantités, autrement dit, des conditions idéales pour une utilisation sur de grandes surfaces. Les mesures ont confirmé que, par sa structure chimique, cette substance était une bonne candidate pour les OLED. Les propriétés chimiques quantiques du composé rendent possible un très bon rendement lumineux. Notamment parce que la molécule est relativement rigide : sa structure tridimensionnelle ne change guère lors de l’excitation. Les chercheurs peuvent maintenant commencer à optimiser la substance pour l’utilisation dans des OLED. Article rédigé par Georges Simmonds pour RT Flash IPS | | | |
| Des chercheurs suédois de l’Université de technologie de Chalmers ont mis au point un nouveau matériau souple, élastique et biocompatible. La base de ce nouveau matériau est la même que celle du polyméthacrylate de méthyle, plus connu sous le nom de plexiglas. Ce dernier est déjà fréquemment utilisé dans le monde médical (prothèses dentaires, membranes d’hémodialyseurs, implants oculaires, etc.). Par une refonte complète de sa composition, l’équipe de scientifiques est parvenue à conférer à son produit une combinaison de propriétés unique. Il peut être rendu antibactérien de manière non toxique, en fixant de petites protéines du système immunitaire à sa surface. « La première application envisagée est la fabrication de cathéters urinaires », souligne Martin Andersson, professeur à l’université suédoise. Mais ses usages devraient s’étendre bien au-delà. Car le matériau peut être injecté sous forme liquide dans le corps d’un patient avant de prendre sa structure élastique. « Dans beaucoup de maladies, le cartilage d’un patient se détériore et la friction entre les os cause une douleur très importante, illustre le professeur. Ce matériau pourrait servir de cartilage de remplacement ». Un autre avantage de cette invention est qu’elle est constituée de nanopores pouvant être remplis de médicaments. Une caractéristique qui permettrait de réduire des inflammations et d’améliorer la guérison de certaines pathologies. Elle ouvre la voie à des traitements localisés, donc à la réduction des effets secondaires. Ses autres usages potentiels, qui s’étendent de la chirurgie esthétique à l’impression 3D, ont poussé les chercheurs à la faire breveter. L’équipe, qui a déjà levé plus de 6 millions d’euros en janvier et créé la start-up Amferia pour industrialiser la production d’un matériau antimicrobien, apporte ainsi un nouveau produit à son catalogue. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| Les météorites qui s’écrasent sur Terre renferment parfois des minéraux jusqu’alors inconnus, parfois plus anciens que le Système solaire, voire des protéines extraterrestres. La supraconductivité étant un sujet de recherche particulièrement prometteur aujourd’hui, une équipe de chercheurs de l’UC San Diego et du laboratoire Brookhaven de New York est partie en quête de matériaux supraconducteurs qui se seraient naturellement formés au sein de ces objets célestes. Certains matériaux – tels que le plomb, le mercure ou certains oxydes – affichent des propriétés physiques complètement différentes si on les place à très basse température (la plupart du temps proche du zéro absolu). Ils deviennent alors supraconducteurs, ce qui signifie d’une part qu’ils n’opposent plus aucune résistance au passage du courant électrique et d’autre part, qu’ils repoussent les champs magnétiques (c’est l’effet Meissner). Ce phénomène – découvert par le physicien néerlandais Heike Kamerlingh Onnes en 1911 – s’expliquerait par la formation de paires d’électrons, qui finissent par former une onde quantique unique se déplaçant sans résistance dans la matière (selon la théorie BCS). La plupart des éléments chimiques deviennent supraconducteurs à une température suffisamment basse, dite critique. Mais sur Terre, la supraconductivité à température ambiante n’existe pas. La température la plus élevée jamais atteinte pour observer le phénomène est de -23°C, un record qui a été obtenu à partir de l’hydrure de lanthane. « Les matériaux naturellement collectés ne sont pas des matériaux à phase pure. Même le minéral supraconducteur le plus simple, le plomb, n’est que rarement trouvé naturellement sous sa forme native », explique Ivan Schuller, l’un des auteurs de cette nouvelle étude sur les météorites. La supraconductivité fait donc l’objet de nombreuses recherches, car s’il était possible de l’obtenir dans des conditions standards, ou du moins aisément reproductibles, cela permettrait d’améliorer grandement tous les systèmes électriques d’aujourd’hui. James Wampler et son équipe se sont notamment intéressés à deux météorites : Mundrabilla, une météorite de fer de 22 tonnes trouvée en Australie en 1911, du groupe IAB et GRA 95205, et une uréilite (météorite pierreuse, contenant principalement des silicates) découverte en Antarctique en 1995. L’inconvénient des météorites est qu’elles sont très hétérogènes d’un point de vue chimique, leurs phases supraconductrices sont donc susceptibles d’être infimes et difficiles à détecter. Pour pallier le problème, l’équipe de Wampler a analysé les échantillons par spectroscopie micro-ondes modulée par champ magnétique (MFMMS). Les mesures révèlent des transitions supraconductrices dans chacun des échantillons, au-dessus de 5 K (soit -268°C). Les microfragments contenant le plus grand taux de supraconductivité ont été isolés, puis caractérisés grâce à diverses techniques : il s’avère qu’ils sont constitués d’un alliage de plomb, d’étain et d’indium. « Les matériaux supraconducteurs naturels sont inhabituels, mais ils sont particulièrement importants car ces matériaux pourraient être supraconducteurs dans des environnements extraterrestres », explique James Wampler. Article rédigé par Georges Simmonds pour RT Flash Science Alert | | | |
| La pile à combustible du futur sera constituée de composants… imprimés ! Dans les PEMFC (pile à combustible à membrane échangeuse de protons), les cellules convertissent l'hydrogène et l'oxygène de l'air en électricité et en chaleur. Les gaz sont acheminés jusqu'aux zones réactionnelles dans les canaux des plaques bipolaires. Les plaques bipolaires métalliques traditionnelles produites par emboutissage arrivant à leurs limites en terme de finesse de motifs, les chercheurs du CEA-Liten se sont tournés vers des techniques d'impression, plus souples. S'appuyant sur un savoir-faire développé au laboratoire, ils ont pour la première fois réalisé un empilement d'une puissance de 1 kWatt par assemblage d'une vingtaine de cellules comprenant des motifs imprimés, obtenus par sérigraphie d'encre à base de carbone. Les performances obtenues en termes de densités de puissance sont similaires à ce que l'on observe avec des plaques bipolaires métalliques. Mais l'utilisation de ces technologies d'impression, brevetées par le laboratoire, ouvre des perspectives d'amélioration très importantes : en réduisant la taille des motifs, il sera notamment possible d'améliorer encore la densité de puissance, pour atteindre, dans l'idéal, 6 kW/L. Article rédigé par Georges Simmonds pour RT Flash CEA | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Selon une étude internationale publiée dans la prestigieuse revue de l'Académie des Sciences des Etats-Unis (PNAS), sans action climatique, près de 20 % de la surface terrestre sera confrontée à des températures comparables à celles du Sahara contre moins de 1 % aujourd'hui. L'étude confirme que, sans effort supplémentaire contre le changement climatique, près de 3,5 milliards d'êtres humains vivront dans des conditions de chaleur extrêmes d'ici à cinquante ans. Un tiers de l'humanité dans des régions plus chaudes que le désert du Sahara… En étudiant l'impressionnante masse d'informations démographiques et de données sur l'utilisation des terres et sur le climat, qui sont devenues disponibles ces dernières années, les chercheurs se sont demandé quelles étaient les conditions climatiques de la vie humaine au cours des derniers millénaires, puis ils ont examiné dans quelles régions ces conditions devraient se produire à l'avenir. Résultats ? Les humains, tout comme la production de cultures et de bétail, sont en fait concentrés dans une bande climatique « étonnamment étroite », expliquent-ils : la plupart des habitants de la planète vivent dans des endroits où la température annuelle moyenne est d'environ 11 à 15°C, une « niche climatique ». Et ce, depuis 6.000 ans, en dépit de modes de vie radicalement bouleversés depuis la période mi-Holocène. Mais tout pourrait changer si les émissions de gaz à effet de serre continuent à augmenter et que rien n'est fait pour enrayer le phénomène. « En l'absence d'atténuation du changement climatique ou de migration humaine, la température ressentie par une personne devrait évoluer davantage au cours des prochaines décennies qu'elle ne l'a été au cours des six derniers millénaires », révèle l'étude, qui s'appuie notamment sur le scénario le plus pessimiste - celui du « business as usual » - des scientifiques du GIEC (estimation d'un réchauffement de l'ordre de 4,3°C en 2100). Dans cinquante ans à peine, près de 20 % de la surface de la Terre pourraient être concernés par ces conditions climatiques que l'un des coauteurs, Jens-Christian Svenning de l'Université danoise d'Aarhus, qualifie de « quasi invivables », contre 0,8 % actuellement. L'Inde, qui est amenée à devenir le pays le plus peuplé du globe, arrive en première ligne parmi les pays les plus menacés, devant le Nigeria. Le Pakistan, l'Indonésie, le Soudan, le Niger, les Philippines et le Bangladesh, seraient également très touchés. En France, la Guyane se retrouverait, elle aussi, hors de cette niche climatique. Tout n'est pas encore perdu, tempèrent les chercheurs. « La bonne nouvelle est que ces impacts peuvent être considérablement réduits si l'humanité réussit à freiner le réchauffement », indique ainsi Tim Lenton, directeur du Global Systems Institute de l'Université d'Exeter. Article rédigé par Georges Simmonds pour RT Flash PNAS | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des chercheurs suédois de l'Université de Göteborg ont identifié un nouveau gène, résistant aux antibiotiques et qui ne ressemble à aucun autre gène connu. L'équipe de chercheurs a nommé le gène “gar” parce qu’il offre une résistance aux antibiotiques aminoglycosides. La découverte de ce nouveau gène résistant offre de nouvelles perspectives de traitements efficaces. Si ce gène était déjà connu, personne n’avait réalisé qu'il s'agit d'un gène de résistance. « C'est une bonne nouvelle car le gène gar semble encore assez rare mais comme il se propage, il compliquera probablement le traitement de bactéries déjà multi-résistantes », s’enthousiasme Joakim Larsson, auteur principal de l'étude et directeur du Center for Antibiotic Resistance Research de l'Université de Göteborg (Suède). Pour découvrir ce gène, les chercheurs ont recherché de nouveaux gènes de résistance dans les rivières touchées par les eaux usées en Inde, un pays déjà aux prises avec l'augmentation de la résistance aux antibiotiques. « La découverte précoce des gènes de résistance peut nous aider à gérer leur propagation, faciliter les diagnostics génétiques et peut-être aussi guider l'industrie pour développer des médicaments qui peuvent contourner la résistance », développe Joakim Larsson. La découverte de ce nouveau gène démontre les limites des antibiotiques. « Chaque antibiotique que l'humanité a développé jusqu'à présent a finalement rencontré une résistance à au moins certains des agents pathogènes qu'elle était censée traiter. Le gène gar est juste le dernier d'une série de gènes qui, un par un, réduit la valeur des antibiotiques », rapporte Joakim Larsson. Pour mieux comprendre la résistance aux antibiotiques, les chercheurs ont étudié le rôle de l'environnement, en particulier en tant que source de gènes de résistance qui peuvent passer d'espèces environnementales inoffensives à celles qui causent des maladies. « L'énorme diversité de bactéries dans l'environnement qui nous entoure héberge probablement déjà des gènes pour chaque antibiotique que nous développerons, à moins que nous commencions à penser différemment à la façon dont les antibiotiques sont conçus », conclut Joakim Lars. Article rédigé par Georges Simmonds pour RT Flash Microbiome | | | |
| Des chercheurs de l’Université de Californie – Los Angeles (UCLA) ont montré que la trifluopérazine, un médicament bien connu, utilisé dans le traitement de la schizophrénie, combiné à la radiothérapie, est extrêmement prometteur dans le traitement des tumeurs cérébrales mortelles. Le glioblastome est l'une des tumeurs cérébrales les plus mortelles et les plus difficiles à traiter. Mais cette équipe de l’UCLA a montré, chez la souris modèle de glioblastome, qu’un médicament utilisé autrefois pour traiter la schizophrénie (la trifluopérazine), combiné à la radiothérapie, permet de prolonger la survie. Précisément, l’antipsychotique trifluopérazine cible non seulement les cellules du glioblastome, mais réduit leur résistance au traitement, une résistance fréquente dans cette forme agressive de cancer. Ces résultats sont très prometteurs pour les patients atteints de la maladie, pour lesquels la durée médiane de survie n'est que de 12 à 18 mois après le diagnostic. La radiothérapie fait partie intégrante de la prise en charge de ce cancer et est reconnue comme l’une des options les plus efficaces. Cependant, dans de nombreux cas, les cellules de glioblastome deviennent résistantes à la radiothérapie parce que le rayonnement lui-même peut induire une « conversion du phénotype », un processus qui transforme certaines cellules souches non tumorales en cellules productrices de tumeurs, ce qui favorise la recrudescence du cancer. Chez la souris modèle de tumeurs très agressives, les chercheurs expliquent que si la radiothérapie prolonge la survie, elle ne traite que très peu la maladie. L’auteur principal de l'étude, le Docteur Frank Pajonk, professeur de radio-oncologie à l'UCLA et membre du Jonsson Cancer Center, explique : « Le médicament trifluopérazine en soi ne fait pas grand-chose non plus, mais en revanche, la combinaison trifluopérazine et radiothérapie est très efficace : le médicament ne sensibilise pas les cellules aux radiations mais empêche plutôt l'apparition de cellules souches de gliome résistantes ». Pour parvenir à cette combinaison thérapeutique, les chercheurs ont regardé s'il existait des médicaments capables d’interférer avec la conversion du phénotype induite par les radiations. L'équipe a ainsi criblé plus de 83.000 composés puis en a identifié près de 300, dont la trifluopérazine. Cet antagoniste des récepteurs de la dopamine était déjà documenté pour bloquer la conversion du phénotype et améliorer l'efficacité de la radiothérapie. Testée sur des souris atteintes de tumeurs dérivées de patients, utilisée en combinaison avec les rayonnements, la trifluopérazine retarde avec succès la croissance des tumeurs et prolonge considérablement la survie globale des animaux : plus de 200 jours vs 68 jours pour le groupe témoin n’ayant reçu que la radiothérapie. Alors que de nombreuses études précliniques sur le glioblastome font état d'une augmentation assez faible de la survie globale chez ces modèles animaux, qui se traduisent rarement par des avantages pour les patients, ici ces effets assez drastiques dans l'amélioration de la survie globale pourraient suggérer de vrais bénéfices pour les patients. Les essais cliniques sur l'homme de cette combinaison thérapeutique devraient commencer cet été. Article rédigé par Georges Simmonds pour RT Flash PNAS | | | |
| Des scientifiques américains de l'Université de Berkeley (Californie) qui explorent les liens entre la génétique, le microbiome intestinal et la mémoire, ont découvert, chez la souris, une molécule couramment produite par les microbes intestinaux et qui semble améliorer la mémoire. Avant de rechercher des molécules pouvant être impliquées dans l'amélioration de la mémoire, l’équipe a regardé comment la génétique influence la mémoire. Durant cette première étape, menée sur 29 souches différentes de souris représentatives de notre diversité génétique et physique, les chercheurs sont parvenus à corréler certaines variations génétiques spécifiques aux niveaux de mémoire. 2 ensembles de gènes semblent particulièrement associés à la mémoire : un nouvel ensemble de gènes impliqué dans la cognition et un ensemble de gènes déjà connu. Les chercheurs ont fait le même travail pour associer microbiome et mémoire : ils identifient alors 4 familles de microbes associées à une mémoire améliorée. La bactérie la plus commune parmi ces familles identifiées est une espèce de Lactobacillus, L. reuteri. Des souris privées de microbiote qui reçoivent L. reuteri présentent une mémoire significativement améliorée. C’est aussi le cas avec l'une des deux autres espèces de Lactobacillus. Ces résultats suggèrent que certaines variations génétiques contrôlent la mémoire en grande partie, mais que des différences dans la composition du microbiote intestinal peuvent également influer sur la performance cognitive. L'alimentation et les probiotiques pourraient-ils permettre de stimuler la mémoire ? Oui, suggèrent ces scientifiques qui identifient les molécules liées aux microbes qui pourraient être impliquées dans l'amélioration de la mémoire. Lorsqu’ils analysent les selles, le sang et le tissu cérébral de souris exemptes de germes ayant reçu une espèce spécifique de Lactobacillus, ils constatent des niveaux plus élevés de lactate, un sous-produit moléculaire courant du métabolisme. Et le lactate permet bien d’améliorer aussi la mémoire des souris ! Reste à vérifier la présence du même mécanisme moléculaire chez l'Homme, mais cette étude renforce le concept que l'alimentation, la génétique et certaines fonctions cérébrales, comme la mémoire, sont bien connectées. Ces travaux confirment le lien entre cerveau et le microbiome, le fameux « axe-intestin cerveau ». Article rédigé par Georges Simmonds pour RT Flash BMC | | | |
| Une étude anglaise a confirmé la puissance addictive du tabac et montré que le taux de conversion entre première cigarette et tabagisme quotidien est très élevé, 69 % ! Ces travaux permettent d'expliquer cette difficulté. Comprendre également les piètres résultats des essais d’arrêt du tabac avec 80 % de rechutes à un an malgré gomme, patch et autres médicaments. Tout d’abord, il n’y a pas que la nicotine qui crée la dépendance : dans la fumée, des milliers d’autres agents d’aromatisation comme la réglisse, les sucres, le menthol ou l'ammoniaque favoriseraient l’installation et le maintien de la dépendance. Pire, pour certains scientifiques, ces fumées agréables décupleraient le potentiel d’addiction de la nicotine. Et cette propriété serait plus marquée chez certains que chez d’autres où le tabac deviendrait alors aussi attractif que l’héroïne, la cocaïne ou l’alcool. Article rédigé par Georges Simmonds pour RT Flash NTR | | | |
| Un médicament déjà homologué pour le traitement des cancers du sein et des ovaires s'est avéré également efficace chez certains hommes atteints du cancer de la prostate à un stade avancé. En effet, une équipe de chercheurs internationale a analysé les effets de l'olaparib, un médicament capable de s'attaquer à un talon d'Achille du cancer de la prostate, tout en épargnant les cellules saines. En ciblant génétiquement le médicament, les scientifiques se sont concentrés sur les hommes ayant un ou plusieurs gènes de réparation de l'ADN défectueux. Ainsi, l'étude souligne qu'il est indispensable d'identifier différents groupes de patients en fonction de leur génétique et d'adapter le traitement en conséquence. Pour mener à bien leurs travaux, les chercheurs ont suivi 387 hommes atteints d'un cancer de la prostate avancé et présentant des altérations dans un ou plusieurs des 15 gènes de réparation de l'ADN. Résultat : l'olaparib a considérablement retardé la progression de la maladie. En moyenne, le délai avant l'aggravation du cancer était de 5,8 mois, contre 3,5 mois avec un traitement hormonal ciblé. Autre donnée encourageante : les effets indésirables les plus fréquents ont été l'anémie et les nausées, déjà associées au médicament dans le passé. Selon les scientifiques, il s'agit d'un traitement bien toléré, beaucoup plus doux que la chimiothérapie. Ils notent cependant qu'un suivi plus long sera nécessaire pour démontrer de manière concluante une optimisation de la survie. « Nos résultats montrent que l'olaparib peut surpasser les traitements hormonaux ciblés chez certains hommes atteints d'un cancer de la prostate à un stade avancé », assure le professeur Johann de Bono, co-auteur de l'étude et professeur à l'Institute of Cancer Research, à Londres. « Ces découvertes majeures signifient que l’olaparib est désormais appelé à devenir le tout premier médicament génétiquement ciblé pour la maladie », estime pour sa part le professeur Paul Workman, directeur général de l’Institute of Cancer Research. À présent, les scientifiques espèrent que l'olaparib devienne disponible dans le système de santé publique du Royaume-Uni dans les années à venir. Ensuite, ils chercheront comment combiner l'olaparib avec d'autres traitements. « Cela pourrait aider les hommes atteints d'un cancer de la prostate et ayant des gènes de réparation de l'ADN défectueux à vivre encore plus longtemps », estime Johann de Bono. Autre objectif : prévenir et surmonter la résistance aux médicaments. Article rédigé par Georges Simmonds pour RT Flash NEJM | | | |
| Des chercheurs japonais de l'Université d'Osaka ont développé une technique permettant de guérir les insuffisances cardiaques par pulvérisation de cellules souches directement sur le cœur du patient. « Les cellules peuvent être greffées de façon très simple avec cette méthode sans endommager le cœur » a annoncé le Professeur Yoshiki Sawa qui dirige ses recherches. Un essai clinique pour confirmer la sûreté et l’efficacité de cette technique a débuté en novembre, ciblant six individus atteints de cardiomyopathie ischémique. Les cellules pulvérisées sont des cellules souches mésenchymateuses obtenues à partir de tissus adipeux d’individus sains. Ces cellules produisent une substance stimulant la reconstruction des vaisseaux sanguins. Les cellules collectées ont été cultivées en masse puis congelées pour stockage. Elles ont été décongelées avant la chirurgie cardiaque et mélangées dans une seringue à du matériel simili-adhésif pour que la substance finale puisse être pulvérisée par les chirurgiens sur le surface du cœur du patient pendant l’opération. La substance pulvérisée devrait aider à régénérer les vaisseaux sanguins fins. Par ailleurs, le flux sanguins dans les gros vaisseaux est amélioré par la chirurgie. Cela permet l’augmentation de l’afflux sanguin dans le cœur affaibli, améliorant ainsi les performances cardiaques. L’administration de cellules souches par la technique de pulvérisation peut être rapidement effectuée (quelques dizaines de secondes) et les cellules récupérées chez les individus sains sont d’excellente qualité. Comme cette thérapie ne nécessite aucun équipement particulier, la technique de pulvérisation peut facilement être utilisée dans de nombreux centres médicaux quelle que soit leur localisation. Article rédigé par Georges Simmonds pour RT Flash AS | | | |
| C'est bien connu, la musique adoucit les mœurs. Mais elle permettrait aussi de réduire sensiblement les risques de récidive, pour les patients ayant fait une crise cardiaque. Pour en arriver à cette conclusion, des chercheurs de l'Université de Belgrade ont suivi 350 personnes ayant subi une crise cardiaque et souffrant d'angine de poitrine post-farctus, pendant sept ans. Au cours de cette période, la moitié des participants a reçu un traitement traditionnel seulement et l’autre trente minutes de musicothérapie par jour en plus. Dans ce groupe, les chercheurs ont fait écouter à chacun des clips de trente secondes de différents types de musique afin d’identifier quel genre apaisait la personne en fonction de la dilatation de ses pupilles. Après quoi, les scientifiques ont travaillé avec chaque participant pour sélectionner le tempo et la tonalité les plus relaxants pour lui. Ils ont ensuite demandé aux volontaires d’écouter cette musique pendant trente minutes par jour, à n'importe quelle heure mais de préférence les yeux fermés dans un environnement calme, et de raconter leur expérience dans un journal de bord. Les chercheurs ont suivi les deux groupes pendant trois mois au cours de la première année de l’étude puis une fois par an le reste du temps. A la fin de l’expérience, ils ont pu constater que les personnes qui avaient bénéficié d’une thérapie médicale en plus des traitements classiques avaient moins tendance à ressentir de l’anxiété et des sensations de douleur. Dans le détail, le groupe soumis à la musicothérapie présentait un tiers d’anxiété et un quart de douleur angieuse au moins que l’autre. Mais surtout, les personnes traitées par la musique étaient moins susceptibles de souffrir de problèmes cardiaques : -18% d’insuffisance cardiaque, -23% de crises cardiaques, -20 % de besoins en pontage coronarien et -16 % d'incidence de décès cardiaque. « Une anxiété non soulagée peut produire une augmentation de l'activité du système nerveux sympathique, entraînant une augmentation de la charge de travail cardiaque », explique le professeur Predrag Mitrovic, de la faculté de médecine de l'Université de Belgrade (Serbie). « Sur la base de nos conclusions, nous pensons que la musicothérapie peut aider tous les patients après une crise cardiaque, et pas seulement les patients souffrant d'angine de poitrine post-farctus précoce. Elle est également très facile et peu coûteuse à mettre en œuvre », poursuit-il. Article rédigé par Georges Simmonds pour RT Flash ACC | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|