Overblog Suivre ce blog
Administration Créer mon blog
2 novembre 2016 3 02 /11 /novembre /2016 08:37

Dossier Pour la Science N°90 – Janvier-Mars 2016

 

Alain DORESSOUNDIRAM

 

Quatre planètes telluriques tournent autour du soleil (Mercure, Vénus, La Terre, Mars) suivi par la ceinture principale, puis viennent les géantes gazeuses : Jupiter, Saturne, Uranus et Neptune. Au delà, les objets transneptuniens dans la ceinture de Kuiper, plus loin encore se trouverait le nuage d'Oort.

Deux modèles expliquent l'évolution et la disposition du Système solaire. Le Grand Tack explique ses 50 premiers millions d'années alors que les planètes se forment, le Nice, à partir de 500 millions d'années s'applique aux planètes alors formées et le gaz dispersé.

Revenons au Grand Tack. Les embryons de planètes, gazeuses, se condensent dans la nébuleuse protoplanétaire. Jupiter se forme rapidement alors que des corps commencent à se solidifier pour atteindre un millier de kilomètres de diamètre. Elle se déplace, se rapprochant du soleil, entraînant avec elle des astéroïdes riches en eau et en matière organique, tassant la matière dans un petit espace avant que Saturne ne vienne l'en éloigner, jusqu'à ce que, le gaz se dissipant, elles s'arrêtent. Les astéroïdes apportés par Jupiter ont pu apporter l'eau sur la Terre. Ce modèle explique qu'à cette époque se formèrent les quatre planètes les plus proches de notre étoile. Celui de Nice met en scène le déplacement des quatre planètes géantes alors que les gaz se sont dissipés. Neptune s'enfonce dans la ceinture de Kuiper, repoussant celle-ci encore plus loin. Il explique la présence des satellites ''troyens'' qui suivent Jupiter et apporte une solution à une énigme : le bombardement actif. Celui-ci, intervint 600 millions d'années après la formation de la Terre et l'aurait affecté bien que ses traces aient disparu.

Tous les objets célestes ne se sont pas agrégés pour former des planètes, les comètes et les planètes existent encore, témoins des premiers instants de la formation du Système solaire. Ayant conservé leurs conditions (température, pression, chimie...) qui existaient alors. Les étudier c'est remonter le temps, le nôtre.

Autre avantage de les étudier, apprendre à les dévier pour éviter le sors des dinosaures il y a 66 millions d'années. Le risque pour minimum qu'il soit reste possible.

Pourquoi ne pas utiliser ceux qui tombent sur la Terre direz-vous ? La matière qu'ils contiennent est souvent contaminée, leur taille trop réduite et leur nombre trop bas. C'est pourquoi il est préférable d'aller prélever des échantillons d'astéroïdes.

Les petits corps sont grands par la richesse des phénomènes et des histoires qu'ils nous racontent. Nous sommes, en partie, le fruit de leur diversité !

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
30 septembre 2016 5 30 /09 /septembre /2016 08:00

Science & Santé 1112

 

Même l'analyse d'images obtenues par résonances magnétique évolue. La start-up grenobloise Pixyl, issue de l'Inserm et d'Inria, et fondé par Michel Dojat, Florence Forbes et Senan Doyle, a conçu une solution informatique qui localise, identifie et quantifie, avec rapidité et précision, les lésions cérébrales, signes de maladies telles que sclérose en plaque, tumeurs cancéreuses, traumatismes crâniens et AVC.

Depuis sa création, il y a 40 ans, l'IRM a progressé. À l'époque, seuls des échantillons de petites tailles étaient visibles, aujourd'hui, en cinq minutes, des images du cerveau en 3D sont réalisables sans produit de contraste. Le problème était que les informations contenues dans les clichés n'étaient que partiellement exploités. Pixyl apporte la solution informatique en segmentant automatiquement, et rapidement, une image et en identifiant et étiquetant chaque pixel volumétrique (voxel).

Tout a commencé avec la rencontre de Florence Forbes et Michel Dojat. Ce dernier, ingénieur, travaillait sur l'imagerie médicale. En 2006 il découvre une publication de la première qui avait mis au point les techniques mathématiques pour détecter des objets fins, comme des lignes, dans des images qui n'avaient rien à voir avec le médical. Il prend donc contact avec elle pour les utiliser dans son domaine, notamment pour visualiser les sillons cérébraux dans les IRM. Deux ans plus tard ils sont rejoint par un jeune ingénieur en génie électronique et informatique, Senan Doyle, qui effectue son post-doctorat à Inria en collaboration avec le Grenoble Institut des Neurosciences (GIN). La thématique de ses recherches étant la segmentation des lésions cérébrales à partir des images IRM dans la sclérose en plaque et les AVC.

Résultat de recherche d'images pour "avc"

Une paire d'année passe encore et le trio participe à un essai dans le cadre du Programme hospitalier de recherche clinique Hermès. Cet essai vise à suivre l'évolution des lésions de patients victimes d'AVC. C'est l'opportunité pour eux de tester la première version de leur programme, ils l'amélioreront grâce aux retours des chercheurs.

L'intérêt de leur programme est flagrant aussi pensent-ils à le commercialiser. N'obtenant pas de réponse positives des fournisseurs d'IRM ils décident en 2011 de créer leur entreprise et intègrent l'incubateur Gravit, devenu depuis GIFT (Grenoble alpes Innovation Fast Track).

Leurs travaux avancent grâce aux infrastructures qui les entourent. Ils déposent la première version testée et validée de leur logicien à l'Agence pour la protection des programmes en 2014. en novembre de la même année ils gagnent le prix ''en émergence'' décerné par Bpifrance.

Les trois chercheurs déposent les statuts de Pixyl en mars 2015.

l'activité de la jeune entreprise est importante, son programme tourne dans le cadre d'un autre programme hospitalier de recherche clinique (OxyTC) piloté par Jean-François Payen qui travaille sur les lésions cérébrales suite à un traumatisme crânien. Les résultats permettront de valider le logiciel au niveau national sur ce type de lésion. Mais la jeune spin-off vise une commercialisation internationale et poursuit le développement de son logiciel qu'elle souhaiterait utiliser via le cloud afin de réduire encore le temps de traitement par image. L'objectif de Pixyl est d'améliorer le logiciel jusqu'à ce qu'il puisse effectuer des diagnostics en temps réel.

L'important, bien sûr, étant de n'en avoir jamais besoin !

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
23 septembre 2016 5 23 /09 /septembre /2016 07:28

Science & santé 1112 

 

Le nombre de Français concernés par une maladie chronique est d'environ 15 millions, et certains sont concernés par plusieurs. La prise en charge s'avère complexe, additionner les traitements n'étant une solution qu'en apparence.

 

Une affection chronique fragilise un individu et le rend plus apte à en développer une autre. La qualité de vie en souffre par la survenue d'incapacités et de dépendances qui doivent être pris en charge avec les conséquences sociales que l'on connaît.

 

Nous l'avons vu, l'abus de médicaments est une mauvaise solution par le risque d'interactions, de contre-indications et de non-observance. Les généralistes sont en première ligne, fondant leurs prescriptions sur des recommandations édictées par les sociétés savantes ou les tutelles sanitaires comme le dit Pascal Clerc. Mais chacun de ces textes concerne une maladie précise, lorsque le patient est polypathologique les recommandations peuvent devenir difficiles parce que les médicaments préconisés pour chacune sont incompatibles. Optimiser les prescriptions est possible mais demande un travail d'équipe qu'un généraliste ne peut faire. La vision des affections d'un patient doit être globale, holistique et transversale, prenant en charge ses attentes et sa psychologie. Les alternatives non médicamenteuses doivent être mieux intégrées.

 

Il faut prendre en compte les composantes biopsychosociales du patient pour améliorer son pronostic, se pencher sur la multimorbidité plutôt que la polypathologie. Pour aider les praticiens à réaliser la transition, le réseau européen de recherche en médecine générale (EGPRN) a récemment déterminé des axes de travail. Nous avons listé 80 variables pour décrire les patients multimorbides : âge, maladie, niveau de revenu, contexte social... décrit Jean-Yves le Reste. L'idée du EGPRN serait d'intégrer ces paramètres aux logiciels d prescription afin que le médecin soit mis en garde selon le propre niveau de risque du patient. Une façon de faire le lien entre le risque statistique, et le risque individuel, et de permettre au médecin de prendre le recul nécessaire à son patient. 

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
15 septembre 2016 4 15 /09 /septembre /2016 08:00

Science & santé 1112 

 

Ne revenons pas dessus, la réchauffement de la planète est une réalité. En 2012 la température globale moyenne était de 0,85° C supérieure à celle de 1880. les conséquences – fonte des glaces, montée des mers et changements climatiques – menacent non seulement la biodiversité mais aussi notre santé avec des effets qui pourraient devenir catastrophiques. L'OMS prévoit pour 2030 250 000 décès par ans dus principalement à la malnutrition, le paludisme, la diarrhée, le stress thermique...

La première certitude est l'augmentation de la fréquence et de l'intensité des vagues de chaleur qui sont associés à une augmentation de l'exposition au rayonnement ultraviolet qui accélèrent le vieillissement de la peau, augmentent le risque de cancers de la peau, qui engendrent cataractes corticales et baisse de la vue causée par l'opacification du cristallin.

 

L'augmentation globale des température favorise l'évaporation qui devrait provoquer une augmentation des précipitations dans les régions humides, avec un risque d’inondations et de crus, notamment sur les sols très urbanisés. Elles favoriseraient glissement de terrains, coulées de boues et submersions côtières causées par la conjonction de tempêtes et de grandes marées. Le niveau de la mer est monté de 19 centimètres entre 1901 et 2010, elle pourrait atteindre 90 centimètres à la fin du siècle.

L'humidité résiduelle favorise le développement de moisissures qui peuvent déclencher des allergies respiratoires et exacerber d'autres maladies de l'appareil respiratoire, principalement l'asthme et la bronchopneumopathie. L'air même est affecté par le changement climatique, les températures élevées accroissent l'évaporation dans la basse atmosphère de solvants comme les carburants et d'autres composés organiques volatiles, précurseurs de la pollution à l'ozone et favorisant la formation de particules fines. De nombreuses fonctions chimiques se greffent sur ces composés qui, devenus moins volatils, se condensent en particules. La sécheresse multiplie les feux de forêts qui engendrent nombre d'aérosols dans l'atmosphère. Certains ont un diamètre assez petit pour pénétrer dans nos bronches avec le risque d'aggravation ou de déclenchement de maladies chroniques graves. La pollution dans son ensemble a d'ailleurs été déclarée cancérigène en octobre 2013 par le Centre international de recherche sur le cancer.

Résultat de recherche d'images pour "pollution"

À ce tableau il convient d'ajouter la croissance accrue des plantes et, conséquemment, la production de pollen qui deviennent plus allergisants, modifiés qu'ils sont par leur contact avec les polluants qui amoindrissent leur membrane externe. Certaines plantes profiteront de la température pour proliférer et envahir des territoires qu'elles n'avaient pu contaminer auparavant. Les plantes ne seraient pas seules à profiter de ces changements, les insectes en tireraient bénéfices également, surtout les pires. Le moustique tigre par exemple, vecteur de maladies longtemps limitées aux tropiques qui commencent à trouver un terrain favorable chez nous, avertissement d'une situation qui ne fera que s'aggraver.

Il reste possible d'agir, ou de se nourrir de l'illusion que c'est possible. Le pire n'est jamais sûr, du moins jusqu'à ce qu'il soit là et laisse devenir un avenir tel que ce présent n’apparaît pas si redoutable. Vivre autrement, consommer autrement, produire autrement...

Notre société vaut-elle d'être sauvée ? Notre espèce le mérite-t-elle, le désire-t-elle tout simplement ? La bêtise seule est-elle cause d'un comportement aussi toxique ?

 

Heureusement, je n'ai pas de réponses, si c'est votre cas...

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
8 septembre 2016 4 08 /09 /septembre /2016 07:02

Science & Santé 1112

 

Intestins et cerveau semblent de plus en plus avoir partie liée et, ainsi, influencer nos vies dans bien des domaines. Une nouvelle science, la psychomicrobiotique, explore les effets de nos bactéries intestinales dans l'émergence de troubles psychiatriques et a déjà à son actif quelques découvertes surprenantes.

La flore de notre microbiote intestinal est composé de 800 à 1000 espèces de bactéries, celles-ci ne pouvant être cultivées en laboratoire leur existence fut longtemps ignorées. La métagénomique, qui permet une analyse globale des génomes des bactéries intestinales à grand échelle a tout changé, ainsi que nous le rappelle Pierre-Marie Lledo. De mieux en mieux caractérisés, les micro-organismes de l'intestin suscitent un intérêt grandissant. En plus des fonctions de maturation du système immunitaire ou des liens établis avec diverses maladies associées (allergie, obésité, diabète...) il apparaît que le microbiote agit également sur le cerveau en ''piratant'' le dialogue entre l'intestin et le système nerveux central. Jusqu'à favoriser certaines troubles psychiques.

 

Des travaux menés au Japon en 2004 montraient que des souris axéniques, dépourvues de microbiote intestinal, présentaient une hypersensibilité au stress. Tendance à l'anxiété et à la dépression également observée dans le laboratoire de Pierre-Marie Lledo, mais que des germes soient réintroduits dans leur système digestif et elles s'activent à nouveau et adoptent un comportement normal. Pour vérifier si l'inverse était vrai les chercheurs de l'institut Pasteur ont induit un état de stress chronique chez des rongeurs provoquant une modification de la population de certaines bactéries. Un transfert de microbiote des souris stressées aux souris saines a démontré qu'il influençait l'état de ces dernières. Une nouvelle hypothèse est apparue : certains troubles psychiques seraient transmissibles d'un individu à l'autre, par voie orale. À l'inverse la flore intestinale pourrait aider à atténuer les troubles. Un traitement psychiatrique conventionnel pourrait être amélioré d'être combiné avec des probiotiques, avance PML, et même espérer pouvoir se libérer des anxiolytiques, en agissant sur le microbiote.

Il reste à déterminer comment agissent les bactéries. En plus de la voie nerveuse, via le nerf vague, la circulation sanguine est présentée comme une des principales voies d'activation. Certaines molécules libérées par les bactéries passeraient par le sang pour atteindre le cerveau. Autre voie d'exploration : le système immunitaire. Cette dernière hypothèse a la faveur de l'équipe du professeur Lledo.

Outre les troubles anxieux ou bipolaires d'autres affections psychiatriques sont ciblées par la psychomicrobiotique. Guillaume Fond, psychiatre à l'hôpital Henri-Mondor et chercheur à l'Inserm, envisage d'analyser la flore intestinale de patients autistes et schizophrènes. Il espère mettre en évidence des marqueurs biologiques qui confirmeraient une anomalie du microbiote et une prédisposition à des troubles psychiques.

 

Les bactéries intestinales nous réservent bien des surprises.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
2 août 2016 2 02 /08 /août /2016 08:04

La Recherche Hors-Série 14

 

(Ève Eleinein)

La foudre rétablit l'équilibre électrostatique entre le sol et un nuage d'orage. Les paratonnerres protègent les bâtiments en évacuant l'énergie dans le sol mais ils ne peuvent rien contre les dommages sur les installations électriques environnantes. L'idéal serait de déclencher la foudre avec un laser pour la guider loin des installations sensibles. Le laser Téramobile utilisé par l’équipe de Jérôme Kasparian remplit ce rôle au moyen d'impulsions de l'ordre de la femtoseconde. La faisceau de forte intensité modifie l'indice de réfraction du milieu qu'il traverse avec un effet de lentille qui focalise la lumière vers le centre du faisceau formant un plasma composé d'ions et d'électrons libres susceptibles de générer des filaments électriquement chargés pouvant conduire la foudre sur plus d'un kilomètres.

Une technologie à finaliser, aucune raison pour que que cela ne se fasse pas très bientôt.

Le laser est une arme que la fiction apprécie, la réalité, jalouse, veut la rattraper. Les USA et la Chine travaillent dans ce but, les premiers ayant, pour le moment, une longueur d'avance. L'air force avec le programme Airborne Laser disposait d'un avion équipé d'un laser capable de détruire un missile en phase de propulsion, le projet, trop ambitieux et trop couteux, fut revu à la baisse avec des lasers moins puissants, plus adaptés aux champs de bataille. La Navy développe un Laser Weapon System, capable de détruire des drones ou des embarcations légères. Celui-ci est en phase de test dans le Golfe Persique.

Arme présentant de nombreux avantages, utilisable à volonté pour un coût marginal ; réactif puisque se déplaçant à la vitesse de la lumière, discret, et d'une intensité modulable. Mauvais point : un laser capable de transpercer la tôle d'un avion est inefficace face à un tank, il est aussi sensible aux conditions météorologiques, les nuages, diffusant la lumière, rendent le faisceau inefficace. Sans oublier la réflexion susceptible de causer des dégâts collatéraux.

Faisons confiance à l'inventivité des chercheurs !

Un domaine plus pacifique : la chirurgie. Le laser est utilisé depuis les années 1980 en ophtalmologie, pour corriger la myopie ou l'hypermétropie. À cette époque la découpe préalable de la surface de la cornée nécessitait le geste du chirurgien. Le laser femtoseconde a ouvert de nouvelles perspectives. Sa puissance suffit à couper le tissu, la brièveté de son impulsion, évitant tout échauffement, pallie le risque d'endommager les zones alentour. Depuis quelques années le laser est utiliser pour soigner la cataracte, il détruit la partie intérieure, opacifiée, en laissant intacte la capsule intérieur. Il pourrait régler les problèmes de presbytie qui touche les personnes de plus de 45 ans.

La lumière permet d'observer les confins de l'Univers, elle permet aussi de rendre visible l'infiniment petit. La microscopie délivre des images exceptionnelle.

Le modèle originel de microscope optique, inventée à la fin du XVIIe contenant deux systèmes de lentilles disposés le long d'un tube vertical. Un rayon lumineux éclaire l'échantillon puis frappe l'objectif qui grossit l'image et l'inverse. Un microscope en champ sombre, qui laisse l'arrière-fond sombre, permet des images claires et contrastées. Il existe des microscopes à contraste interférentiel ; cofocaux, pour observer un organisme dans son épaisseur ; en fluorescence, etc

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
29 juillet 2016 5 29 /07 /juillet /2016 07:21

La Recherche Hors-Série 14

(Lise Barnéoud)

Les travaux d'arasement ont débuté sur le mont Cerro Armazones. D'ici dix ans les astronomes du monde entier seront concernés par E-ELT, le Télescope géant européen, dont la construction, après dix-huit ans de tergiversation, vient d'être décidé. Avec son miroir de 39,3 mètres de diamètre, celui-ci capturera quinze fois plus de lumière que les plus grands télescopes actuels. Une surface qui nécessitera des systèmes complexes et inédits de correction de turbulences de l'atmosphère. S'il fallut autant d'année pour en arriver à cette décision c'est que d'autres projets furent prioritaires et que celui-ci avait un prix de départ dépassant le milliard d'euros prévu. Parti sur un miroir de cent mètres de circonférence, celui-ci fut grignoté pour en rester à 39,3. Il sera composé de 798 éléments hexagonaux, chacun posé sur un mécanisme de soutien permettant de contrôler sa courbure et sa position. Les photos reçus par ce miroir primaire seront concentrés vers un miroir secondaire de 4 mètres de diamètres qui la renverra vers un troisième miroir de 3,7 mètres de diamètre qui en fera de même vers un quatrième.

Ouf !

Le faisceau sortant sera dirigé vers les spectrographes et analyseurs. Les observations seront menées sur une gamme de longueur d'onde de l'ultraviolet jusqu'à l'infrarouge moyen.

Boucler le budget fut si difficile que cela reste à faire. Ce n'était pas une raison pour ne pas lancer le projet. Sa première phase est réalisable avec le budget actuel, la deuxième finalisera le télescope conformément au projet initial.

Rendez-vous en 2024, ou 2026. ça tombe bien, j'ai le temps.

 

Opérationnel, l'E-ELT permettra d'observer les galaxies lointaines, donc de remonter le temps pour étudier les étoiles les composant et comment elles enrichirent l'Univers en éléments lourds. Il aidera à mieux comprendre les trous noirs, la répartition et la nature de la matière noire, qui constitue 23% de l'univers mais n'est détectable que par son influence gravitationnelle sur la matière ordinaire. Sans oublier l'exploration de nouvelles exoplanètes, plus près de leurs étoiles, dans la zone ''habitable'', afin d'y chercher des signes de vie.

Quels détecteurs infrarouges pour l'astronomie ?

(Pierre Kern, Pierre-Olivier Lagage, Olivier Gravrand, Johan Rothman)

Les moyens d'observation étaient jusqu'à présent majoritairement consacrés à la détection dans la lumière visible, situation en train de s'inverser. Dans l'espace, le télescope spatial James Webb, qui sera lancé en 2018, scrutera l'Univers dans l'infrarouge, de son côté la mission Euclid de l'Agence spatiale européenne, tentera de percer le mystère de l'énergie noire en observant le ciel dans le visible et l'infrarouge.

Quel est l'intérêt de cette recherche ? Notre Univers est en expansion, par conséquent au fil du temps la lumière émise par les objets cosmiques se décale vers l'infrarouge : plus ils sont lointains, donc anciens, plus il sont observable dans cette longueur d'onde, laquelle traverse les nuages de poussières parsemant le milieu interstellaire. Ainsi le centre de la Voie lactée apparaît noir alors qu'il est rempli d'étoiles. De plus en étudiant leurs trajectoires les astronomes ont-ils détecté au centre de notre galaxie un trou noir supermassif. En outre, la spectroscopie infrarouge, décomposant le rayonnement en fonction de l'énergie des photos qui le constitue, permet de déterminer la nature des molécules présentes dans l'atmosphère des exoplanètes observées.

L'infrarouge, on le voit, présente bien des avantages, mais aussi un inconvénient de taille : ce rayonnement est difficileme à capturer. L'énergie transportée par un photon de lumière infrarouge est plus faible que celle d'un photon de lumière visible, par conséquent il n'arrive pas à libérer les électrons des atomes de silicium, matériau dont sont faits les détecteurs visibles. C'est pourquoi le tellure de mercure cadmium est utilisé.

 

La France est bien placée pour l'exploration et l'exploitation de l'infrarouge, avec Focus, consortium de 9 laboratoires universitaires, du CNRS, du CEA, et de l'Onéra, qui réunit chercheurs et ingénieurs. Focus travaille à l'optimisation d'un détecteur de nouvelle génération capable de déceler des sources astronomiques émettant peu de lumière.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
14 juillet 2016 4 14 /07 /juillet /2016 07:18

La Recherche Hors-Série 14

 

La fibre optique (Camille-Sophie Brès)

Dans les années 1970 la capacité de la fibre optique semblait infinie, un demi-siècle plus tard pourtant ses limites sont proches et les chercheurs cherchent des alternatives.

Le verre permet des vitesses fulgurantes d'un continent à l'autre, ses avantages sont nombreux : faible perte de données, immunité au bruit électromagnétique, absence de rayonnement vers l'extérieur, isolation électrique, poids et dimensions réduits. Les masses de données générées par Internet croissent et la limite de cette technologie devient prévisible. Il importe de trouver le moyen de la repousser, en attendant que la suivante soit atteinte à son tour.

Pour éviter que l'information soit brouillée pendant son voyage les impulsions la transportant sont espacées, laissant un espace vide, et perdu. La question était donc de trouver les impulsions adéquates pour transporter nos messages en autorisant un trafic plus important. Ces impulsions dites de ''Nyquist'' existent, elles s'encastrent les unes dans les autres, sans brouiller l'information, il n'y a donc plus d'espace perdu.

Jusqu'à récemment, produire ces impulsions était impossible. Des travaux conduit à l'EPFL (École polytechnique fédérale de Lausanne) ont permis une production stable à 99%. Cette technique permet de multiplier le débit par 10 et devrait suffire pour un moment. En attendant qu'une nouvelle évolution permette de dépasser cette limite, jusqu'à ce qu'elle-même...

 

La diode (Riad Haider, Jean-Luc Pelouard, Émilie Steveler)

La diode à semi-conducteur a été consacrée par le prix Nobel de physique 2014 comme la source d'éclairage la plus performante. Dans les années 30, Russell Ohl, électrochimiste chez Bell, étudie différents semi-conducteurs pour des dispositifs radars. En 1940, éclairant un échantillon de silicium présentant une fissure, Ohl découvre que l'effet photoélectrique est amplifié au voisinage de cette discontinuité, d'un côté il note un excès d'électrons (Négatif), de l'autre un défaut, (Positif). Il donne le nom de ''jonction PN'' à la barrière entre ces régions : la diode à semi-conducteur est née. Il comprend que la jonction PN peut servir à l'effet photovoltaïque et dépose l'année suivante le premier brevet décrivant une cellule photovoltaïque constituée d'une jonction PN en silicium.

La théorie des jonctions PN sera élaborée par William Shockley en 1948 puis utilisée dans des dispositifs absorbant ou émettant de la lumière : les photo-détecteurs, les Lasers à semi-conducteurs, les LED et les cellules solaires les plus performantes.

Les LED sont principalement utilisées pour l'affichage et l'éclairage. La très forte amélioration du rendement énergétique apportée par ces LED par rapport aux lampes à incandescence est capitale pour la transition énergétique, l'éclairage représentant un tiers de la consommation énergétique mondiale.

La détection de lumière par des jonction PN trouve de nombreuses applications, l'imagerie dans les caméras et les appareils photonumériques, leurs variantes dans l'infrarouge sont en plein essor pour la vision nocturne, la sécurité et la défense, la recherche de fuite thermique et la médecine.

 

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
2 juillet 2016 6 02 /07 /juillet /2016 08:10

La Recherche Hors-Série 14

Chimie et laser (Gabriel Turinici)

Les chimistes disposaient de tubes à essai, de chauffe-ballons, de colonnes de distillation et de beaucoup d'autres instruments. Depuis l'invention du Laser, celui-ci a rejoint leur trousse à outils. Les chimistes se demandèrent s'il pourrait briser ou créer des liaisons chimiques. Chacune de celle-ci ayant une fréquence d'oscillation propre, une impulsion laser de fréquence égale pourrait-elle interagir avec elle ?

Il fallut attendre les années 1990 pour que la réponse soit positive. Ainsi une impulsion peut casser deux liaisons entre des atomes de carbone et faire en sorte que les fragments résultants se regroupent pour créer une liaison absente de la molécule initiale. La démonstration fut faite que le laser pouvait transformer les molécules mais qu'il faut choisir la bonne impulsion, une molécule contenant souvent plusieurs liaisons du même type, qui ont toutes la même fréquence de résonance mais que l'on ne veut pas toutes détruire. La précision requise impliquait de se situer au niveau quantique et donc de s'en remettre à l'équation de Schrödinger, qui décrit les propriétés d'un système moléculaire.

Dès 1929, Paul Dirac formulait le constat suivant : ''Les lois physiques sous-jacentes nécessaires à une théorie mathématique […] de la chimie sont ainsi complètement connues et la seule difficulté est que l’application exacte de ces lois conduit à des équations trop compliquées pour être résolues.'' La révolution informatique n'a pas permis d'invalider ce propos : il demeure impossible d'aborder la résolution numérique de l'équation de Schrödinger.

Certains scientifiques eurent l'idée de développer des approches originales pour résoudre numériquement des approximations de cette équation. Travaillant d'abord sur des molécules contenant peu d'atomes les chimistes purent s'attaquer à des systèmes chimiques de plusieurs dizaines d'atomes.

La lumière est devenue pour les chimistes un ingrédient comme un autre, les chercheurs sont capables de contrôler les réactions chimiques à l'aide du laser. Le but désormais est de trouver une liste d'impulsions universelles qui, pour une classe large de molécules, fonctionnerait aussi bien que le meilleur laser trouvé par une recherche numérique et expérimentale.

Le contrôle des phénomènes quantique se lance à la poursuite d'applications non académiques. Les réactions chimiques n'étant qu'une de ces applications., par exemple, la conception de portes logiques définies par les états de molécules pour les futurs ordinateurs quantiques ou l'étude de la dynamique des protéines ou l'orientation et l'alignement de molécules.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
23 juin 2016 4 23 /06 /juin /2016 08:00

Les dossiers de La Recherche N° 2

LUCA

Simonetta Gribaldo – Céline Brochier-Armanet

Cet acronyme de Last Universal Common Ancestor a été popularisée en 1996 lors d'un congrès organisé à la Fondation des Treilles par le biologiste Patrick Forterre. Elle désigne l'ancêtre commun à tous les êtres vivants actuels, connu aussi sous d'autres noms tels que cénancêtre.

Sa place est unique dans l'histoire de la vie, après lui débutèrent les événements évolutifs à l'origine de la biodiversité que nous connaissons répartie en trois domaines : les archées, les bactéries (procaryotes) et les eucaryotes.

Organisme à la biochimie complexe, il ne faut pas le confondre avec la première cellule. Il présentait des caractéristiques cellulaires élaborées et a été précédé par des lignées d'organismes plus simples aujourd'hui éteintes. LUCA était un micro-organisme mais ni une bactérie, ni une archée, ni un eucaryote.

Sans fossiles les biologistes ont construit des modèles probabilistes d'évolution estimant le nombre et la fonction des gènes présents dans son génome à partir de la comparaison des génomes des êtres vivants actuels. L'idée est d'identifier les gènes ''homologues'' communs aux trois domaines du vivant car ils dérivent d'un même gène ancestral pour déterminer s'ils étaient présents chez LUCA en étudiant leur histoire évolutive grâce à la phylogénie moléculaire.

Il vivait probablement il y a plus de 2,4 milliards d'années. Datation relative par manque de fossiles servant de points de repère. L'unique jalon utilisable est l'oxygénation massive de l'atmosphère résultant de la photosynthèse réalisée par des cyanobactéries.

Combien LUCA possédait-il de gènes ? Les estimations vont de quelques centaines à plus d'un millier. Il disposait des mécanismes de transcription et de traduction du matériel génétique, des protéines membranaires et des enzymes du métabolisme central mais il lui manquait la plupart des protéines impliquées dans la réplication de l'ADN. Il pouvait disposer d'un génome constitué d'ARN et non d'ADN, ceci impliquant que ces systèmes soient apparus séparément chez l'ancêtre des bactéries, d'un côté, et chez celui des archées et des eucaryotes, de l'autre. Donc que le remplacement de l'ARN par l'ADN dans les génomes se serait produit deux fois au cours de l'évolution. S'il disposait d'un génome d'ADN celui-ci pouvait disposer d'un système de réplication différent de celui de ses ''héritiers''.

LUCA était-il un organisme hyperthermophile, vivant à plus de 80°C ou dans un environnement plus froid ? Privilégiée un temps la première hypothèse est désormais remise en cause pour lui dessiner un milieu aux températures comprises entre 20°C et 40°C.

Pour progresser dans l'étude de LUCA il importe d'avoir une meilleure connaissance de la biodiversité actuelle pour comprendre les processus évolutifs qui menèrent à elle. L'analyse de données par des méthodes de reconstruction des génomes ancestraux et de phylogénie moléculaire devrait affiner nos conceptions du sien.

Repost 0
Publié par Lee Rony - dans J'ai vu Science
commenter cet article

Présentation

  • : Lire au nid
  • Lire au nid
  • : Mes (ré)créations littéraires et photographiques.
  • Contact

Bienvenue...

Bienvenue sur ce blog ! Vous y découvrirez mes goûts, et dégoûts parfois, dans un désordre qui me ressemble ; y partagerez mon état d'esprit au fil de son évolution, parfois noir, parfois seulement gris (c'est le moins pire que je puisse faire !) et si vous revenez c'est que vous avez trouvé ici quelque chose qui vous convenait et désirez en explorant mon domaine faire mieux connaissance avec les facettes les moins souriantes de votre personnalité.

Rechercher

Pages