Overblog Suivre ce blog
Administration Créer mon blog
2 août 2016 2 02 /08 /août /2016 08:04

La Recherche Hors-Série 14

 

(Ève Eleinein)

La foudre rétablit l'équilibre électrostatique entre le sol et un nuage d'orage. Les paratonnerres protègent les bâtiments en évacuant l'énergie dans le sol mais ils ne peuvent rien contre les dommages sur les installations électriques environnantes. L'idéal serait de déclencher la foudre avec un laser pour la guider loin des installations sensibles. Le laser Téramobile utilisé par l’équipe de Jérôme Kasparian remplit ce rôle au moyen d'impulsions de l'ordre de la femtoseconde. La faisceau de forte intensité modifie l'indice de réfraction du milieu qu'il traverse avec un effet de lentille qui focalise la lumière vers le centre du faisceau formant un plasma composé d'ions et d'électrons libres susceptibles de générer des filaments électriquement chargés pouvant conduire la foudre sur plus d'un kilomètres.

Une technologie à finaliser, aucune raison pour que que cela ne se fasse pas très bientôt.

Le laser est une arme que la fiction apprécie, la réalité, jalouse, veut la rattraper. Les USA et la Chine travaillent dans ce but, les premiers ayant, pour le moment, une longueur d'avance. L'air force avec le programme Airborne Laser disposait d'un avion équipé d'un laser capable de détruire un missile en phase de propulsion, le projet, trop ambitieux et trop couteux, fut revu à la baisse avec des lasers moins puissants, plus adaptés aux champs de bataille. La Navy développe un Laser Weapon System, capable de détruire des drones ou des embarcations légères. Celui-ci est en phase de test dans le Golfe Persique.

Arme présentant de nombreux avantages, utilisable à volonté pour un coût marginal ; réactif puisque se déplaçant à la vitesse de la lumière, discret, et d'une intensité modulable. Mauvais point : un laser capable de transpercer la tôle d'un avion est inefficace face à un tank, il est aussi sensible aux conditions météorologiques, les nuages, diffusant la lumière, rendent le faisceau inefficace. Sans oublier la réflexion susceptible de causer des dégâts collatéraux.

Faisons confiance à l'inventivité des chercheurs !

Un domaine plus pacifique : la chirurgie. Le laser est utilisé depuis les années 1980 en ophtalmologie, pour corriger la myopie ou l'hypermétropie. À cette époque la découpe préalable de la surface de la cornée nécessitait le geste du chirurgien. Le laser femtoseconde a ouvert de nouvelles perspectives. Sa puissance suffit à couper le tissu, la brièveté de son impulsion, évitant tout échauffement, pallie le risque d'endommager les zones alentour. Depuis quelques années le laser est utiliser pour soigner la cataracte, il détruit la partie intérieure, opacifiée, en laissant intacte la capsule intérieur. Il pourrait régler les problèmes de presbytie qui touche les personnes de plus de 45 ans.

La lumière permet d'observer les confins de l'Univers, elle permet aussi de rendre visible l'infiniment petit. La microscopie délivre des images exceptionnelle.

Le modèle originel de microscope optique, inventée à la fin du XVIIe contenant deux systèmes de lentilles disposés le long d'un tube vertical. Un rayon lumineux éclaire l'échantillon puis frappe l'objectif qui grossit l'image et l'inverse. Un microscope en champ sombre, qui laisse l'arrière-fond sombre, permet des images claires et contrastées. Il existe des microscopes à contraste interférentiel ; cofocaux, pour observer un organisme dans son épaisseur ; en fluorescence, etc

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
29 juillet 2016 5 29 /07 /juillet /2016 07:21

La Recherche Hors-Série 14

(Lise Barnéoud)

Les travaux d'arasement ont débuté sur le mont Cerro Armazones. D'ici dix ans les astronomes du monde entier seront concernés par E-ELT, le Télescope géant européen, dont la construction, après dix-huit ans de tergiversation, vient d'être décidé. Avec son miroir de 39,3 mètres de diamètre, celui-ci capturera quinze fois plus de lumière que les plus grands télescopes actuels. Une surface qui nécessitera des systèmes complexes et inédits de correction de turbulences de l'atmosphère. S'il fallut autant d'année pour en arriver à cette décision c'est que d'autres projets furent prioritaires et que celui-ci avait un prix de départ dépassant le milliard d'euros prévu. Parti sur un miroir de cent mètres de circonférence, celui-ci fut grignoté pour en rester à 39,3. Il sera composé de 798 éléments hexagonaux, chacun posé sur un mécanisme de soutien permettant de contrôler sa courbure et sa position. Les photos reçus par ce miroir primaire seront concentrés vers un miroir secondaire de 4 mètres de diamètres qui la renverra vers un troisième miroir de 3,7 mètres de diamètre qui en fera de même vers un quatrième.

Ouf !

Le faisceau sortant sera dirigé vers les spectrographes et analyseurs. Les observations seront menées sur une gamme de longueur d'onde de l'ultraviolet jusqu'à l'infrarouge moyen.

Boucler le budget fut si difficile que cela reste à faire. Ce n'était pas une raison pour ne pas lancer le projet. Sa première phase est réalisable avec le budget actuel, la deuxième finalisera le télescope conformément au projet initial.

Rendez-vous en 2024, ou 2026. ça tombe bien, j'ai le temps.

 

Opérationnel, l'E-ELT permettra d'observer les galaxies lointaines, donc de remonter le temps pour étudier les étoiles les composant et comment elles enrichirent l'Univers en éléments lourds. Il aidera à mieux comprendre les trous noirs, la répartition et la nature de la matière noire, qui constitue 23% de l'univers mais n'est détectable que par son influence gravitationnelle sur la matière ordinaire. Sans oublier l'exploration de nouvelles exoplanètes, plus près de leurs étoiles, dans la zone ''habitable'', afin d'y chercher des signes de vie.

Quels détecteurs infrarouges pour l'astronomie ?

(Pierre Kern, Pierre-Olivier Lagage, Olivier Gravrand, Johan Rothman)

Les moyens d'observation étaient jusqu'à présent majoritairement consacrés à la détection dans la lumière visible, situation en train de s'inverser. Dans l'espace, le télescope spatial James Webb, qui sera lancé en 2018, scrutera l'Univers dans l'infrarouge, de son côté la mission Euclid de l'Agence spatiale européenne, tentera de percer le mystère de l'énergie noire en observant le ciel dans le visible et l'infrarouge.

Quel est l'intérêt de cette recherche ? Notre Univers est en expansion, par conséquent au fil du temps la lumière émise par les objets cosmiques se décale vers l'infrarouge : plus ils sont lointains, donc anciens, plus il sont observable dans cette longueur d'onde, laquelle traverse les nuages de poussières parsemant le milieu interstellaire. Ainsi le centre de la Voie lactée apparaît noir alors qu'il est rempli d'étoiles. De plus en étudiant leurs trajectoires les astronomes ont-ils détecté au centre de notre galaxie un trou noir supermassif. En outre, la spectroscopie infrarouge, décomposant le rayonnement en fonction de l'énergie des photos qui le constitue, permet de déterminer la nature des molécules présentes dans l'atmosphère des exoplanètes observées.

L'infrarouge, on le voit, présente bien des avantages, mais aussi un inconvénient de taille : ce rayonnement est difficileme à capturer. L'énergie transportée par un photon de lumière infrarouge est plus faible que celle d'un photon de lumière visible, par conséquent il n'arrive pas à libérer les électrons des atomes de silicium, matériau dont sont faits les détecteurs visibles. C'est pourquoi le tellure de mercure cadmium est utilisé.

 

La France est bien placée pour l'exploration et l'exploitation de l'infrarouge, avec Focus, consortium de 9 laboratoires universitaires, du CNRS, du CEA, et de l'Onéra, qui réunit chercheurs et ingénieurs. Focus travaille à l'optimisation d'un détecteur de nouvelle génération capable de déceler des sources astronomiques émettant peu de lumière.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
14 juillet 2016 4 14 /07 /juillet /2016 07:18

La Recherche Hors-Série 14

 

La fibre optique (Camille-Sophie Brès)

Dans les années 1970 la capacité de la fibre optique semblait infinie, un demi-siècle plus tard pourtant ses limites sont proches et les chercheurs cherchent des alternatives.

Le verre permet des vitesses fulgurantes d'un continent à l'autre, ses avantages sont nombreux : faible perte de données, immunité au bruit électromagnétique, absence de rayonnement vers l'extérieur, isolation électrique, poids et dimensions réduits. Les masses de données générées par Internet croissent et la limite de cette technologie devient prévisible. Il importe de trouver le moyen de la repousser, en attendant que la suivante soit atteinte à son tour.

Pour éviter que l'information soit brouillée pendant son voyage les impulsions la transportant sont espacées, laissant un espace vide, et perdu. La question était donc de trouver les impulsions adéquates pour transporter nos messages en autorisant un trafic plus important. Ces impulsions dites de ''Nyquist'' existent, elles s'encastrent les unes dans les autres, sans brouiller l'information, il n'y a donc plus d'espace perdu.

Jusqu'à récemment, produire ces impulsions était impossible. Des travaux conduit à l'EPFL (École polytechnique fédérale de Lausanne) ont permis une production stable à 99%. Cette technique permet de multiplier le débit par 10 et devrait suffire pour un moment. En attendant qu'une nouvelle évolution permette de dépasser cette limite, jusqu'à ce qu'elle-même...

 

La diode (Riad Haider, Jean-Luc Pelouard, Émilie Steveler)

La diode à semi-conducteur a été consacrée par le prix Nobel de physique 2014 comme la source d'éclairage la plus performante. Dans les années 30, Russell Ohl, électrochimiste chez Bell, étudie différents semi-conducteurs pour des dispositifs radars. En 1940, éclairant un échantillon de silicium présentant une fissure, Ohl découvre que l'effet photoélectrique est amplifié au voisinage de cette discontinuité, d'un côté il note un excès d'électrons (Négatif), de l'autre un défaut, (Positif). Il donne le nom de ''jonction PN'' à la barrière entre ces régions : la diode à semi-conducteur est née. Il comprend que la jonction PN peut servir à l'effet photovoltaïque et dépose l'année suivante le premier brevet décrivant une cellule photovoltaïque constituée d'une jonction PN en silicium.

La théorie des jonctions PN sera élaborée par William Shockley en 1948 puis utilisée dans des dispositifs absorbant ou émettant de la lumière : les photo-détecteurs, les Lasers à semi-conducteurs, les LED et les cellules solaires les plus performantes.

Les LED sont principalement utilisées pour l'affichage et l'éclairage. La très forte amélioration du rendement énergétique apportée par ces LED par rapport aux lampes à incandescence est capitale pour la transition énergétique, l'éclairage représentant un tiers de la consommation énergétique mondiale.

La détection de lumière par des jonction PN trouve de nombreuses applications, l'imagerie dans les caméras et les appareils photonumériques, leurs variantes dans l'infrarouge sont en plein essor pour la vision nocturne, la sécurité et la défense, la recherche de fuite thermique et la médecine.

 

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
2 juillet 2016 6 02 /07 /juillet /2016 08:10

La Recherche Hors-Série 14

Chimie et laser (Gabriel Turinici)

Les chimistes disposaient de tubes à essai, de chauffe-ballons, de colonnes de distillation et de beaucoup d'autres instruments. Depuis l'invention du Laser, celui-ci a rejoint leur trousse à outils. Les chimistes se demandèrent s'il pourrait briser ou créer des liaisons chimiques. Chacune de celle-ci ayant une fréquence d'oscillation propre, une impulsion laser de fréquence égale pourrait-elle interagir avec elle ?

Il fallut attendre les années 1990 pour que la réponse soit positive. Ainsi une impulsion peut casser deux liaisons entre des atomes de carbone et faire en sorte que les fragments résultants se regroupent pour créer une liaison absente de la molécule initiale. La démonstration fut faite que le laser pouvait transformer les molécules mais qu'il faut choisir la bonne impulsion, une molécule contenant souvent plusieurs liaisons du même type, qui ont toutes la même fréquence de résonance mais que l'on ne veut pas toutes détruire. La précision requise impliquait de se situer au niveau quantique et donc de s'en remettre à l'équation de Schrödinger, qui décrit les propriétés d'un système moléculaire.

Dès 1929, Paul Dirac formulait le constat suivant : ''Les lois physiques sous-jacentes nécessaires à une théorie mathématique […] de la chimie sont ainsi complètement connues et la seule difficulté est que l’application exacte de ces lois conduit à des équations trop compliquées pour être résolues.'' La révolution informatique n'a pas permis d'invalider ce propos : il demeure impossible d'aborder la résolution numérique de l'équation de Schrödinger.

Certains scientifiques eurent l'idée de développer des approches originales pour résoudre numériquement des approximations de cette équation. Travaillant d'abord sur des molécules contenant peu d'atomes les chimistes purent s'attaquer à des systèmes chimiques de plusieurs dizaines d'atomes.

La lumière est devenue pour les chimistes un ingrédient comme un autre, les chercheurs sont capables de contrôler les réactions chimiques à l'aide du laser. Le but désormais est de trouver une liste d'impulsions universelles qui, pour une classe large de molécules, fonctionnerait aussi bien que le meilleur laser trouvé par une recherche numérique et expérimentale.

Le contrôle des phénomènes quantique se lance à la poursuite d'applications non académiques. Les réactions chimiques n'étant qu'une de ces applications., par exemple, la conception de portes logiques définies par les états de molécules pour les futurs ordinateurs quantiques ou l'étude de la dynamique des protéines ou l'orientation et l'alignement de molécules.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
23 juin 2016 4 23 /06 /juin /2016 08:00

Les dossiers de La Recherche N° 2

LUCA

Simonetta Gribaldo – Céline Brochier-Armanet

Cet acronyme de Last Universal Common Ancestor a été popularisée en 1996 lors d'un congrès organisé à la Fondation des Treilles par le biologiste Patrick Forterre. Elle désigne l'ancêtre commun à tous les êtres vivants actuels, connu aussi sous d'autres noms tels que cénancêtre.

Sa place est unique dans l'histoire de la vie, après lui débutèrent les événements évolutifs à l'origine de la biodiversité que nous connaissons répartie en trois domaines : les archées, les bactéries (procaryotes) et les eucaryotes.

Organisme à la biochimie complexe, il ne faut pas le confondre avec la première cellule. Il présentait des caractéristiques cellulaires élaborées et a été précédé par des lignées d'organismes plus simples aujourd'hui éteintes. LUCA était un micro-organisme mais ni une bactérie, ni une archée, ni un eucaryote.

Sans fossiles les biologistes ont construit des modèles probabilistes d'évolution estimant le nombre et la fonction des gènes présents dans son génome à partir de la comparaison des génomes des êtres vivants actuels. L'idée est d'identifier les gènes ''homologues'' communs aux trois domaines du vivant car ils dérivent d'un même gène ancestral pour déterminer s'ils étaient présents chez LUCA en étudiant leur histoire évolutive grâce à la phylogénie moléculaire.

Il vivait probablement il y a plus de 2,4 milliards d'années. Datation relative par manque de fossiles servant de points de repère. L'unique jalon utilisable est l'oxygénation massive de l'atmosphère résultant de la photosynthèse réalisée par des cyanobactéries.

Combien LUCA possédait-il de gènes ? Les estimations vont de quelques centaines à plus d'un millier. Il disposait des mécanismes de transcription et de traduction du matériel génétique, des protéines membranaires et des enzymes du métabolisme central mais il lui manquait la plupart des protéines impliquées dans la réplication de l'ADN. Il pouvait disposer d'un génome constitué d'ARN et non d'ADN, ceci impliquant que ces systèmes soient apparus séparément chez l'ancêtre des bactéries, d'un côté, et chez celui des archées et des eucaryotes, de l'autre. Donc que le remplacement de l'ARN par l'ADN dans les génomes se serait produit deux fois au cours de l'évolution. S'il disposait d'un génome d'ADN celui-ci pouvait disposer d'un système de réplication différent de celui de ses ''héritiers''.

LUCA était-il un organisme hyperthermophile, vivant à plus de 80°C ou dans un environnement plus froid ? Privilégiée un temps la première hypothèse est désormais remise en cause pour lui dessiner un milieu aux températures comprises entre 20°C et 40°C.

Pour progresser dans l'étude de LUCA il importe d'avoir une meilleure connaissance de la biodiversité actuelle pour comprendre les processus évolutifs qui menèrent à elle. L'analyse de données par des méthodes de reconstruction des génomes ancestraux et de phylogénie moléculaire devrait affiner nos conceptions du sien.

Repost 0
Publié par Lee Rony - dans J'ai vu Science
commenter cet article
22 juin 2016 3 22 /06 /juin /2016 07:45

La Recherche Hors-Série 14

 

En 2006 la cape d'invisibilité sortit des contes pour entrer dans la réalité, encore faut-il préciser que son efficacité est réduite puisqu'elle ne rend un objet indétectable que pour des micro-ondes, celles-ci d'une longueur d'environ 33 centimètres. Le résultat était donc remarque pour les physiciens, moins pour les autres. Pour parler d'invisibilité il aurait fallu que ce dispositif fonctionne aux longueurs d'onde visible, entre 380 et 780 nanomètres (du violet au rouge) et fasse disparaître des objets ordinaires de taille supérieure à 0,1 millimètres.

Depuis six ans des efforts sont entrepris pour atteindre ces objectifs.

Pour qu'un objet ne réfléchisse pas, ou n’absorbe pas, la lumière, il faut qu'il courbe celle-ci autour de lui. Trois propriétés sont nécessaires pour fabriquer un dispositif d'invisibilité parfait.

Le matériau du dispositif d'invisibilité doit être anisotrope : ses propriétés doivent varier selon la direction de propagation de la lumière ; il doit être inhomogène : ses propriétés doivent varier dans l'espace et être magnétiquement actif : capable d'interagir avec la composante magnétique de l'onde.

 

Les recherches ayant progressé, les physiciens purent faire disparaître plusieurs objets de taille centimétrique, un trombone de bureau, un fragment d'acier et un morceau de papier. Ce dispositif fonctionne pour une grande partie des longueurs d'onde visibles, du rouge au bleu. Tant qu'il se trouve entre la source de lumière et l'observateur l'invisibilité est effective quel que soit l'angle sous lequel on regarde. Pour l'heure il n'est efficace qu'en lumière polarisée et en deux dimensions. Ses performances sont compromises lorsqu'il est utilisé à l'air libre plutôt qu'immergé dans un liquide à fort indice de réfraction.

De fait la cape d'invisibilité n'est pas encore au point, Harry Potter ne la trouvera pas dans notre monde de sitôt. La technologie progresse à un rythme effréné, plusieurs équipes annoncent de nouvelles versions de leurs découvertes, bien que pour l'instant il s'agisse plus de tapis que de cape. Celle-ci semble difficile à réaliser, sauf à faire intervenir la magie... néanmoins ce concept de cape peut concerner d'autres types d'ondes, les ondes acoustiques par exemple. Ondes de compression se propageant das un fluide. Grâce à une cape immergée dans ce fluide il serait possible de leur faire éviter une zone ou un objet. Un sous-marin pourrait ainsi passer inaperçu, les ondes acoustiques sont plus faciles à accélérer que les ondes optiques qui ne peuvent dépasser la vitesse de la lumière dans le vide. Les militaires étasuniens sont très intéressés par ces recherches alors qu'en Europe les recherches portant vers la protection contre les tsunamis. Une chape de 200 mètres de diamètres constituée d'anneaux concentriques pourraient guider les ondes autour d'une zone à protéger, les fondations d'un hôpital, d'une centrale nucléaire... Ce principe d'une ''cape'' pourrait détourner des ondes sismiques se présentant comme une chape de terrassement antisismique avec des colonnes de béton armé dans le sol.

 

Ainsi ce qui naquît de la lumière peut-il trouver une application inattendue.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
17 juin 2016 5 17 /06 /juin /2016 07:34

Les Dossiers de La Recherche N 2

D'où vient la vie ?

(Pascal Duris)

 

Vieille question ! Depuis l'antiquité elle hante l'imaginaire de l'homo sapiens (pour ses prédécesseurs rien n'est prouvé, ses successeurs le sauront probablement). La première idée fut que les êtres vivants émergeaient de la matière inerte. Il fallut attendre 1862, et Louis Pasteur, pour que cette théorie soit invalidée. S'opposant à Félix Archimède Pouchet, Pasteur démontra sa fausseté. Au début du vingtième siècle le chimiste Alexandre Oparine et le généticien John Haldane proposent la même solution : des systèmes vivants simples se seraient formés en l'absence d'oxygène dans les océans de la Terre primitive. Une lente, et longue, évolution chimique aurait précédé l'apparition du vivant.

Jusqu'au milieu du dix-huitième siècle les naturalistes sont convaincus que la Création n'a que 6000 ans. L'idée de la génération spontanée, admettant que la matière peut s'organiser d'elle-même, semble attenter aux droits divins. Jean Baptiste Van Helmont, chimiste et médecin flamant, est lui convaincu de la génération spontanée des insectes, à l'instar d'Aristote, et veut vérifier cette hypothèse. Ayant placé du blé dans un vase en verre bouché, il constate que des souris y sont apparues et conclut en la véracité de la génération spontanée, même chez la souris. D'autres mèneront des expériences qui donneront un résultat identique. Jean-Baptiste de Lamarck, père du transformisme, est convaincu que la nature entretient la génération spontanée des corps vivants les pus simples.

Le débat sera relancé en 1830 avec la découverte des ''microbes''. Arrive Félix Archimède Pouchet. Directeur du Muséum d'histoire naturelle de Rouen, connu pour ses travaux sur la contraception dans l'espère humaine, il défend la génération spontanée des microbes. L'Académie décide d'en finir avec cette idée et lance un concours. S'y inscrivent Pouchet, qui veut démontrer sa théorie, et Louis Pasteur. Celui-ci mène des études sur la fermentation et voit ce concours comme une digression. Menant diverses expériences il en vient à la conclusion que ''Gaz, fluides, électricité, magnétisme, ozone, choses connues ou choses occultes, il n'y a quoi que ce soit dans l'air, hormis les germes qu'il charrie, qui soit une condition de la vie'' précisant ''… dans toutes les expériences où l'on a cru reconnaître l'existence de générations spontanées, […] l'observateur a été victime d'illusions ou de causes d'erreur qu'il n'a pas aperçues où qu'il n'a pas su éviter.''

Ainsi la théorie de la génération spontanée disparut-elle du monde scientifique, preuve que la certitude du jour peut ne plus être celle du lendemain.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
15 juin 2016 3 15 /06 /juin /2016 07:11

La Recherche hors-série 14 : La Lumière

 

La maîtrise de la lumière promet des innovations extraordinaires. La science-fiction n'est que la vitrine du futur. Par exemple, la cape d'invisibilité ou le détournement des ondes sismiques pour limiter séismes et tsunamis.

 

En 2012 David Wineland et Serge Haroche partagent le prix Nobel de physique pour des travaux considérés comme une avancée dans l'observation des propriétés de la lumière et de la matière. Ceux-ci portent sur l'optique quantique qui étudie les propriétés fondamentales des atomes et de la lumière en interaction. Il s'agit d'enfermer des grains de lumière dans une cavité recouverte de miroirs entre lesquels les photons rebondissent et de se servir d'atomes pour observer le passage de l'échelle quantique à l'échelle macroscopique. La manipulation, sans les détruire, de particules uniques, ions ou photons, a été récompensée par le Nobel.

Ces recherches démarrent dans les années 1990, par l'observation de la décohérence : la disparition des effets quantiques, provoquée par les interactions des systèmes quantiques microscopiques avec le monde macroscopique, elles furent suivies, dix ans plus tard, par l'observation, pour la première fois, de photons. Prouesse notable, un détecteur voyant un photon en l'absorbant, donc en le détruisant. Il fallait prolonger la survie du photon au-delà de la centaine de microsecondes. L'expérience peut sembler sans autre utilité qu'elle-même, mais au fil des progrès apparurent des applications que personne n'attendait. David Wineland put ainsi construire une horloge cent fois plus précise que les horloges à césium, elle ne dérive que d'une demi-douzaine de secondes en 14 milliards d'années, l'âge de l'univers ! L'optique quantique engendra une discipline nouvelle : l'information quantique, avec des applications en cryptographie et la perspective de construire un ordinateur quantique. Pouvoir conserver assez longtemps un système quantique formé de milliers d'atomes placé dans leur propre superposition d'état permettrait de disposer d'une puissance de calcul extraordinaire, utile par exemple pour la factorisation de grands nombres.

Serge Haroche fut l'élève de Claude Cohen-Tannoudji, Nobel 1997, lequel fut celui d'Alfred Kastler, Nobel 1966, une lignée due à la structure de l'École normale supérieure qui dispose d'un important vivier d'étudiants en permettant aux chercheurs confirmés de travailler ensemble en combinant leurs compétences. Système établi également au National Institute of Standards and Technology de Boulder où travaille David Wineland et son équipe.

À la fin de son interview, avec Denis Delbecq, Serge Haroche n'oublie pas de rappeler que si le Nobel récompense un chef d'équipe, il ne faut pas oublier celle-ci.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
8 juin 2016 3 08 /06 /juin /2016 07:04

La Recherche hors-série 14 : La Lumière

Les lasers de l'extrême

(Sylvain Guilbaud)

 

Bella est le laser le plus puissant en activité, en quelques millionième de milliardième de seconde il peut délivrer mille fois la puissance du réseau électrique mondial. Il explore les interactions extrêmes entre lumière et matière.

 

Ces lasers fonctionnent sur le principe habituel auquel s'ajoutent deux ingrédients : une énergie élevée et une impulsion de quelques femtosecondes. Rapidité possible avec une énergie de l'ordre du nanojoule mais difficile avec un petawatt qui produit une onde dont le front se déforme. Pour contourner ce problème Gérard Mourou, professeur au Haut Collège de Polytechnique, inventa une méthode d'amplification à dérive de fréquence. Sur ce principe le premier laser petawatt vit le jour au LBNL en 1995. Deux projets sont en cours de réalisation en France, ils devraient pousser leurs premiers cris, lancer leur premier tir, cette année. Les puissances en jeu sont titanesque mais les installations également. Avec une telle intensité un tir laser arrache à sa cible matérielle une grande partie de ses électrons, les projetant vers l'avant, alors que les protons, plus lourds, restent en retrait.

De nouveaux pans de l'interaction lumière-matière se présentent avec pour objectif la matérialisation des particules ''virtuelles'' qui agitent le vide, ou la reproduction en laboratoire des conditions de températures régnant dans les étoiles. Ces lasers de très haute intensité peuvent être de très bons accélérateurs de particules et donc être capables de détruire des tumeurs cancéreuses sans requérir une installation gigantesque. La technologie petawatt représente un enjeu important pour la France.

 

D'autres installations petawatt sont en cours d'élaboration dans le monde mais Gérard Mourou imagine déjà la plateforme Izest envisageant des lasers exawatt (1018watts) et même zetawatt (1021). La course n'est pas prête de franchir la ligne d'arrivée.

 

Photons à la demande

(Benoît Boulanger, Sara Ducci, jean-Michel Gérard)

 

Pour la physique, la lumière est une onde électromagnétique se propageant dans le vide. Elle est aussi constituée de grains, les photons, dont l'énergie dépend de la longueur d'onde. Le développement de la mécanique quantique a permis d'affiner notre compréhension de cette double nature de la lumière.

Les photons sont caractérisés par leur longueur d'onde, direction de propagation et polarisation. Le défi est de produire de nouveaux états de la lumière pour contrôler ces paramètres et concevoir des sources lumineuses capables d'émettre des photons ''sur demande''.

Depuis une vingtaine d'années plusieurs laboratoires développent des sources lumineuses capables de générer des photons unique, des paires, ou des trios. Les propriétés de ces photons sont nouvelles puisque quantiques. Les paires par exemples présentent des liens plus forts que la lumière naturelle ou les lasers : on parle de photons intriqués. Les mesures de l'un permettent de connaître les valeurs de l'autre quelle que soit la distance qui les sépare.

En 2001 fut présenté la première source de photons uniques monomode, ceux-ci étaient émis avec un ''pistolet à photons'', une boîte quantique, assemblage de matériaux semi-conducteurs de la taille du nanomètre dans lesquels les électrons peuvent présenter des niveaux d’énergie distincts, comme dans un atome.

Il est délicat de manipuler et contrôler un atome unique. La fabrication des boîtes quantiques est pourtant bien maîtrisée et a permis de développer les sources de photons uniques les plus performantes à ce jour. Pour émettre un atome dans la direction voulue il faut placer la boîte au cœur d'une microcavité optique : une cage à photons de taille comparable à celle de la longueur d'onde de la lumière émise par la boîte et capable de confiner les photons dans n'importe quelle direction grâce à des miroirs.

 

Si les sources de photons uniques ouvre la perspective de maîtriser de nouveaux états de la lumière, les sources de paires de photons sont un pas de plus dans ce monde quantique. Pour les produire il faut induire une réponse optique non linéaire en éclairant avec un laser certains types de matériaux permettant que la lumière d'une certaine fréquence s'y propage pour faire vibrer ses électrons. Une onde lumineuse qui éclaire le matériau donne naissance à deux nouvelles ondes de fréquences différences : une ''scission'' d'un photon en deux photons d'énergie moindre dont la somme correspond à l'énergie du photon incident.

En 2004 la première émission de triplets de photons est réalisée à Grenoble. Pour cela il faut une intensité lumineuse de plus de 200 milliards de watts par centimètre carré. Intensité atteinte grâce à un laser envoyant des impulsions de l'ordre du millième de milliardième de seconde focalisé dans un cristal non linéaire. Les expériences en cours à l’Institut Néel de Grenoble visent à réduire le nombre de photons de stimulation nécessaire pour ne récupérer que les triplets de photons pour manipuler ce nouvel état de la lumière présentant des corrélations quantiques surprenantes et différentes des paires de photons ou d'un laser. Ces triplets permettraient un cryptage avec deux clés secrètes. Le premier portant l'information codée, les autres permettant de la décrypter. 

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
1 juin 2016 3 01 /06 /juin /2016 07:06

La Recherche hors-série 14 : La Lumière

Les sources incandescentes

(Jean-Jacques Greffet, Patrick Bouchon, François Marquier)

 

Le laser connut de spectaculaires développements mais d'autres moyens existent pour dompter la lumière. Une recherche fondamentale ouvrant la voie, entre autres, au développement de l'information quantique.

 

La lumière blanche que nous envoie le soleil contient l'ensemble des couleurs visibles mais également les rayons ultraviolets ou infrarouges. Nos systèmes d'éclairages visent à reproduire cette clarté par l'incandescence, c'est-à-dire, la propriété des corps à émettre de la lumière quand il sont chauffés. Celle-ci est également diffusée dans toutes les direction et son spectre large ne dépend que de la température. Pour l'éclairage ce système est médiocre puisque la plus grande partie de son énergie se perd dans l'infrarouge, d'où le retrait des lampes incandescentes.

Des solutions alternatives existent, utilisant tubes fluorescents ou diodes électroluminescentes, celles-ci présentent un faible rayonnement infrarouge et, donc, une meilleure utilisation de l'énergie qu'elles reçoivent. Pour autant ce rayonnement, s'il est inutile pour l'éclairage, est utile pour la production d'énergie thermo-photovoltaïque. Il s'agit de convertir de la chaleur en rayonnement thermique afin d'éclairer une cellule photovoltaïque possédant une efficacité de conversion optimale à cette longueur d'ondes. Il est donc souhaitable d'émettre un rayonnement aux fréquences et directions souhaitées. Cela se fait par la création d'une ''métasurface'' présentant des propriétés n'existant pas dans la nature afin de faciliter l’absorption de la lumière. Un miroir peut présenter cette qualité mais également un semi-conducteur comme l'arséniure de gallium (GaAs) permettant la fabrication de puits quantiques confinant les électrons dans de fines couches de GaAs, séparées par des couches d'arséniure de gallium-aluminium (AlGaAs). Pour cela il faut que la surface absorbe la lumière sans la réfléchir, des métasurfaces présentent cette qualité.

 

Course à la vitesse

(Pascal Salières, Thierry Ruchon, Bertrand Carré)

 

La persistance des images sur la rétine, quelques dizaines de millisecondes, nous empêche de suivre des phénomènes tels la progression d'une décharge électrique dans les nuages. Pour briser cette barrière l'homme a développé les instruments permettant de mesurer des évolutions toujours plus rapides. Eadweard Muybridge, photographe, voulu décrire les mouvements d'un cheval au galop, il prit des photos à intervalles réguliers le long d'une piste avec un temps d'exposition suffisamment court pour figer le mouvement. Technique reprise depuis, améliorée par le laser, au point de diminuer la durée d'exposition à seulement quelques femtosecondes. Cette durée étant celle du mouvement des atomes dans les molécules, permettant d'observer les déplacement des atomes lors des vibrations des molécules ou lors de leur dissociation.

Les électrons sont mille fois plus rapides, leur observation demande une vitesse de l'ordre de l'attoseconde. Une limite de la technologie laser, l'impulsion ne peut être plus brève que la période de l'onde électromagnétique qui la porte, environ 2 femtosecondes, pour descendre au niveau demandé il faut une période plus courte, celle des rayons X. pour produire celle-ci il faut synchroniser les ondes harmoniques produites à un instant donné.

 

Trois applications requièrent cette rapidité :

La Spectroscopie moléculaire : le moyen de contrôler la dissociation de la molécule de dihydrogène lorsqu'un électron lui est arraché.

La dynamique des biomolécules : induire des mouvements électroniques ultrarapides dans un acide aminé, la migration de charge d'une extrémité à l'autre de la molécule en 2 femtosecondes a ainsi été détectée, ouvrant la perspective d'une chimie plus ''contrôlée'' dans des molécules d'intérêt biologiques.

La physique du solide : la manipulation de signaux électroniques à l'échelle du petahertz, accélérant les possibilités de la nanoélectronique de plusieurs ordres de grandeur.

 

L'attoscience permettra de suivre lors d'une réaction l'évolution de la probabilité de présence dans l'espace des électrons participant aux liaisons chimiques. En France ATTOLab viendra compléter les installations existantes, ensemble qui permettra aux physiques et chimistes de combiner une résolution temporelle attoseconde et une résolution spatiale à l'échelle du dixième de nanomètre. Une voie permettant l’étude de nombreux phénomènes fondamentaux du cœur de la matière.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article

Présentation

  • : Lire au nid
  • Lire au nid
  • : Mes (ré)créations littéraires et photographiques.
  • Contact

Bienvenue...

Bienvenue sur ce blog ! Vous y découvrirez mes goûts, et dégoûts parfois, dans un désordre qui me ressemble ; y partagerez mon état d'esprit au fil de son évolution, parfois noir, parfois seulement gris (c'est le moins pire que je puisse faire !) et si vous revenez c'est que vous avez trouvé ici quelque chose qui vous convenait et désirez en explorant mon domaine faire mieux connaissance avec les facettes les moins souriantes de votre personnalité.

Rechercher

Pages