Overblog Suivre ce blog
Administration Créer mon blog
22 juin 2016 3 22 /06 /juin /2016 07:45

La Recherche Hors-Série 14

 

En 2006 la cape d'invisibilité sortit des contes pour entrer dans la réalité, encore faut-il préciser que son efficacité est réduite puisqu'elle ne rend un objet indétectable que pour des micro-ondes, celles-ci d'une longueur d'environ 33 centimètres. Le résultat était donc remarque pour les physiciens, moins pour les autres. Pour parler d'invisibilité il aurait fallu que ce dispositif fonctionne aux longueurs d'onde visible, entre 380 et 780 nanomètres (du violet au rouge) et fasse disparaître des objets ordinaires de taille supérieure à 0,1 millimètres.

Depuis six ans des efforts sont entrepris pour atteindre ces objectifs.

Pour qu'un objet ne réfléchisse pas, ou n’absorbe pas, la lumière, il faut qu'il courbe celle-ci autour de lui. Trois propriétés sont nécessaires pour fabriquer un dispositif d'invisibilité parfait.

Le matériau du dispositif d'invisibilité doit être anisotrope : ses propriétés doivent varier selon la direction de propagation de la lumière ; il doit être inhomogène : ses propriétés doivent varier dans l'espace et être magnétiquement actif : capable d'interagir avec la composante magnétique de l'onde.

 

Les recherches ayant progressé, les physiciens purent faire disparaître plusieurs objets de taille centimétrique, un trombone de bureau, un fragment d'acier et un morceau de papier. Ce dispositif fonctionne pour une grande partie des longueurs d'onde visibles, du rouge au bleu. Tant qu'il se trouve entre la source de lumière et l'observateur l'invisibilité est effective quel que soit l'angle sous lequel on regarde. Pour l'heure il n'est efficace qu'en lumière polarisée et en deux dimensions. Ses performances sont compromises lorsqu'il est utilisé à l'air libre plutôt qu'immergé dans un liquide à fort indice de réfraction.

De fait la cape d'invisibilité n'est pas encore au point, Harry Potter ne la trouvera pas dans notre monde de sitôt. La technologie progresse à un rythme effréné, plusieurs équipes annoncent de nouvelles versions de leurs découvertes, bien que pour l'instant il s'agisse plus de tapis que de cape. Celle-ci semble difficile à réaliser, sauf à faire intervenir la magie... néanmoins ce concept de cape peut concerner d'autres types d'ondes, les ondes acoustiques par exemple. Ondes de compression se propageant das un fluide. Grâce à une cape immergée dans ce fluide il serait possible de leur faire éviter une zone ou un objet. Un sous-marin pourrait ainsi passer inaperçu, les ondes acoustiques sont plus faciles à accélérer que les ondes optiques qui ne peuvent dépasser la vitesse de la lumière dans le vide. Les militaires étasuniens sont très intéressés par ces recherches alors qu'en Europe les recherches portant vers la protection contre les tsunamis. Une chape de 200 mètres de diamètres constituée d'anneaux concentriques pourraient guider les ondes autour d'une zone à protéger, les fondations d'un hôpital, d'une centrale nucléaire... Ce principe d'une ''cape'' pourrait détourner des ondes sismiques se présentant comme une chape de terrassement antisismique avec des colonnes de béton armé dans le sol.

 

Ainsi ce qui naquît de la lumière peut-il trouver une application inattendue.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
17 juin 2016 5 17 /06 /juin /2016 07:34

Les Dossiers de La Recherche N 2

D'où vient la vie ?

(Pascal Duris)

 

Vieille question ! Depuis l'antiquité elle hante l'imaginaire de l'homo sapiens (pour ses prédécesseurs rien n'est prouvé, ses successeurs le sauront probablement). La première idée fut que les êtres vivants émergeaient de la matière inerte. Il fallut attendre 1862, et Louis Pasteur, pour que cette théorie soit invalidée. S'opposant à Félix Archimède Pouchet, Pasteur démontra sa fausseté. Au début du vingtième siècle le chimiste Alexandre Oparine et le généticien John Haldane proposent la même solution : des systèmes vivants simples se seraient formés en l'absence d'oxygène dans les océans de la Terre primitive. Une lente, et longue, évolution chimique aurait précédé l'apparition du vivant.

Jusqu'au milieu du dix-huitième siècle les naturalistes sont convaincus que la Création n'a que 6000 ans. L'idée de la génération spontanée, admettant que la matière peut s'organiser d'elle-même, semble attenter aux droits divins. Jean Baptiste Van Helmont, chimiste et médecin flamant, est lui convaincu de la génération spontanée des insectes, à l'instar d'Aristote, et veut vérifier cette hypothèse. Ayant placé du blé dans un vase en verre bouché, il constate que des souris y sont apparues et conclut en la véracité de la génération spontanée, même chez la souris. D'autres mèneront des expériences qui donneront un résultat identique. Jean-Baptiste de Lamarck, père du transformisme, est convaincu que la nature entretient la génération spontanée des corps vivants les pus simples.

Le débat sera relancé en 1830 avec la découverte des ''microbes''. Arrive Félix Archimède Pouchet. Directeur du Muséum d'histoire naturelle de Rouen, connu pour ses travaux sur la contraception dans l'espère humaine, il défend la génération spontanée des microbes. L'Académie décide d'en finir avec cette idée et lance un concours. S'y inscrivent Pouchet, qui veut démontrer sa théorie, et Louis Pasteur. Celui-ci mène des études sur la fermentation et voit ce concours comme une digression. Menant diverses expériences il en vient à la conclusion que ''Gaz, fluides, électricité, magnétisme, ozone, choses connues ou choses occultes, il n'y a quoi que ce soit dans l'air, hormis les germes qu'il charrie, qui soit une condition de la vie'' précisant ''… dans toutes les expériences où l'on a cru reconnaître l'existence de générations spontanées, […] l'observateur a été victime d'illusions ou de causes d'erreur qu'il n'a pas aperçues où qu'il n'a pas su éviter.''

Ainsi la théorie de la génération spontanée disparut-elle du monde scientifique, preuve que la certitude du jour peut ne plus être celle du lendemain.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
15 juin 2016 3 15 /06 /juin /2016 07:11

La Recherche hors-série 14 : La Lumière

 

La maîtrise de la lumière promet des innovations extraordinaires. La science-fiction n'est que la vitrine du futur. Par exemple, la cape d'invisibilité ou le détournement des ondes sismiques pour limiter séismes et tsunamis.

 

En 2012 David Wineland et Serge Haroche partagent le prix Nobel de physique pour des travaux considérés comme une avancée dans l'observation des propriétés de la lumière et de la matière. Ceux-ci portent sur l'optique quantique qui étudie les propriétés fondamentales des atomes et de la lumière en interaction. Il s'agit d'enfermer des grains de lumière dans une cavité recouverte de miroirs entre lesquels les photons rebondissent et de se servir d'atomes pour observer le passage de l'échelle quantique à l'échelle macroscopique. La manipulation, sans les détruire, de particules uniques, ions ou photons, a été récompensée par le Nobel.

Ces recherches démarrent dans les années 1990, par l'observation de la décohérence : la disparition des effets quantiques, provoquée par les interactions des systèmes quantiques microscopiques avec le monde macroscopique, elles furent suivies, dix ans plus tard, par l'observation, pour la première fois, de photons. Prouesse notable, un détecteur voyant un photon en l'absorbant, donc en le détruisant. Il fallait prolonger la survie du photon au-delà de la centaine de microsecondes. L'expérience peut sembler sans autre utilité qu'elle-même, mais au fil des progrès apparurent des applications que personne n'attendait. David Wineland put ainsi construire une horloge cent fois plus précise que les horloges à césium, elle ne dérive que d'une demi-douzaine de secondes en 14 milliards d'années, l'âge de l'univers ! L'optique quantique engendra une discipline nouvelle : l'information quantique, avec des applications en cryptographie et la perspective de construire un ordinateur quantique. Pouvoir conserver assez longtemps un système quantique formé de milliers d'atomes placé dans leur propre superposition d'état permettrait de disposer d'une puissance de calcul extraordinaire, utile par exemple pour la factorisation de grands nombres.

Serge Haroche fut l'élève de Claude Cohen-Tannoudji, Nobel 1997, lequel fut celui d'Alfred Kastler, Nobel 1966, une lignée due à la structure de l'École normale supérieure qui dispose d'un important vivier d'étudiants en permettant aux chercheurs confirmés de travailler ensemble en combinant leurs compétences. Système établi également au National Institute of Standards and Technology de Boulder où travaille David Wineland et son équipe.

À la fin de son interview, avec Denis Delbecq, Serge Haroche n'oublie pas de rappeler que si le Nobel récompense un chef d'équipe, il ne faut pas oublier celle-ci.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
8 juin 2016 3 08 /06 /juin /2016 07:04

La Recherche hors-série 14 : La Lumière

Les lasers de l'extrême

(Sylvain Guilbaud)

 

Bella est le laser le plus puissant en activité, en quelques millionième de milliardième de seconde il peut délivrer mille fois la puissance du réseau électrique mondial. Il explore les interactions extrêmes entre lumière et matière.

 

Ces lasers fonctionnent sur le principe habituel auquel s'ajoutent deux ingrédients : une énergie élevée et une impulsion de quelques femtosecondes. Rapidité possible avec une énergie de l'ordre du nanojoule mais difficile avec un petawatt qui produit une onde dont le front se déforme. Pour contourner ce problème Gérard Mourou, professeur au Haut Collège de Polytechnique, inventa une méthode d'amplification à dérive de fréquence. Sur ce principe le premier laser petawatt vit le jour au LBNL en 1995. Deux projets sont en cours de réalisation en France, ils devraient pousser leurs premiers cris, lancer leur premier tir, cette année. Les puissances en jeu sont titanesque mais les installations également. Avec une telle intensité un tir laser arrache à sa cible matérielle une grande partie de ses électrons, les projetant vers l'avant, alors que les protons, plus lourds, restent en retrait.

De nouveaux pans de l'interaction lumière-matière se présentent avec pour objectif la matérialisation des particules ''virtuelles'' qui agitent le vide, ou la reproduction en laboratoire des conditions de températures régnant dans les étoiles. Ces lasers de très haute intensité peuvent être de très bons accélérateurs de particules et donc être capables de détruire des tumeurs cancéreuses sans requérir une installation gigantesque. La technologie petawatt représente un enjeu important pour la France.

 

D'autres installations petawatt sont en cours d'élaboration dans le monde mais Gérard Mourou imagine déjà la plateforme Izest envisageant des lasers exawatt (1018watts) et même zetawatt (1021). La course n'est pas prête de franchir la ligne d'arrivée.

 

Photons à la demande

(Benoît Boulanger, Sara Ducci, jean-Michel Gérard)

 

Pour la physique, la lumière est une onde électromagnétique se propageant dans le vide. Elle est aussi constituée de grains, les photons, dont l'énergie dépend de la longueur d'onde. Le développement de la mécanique quantique a permis d'affiner notre compréhension de cette double nature de la lumière.

Les photons sont caractérisés par leur longueur d'onde, direction de propagation et polarisation. Le défi est de produire de nouveaux états de la lumière pour contrôler ces paramètres et concevoir des sources lumineuses capables d'émettre des photons ''sur demande''.

Depuis une vingtaine d'années plusieurs laboratoires développent des sources lumineuses capables de générer des photons unique, des paires, ou des trios. Les propriétés de ces photons sont nouvelles puisque quantiques. Les paires par exemples présentent des liens plus forts que la lumière naturelle ou les lasers : on parle de photons intriqués. Les mesures de l'un permettent de connaître les valeurs de l'autre quelle que soit la distance qui les sépare.

En 2001 fut présenté la première source de photons uniques monomode, ceux-ci étaient émis avec un ''pistolet à photons'', une boîte quantique, assemblage de matériaux semi-conducteurs de la taille du nanomètre dans lesquels les électrons peuvent présenter des niveaux d’énergie distincts, comme dans un atome.

Il est délicat de manipuler et contrôler un atome unique. La fabrication des boîtes quantiques est pourtant bien maîtrisée et a permis de développer les sources de photons uniques les plus performantes à ce jour. Pour émettre un atome dans la direction voulue il faut placer la boîte au cœur d'une microcavité optique : une cage à photons de taille comparable à celle de la longueur d'onde de la lumière émise par la boîte et capable de confiner les photons dans n'importe quelle direction grâce à des miroirs.

 

Si les sources de photons uniques ouvre la perspective de maîtriser de nouveaux états de la lumière, les sources de paires de photons sont un pas de plus dans ce monde quantique. Pour les produire il faut induire une réponse optique non linéaire en éclairant avec un laser certains types de matériaux permettant que la lumière d'une certaine fréquence s'y propage pour faire vibrer ses électrons. Une onde lumineuse qui éclaire le matériau donne naissance à deux nouvelles ondes de fréquences différences : une ''scission'' d'un photon en deux photons d'énergie moindre dont la somme correspond à l'énergie du photon incident.

En 2004 la première émission de triplets de photons est réalisée à Grenoble. Pour cela il faut une intensité lumineuse de plus de 200 milliards de watts par centimètre carré. Intensité atteinte grâce à un laser envoyant des impulsions de l'ordre du millième de milliardième de seconde focalisé dans un cristal non linéaire. Les expériences en cours à l’Institut Néel de Grenoble visent à réduire le nombre de photons de stimulation nécessaire pour ne récupérer que les triplets de photons pour manipuler ce nouvel état de la lumière présentant des corrélations quantiques surprenantes et différentes des paires de photons ou d'un laser. Ces triplets permettraient un cryptage avec deux clés secrètes. Le premier portant l'information codée, les autres permettant de la décrypter. 

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
1 juin 2016 3 01 /06 /juin /2016 07:06

La Recherche hors-série 14 : La Lumière

Les sources incandescentes

(Jean-Jacques Greffet, Patrick Bouchon, François Marquier)

 

Le laser connut de spectaculaires développements mais d'autres moyens existent pour dompter la lumière. Une recherche fondamentale ouvrant la voie, entre autres, au développement de l'information quantique.

 

La lumière blanche que nous envoie le soleil contient l'ensemble des couleurs visibles mais également les rayons ultraviolets ou infrarouges. Nos systèmes d'éclairages visent à reproduire cette clarté par l'incandescence, c'est-à-dire, la propriété des corps à émettre de la lumière quand il sont chauffés. Celle-ci est également diffusée dans toutes les direction et son spectre large ne dépend que de la température. Pour l'éclairage ce système est médiocre puisque la plus grande partie de son énergie se perd dans l'infrarouge, d'où le retrait des lampes incandescentes.

Des solutions alternatives existent, utilisant tubes fluorescents ou diodes électroluminescentes, celles-ci présentent un faible rayonnement infrarouge et, donc, une meilleure utilisation de l'énergie qu'elles reçoivent. Pour autant ce rayonnement, s'il est inutile pour l'éclairage, est utile pour la production d'énergie thermo-photovoltaïque. Il s'agit de convertir de la chaleur en rayonnement thermique afin d'éclairer une cellule photovoltaïque possédant une efficacité de conversion optimale à cette longueur d'ondes. Il est donc souhaitable d'émettre un rayonnement aux fréquences et directions souhaitées. Cela se fait par la création d'une ''métasurface'' présentant des propriétés n'existant pas dans la nature afin de faciliter l’absorption de la lumière. Un miroir peut présenter cette qualité mais également un semi-conducteur comme l'arséniure de gallium (GaAs) permettant la fabrication de puits quantiques confinant les électrons dans de fines couches de GaAs, séparées par des couches d'arséniure de gallium-aluminium (AlGaAs). Pour cela il faut que la surface absorbe la lumière sans la réfléchir, des métasurfaces présentent cette qualité.

 

Course à la vitesse

(Pascal Salières, Thierry Ruchon, Bertrand Carré)

 

La persistance des images sur la rétine, quelques dizaines de millisecondes, nous empêche de suivre des phénomènes tels la progression d'une décharge électrique dans les nuages. Pour briser cette barrière l'homme a développé les instruments permettant de mesurer des évolutions toujours plus rapides. Eadweard Muybridge, photographe, voulu décrire les mouvements d'un cheval au galop, il prit des photos à intervalles réguliers le long d'une piste avec un temps d'exposition suffisamment court pour figer le mouvement. Technique reprise depuis, améliorée par le laser, au point de diminuer la durée d'exposition à seulement quelques femtosecondes. Cette durée étant celle du mouvement des atomes dans les molécules, permettant d'observer les déplacement des atomes lors des vibrations des molécules ou lors de leur dissociation.

Les électrons sont mille fois plus rapides, leur observation demande une vitesse de l'ordre de l'attoseconde. Une limite de la technologie laser, l'impulsion ne peut être plus brève que la période de l'onde électromagnétique qui la porte, environ 2 femtosecondes, pour descendre au niveau demandé il faut une période plus courte, celle des rayons X. pour produire celle-ci il faut synchroniser les ondes harmoniques produites à un instant donné.

 

Trois applications requièrent cette rapidité :

La Spectroscopie moléculaire : le moyen de contrôler la dissociation de la molécule de dihydrogène lorsqu'un électron lui est arraché.

La dynamique des biomolécules : induire des mouvements électroniques ultrarapides dans un acide aminé, la migration de charge d'une extrémité à l'autre de la molécule en 2 femtosecondes a ainsi été détectée, ouvrant la perspective d'une chimie plus ''contrôlée'' dans des molécules d'intérêt biologiques.

La physique du solide : la manipulation de signaux électroniques à l'échelle du petahertz, accélérant les possibilités de la nanoélectronique de plusieurs ordres de grandeur.

 

L'attoscience permettra de suivre lors d'une réaction l'évolution de la probabilité de présence dans l'espace des électrons participant aux liaisons chimiques. En France ATTOLab viendra compléter les installations existantes, ensemble qui permettra aux physiques et chimistes de combiner une résolution temporelle attoseconde et une résolution spatiale à l'échelle du dixième de nanomètre. Une voie permettant l’étude de nombreux phénomènes fondamentaux du cœur de la matière.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
25 mai 2016 3 25 /05 /mai /2016 07:38

La Recherche Hors-Série 14

Interview avec Claude Cohen-Tannoudji : ''La lumière s'étudie par son interaction avec la matière, étude qui commença avec Descartes et Newton qui furent les premiers à développer des modèles satisfaisants. Corpusculaires, Newton voyait la lumière comme un jet de corpuscules différents selon la couleur de celle-ci. Cette conception fut remise en cause à la suite des travaux de Huygens, Fresnel et Young qui mirent en évidence ses propriétés ondulatoire. Maxwell conçu un schéma intégrant l'électricité, le magnétisme et la propagation des ondes électromagnétiques. Hertz ensuite montra que les ondes électromagnétiques lumineuses et radio ne différaient que par leur fréquence. Les théories corpusculaire et ondulatoire s'affrontèrent, la seconde parut l'emporter par son apport de plus d'explication des phénomènes lumineux. Celle-ci pourtant ne résolvait pas tous les problèmes et les résultats apportés par certaines expériences. Pour apporter une correction Max Planck conçut une nouvelle théorie permettant d'obtenir le bon spectre en modélisant les atomes émetteurs comme un ensemble d'oscillateurs matériels interagissant avec le rayonnement. Bien qu'il ne soit pas totalement satisfait du résultat il introduit la constante qui porte son nom : h, du mot allemand Hilfsgrösse, voulant dire ''grandeur auxiliaire''.

Ne sont pourtant quantifiés que les échanges d'énergie entre la matière et le rayonnement. Le concept de photon apparut plus tard, imaginé par Einstein qui formula l'idée d'un quantum lumineux, idée qui fut admise après une dizaine d'années d'expériences mais qui ne proposait pas de théorie précise. C'est Louis de Broglie qui étendit à la matière la notion de dualité onde-corpuscule, ouvrant la voie à de nouveaux développements : l'équation de Schrödinger, la mécanique quantique, la liaison chimique, la théorie des solides... le cadre pour une théorie quantique de l'interaction entre matière et rayonnement se met en place. À la fin des années 1920, Enrico Fermi et Paul Dirac proposent une théorie englobant les aspects corpusculaire et ondulatoire qui ouvrait la voie à l'élaboration de l'électrodynamique quantique.

Le laser naquit des recherches sur les micro-ondes et le radar.la connaissances des niveaux atomiques et moléculaires avait progressé, le physicien américain Charles Townes eut l'idée d'amplifier un rayonnement, obtenant la première preuve d'oscillation maser (microwave amplification by stimulated emission of radiation). Theodore Maiman eut l'idée de remplacer les micro-ondes par un cristal de rubis, obtenant une amplification cohérente. Le L de light remplaça donc le M de micro-ondes. Le laser était né.

En 1963 au congrès d'électronique quantique de Paris le laser passait pour une curiosité de laboratoire, une source de lumière différente, bref, une découverte attendant des applications. Chers et complexes, les lasers évoluent, s'industrialisent, pour devenir fréquents dans les années 1970. il permit d'étendre dans le domaine optique une série de concepts développés dans l'étude de la ''résonance magnétique''. Au début des années 80 le laser fut utilisé pour refroidir des atomes permettant d'obtenir des mesures beaucoup plus précises de ceux-ci. La recherche sur les atomes froids permit ainsi des progrès spectaculaires en métrologie. Le laser permet aussi des avancées dans l'information quantique, sa transmission, son traitement ; la cryptographie quantique, et bien d'autres domaines. Il permit de mieux comprendre les interactions de la lumière et de la matière, d'avoir accès à la dynamique des noyaux avec la réalisation d'impulsions laser femtoseconde (10-15 secondes), avec l'accession à l'attoseconde, mille fois plus petite, c'est la dynamique des électrons qui devient accessible. Parallèlement la puissance des lasers atteint le petawatt, posant de nouvelles interrogations sur le comportement de la matière dans des champs aussi élevés.

Et le Prix Nobel 1997 conclut : Le monde quantique est bien mystérieux et nous réserve sans doute encore bien des surprises.''

 

Raison de plus pour s'y intéresser.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
18 mai 2016 3 18 /05 /mai /2016 07:21

Les Dossiers de La Recherche N 2

 

Thomas Carrere et Laurent Giordano

Depuis décembre 2012 60 médecins, technologues et biologistes se retrouvent à Clinatec, à Grenoble, dans le cadre de Minatec, avec pour mission d'élaborer des traitements contres maladies cérébrales, pathologies neurodégénératives ou cancers avec pour ambition la mise au point de micro et de nanodispositifs qui seront implantés pour être moins invasifs et atténuer les effets d'une maladie. Ce projet a pour but de rapprocher ingénieurs et médecins pour mettre en place plus rapidement l'innovation technologique au service des patients.

Ce centre est né d'un partenariat entre le laboratoire d'électronique et de technologies de l’information du CEA, le centre hospitalo-universitaire de Grenoble, l'INSERM et l'université Joseph-Fourier. Sur 6000 M2 il abrite plusieurs laboratoires technologiques et médicaux.

Les premières recherches cliniques portent sur les neuroprothèses destinées aux tétraplégiques, l'implantation dans le cerveau de dispositifs pour traiter l'épilepsie, les troubles mentaux, les TOC, voire la boulimie, l'anorexie, et, pourquoi pas, dans l'avenir, les comportements dépressifs et suicidaires.

Il va sans dire que ces projets sont inquiétants pour les humanitégristes qui voient une menace pour l’individu et sa réduction à son comportement, à son utilité.

Est-il autre chose, hors les mythes qu'il a généré pour détourner le regard ?

[L'Histoire montre que sans nanopuce, biomachine et microbidules l'individu en question est impossible à enrégimenter !]

Il n'est question que de réparer l'homme malade et pas d'augmenter l'homme sain, répond François Berger, nos recherches sont transparentes et surveillés.

 

[Soyons sûrs que les recherches effectuées dans ce dernier but ne seront pas médiatisées.]

Des entrepreneurs ont développé le potentiel des nanotechnologies dans le secteur de la santé mais leurs avancées sont surveillées pour concilier progrès et sécurité sanitaire. Médicaments ''intelligents'', implants révolutionnaires, tests de diagnostic ultrasensibles... les innovations à venir sont nombreuses et prometteuses autant pour la médecine que pour l'industrie et les emplois qu'elle créera. S'ils ne le sont pas en France ils le seront ailleurs, et dans des zones à la surveillance moindre.

La médecine profitera de cette nouvelle voie de recherches, et des erreurs seront commises, mais, sauf à ne jamais rien faire comment ne pas se tromper ?

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
11 mai 2016 3 11 /05 /mai /2016 07:36

Les Dossiers de La Recherche N 2

 

                               (Laurent Giordano)

 

Nous prenons tous un médicament quand nous en avons besoin, le problème est qu'une petite partie seulement de leurs principes actifs sont efficaces, le reste est dégradé puis évacué. Il semble logique de produire des médicaments capables de cibler les cellules malades.

La nanomédecine est l'utilisation de nanoparticules synthétiques transportant des principes actifs mais aussi pour des implants osseux ou des régulateurs cardiaques. L'organisation internationale de normalisation définit les nanomatériaux comme compris entre 1 et 100 nanomètres pourvus de propriétés spécifiques à cette échelle.

Certaines industriels préfèrent pourtant éviter la qualification de ''nanos'' pour éviter des réglementations trop contraignantes. La limite des 100 nanomètres n'a pourtant aucun fondement scientifique, certaines propriétés peuvent apparaître à 10 comme à 500 nanomètres. La limite, supérieure, du micromètres semble la plus valide.

 

Les nanomédicaments associent deux composantes : le principe actif et la nanoparticule qui la transporte vers les cellules malades. Cette méthode est appelé vectorisation par nanoparticule, elle permet d'envoyer vers les cellules des agents chimiothérapeuthiques, diagnostiques ou d'autres accroissant les effets des radiothérapies. Ces vectorisations sont associés pour une plus grande efficacité. Les nanovecteurs protègent la molécule active des enzymes de l'organisme et visent le cellule cible pour le libérer. Ils permettent d'atteindre de très petites zones lésées et de détecter les maladies, en particulier les cancers, à un stade précoce.

 

Son domaine le plus abouti est celui du remplacement et de la régénération des tissus et organes lésés, en particulier les dents et les os. Pour qu'un implant s'intègre bien il doit stimuler la synthèse des tissus dans lesquels il est introduit en favorisant la multiplication des cellules qui l'entourent. Des implants nanoporeux offrent une surface de contact 100 fois supérieure aux implants classiques et peuvent être améliorés par l'insertion de nanoréservoirs contenant des substances thérapeutiques ou des facteurs favorisant la croissance cellulaire. D'autres domaines profitent de la nanomédecine : pansements, masques chirurgicaux, stimulateurs cardiaques, prothèses auditives... tant que certains semblent appartenir à la science-fiction. Des artères artificielles pourraient simuler les vaisseaux sanguins naturels, des nanotubes de carbone pourraient surveiller la quantité de glucose dans le sang. Mieux : des nanorobots pourraient sonder l'organisme et les cellules à la recherches d'éventuelles maladies, éliminer ou réparer directement les cellules malades en préservant les saines.

Les premiers nanomédicaments ont 15 ans et leur progression devraient être largement supérieure à celle du secteur pharmaceutique. Plus efficaces, générant moins d'effets secondaires, ils réduisent les frais de santé publique.

 

Toute nouveauté générant la peur des individus les plus obtus, il en est de même de celui-ci chez ceux qui guettent l'occasion de se mettre en avant pour protéger des certitudes aussi étroites que leurs capacités intellectuelles sont limitées. Pour eux le monde doit se figer, et s'il régressait ce serait encore mieux. Dans ce domaine comme dans les autres les nanotechnologies ne sont qu'un moyen. En médecine elles doivent respecter les mêmes obligations que n'importe quel médicament même si leurs spécificités rendent difficiles l'examen de leur usage au fil des années. Le goût des autorités pour toujours plus de réglementation ne peut que aller dans le sens de la sécurité.

 

Du moins, en principe ! 

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
6 mai 2016 5 06 /05 /mai /2016 07:36

Les Dossiers de La Recherche N° 2

Lise Barnéoud- Sandrine Etien

Pasquale Stano & Pier Luigi Luisi

 

L'heure est encore aux hypothèses concernant l'assemblage des briques élémentaires du vivant afin de donner naissance aux premiers organismes.

En 1953 Stanley Miller fait sensation en obtenant des acides aminés à partir d'un mélange de gaz censé être semblable à l'atmosphère originelle de la Terre. Vingt ans plus tard ces démentis pour cause d'inexactitude, avant d'être repris en compte récemment. En effet Miller avait laissé 200 échantillons d'expérimentations différentes. De fait l'atmosphère terrestre était propice à l'apparition des acides aminés indispensables. Quand à comprendre comment ceux-ci s'assemblèrent pour former les premières protéines c'est une autre affaire.

Une autre question se pose : est-ce la molécule d'ADN, nécessaire à la synthèse des protéines, qui apparu en premier, ou ces mêmes protéines pour favoriser la réplication de l'ADN ?

Comment souvent, quand une réponse est introuvable c'est qu'il n'y a pas de question. En mai 2009 Matthew Powner, Béatrice Gerland et John Sutherland, et leur équipe, démontrent que les constituants de base de l'acide ribonucléique, ARN, l'autre molécule porteuse de l'information génétique, peuvent être synthétisés en l'absence de protéines.

La preuve semble faite que la vie a commencé avec l'ARN. Les ultraviolets apportaient l'énergie indispensable aux réactions chimiques, tout était en place pour que l'acide ribonucléique se réplique et évolue, grâce à des erreurs de transcriptions, comme le fait l'ADN aujourd'hui. L'ARN porte non seulement l'information génétique mais permet de synthétiser les protéines tout en pouvant s'autorépliquer. Il se suffit à lui même, contrairement à l'ADN qui se contente de stocker l'information.

Reste ''simplement'' à synthétiser un brin d'ARN comportant les quatre bases à partir de précurseurs simples, de catalyseurs et de stabilisants pour que le ''monde à ARN'' gagne encore en crédibilité.

Autre interrogation : quel est le plus petit nombre de gènes suffisant pour rendre viable une cellule ? 400 paraît la réponse plausible. Celle-ci apportée, les recherches peuvent continuer pour créer en laboratoire des cellules possédant les propriétés minimales de la vie. Encore faut-il réduire celle-ci en propriétés nécessaires et suffisantes.

Pour construire une cellule synthétique le chemin le plus évident semble celui, postulé, qu'aurait suivi la vie elle-même. À partir d'acides aminés, de sucres, de lipides et de bases azotées donnant naissance à des macromolécules suivies de ''protocellules''. Voie trop complexe pour être suivie, celle qui fut choisie consiste à utiliser des enzymes, des gènes et les ribosomes nécessaires à la construction des cellules minimales. Pour cela il faut reproduire les membranes lipidiques des véritables cellules afin de produire des vésicules propre à abriter la cellule et son matériel génétique.

Sera-t-il possible de concevoir et construire des cellules synthétiques capables d'autoreproduction de son cœur comme de son enveloppe ? Probablement, la route devra se poursuivre encore.

Où nous ménera-t-elle, si l'on considère que la biologie de synthèse ne méritera ce nom que quand les chercheurs concevront des gènes n'existant pas dans la nature nous pouvons notre mal en patience.

À moins que ce ne soit notre bien...

 

Mais j'en doute !

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article
30 avril 2016 6 30 /04 /avril /2016 08:00

Les Dossiers de La Recherche N° 2

La vie sur Mars

Jean-François Haït

 

La vie, dans les premiers temps de Mars, aurait-elle pu apparaître sur cette planète ? Planétologues, biologistes et chimistes répondent positivement, réponse encore spéculative.

Quel était l'aspect de Mars durant sa jeunesse (son premier millénaire) ? Difficile de le savoir avec précision, comme le principe consistant à chercher des formes de vies semblables à celles que nous connaissons. Basée sur des extrapolations l'enquête exploite les indices dont elle dispose.

Première condition indispensable : la présence d'eau. Elle joue le rôle de solvant et concentre les molécules disponibles, augmentant la probabilité de réactions chimiques. Si sur Terre elle fut toujours abondante, ce n'est pas la cas sur la planète rouge même si la découverte de phyllosilicates prouve une présence ancienne. Plusieurs sites recelant cet argile ont été repérés se trouvant sur des terrains dont l'âge avoisine les 3,8 M d'années.

On ne connaît ni l'importance ni la durée des épisodes d'eau liquide sur Mars précise Nicolas Mangold. Peu importe puisque la vie a pu apparaître cent millions d'années après la formation de la Terre. Quelques millions d'années suffirent. Sur Terre les traces les plus anciennes de bactéries fossiles ont été trouvées en Australie, incluse dans des roches vieilles d'environ 3,5 milliards d'années.

Deuxième condition : la présence d'une atmosphère. Elle exista forcément puisque l'eau qui a coulé à la surface de Mars ne s'y maintint que grâce à une pression atmosphérique suffisante.

De celle-ci aujourd'hui ne reste qu'un vestige. Quand et pourquoi disparut-elle... La planète se refroidissant vit son champ magnétique disparaître, or celui-ci la protégeait des vents solaires, ceux-ci purent ensuite ronger l'atmosphère jusqu'à la faire quasi disparaître. Sa pression aujourd'hui est à 6 millibars. L'effet de serre disparu Mars se refroidit et est bombardée de particules cosmiques et par le rayonnement ultraviolet du Soleil.

La surface devenue inhospitalière, la vie, pour perdurer, due se réfugier dans les profondeurs.

 

Troisième condition : un climat suffisamment clément pour qu’une vie puisse se développer. Quelle était la température de l'atmosphère ? En aucune façon elle n'atteignit celle de la Terre, pour autant la vie, une fois née, aurait pu s'adapter et évoluer.

Ces conditions réunies, comment les composants de base du vivant terrestre seraient-ils apparus ? En provenant de l'espace par exemple. Mars, comme notre planète connu un abondant bombardement de météorites dont certaines, les chondrites carbonées, sont riches en molécules organiques de toutes sortes. Un scénario simple mais dont la plausibilité est remise en question.

Ces mêmes molécules organiques auraient-elles pu se former directement sur Mars ? Azote, dioxyde de carbone, méthane, sulfure d'hydrogène ou ammoniac, entre autre mais principalement, auraient pu exister puis se combiner pour former des molécules organiques dans une ''soupe prébiotique martienne''.

Ceci admis, la vie nécessite d'autres conditions, et premièrement la faculté de se reproduire. Il lui faut un apport d'énergie suffisant et permanent. Le Soleil pouvait remplir ce rôle.

Les questions restent posées, des réponses sont apportées mais aucune démonstration encore. L'avenir nous en apprendre, peut-être, davantage.

Repost 0
Publié par Lee Rony - dans J'ai lu Science
commenter cet article

Présentation

  • : Lire au nid
  • Lire au nid
  • : Mes (ré)créations littéraires et photographiques.
  • Contact

Bienvenue...

Bienvenue sur ce blog ! Vous y découvrirez mes goûts, et dégoûts parfois, dans un désordre qui me ressemble ; y partagerez mon état d'esprit au fil de son évolution, parfois noir, parfois seulement gris (c'est le moins pire que je puisse faire !) et si vous revenez c'est que vous avez trouvé ici quelque chose qui vous convenait et désirez en explorant mon domaine faire mieux connaissance avec les facettes les moins souriantes de votre personnalité.

Rechercher

Pages