jeudi 12 février 2015
5000ème lecteur pour Soixante Nanosecondes
Un an et deux mois après la mise en ligne de mon roman Soixante Nanosecondes, le 5000ème lecteur de la page dédiée vient d'être atteint, ce qui en fait également la page la plus vue de Ça Se Passe Là-Haut depuis sa création...
Le jour où j'ai mis en ligne gratuitement mon livre, je n'imaginais pas une seule nanoseconde pouvoir atteindre autant de lecteurs avec ce roman, le roman des neutrinos supraluminiques. Je tiens à vous remercier chaleureusement, chers lectrices et lecteurs, en espérant qu'il vous aura donné l'envie d'en savoir encore plus sur Ettore Majorana ou les neutrinos.
A cette occasion, vous pouvez en connaître davantage sur les coulisses de l'écriture de Soixante Nanosecondes,en écoutant une interview que j'ai donnée la semaine dernière à l'excellent blog Lisez La Science, consacré aux livres de sciences.
*****************************************************************************vendredi 6 février 2015
Un an et deux mois après la mise en ligne de mon roman Soixante Nanosecondes, le 5000ème lecteur de la page dédiée vient d'être atteint, ce qui en fait également la page la plus vue de Ça Se Passe Là-Haut depuis sa création...
Le jour où j'ai mis en ligne gratuitement mon livre, je n'imaginais pas une seule nanoseconde pouvoir atteindre autant de lecteurs avec ce roman, le roman des neutrinos supraluminiques. Je tiens à vous remercier chaleureusement, chers lectrices et lecteurs, en espérant qu'il vous aura donné l'envie d'en savoir encore plus sur Ettore Majorana ou les neutrinos.
A cette occasion, vous pouvez en connaître davantage sur les coulisses de l'écriture de Soixante Nanosecondes,en écoutant une interview que j'ai donnée la semaine dernière à l'excellent blog Lisez La Science, consacré aux livres de sciences.
Hyper-K, le futur détecteur de neutrinos gigantesque
Les physiciens japonais ont pour projet de construire un détecteur de neutrinos gigantesque, de plus d’un million de tonnes… Ce futur détecteur s’appelle HyperKamiokande, et prendrait la suite de l’actuel SuperKamiokande.
Illustration d'une vue d'ensemble du
détecteur Hyper Kamiokande
(Hyper-K collaboration)
HyperKamiokande, qu’on appelle déjà Hyper-K, permettrait de détecter 20 fois plus de neutrinos que SuperKamiokande dans la même durée, ou le même nombre, mais 20 fois plus vite, si vous préférez ; faire en 5 ans ce que Super-K aurait pu faire en un siècle.
Hyper-K serait constitué de deux énormes réservoirs d’eau ultra-pure, de 250 m de long. Il permettrait non seulement de détecter les neutrinos en provenance du ciel (neutrinos solaires ou neutrinos astrophysiques des supernovas ou d’ailleurs, ainsi que des neutrinos atmosphériques produits dans la haute atmosphère), mais aussi des neutrinos produits par l’Homme envoyés dans ce méga détecteur par un faisceau d’un accélérateur de particules. L’un des challenges à accomplir pour disposer d’un tel instrument unique en son genre sera de réunir la bagatelle de 800 millions de dollars. C’est notamment dans cet objectif que des physiciens de 13 pays se sont réunis le weekend dernier pour lancer ce qui ressemble à une protocollaboration, à même de s’adresser d’un seul nom aux diverses agences de financement de la recherche. L’affaire est loin d’être gagnée car il y aura de la concurrence, d’un côté certains physiciens japonais souhaite installer au Japon le plus grand collisionneur de particules (électrons-positrons), l'International Linear Collider, et de l’autre, les américains ont un autre projet de détecteur géant de neutrinos.
L’aventure japonaise des neutrinos a commencé il y a 30 ans avec l’expérience Kamiokande(Kamioka Nucleon Decay Experiment), qui démontra qu’il était possible de déterminer l’énergie et la direction de trois types de neutrinos différents : les neutrinos du soleil, ceux provenant d’une supernova et ceux produits dans l’atmosphère par interaction de rayons cosmiques. Ces recherches valurent d’ailleurs à son responsable scientifique Masatoshi Koshiba le prix Nobel de Physique en 2002. On se souvient notamment de la détection le 23 février 1987 par Kamiokande d’une poignée de neutrinos provenant de la fameuse supernova du grand nuage de Magellan SN1987A.
Vue de l'intérieur du détecteur
SuperKamiokande (Kamioka observatory)
Puis dans les années 1990, Kamiokande et devenu SuperKamiokande(Super-K), et a permit de démontrer que les neutrinos avaient bien une masse… L’objectif de l’évolution de Super-K en Hyper-K serait d’aller explorer encore davantage les propriétés des neutrinos. Le procédé physique utilisé resterait le même : les neutrinos interagissent dans l’eau en créant indirectement de la lumière par effet Cerenkov. L’analyse de cette lumière permet ensuite de déterminer de nombreux paramètres, comme le type de neutrino parmi les trois familles connues, l’énergie, et leur direction d’incidence. Ces énormes réservoirs instrumentés de milliers de photomultiplicateurs sont enfouis par 1000 m de profondeur dans une ancienne mine, de manière à réduire les bruits de fond parasites.
Kamiokande contenait 3000 tonnes d’eau et 1000 capteurs de lumière, puis Super-K à partir de 1996 monta à 50000 tonnes d’eau et 13000 capteurs, et Hyper-K est prévu pour être formé de deux réservoirs contenant chacun 1 million de tonnes d’eau et 100 000 capteurs…
Le nombre de personnels impliqués dans les projets grossit quasi proportionnellement; alors qu’ils étaient une vingtaine, tous japonais, sur Kamiokande, Super-K est composé de 120 scientifiques pour moitié non-japonais, et Hyper-K implique déjà près de 250 chercheurs et ingénieurs de plus de 60 laboratoires répartis dans le monde, alors qu'on est qu’au stade du papier.
L’une des particularités de Super-K est qu’il permet d’étudier des neutrinos produits par un accélérateur de proton, le J-PARC (Japan Proton Accelerator Research Complex), qui est situé à Tokai, à 295 km de là et qui tire des neutrinos en direction de Super-K. Ce type de mesure permet d’étudier comment les neutrinos oscillent d’une saveur à une autre (un neutrino électronique se transforme en neutrino muonique ou tauique, et/ou vice-versa). Hyper-K fera bien sûr le même type de mesures, mais les physiciens de J-PARC proposent en plus de multiplier par trois l’intensité du faisceau de neutrinos à cette occasion.
Mais c’est peut-être l’observation des neutrinos astrophysiques qui est la plus exaltante : les chercheurs ont estimé que si une supernova explosait (enfin !, on l’attend depuis 400 ans) dans notre galaxie, Hyper-K pourrait détecter 250000 neutrinos en l’espace de 10 secondes, permettant des données fabuleuses pour comprendre ces explosions d’étoile.
Il existe une dernière cerise sur le gâteau : Hyper-K est tellement massif avec ces millions de tonnes d’eau et possède tellement de photodétecteurs, qu’il pourrait être sensible pour détecter la désintégration d’un seul proton. La désintégration du proton a été postulée mais n’a encore jamais été observée. Si elle l’était, notre vision de l’Univers (futur) en serait bouleversée…
En attendant, la proto-collaboration devrait rendre ses études de design à la fin de l’année, avec l’espoir de débuter une construction en 2018, pour une mise en service dès 2025. C’est demain.
Source :
Japanese neutrino physicists think really big
Dennis Normile
Science Vol. 347 no. 6222 p. 598 (6 February 2015)
Les physiciens japonais ont pour projet de construire un détecteur de neutrinos gigantesque, de plus d’un million de tonnes… Ce futur détecteur s’appelle HyperKamiokande, et prendrait la suite de l’actuel SuperKamiokande.
Illustration d'une vue d'ensemble du détecteur Hyper Kamiokande (Hyper-K collaboration) |
HyperKamiokande, qu’on appelle déjà Hyper-K, permettrait de détecter 20 fois plus de neutrinos que SuperKamiokande dans la même durée, ou le même nombre, mais 20 fois plus vite, si vous préférez ; faire en 5 ans ce que Super-K aurait pu faire en un siècle.
Hyper-K serait constitué de deux énormes réservoirs d’eau ultra-pure, de 250 m de long. Il permettrait non seulement de détecter les neutrinos en provenance du ciel (neutrinos solaires ou neutrinos astrophysiques des supernovas ou d’ailleurs, ainsi que des neutrinos atmosphériques produits dans la haute atmosphère), mais aussi des neutrinos produits par l’Homme envoyés dans ce méga détecteur par un faisceau d’un accélérateur de particules. L’un des challenges à accomplir pour disposer d’un tel instrument unique en son genre sera de réunir la bagatelle de 800 millions de dollars. C’est notamment dans cet objectif que des physiciens de 13 pays se sont réunis le weekend dernier pour lancer ce qui ressemble à une protocollaboration, à même de s’adresser d’un seul nom aux diverses agences de financement de la recherche. L’affaire est loin d’être gagnée car il y aura de la concurrence, d’un côté certains physiciens japonais souhaite installer au Japon le plus grand collisionneur de particules (électrons-positrons), l'International Linear Collider, et de l’autre, les américains ont un autre projet de détecteur géant de neutrinos.
L’aventure japonaise des neutrinos a commencé il y a 30 ans avec l’expérience Kamiokande(Kamioka Nucleon Decay Experiment), qui démontra qu’il était possible de déterminer l’énergie et la direction de trois types de neutrinos différents : les neutrinos du soleil, ceux provenant d’une supernova et ceux produits dans l’atmosphère par interaction de rayons cosmiques. Ces recherches valurent d’ailleurs à son responsable scientifique Masatoshi Koshiba le prix Nobel de Physique en 2002. On se souvient notamment de la détection le 23 février 1987 par Kamiokande d’une poignée de neutrinos provenant de la fameuse supernova du grand nuage de Magellan SN1987A.
Vue de l'intérieur du détecteur SuperKamiokande (Kamioka observatory) |
Puis dans les années 1990, Kamiokande et devenu SuperKamiokande(Super-K), et a permit de démontrer que les neutrinos avaient bien une masse… L’objectif de l’évolution de Super-K en Hyper-K serait d’aller explorer encore davantage les propriétés des neutrinos. Le procédé physique utilisé resterait le même : les neutrinos interagissent dans l’eau en créant indirectement de la lumière par effet Cerenkov. L’analyse de cette lumière permet ensuite de déterminer de nombreux paramètres, comme le type de neutrino parmi les trois familles connues, l’énergie, et leur direction d’incidence. Ces énormes réservoirs instrumentés de milliers de photomultiplicateurs sont enfouis par 1000 m de profondeur dans une ancienne mine, de manière à réduire les bruits de fond parasites.
Kamiokande contenait 3000 tonnes d’eau et 1000 capteurs de lumière, puis Super-K à partir de 1996 monta à 50000 tonnes d’eau et 13000 capteurs, et Hyper-K est prévu pour être formé de deux réservoirs contenant chacun 1 million de tonnes d’eau et 100 000 capteurs…
Le nombre de personnels impliqués dans les projets grossit quasi proportionnellement; alors qu’ils étaient une vingtaine, tous japonais, sur Kamiokande, Super-K est composé de 120 scientifiques pour moitié non-japonais, et Hyper-K implique déjà près de 250 chercheurs et ingénieurs de plus de 60 laboratoires répartis dans le monde, alors qu'on est qu’au stade du papier.
L’une des particularités de Super-K est qu’il permet d’étudier des neutrinos produits par un accélérateur de proton, le J-PARC (Japan Proton Accelerator Research Complex), qui est situé à Tokai, à 295 km de là et qui tire des neutrinos en direction de Super-K. Ce type de mesure permet d’étudier comment les neutrinos oscillent d’une saveur à une autre (un neutrino électronique se transforme en neutrino muonique ou tauique, et/ou vice-versa). Hyper-K fera bien sûr le même type de mesures, mais les physiciens de J-PARC proposent en plus de multiplier par trois l’intensité du faisceau de neutrinos à cette occasion.
Mais c’est peut-être l’observation des neutrinos astrophysiques qui est la plus exaltante : les chercheurs ont estimé que si une supernova explosait (enfin !, on l’attend depuis 400 ans) dans notre galaxie, Hyper-K pourrait détecter 250000 neutrinos en l’espace de 10 secondes, permettant des données fabuleuses pour comprendre ces explosions d’étoile.
Il existe une dernière cerise sur le gâteau : Hyper-K est tellement massif avec ces millions de tonnes d’eau et possède tellement de photodétecteurs, qu’il pourrait être sensible pour détecter la désintégration d’un seul proton. La désintégration du proton a été postulée mais n’a encore jamais été observée. Si elle l’était, notre vision de l’Univers (futur) en serait bouleversée…
En attendant, la proto-collaboration devrait rendre ses études de design à la fin de l’année, avec l’espoir de débuter une construction en 2018, pour une mise en service dès 2025. C’est demain.
Source :
Japanese neutrino physicists think really big
Dennis Normile
Science Vol. 347 no. 6222 p. 598 (6 February 2015)
***********************************************************************************
*********************************************************************************************
mardi 10 février 2015
Preuve de la présence de matière sombre à l'intérieur de la Voie Lactée
Les études s'intéressant à la matière noire de notre galaxie, plus précisément à l'évaluation de sa densité, sont de deux sortes : soit elles sont fondées sur des modélisations de la distribution de masse, ou soit elle tentent d'effectuer des mesures locales dans l'environnement du Soleil via une estimation du potentiel gravitationnel local grâce à des mesures de la cinématique des étoiles et de gaz dans le voisinage du Soleil.
Une étude qui vient de paraître en ligne dans Nature Physics montre sans ambiguïté pour la première fois grâce à de telles mesures de vitesses d'étoiles que de la masse non visible est présente en grande quantité dans la partie la plus interne de notre galaxie, à proximité du Soleil et entre le Soleil et le centre galactique.
La présence de matière sombre dans les parties externes de notre Galaxie avaient déjà été mise en évidence depuis de nombreuses années, mais elle a toujours été compliquée à mettre en évidence dans notre voisinage proche, au cœur de la Voie Lactée, à cause de la difficulté inhérente à obtenir des mesures de vitesse de rotation avec la précision requise pour ce type d'évaluation.
Et c'est pourtant aujourd'hui ce que sont parvenus à faire les astrophysiciens Miguel Pato de l'Université de Stockholm et ses collègues Fabio Iocco et Gianfranco Bertone. Ils ont pour cela confectionné la plus grande compilation de mesures de vitesses de gaz et d'étoiles de notre Galaxie publiées depuis des dizaines d'années. Ils ont ensuite comparé toutes ces vitesses de rotation de gaz et d'étoiles avec ce qui serait attendu dans l'hypothèse où il n'existerait que de la matière lumineuse dans la Galaxie (c'est à dire que toute le masse serait ce qu'on peut voir).
Ils démontrent que la rotation observée à l'intérieur de la Voie Lactée ne peut pas être expliquée sans considérer la présence de grandes quantités de matière noire autour de nous.
Il faut dire que nos trois astrophysiciens ont utilisé vraiment un échantillon impressionnant : 2780 mesures de vitesses, en grande majorité des cinématiques de gaz et plus minoritairement des mouvements d'étoiles (un peu plus de 500 tout de même).
Miguel Pato insiste : "Notre méthode permettra pour les prochaines observations astronomiques , de mesurer la distribution de matière sombre dans notre Galaxie avec une précision inégalée. Cela permettra de raffiner notre compréhension de la structure et de l'évolution de notre Galaxie, et cela permettra des prédictions plus robustes pour les nombreuses expériences de recherche de particules formant la matière noire. Cette étude constitue ainsi un pas très important dans la quête de la nature de la matière noire...".
Une preuve observationnelle est d'autant plus importante que les méthodes fondées sur des modélisations de distribution de masse sont sources de grandes incertitudes. Dans ces modélisations, la distribution de matière noire est considérée suivre un profil de densité inspiré par des simulations numériques, comme par exemple un ajustement analytique de type profil NFW (Navarro-Frenk-White) ou profil de Einasto, qui comportent au moins deux paramètres libres, dont les meilleures valeurs sont déterminées par des contraintes dynamiques. Or ces classes de profils de densité sont inspirées par des simulations sans baryons (la matière ordinaire), mais ces derniers jouent un rôle non négligeable dans la région interne de la Voie Lactée.
La conclusion que donnent Miguel Pato et ses coauteurs est qu'une évidence d'une composante sombre diffuse apparaît avec un niveau de confiance à 5σ lorsque l'on compare la courbe de rotation de la Voie Lactée et les prédictions de nombreux modèles baryoniques (la matière visible). Cette composante sombre diffuse contribue au potentiel gravitationnel de la Voie Lactée.
La robustesse statistique des mesures a été testée vis à vis de la variation de nombreux paramètres comme le rayon galactocentrique, la vitesse mesurée, le mouvement du Soleil et la sélection des données, ainsi que d'effets systématiques dus aux bras spiraux, ce qui rend ce résultat très fort pour les faibles rayons galactocentriques (la zone très interne de la Galaxie).
Sans aucune hypothèse sur la nature de cette masse sombre, ces résultats ouvrent une nouvelle voie pour la détermination de sa distribution à l'intérieur de la Galaxie.
Source :
Evidence for dark matter in the inner Milky Way
Fabio Iocco, Miguel Pato & Gianfranco Bertone
Nature Physics, Published online 09 February 2015
jeudi 29 mars 2012
Les études s'intéressant à la matière noire de notre galaxie, plus précisément à l'évaluation de sa densité, sont de deux sortes : soit elles sont fondées sur des modélisations de la distribution de masse, ou soit elle tentent d'effectuer des mesures locales dans l'environnement du Soleil via une estimation du potentiel gravitationnel local grâce à des mesures de la cinématique des étoiles et de gaz dans le voisinage du Soleil.
Une étude qui vient de paraître en ligne dans Nature Physics montre sans ambiguïté pour la première fois grâce à de telles mesures de vitesses d'étoiles que de la masse non visible est présente en grande quantité dans la partie la plus interne de notre galaxie, à proximité du Soleil et entre le Soleil et le centre galactique.
La présence de matière sombre dans les parties externes de notre Galaxie avaient déjà été mise en évidence depuis de nombreuses années, mais elle a toujours été compliquée à mettre en évidence dans notre voisinage proche, au cœur de la Voie Lactée, à cause de la difficulté inhérente à obtenir des mesures de vitesse de rotation avec la précision requise pour ce type d'évaluation.
Et c'est pourtant aujourd'hui ce que sont parvenus à faire les astrophysiciens Miguel Pato de l'Université de Stockholm et ses collègues Fabio Iocco et Gianfranco Bertone. Ils ont pour cela confectionné la plus grande compilation de mesures de vitesses de gaz et d'étoiles de notre Galaxie publiées depuis des dizaines d'années. Ils ont ensuite comparé toutes ces vitesses de rotation de gaz et d'étoiles avec ce qui serait attendu dans l'hypothèse où il n'existerait que de la matière lumineuse dans la Galaxie (c'est à dire que toute le masse serait ce qu'on peut voir).
Ils démontrent que la rotation observée à l'intérieur de la Voie Lactée ne peut pas être expliquée sans considérer la présence de grandes quantités de matière noire autour de nous.
Il faut dire que nos trois astrophysiciens ont utilisé vraiment un échantillon impressionnant : 2780 mesures de vitesses, en grande majorité des cinématiques de gaz et plus minoritairement des mouvements d'étoiles (un peu plus de 500 tout de même).
Miguel Pato insiste : "Notre méthode permettra pour les prochaines observations astronomiques , de mesurer la distribution de matière sombre dans notre Galaxie avec une précision inégalée. Cela permettra de raffiner notre compréhension de la structure et de l'évolution de notre Galaxie, et cela permettra des prédictions plus robustes pour les nombreuses expériences de recherche de particules formant la matière noire. Cette étude constitue ainsi un pas très important dans la quête de la nature de la matière noire...".
Une preuve observationnelle est d'autant plus importante que les méthodes fondées sur des modélisations de distribution de masse sont sources de grandes incertitudes. Dans ces modélisations, la distribution de matière noire est considérée suivre un profil de densité inspiré par des simulations numériques, comme par exemple un ajustement analytique de type profil NFW (Navarro-Frenk-White) ou profil de Einasto, qui comportent au moins deux paramètres libres, dont les meilleures valeurs sont déterminées par des contraintes dynamiques. Or ces classes de profils de densité sont inspirées par des simulations sans baryons (la matière ordinaire), mais ces derniers jouent un rôle non négligeable dans la région interne de la Voie Lactée.
La conclusion que donnent Miguel Pato et ses coauteurs est qu'une évidence d'une composante sombre diffuse apparaît avec un niveau de confiance à 5σ lorsque l'on compare la courbe de rotation de la Voie Lactée et les prédictions de nombreux modèles baryoniques (la matière visible). Cette composante sombre diffuse contribue au potentiel gravitationnel de la Voie Lactée.
La robustesse statistique des mesures a été testée vis à vis de la variation de nombreux paramètres comme le rayon galactocentrique, la vitesse mesurée, le mouvement du Soleil et la sélection des données, ainsi que d'effets systématiques dus aux bras spiraux, ce qui rend ce résultat très fort pour les faibles rayons galactocentriques (la zone très interne de la Galaxie).
Sans aucune hypothèse sur la nature de cette masse sombre, ces résultats ouvrent une nouvelle voie pour la détermination de sa distribution à l'intérieur de la Galaxie.
Source :
Evidence for dark matter in the inner Milky Way
Fabio Iocco, Miguel Pato & Gianfranco Bertone
Nature Physics, Published online 09 February 2015
********************************************************************************************
http://www.ca-se-passe-la-haut.fr/2015/02/le-smiley-galactique.html#links
*******************************************************************************************
Le Smiley Galactique
Ce que vous voyez là est une image réelle, il s'agit de galaxies. Ce qui paraît être un visage souriant est formé de galaxies dont l'image est très déformée par un effet de lentille gravitationnelle produit par la distorsion de l'espace-temps provoquée par un amas de galaxies massif situé au centre, nommé SDSS J1038+4849.
La distorsion est si forte que les galaxies d'arrière plan sont vues comme des arcs, presque un anneau, qu'on appelle anneau d'Einstein.
Les deux "yeux" de ce sympathique smiley cosmique observé par Judy Schmidt avec le télescope spatial Hubble sont deux grosses galaxies brillantes situées en avant plan.
Le smiley galactique, produit par SDSS J1038+4849 vu par Hubble (ESA/NASA/Judy Schmidt) |
Notre tendance à trouver si facilement des visages dans des objets inanimés est due à un phénomène neurologique appelé pareidolie. Les humains sont adaptés à reconnaître très facilement des visages, et il semble que notre cerveau parvienne à nous jouer des tours en trouvant des visages un peu partout...
L'effet de lentille gravitationnelle est fort utile pour les astrophysiciens, car il leur permet d'observer des objets bien plus lointains que ce qu'ils pourraient voir sans ce phénomène (en plus de déformer l'"image", la distorsion spatio-temporelle produit également une amplification du flux de lumière. L'effet de lentille gravitationnelle permet aussi de déterminer la masse de l'amas de galaxie qui en est responsable, et d'observer la présence de masse non visible...
lien pour cet article :
*******************************************************************************************
Mercure, Planète de Fer !
On vient d'en apprendre un peu plus sur Mercure, cette petite (4878 km de diamètre) planète brûlante par sa proximité du Soleil. Une sonde est actuellement en train de tourner autour, de son petit nom MESSENGER. Et une équipe américaine a utilisé MESSENGER avec une méthode très particulière pour en déduire la nature de l'intérieur de la planète Mercure.
Cette méthode a consisté à suivre le plus précisément possible la trajectoire de la sonde au cours de ses orbites autour de la planète par suivi radio. Pour cela, les grandes oreilles de la NASA ont été déployées (le réseau Deep Space Network (DSN) écoutant ce qui se passe à 8 GHz en direction de Mercure).
Cartographie altimétrique de Mercure (NASA, Science) |
De ces données de positions, les astrophysiciens ont recalculé le champ de gravitation de la planète produisant les mouvements observés. Ainsi, associées à des données connues sur la topologie et la rotation de Mercure, de grandes anomalies gravitationnelles ont pu être mises en évidence dans l'hémisphère Nord de la planète. Smith et al. ont réussi à montrer que la croûte de Mercure était plus épaisse à l'équateur qu'aux pôles par exemple.
Mieux : grâce à ces données, les chercheurs ont mesuré le moment d'inertie de la planète et surtout le rapport du moment d'inertie de la couche solide externe sur celui des couches internes. Ils en déduisent un modèle pour la distribution radiale de la densité de Mercure.
La découverte qu'ils ont faite est que le cœur de fer de Mercure semble bien plus gros que ce qu'on pensait généralement. Il représenterait 85% du rayon. Mercure est presque entièrement une planète de fer !
Ce gros noyau de fer serait en grande partie liquide, avec un cœur probablement solide. Il est entouré par une couche pas très épaisse de sulfure de fer…
Mais MESSENGER possède également à bord ses propres instruments de mesure pour étudier la surface de Mercure, et notamment un laser qui lui permet de mesurer l'altimétrie, c'est-à-dire le relief de la planète. L'hémisphère Nord de Mercure a été cartographié de cette manière et les résultats indiquent que Mercure est finalement très plate.
Son relief est par exemple bien moins accidenté que celui de Mars ou de la Lune. Les chercheurs de l'équipe de Maria Zuber du MIT ont montré que le bassin d'impact Caloris (1500 km de diamètre) a subi une lente élévation et montre une très faible pente quasi linéaire qui s'étend sur près de la moitié de la circonférence de Mercure aux latitudes moyennes…
Ces premiers résultats concernent principalement l'Hémisphère Nord de Mercure. On attend maintenant d'autres données concernant son hémisphère Sud, MESSENGER tourne en effet dans une orbite Nord-Sud depuis un an maintenant et les données affluent chaque jour...
Sources :
Gravity Field and Internal Structure of Mercury from MESSENGER
David E. Smith et al.
Science 21 March 2012
What lies beneath Mercury's surface
Nature 483, 513 (29 March 2012)
Topography of the Northern Hemisphere of Mercury from MESSENGER Laser Altimetry
Maria Zuber et al.
Science 21 March 2012
lundi 26 mars 2012
Système Solaire cherche Aspirateur !!
On le sait peu, notre système solaire est entouré par un dense nuage de gaz et de poussières. On l’appelle le Nuage Interstellaire Local. Sa densité est de l’ordre de 0.3 atome d’hydrogène par cm3.
Ce nuage ainsi que d’autres nuages proches du milieu interstellaire font partie d’une structure plus vaste contenant du gaz chaud et peu dense : la Bulle Locale. Notre système solaire est situé au bord du Nuage Interstellaire Local et se déplace en direction d’un autre nuage voisin qui s’appelle le G-Cloud, que nous pourrions atteindre dans moins de 10000 ans.
De la poussière interstellaire est incrustée dans le gaz du Nuage Interstellaire Local, de telle façon qu’ils partagent la même vitesse. La vitesse et la direction de cette poussière est en fait associée à la vitesse à laquelle se déplace le Soleil (et donc le système solaire) par rapport à ce nuage gazeux. Cette poussière en mouvement a pu être mesurée par la sonde Ulysses en 1999 à la vitesse de 26 km/s.
La sonde Ulysses (vue d'artiste, NASA) |
Des astrophysiciens avaient prédit dans les 1970 que la poussière interstellaire étant chargée électriquement devait évoluer différemment en fonction de l’activité magnétique du Soleil. C’est ce qu’ont cherché à mesurer diverses sondes aprèsUlysses, comme Galileo, Helios et mêmeCassini en route pour Saturne…
Différents modèles de poussière interstellaire ont été proposés depuis de nombreuses années. Celui qui tient la cotte serait une poussière formée de grains de silicates de 0.3 microns, pas moins. Des grains plus petits seraient en quelque sorte filtrés par l’héliopause (la frontière du système solaire). Des astrophysiciens se sont spécialisés dans l’étude de cette poussière en produisant des simulations numériques des trajectoires de ces grains, en leur appliquant les trois forces auxquelles ils sont soumis : la gravitation du soleil, la pression de radiation venant du soleil également et les forces de Lorentz, dues à la présence du champ magnétique interstellaire, agissant sur ces grains chargés électriquement…
Bien sûr d’autres forces existent mais se trouvent tout à fait négligeables vis-à-vis des trois principales (on peut citer le frottement de Poynting-Robertson, l’effet Yarkowski, le vent solaire ou la force de Coulomb).
L’effet de la pression de radiation (répulsive) est antagoniste à celui de la gravitation du soleil (attractive). Les astrophysiciens ont ainsi pu montrer que lorsque la pression de radiation est supérieure à un facteur 1.3 à la gravitation (se rapport dépend de la masse des grains, donc de leur taille), les grains ne peuvent pas s’approcher du Soleil plus près que 1 unité astronomique (distance Terre-Soleil).
Or il se trouve que le rapport pression de radiation sur gravitation reste constant quel que soit l’endroit dans le système solaire (les deux évoluent inversement avec le carré de la distance), il est donc caractéristique des grains eux-mêmes (leur taille).
Le Nuage Interstellaire Local (NASA). |
Ce qui a pu être observé en outre, c’est l’effet des cycles solaires sur les mouvements de ces grains de poussière interstellaire : pendant les 11 ans d’un cycle solaire où le pôle Nord magnétique se trouve dans l’hémisphère Sud, les grains sont défléchis vers l’équateur solaire, aux environs du plan de l’écliptique. C’est la période dite de focalisation, au cours de laquelle le flux de poussière atteint son maximum à l’écliptique. Mais 11 ans avant (ou après), c'est-à-dire après inversion des pôles magnétiques, ce flux est réduit par environ un facteur 3, comme a pu l’observer la sondeUlysses. Les grains se retrouvent alors non plus dans le plan de l’écliptique, mais concentrés aux très hautes et très basses latitudes, à environ 10 à 20 unités astronomiques au dessus des pôles du Soleil…
L’étude fine des mouvements de la poussière au sein du système solaire permet ainsi de déterminer ses caractéristiques comme le facteur béta (rapport pression sur gravitation) ou encore leur rapport Q/m (rapport charge sur masse).
Ou comment déterminer la taille d’une poussière en mesurant sa vitesse grâce au Soleil !...
source :
Astronomy & Astrophysics 538, A102 (2012)
The flow of interstellar dust into the solar system
V. J. Sterken et al.
****************************************************************************************************
Le fait que théta 13 ne soit pas égal à zéro est très encourageant pour la suite des événements. En effet, cela rend possible les recherches pour savoir si les neutrinos et les antineutrinos oscillent de la même manière. Ce comportement potentiellement différent entre particules et antiparticules leptoniques est crucial. Il est dénommé dans le jargon la violation de parité CP. Et si elle est avérée, cette violation de CP dans le secteur leptonique pourrait permettre de comprendre l'asymétrie semblant exister entre matière et antimatière dans l'Univers. C'est donc un résultat avec des implications non négligeables.
Source : Science 16 March 2012 Vol. 335 no. 6074 pp. 1287-1288
Dans le cas des recherches sur les neutrinos ou bien sur la matière noire (sous forme de particules), les astrophysiciens des particules (adeptes de la cosmologie observationnelle), se sont donc depuis de longues années déjà, enterrés dans des laboratoires très profondément enfouis, qu’ils soient situés dans des mines abandonnées, ou bien sous des montagnes (en profitant de tunnels existants).
Il faut rappeler que le flux de muons cosmiques qui nous arrive constamment sur nos têtes, lorsque nous sommes au niveau de la mer, est de l’ordre de 10 000 muons/m²/minute ! (n’ayez crainte, la très grande majorité d’entre eux nous traversent sans rien nous faire…).
The flow of interstellar dust into the solar system
V. J. Sterken et al.
****************************************************************************************************
jeudi 22 mars 2012
100 Ans de Rayons Cosmiques
2012 est l’année du centenaire de la découverte des rayons cosmiques par le physicien autrichien Victor Hess. La découverte de l’existence d’un rayonnement cosmique, particules ionisantes atteignant la haute atmosphère telle une petite pluie continue, est une conséquence de la découverte de la radioactivité à la fin du 19ème siècle par Becquerel et Curie.
illustration de rayons cosmiques (NASA) |
Très vite, les physiciens observèrent que certaines roches pouvaient produire du rayonnement ionisant. Pour mieux comprendre le phénomène et mieux le cerner, ils entreprirent de placer des électroscopes (leurs détecteurs de l’époque) dans différents milieux. Certains en utilisèrent sous terre, d’autre au fond de l’eau, d’autres encore au sommet des montagnes, et Victor Hess, lui, eut l’idée avec d’autres en 1911 d’aller voir à très haute altitude ce qu’il pouvait y mesurer, grâce à un ballon d’hydrogène.
Et Hess découvrit que l’ionisation commençait par décroitre avec l’altitude, puis se mettait à augmenter très sensiblement jusqu’à 5300 m d’altitude, son maximum atteignable. Ce vol eut lieu exactement le 17 avril 1912 au-dessus de l’actuelle République Tchèque, le jour d’une éclipse partielle de Soleil, dans le but d’observer une éventuelle variation dans le signal d’ionisation mesuré pour en déduire une éventuelle origine solaire… Il n’était alors âgé que de 29 ans. Il reçut le prix Nobel en 1936 pour ces découvertes, seulement deux ans avant de pouvoir s’enfuir d’Autriche et émigrer aux Etats-unis.
Victor Hess dans son ballon en 1911 (Nature) |
Depuis sa découverte, les recherches sur les rayonnements cosmiques ont évoluées vers des directions que Hess n’aurait jamais pu imaginer, depuis la découverte de l’antimatière jusqu’à la datation du carbone14… mais aussi vers la grosse physique des particules. Bien qu’aujourd’hui les collisions de particules soient étudiées principalement grâce à des accélérateurs de particules géants comme le LHC au CERN, la seule fenêtre d’étude des particules les plus énergétiques du monde ne peut se faire qu’en étudiant les rayons cosmiques. Et l’étude des rayons cosmiques primaires est une branche à part entière de l’astrophysique, notamment pour l’étude des phénomènes stellaires violents qui sont à l’origine de l’émission de quantité de particules énergétiques formant cette pluie qui nous tombe sur la tête…
Mais il faut rendre à César ce qui lui appartient : le terme de rayons cosmiques (cosmic rays) a été inventé par le physicien américain Robert Millikan en 1925, plus de dix ans après le célèbre vol de Hess. Un vif débat agitait alors la communauté des physiciens sur la nature de ces rayonnements, Millikan jurait qu’il s’agissait de « rayons » comme des rayons électromagnétiques, alors que de son côté, Arthur Compton avait démontré qu’il s’agissait de réelles particules chargées, en ayant montré leur déflexion par le champ magnétique de la Terre. Même si c’est Compton qui avait raison, le terme de Millikan est resté.
L’étude des rayons cosmiques a apporté beaucoup de découvertes inattendues. La plus importante d’entre elles est certainement la découverte par Carl Anderson de l’antiélectron en 1932 en observant les traces de rayons cosmiques laissées dans une chambre à brouillard (chambre de Wilson). Ce n’est pas un hasard si le comité Nobel récompensa en même temps Hess et Anderson seulement quatre ans plus tard.
C'est à un physicien français que l'on doit la découverte de la production de particules secondaires sous forme de grandes gerbes : Pierre Auger, qui partage avec Victor Hess l'honneur d'avoir donné son nom à une expérience de détection de rayons cosmiques.
Spectre énergétique et fréquence des rayons cosmiques. |
Dans les années 50, c’est toujours en étudiant les rayons cosmiques que l’on découvrit tout un zoo de particules, qui fécondèrent la théorie de la physique des particules telle qu’on la connait aujourd’hui : hypérons, pions, muons, kaons apparurent…
A partir des années 60, on commença à pouvoir déterminer la composition des rayons cosmiques primaires (ceux qui impactent l’atmosphère en créant toutes ces gerbes de particules) et on put déterminer la présence de noyaux d’atomes plus lourds que les très abondants hydrogène (protons) et hélium (particule alpha).
On parvient aujourd’hui à connaître les proportions d’isotopes de noyaux lourds dans le rayonnement cosmique, ce qui permet d’évaluer approximativement leur provenance, en terme d’objet (étoile, résidu de supernova, …) et d’environnement. Les physiciens des astroparticules cherchent à savoir comment de telles particules parviennent à atteindre des vitesses très proches de la vitesse de la lumière, donc une énergie cinétique colossale…
Pour fournir un ordre de grandeur, le rayon cosmique le plus énergétique jamais détecté était une particule dont l’énergie était celle d’une balle de tennis lancée à 160 km/h !, ce qui fait une énergie plus de 100 millions de fois plus grande que le plus énergétique proton accéléré au LHC…
Heureusement pour nous quand-même, ce type de particules d’ultra haute énergie est très rare. On estime qu’il en arrive sur Terre que quelques-unes par kilomètre carré par siècle. Et lorsqu’elles interagissent dans l’atmosphère, elles produisent des milliards de particules secondaires qui se répartissent à la surface de la Terre sur des dizaines de kilomètres carrés. En détectant l’arrivée de ces myriades de particules secondaires et en en mesurant l’énergie et la direction, les physiciens parviennent ainsi à reconstruire la particule primaire initiale ainsi que sa direction d’incidence, permettant alors de déterminer sa provenance astrophysique potentielle (galaxies actives, résidu de SN ou autre).
Bien sûr, nous sommes traversés en permanence les rayons cosmiques (primaires ou secondaires), et de même que la radioactivité naturelle des roches qui nous entourent, nous subissons très légèrement des ionisations de nos cellules, pouvant amener d’éventuelles lésions, qui font intervenir le hasard le plus total. Mais un point important qui doit être noté concerne les hommes qui se déplacent au-dessus de l’atmosphère, les astronautes.
Eux subissent des flux de rayons cosmiques très importants, à tel point qu’ils dépassent bien souvent tous les seuils acceptables en termes de dose de radiation lors de séjours prolongés. L’existence du rayonnement cosmique implique également ce type de forte contrainte dans le cas de voyages lointains, vers Mars par exemple. Si cette exploration humaine de Mars n’est toujours pas lancée alors qu’elle nous était promise depuis bientôt trente ans, il n’est pas impossible que l’impact dosimétrique des rayons cosmiques sur les organismes n’y soit pas pour rien…
Mais les rayons cosmiques ont aussi des effets bénéfiques, ou en tous cas utiles, puisque c’est les rayons cosmiques qui produisent le carbone 14 dans l’atmosphère par réactions nucléaires sur l’azote. Et ce carbone 14 se retrouve ensuite naturellement absorbé par les plantes puis dans tout organisme vivant. C’est grâce à cet isotope « naturel » du carbone que l’on parvient à dater très précisément tout objet à base de matière organique en comparant la quantité mesurée de Carbone-14 par rapport au Carbone-12. Cette technique a réellement révolutionné l’archéologie au 20ème siècle.
Après 100 années, la recherche sur les rayons cosmiques est une science mature mais elle peut encore réserver des surprises de taille. Les rayons cosmiques sont aujourd’hui étudiés à l’aide de satellites, de ballons, et au niveau du sol sur de très grandes surfaces dans les déserts africains et sud-américains. Le but est de plus en plus d’identifier les sources de ces particules ainsi que les conditions physiques qui leur ont donné naissance, qui se révèlent le plus souvent beaucoup plus exotiques que ce qu’on pouvait imaginer.
source :
A century of cosmic rays
Michael Friedlander
Nature 483,400–401 (22 March 2012)
****************************************************************************************************
lundi 19 mars 2012
Les Chinois en Tête dans la Course aux Neutrinos !
Les chinois sont désormais parmi les meilleurs dans la course aux neutrinos. Il n'a fallu aux physiciens chinois que 55 jours pour produire une mesure très précise d'un des 5 paramètres fondamentaux régissant l'oscillation des neutrinos, savoir l'angle de mélange dénommé théta 13.
Jusqu'à présent, on connaissait relativement bien 4 de ces 5 paramètres, les deux écarts de masse entre les trois saveurs et deux des trois angles de mélange (paramètres qui décrivent comment se mélangent les différents neutrinos). Il restait à mesurer le plus précisément possible ce dernier théta 13. Plusieurs expériences dans le monde sont dans la course, que ce soit auprès de réacteurs comme l'expérience Double Chooz en France ou RENO en Corée du Sud, ou bien en utilisant des faisceaux de neutrinos comme T2K au Japon, ou MINOS aux Etats-Unis.
site de la centrale nucléaire de Daya Bay. |
Mais grâce à leurs détecteurs plusieurs fois plus imposants que ceux de leurs concurrents (100 tonnes) et un bon flux d'antineutrinos électroniques produit par six réacteurs de près de 3 GW, les physiciens chinois de Daya Bay ont pu mesurer l'angle théta 13 avec une bonne précision en moins de deux mois et trouvent une valeur de 8.8° +- 0.8. Les expériences concurrentes n'avaient jamais pu atteindre une précision aussi bonne.
Cette mesure consiste à mesurer le flux d'antineutrinos qui sort des réacteurs nucléaires à deux ou plus différentes distances. La différence de flux mesurée entre les deux localisations des détecteurs donne très directement une valeur de l'angle de mélange recherché.
L'élément clé qui a permis aux chercheurs chinois de doubler leurs concurrents sur le fil est sans conteste la taille de leurs détecteurs. Un mois de prise de données à Daya Bay correspond à 4 mois à Double Chooz, par exemple. Il se trouve aussi que l'expérience T2K japonaise a dû être brutalement interrompue le 11 mars 2011 du fait du terrible tremblement de terre/tsunami. S'il n'avait pas eu lieu, les japonais auraient atteint aujourd'hui cette même précision.
Détecteurs utilisés à Daya Bay |
La Chine joue désormais dans la cour des grands en physique des particules. Et c'est un juste retour des investissements consentis par le gouvernement chinois qui n'a pas hésité à inciter fortement ces scientifiques de haut niveau émigrés aux Etats-Unis notamment de revenir travailler en Chine, en finançant aisément les recherches. L'expérience de Daya Bay a coûté environ 35 millions de dollars, dont les deux-tiers payés par la Chine, le restant l'étant par une collaboration de plusieurs pays (Etat-Unis, Russie, Taiwan, Rép. Tchèque).
Les quatre années qui viennent à Daya Bay vont être consacrées à mesurer encore avec plus de précision les paramètres du neutrino. Suite à cette phase, de nouveaux détecteurs devraient être positionnés à 60 kilomètres des réacteurs, pour cette fois-ci permettre de déterminer la hiérarchie des masses des trois neutrinos, qui est encore inconnue aujourd'hui.
Les chinois seront là encore en concurrence avec les japonais (T2K) et les américains (NoVA), mais l'expérience acquise et leur détermination semble d'ores et déjà leur donner des ailes, pour le plus grand bénéfice de la science...
dimanche 18 mars 2012
L'Histoire de la Lune retracée
Très belle animation de la NASA retraçant plusieurs milliards d"années de l'Histoire de notre bonne vieille Lune...
NASA _ Evolution of the Moon par sunshine_i
NASA _ Evolution of the Moon par sunshine_i
vendredi 16 mars 2012
NuSTAR, Nouveau Télescope à Rayons X
On avait presque pris l’habitude de voir que l’astronomie dans l’espace coûtait des petites fortunes qui se comptaient en milliards de dollars, mais une astronomie en orbite innovante et de qualité peut aussi être très économe. C’est ce que montre le tout nouveau télescope à rayons X de la NASA.
Ce nouveau télescope spatial s’appelle NuSTAR (Nuclear Spectroscopic Telescope Array), et il ne coûte « que » 165 millions de dollars, ce qui est très peu comparé aux diverses sondes spatiales ou autres télescopes du type Hershel ou Kepler…
Le télescope NuSTAR (NASA/JPL) |
NuSTAR est exclusivement dédié à l’observation des rayons X dits « durs », c’est-à-dire relativement énergétiques, qui sont produits principalement en périphérie des trous noirs supermassifs.
Sa mise en orbite sera particulière, et c’est aussi ce qui participe au faible coût de revient, puisqu’il va être embarqué sur une fusée Pégasus lancée depuis un avion porteur.
NuSTAR s’intéressera aux rayons X ayant une énergie comprise entre 5 keV et 80 keV, c’est-à-dire dans la plage encore inconnue, située exactement entre ce qu’observe le télescope Chandra X-Ray Observatory et ce que détecte le télescope Fermi (rayons gamma).
La fusée Pegasus larguée depuis son porteur |
Les rayons X durs sont difficiles à focaliser car ils ont tendance à pénétrer dans la matière plutôt que de ce réfléchir dessus comme leurs cousins lumineux de plus faible énergie. Du coup, les scientifiques américains à l’origine de ce projet ont inventé de nouveaux types de miroir avec de nouveaux matériaux, sous forme de sandwiches de plusieurs centaines de films métalliques. Chaque couche réfléchit seulement un faible nombre de photon mais prises ensemble, elles permettent une forte réflexion, fournissant la meilleure sensibilité jamais atteinte pour ce type de système.
Mais ces rayons X sont si énergétiques (par rapport à la lumière ordinaire), qu’ils ne peuvent être réfléchis qu’à des très faibles angles, presque rasants. Les miroirs doivent alors être construits sous forme de 133 coquilles coniques à l’image de poupées russes, qui vont conduire les photons X par réflexions successives vers un détecteur situé au fond du cône.
Des incidences rasantes signifient aussi la nécessité d’une très longue distance focale. On se rappelle que le télescope X Chandra avec sa dizaine de mètres (et ses 2 milliards de dollars) tenait à peine dans le coffre de la navette spatiale.
Avec une longueur du même type, NuSTAR doit lui par contre tenir dans la petite fusée Pégase… Les scientifiques américains ont donc dû innover en imaginant un système replié sur lui-même qui devra se déployer une fois en orbite, le tout en 26 minutes, un beau challenge, certes risqué mais l’enjeu financier est très inférieur aux télescopes antérieurs…
C’est sur les noyaux actifs de galaxies que va se focaliser NuSTAR. Les noyaux actifs sont les cœurs des galaxies qui brillent de mille feux, hantés par des trous noirs de plusieurs millions à plusieurs milliards de masses solaires…
Vue d'artiste d'un AGN. |
Et normalement, grâce à sa grande sensibilité, le télescope devrait découvrir de nombreux (plusieurs centaines prévus) nouveaux noyaux actifs de galaxies (AGN). Le but final est de mieux comprendre comment évoluent ces AGN et quel est leur rôle dans l’évolution des galaxies qui les abritent.
Les européens sont aussi intéressés par ce nouveau télescope américain, ils ont décidé d’offrir 10% du temps d’observation de leur satellite X XMM Newton à des observations conjointes avec NuSTAR. En observant simultanément les mêmes cœurs de galaxies, les astrophysiciens espèrent déceler comment tournent les trous noirs géants en étudiant d’éventuelles distorsions du spectre X émis. La mesure de la rotation des trous noirs géants peut permettre de mettre en lumière comment ces trous noirs parviennent à atteindre des masses de plusieurs milliards de soleil, soit en avalant d’autres trous noirs géants ou bien en absorbant lentement la matière de leur galaxie-hôte.
Ce nouveau télescope, qui sera lancé ce mois-ci, se révèle ainsi crucial pour l’ensemble de la communauté astrophysique, et qui plus est pour un coût tout à fait acceptable.
source : Nature (15 mars 2012)
****************************************************************************************************
L'Astrophysique Souterraine
L’astrophysique est une science qui fait lever les yeux vers le ciel. Ça semble évident. Mais aujourd’hui, dans ces développements particulo-cosmologiques, l’astrophysique a besoin de plus en plus de se cacher dans les profondeurs de la Terre…
A la recherche de particules cosmiques qui n’interagissent que très peu avec la matière, donc très difficiles à détecter, il est indispensable de protéger les systèmes de détection de la moindre interférence. Quand on cherche une aiguille dans une grange de foin, on aime transformer la grange en botte, effectivement…
Laboratoire souterrain du Gran Sasso (credit INFN) |
Car les principales particules qui font du foin pour reprendre notre image sont les muons dits cosmiques (µ). Ces muons, qui font partie de la famille des électrons, mais 140 fois plus lourds, sont en fait produits dans la haute atmosphère par de vrais rayons cosmiques pour le coup, qui sont principalement des protons de haute énergie (pour 50%) et des noyaux d’hélium (25%) puis des noyaux plus lourds, provenant pour la plupart du Soleil mais aussi de plus loin dans notre Galaxie.
Ces protons et noyaux d’hélium collisionnent les atomes de l’atmosphère et produisent alors des pions qui produisent à leur tour ces fameux muons, qui se trouvent être fort gênants car détectés dans nos détecteurs préférés de neutrinos ou de WIMPs (particules pouvant former la matière noire).
Ces protons et noyaux d’hélium collisionnent les atomes de l’atmosphère et produisent alors des pions qui produisent à leur tour ces fameux muons, qui se trouvent être fort gênants car détectés dans nos détecteurs préférés de neutrinos ou de WIMPs (particules pouvant former la matière noire).
Et il n’existe qu’une seule solution efficace pour réduire ce flux permanent de muons, c’est d’intercaler entre l’atmosphère et le détecteur une grosse, très grosse quantité de matière qui va les absorber. Quoi de mieux que plusieurs centaines ou milliers de mètres de roche ?
C’est ainsi que sont nés les laboratoires souterrains dédiés à la physique des astroparticules (presque toutes, sauf les muons et leurs progéniteurs, bien sûr).
Et c’est donc dans une sorte de course à l’échalote du laboratoire qui s’implantera au plus profond de manière à obtenir le bruit de fond (muons parasites) le plus bas possible. De nombreux pays sur tous les continents se sont lancés dans cette course, et l’Europe se trouve assez bien pourvue…
De manière à pouvoir comparer les différents sites, dont les roches ne sont pas forcément similaires, les épaisseurs ou profondeurs sont exprimées en mètres équivalent d’eau, les différents laboratoires sont aussi comparés en termes de flux résiduel de muons cosmiques arrivant dans le labo, qui est exprimé en nombre de muons/m²/jour.
Il faut rappeler que le flux de muons cosmiques qui nous arrive constamment sur nos têtes, lorsque nous sommes au niveau de la mer, est de l’ordre de 10 000 muons/m²/minute ! (n’ayez crainte, la très grande majorité d’entre eux nous traversent sans rien nous faire…).
On peut ainsi classer les laboratoires souterrains selon leur performance de bruit de fond le plus bas, en traçant le flux de muons résiduel en fonction de l’épaisseur d’eau équivalente correspondant à la profondeur du site, et en positionnant où se situe tel labo sur la courbe.
A ce petit jeu, on voit que les gagnants de cette course sont les chinois, avec un tout nouveau labo en cours de construction, JingPing, qui devrait bénéficier sous sa montagne de 2500 m, de plus de 7,5 km d’épaisseur d’eau équivalente !...
Mais au fait, qu’est ce qui y est étudié dans ces labos, au juste ? Faisons un petit tour d’horizon par ordre de profondeur :
Solotvina (mine, Ukraine, 1000 m eq. eau) :
Le laboratoire souterrain de Solotvina n’abrite pas d’expérience en tant que telle mais est surtout utilisé pour effectuer de la R&D sur de nouveaux types de détecteurs scintillateurs de très haute pureté, notamment pour la détection de matière noire, mais aussi pour l’étude de la radioactivité « double béta », qui fournit de précieux éléments sur la physique des neutrinos.
OTO (tunnel, Japon, 1400 meq. Eau) :
Ce laboratoire souterrain modeste accueille deux expériences principales :
- ELEGANT : détection de la décroissance double béta (étude des caractéristiques des neutrinos).
- MOON : détection de matière noire avec scintillateurs.
·
Y2L (Corée du Sud, 2000 m eq. Eau) :
Les coréens ont décidé de se lancer eux aussi dans la recherche de la matière noire, en refaisant une expérience semblable à celle de l’expérience controversée DAMA (installée elle au Gran Sasso).
· KIMS : détection de matière noire avec scintillateur.
Kamioka (tunnel, Japon, 2000 m eq. Eau) :
Le laboratoire souterrain de Kamioka abrite le plus fameux détecteur de neutrinos, SuperKamiokande, mais aussi d’autres expériences plus méconnues :
- Superkamiokande : détection de neutrinos cosmologiques et solaires
- XMASS : détection de matière noire avec Xénon liquide
- NEWAGE : détection de matière noire
- CLIO : détection d’ondes gravitationnelles
- CANDLE : détection de décroissance double béta (étude des caractéristiques des neutrinos)
Soudan (mine, Etats-Unis, 2000 m eq. Eau) :
Le laboratoire souterrain de la mine de sel de Soudan abrite notamment l’expérience MINOS qui devait remesurer la vitesse des neutrinos après les résultats stupéfiants de OPERA. Il accueille aussi l’une des plus performantes expériences de détection des WIMPs malgré sa profondeur moyenne.
- CDMS II : détection de matière noire avec détecteurs cryogéniques Germanium
- CoGent : détection de matière noire avec détecteurs Germanium
- MINOS : détection de faisceaux de neutrinos à longue distance (oscillométrie)
Canfranc (tunnel, Espagne, 2400 m eq. Eau) :
Bénéficiant des Pyrénées et d’un tunnel ferroviaire désaffecté, les scientifiques espagnols mettent à disposition ce laboratoire certes pas très grand, mais assez profond. Deux expériences principales y ont compté ou y compte encore des particules :
- ANAIS : détection de matière noire
- ROSEBUD : détection de matière noire
Boulby (mine, Royaume-Uni, 2800 m eq. Eau) :
Les mines anglaises sont-elles réputées pour leur profondeur ? En tous cas, celle de Boulby permet de chercher furieusement des trac es de matière noire, noire comme une tête de mineur anglais.
- ZEPLIN III : détection de matière noire
- DRIFT II : détection de matière noire
Gran Sasso (tunnel, Italie, 3200 m eq. Eau) :
C’est un peu la star des labos souterrains, avec sa surface très importante et sa profondeur tout à fait enviable… Il abrite de fait un très grand nombre d’expériences très variées :
- DAMA/LIBRA : détection de matière noire avec scintillateurs
- CRESST2 : détection de matière noire avec scintillateurs cryogéniques
- XENON100 : détection de matière noire avec xénon liquide
- WARP : détection de matière noire
- COBRA : détection de la décroissance double béta (étude des caractéristiques des neutrinos).
- CUORICINO : détection de la décroissance double béta (étude des caractéristiques des neutrinos).
- GERDA : détection de la décroissance double béta (étude des caractéristiques des neutrinos).
- BOREXINO : détection de neutrinos solaires
- LVD : détection de neutrinos de supernovae
- LUNA2 : astrophysique nucléaire
- OPERA : détection de faisceaux de neutrinos à longue distance
- ICARUS : détection de faisceaux de neutrinos à longue distance
Et d’autres en géologie, biologie, environnement, …
Homestake (mine, Etats-Unis, 4000 m eq. Eau) :
Ancienne mine d’or, Homestake s’est rendue célèbre grâce aux découvertes de R. Davis sur les flux de neutrinos solaires dès les années 60. Le laboratoire est encore en activité et devrait s’agrandir dans les années qui viennent. Les principales expériences de physique des astroparticules qui s’y trouvent implantées sont les suivantes :
- LUX : détection de matière noire
- MAJORANA : détection de la décroissance double béta (étude des caractéristiques des neutrinos).
Baksan (mine, Russie, 4700 m eq. eau) :
Très ancien labo, emblème à l’époque du dégel des relations américano-russes.
- SAGE : détection de neutrinos
Modane (tunnel, France, 4800 m eq. Eau) :
Situé en plein milieu (km 7) du tunnel du Fréjus reliant la France et l’Italie, ce labo souterrain géré conjointement par le CNRS et le CEA bénéficie d’une profondeur exceptionnelle grâce à la haute montagne le surplombant. Il abrite deux grosses expériences principales qui le remplissent presque entièrement. Le projet d’extension en cours sera le bienvenu.
- NEMO : détection de la décroissance double béta (étude des caractéristiques des neutrinos).
- EDELWEISS : détection de matière noire avec détecteurs cryogéniques Germanium
Sudbury (SNOLAB) (mine, Canada, 6000 m eq. eau) :
Les canadiens aussi ont leurs gueules noires, à défaut d’avoir leur matière noire (quoique…), encore pour quelques temps le labo avec expériences actives le plus profond du monde. 6000 m d’eau équivalent au-dessus de la tête !...
- PICASSO : détection de matière noire
- SNO : détection de neutrinos solaires
- DEAP/CLEAN : détection de matière noire
- SuperCDMS : détection de matière noire avec détecteurs cryogéniques Germanium
JingPing( tunnel, Chine, 7500 m eq. eau) :
En cours de construction, la profondeur est tellement prometteuse que ça fait presque peur…
****************************************************************************************************
**************************************************************************************************
**************************************************************************************************
La matière organique dans les chondrites carbonées
08 - 02 - 2007
Résumé
Travaux de recherche entrepris depuis une trentaine d'années par différentes équipes dans le monde sur la matière organique dans les chondrites carbonées.
Table des matières
L'auteur remercie chaleureusement Sylvie Derenne, Jean-Noël Rouzaud et François Robert pour leurs commentaires et corrections.
Rappel historique
On connaît la présence de matière organique dans les météorites et notamment les chondrites carbonées depuis le milieu du XIXème siècle et les travaux de Berzelius. La chute de la météorite d'Orgueil, dans le Tarn-et-Garonne, en 1864 va permettre la mise en évidence d'une substance macromoléculaire organique proche des charbons terrestres d'après Berthelot. L'intérêt pour la matière organique des météorites revient vers 1950 avec l'amélioration des techniques analytiques. C'est à ce moment là que les premiers acides aminés sont mis en évidence. Mais très vite il s'avère que ces derniers sont des contaminants terrestres, acquis après la chute de la météorite.
Cependant certaines découvertes majeures allaient montrer que tous les constituants organiques n'étaient pas des contaminants. D'abord les travaux de Miller et Urey en 1953 ont montré que la synthèse abiotique des acides aminés dans certaines conditions favorables était possible. Ensuite la chute de Murchison en Australie en 1969 a permis de nouvelles découvertes. Murchison a été collectée au moment où le programme lunaire de la NASA avait permis de développer des protocoles d'échantillonnage et de collection des échantillons extraterrestres très propres pour réduire au maximum la contamination terrestre. Très vite, il a été montré que cette météorite contient des acides aminés, certains communs sur Terre, d'autres étant inconnus dans l'environnement naturel terrestre. Les arguments structuraux (mélange racémique) et isotopiques (enrichissement en D et 15N par rapport aux composés terrestres) confirment qu'ils sont bien extraterrestres. Au cours des années qui ont suivi, de nombreuses équipes ont décrit le contenu organique des chondrites carbonées, constitué d'une fraction soluble et d'une fraction insoluble.
Si les premiers auteurs ont émis l'hypothèse que cette matière organique était le résultat d'une activité biologique extraterrestre, il est communément admis aujourd'hui que cette matière organique est d'origine abiotique, c'est-à-dire produite par des processus purement chimiques. Par contre la question qui se pose actuellement est de comprendre si les composés organiques que l'on retrouve dans les météorites, mais aussi dans les comètes ou dans le milieu interstellaire, ont pu influencer l'apparition et le développement de la vie sur Terre, et donc pourquoi pas sur d'autres planètes. Ce problème rejoint le concept de la « soupe prébiotique » dans les océans de la Terre primitive, qui permit la formation des premières formes de vie.
Rappel sur les chondrites carbonées
Les chondrites carbonées sont considérées comme les météorites les plus primitives du système solaire. Parmi les arguments que l'on peut citer, leur composition élémentaire est très proche de celle du soleil, qui représente la majeure partie de la matière qui a constitué le système solaire (figure 1). Cette observation montre qu'elles n'ont pas subi de profondes modifications géochimiques depuis leur formation, en particulier elles sont issues de corps parents non différenciés et très probablement petits (moins de 20 km de diamètres).
Les chondrites carbonées sont caractérisées par leur richesse en carbone, en eau et en volatiles (en particulier gaz rares) par rapport aux autres chondrites. Leur minéralogie est très variable selon la classe (figure 2). Les plus hydratées, les CI (nommées ainsi à partir de la météorite modèle d'Ivuna), ne présentent pas de chondres, sont constituées de silicates hydratés, de magnétite et de troïlite (sulfure de fer). Les CM (ressemblant à Mighei) contiennent des chondres constitués de pyroxènes et d'olivine dans une matrice proche de celle des CI. Les CV (même classe que Vigarano) présentent des inclusions blanches, appelées inclusions réfractaires, assemblages de plagioclases, spinelle, pérovskite et métaux.
Figure 2. Les chondrites carbonées se divisent en plusieurs classes, les plus communes sont les CI, les CM et le CV
Droits réservés - © 2006 Laurent Remusat
Comme leur nom l'indique, les chondrites carbonées sont riches en carbone (jusqu'à 5 % en masse). Ce carbone se trouve sous différentes formes : carbonates, grains de carbure de silicium, diamants, grains de graphite et matière organique. Celle-ci représente la plus grande partie du carbone. Cette matière organique est présente sous une fraction soluble dans les solvants usuels et une fraction insoluble, qui représente de 75 à 95 % de la masse totale de matière organique.
Les composés solubles
Les composés solubles dans l'eau et les solvants organiques des météorites ont surtout été décrits pour Murchison (CM2), en raison de problèmes de contamination et de plus faible abondance dans les autres chondrites carbonées. On peut extraire une multitude de composés solubles d'origine extraterrestre. Ont ainsi été mis en évidence plusieurs familles d'acides carboxyliques, des hydrocarbures linéaires et aromatiques, des alcools, des cétones et des composés azotés comme des amines, des acides aminés ou des hétérocycles azotés (figure 3).
Les acides aminés
Parmi les composés solubles, certains ont suscité plus d'intérêt que d'autres. C'est le cas des acides aminés (voir figure 4). Ils sont facilement extraits dans l'eau chaude. Dès les années 70, il a été établi que ces acides aminés n'étaient pas des contaminants, sur la base de plusieurs arguments (mélanges racémiques, composition isotopique en 13C, inconnus à l'état naturel sur Terre). Ces arguments ont permis de mettre en évidence que des acides aminés abiotiques étaient contenus dans les chondrites carbonées, associés à une part de contamination facilement mise en évidence par sa composition isotopique.
Depuis, 74 acides aminés ont été mis en évidence dans Murchison pour une teneur estimée à 60 ppm. Sur ce nombre, 8 sont constitutifs des protéines (alanine, glycine, valine, leucine, isoleucine, proline, acide aspartique et acide glutamique), 11 sont moins communs (par exemple la β-alanine ou l'acide γ-aminobutyrique) et les 55 autres n'existent pas dans le monde vivant sur Terre. Leurs caractéristiques moléculaires les distinguent des acides aminés terrestres. D'abord, le nombre de carbones dans ces composés va de 2 à 8, on remarque que l'abondance du composé décroît quand le nombre de carbones augmente. De plus les formes ramifiées sont prédominantes. Une grande diversité structurale est observée, avec pratiquement tous les isomères possibles détectés, même si les acides α-aminés sont plus abondants que les formes β ou γ (position du groupe NH2 par rapport au groupe COOH). Il est important de noter que les acides aminés ne sont détectés que dans les chondrites carbonées à matrice argileuse.
Contrairement aux acides aminés terrestres, où seulement la forme L des acides α-aminés existe, les acides aminés extraterrestres ont été au début détectés en mélanges racémiques, c'est-à-dire que les formes L et D sont détectées en quantités équivalentes, ce qui a ainsi donné un critère pour les attribuer à une synthèse abiotique (comme la synthèse de Strecker pour certains) et les séparer des contaminants. Il a été détecté une légère prédominance de la forme L pour l'alanine, l'acide glutamique, la proline, la leucine et l'acide aspartique. Les analyses de δ13C et δ15N ont montré que ces excès n'étaient pas un effet de contamination terrestre. Une autre étude a mis en évidence que certains acides α-méthyl α-aminés (par exemple l'isovaline) montraient eux aussi un excès de la forme L. Les réactions abiotiques de synthèse des acides aminés connues sont incapables d'être responsables de la prédominance d'une forme par rapport à l'autre. L'hypothèse la plus acceptée est liée à une irradiation des acides aminés par des rayonnements polarisés qui favoriserait une forme plutôt que l'autre. Cette observation a aussi des conséquences sur les hypothèses d'apparition de la vie à partir des molécules extraterrestres (panspermie) ; l'excès de formes L pour certains acides aminés a pu avoir une conséquence pour l'apparition de la vie en la forçant à adapter des formes L, ce qui serait à l'origine de la prédominance des formes L dans les acides aminés et les protéines des êtres vivants.
Les acides aminés montrent une composition isotopique très enrichie en isotopes lourds. Des valeurs très élevées de δD, de δ13C et de δ15N ont été mesurées (tableau ci-dessous) pour l'ensemble des acides aminés de Murchison. Ces valeurs sont interprétées comme la signature d'une origine interstellaire pour les acides aminés ou leurs précurseurs. Les données isotopiques ont été précisées plus récemment par des mesures moléculaires, par l'utilisation de la GC-irMS (chromatographie en phase gazeuse couplée à la spectrométrie de masse isotopique). Ainsi on connaît maintenant la composition isotopique de certains acides aminés individuels. Les données sur l'azote montrent que les acides aminés ont un δ15N de 60‰ en moyenne, aussi bien pour les formes L que les formes D. Cependant la glycine est appauvrie (37‰) alors que la sarcosine et l'acide α-amino-isobutyrique sont enrichis en 15N ; ces écarts sont attribués à des processus de synthèses ou des précurseurs différents des autres acides aminés ou à des fractionnements isotopiques différents. Les valeurs de δ13C des composés individuels montrent que le δ13C diminue quand le nombre de carbones augmente, pour les acides α-aminés. Ces données suggèrent une synthèse des acides aminés ou de leur précurseur par addition de carbones contrôlée cinétiquement, les composés contenant du 12C réagissant plus rapidement que ceux contenant du 13C. Il a ensuite été mis en évidence que les acides α-, β- et γ- aminés ne montrent pas la même tendance, ce qui peut être interprété comme la signature d'un processus de synthèse différent. Enfin les mesures moléculaires de δD ne montrent pas de tendance flagrante et ne sont pas encore interprétées en terme de processus de synthèse. Elles montrent cependant une très forte variabilité d'un acide aminé à l'autre, les acides aminés substitués étant plus riches en D que les chaînes linéaires.
Les autres composés « d'intérêt biologique »
En plus des acides aminés, d'autres composés pouvant avoir une relation avec le monde biologique ont été détectés. Ainsi, récemment, une série de sucres et de molécules dérivées (polyols avec fonctions acide ou alcool à la place de la fonction cétone ou aldéhyde) a été reportée. L'abondance est similaire à celle des acides aminés, tout comme eux une diversité d'isomères et un enrichissement en isotopes lourds sont observés. Il est important de noter qu'aucun de ces sucres n'existe dans le monde vivant sur Terre.
Parmi les composés azotés, des purines, des pyrimidines, des quinolines et des pyridines sont détectées. Ces composés peuvent intervenir dans la formation de molécules de type bases azotées, et ont donc pu participer à la synthèse dans des environnement prébiotiques à la formation de molécules de type ARN ou ADN.
Il existe donc dans les météorites une multitude de composés qui ont pu participer à l'apparition de la vie sur Terre et dans d'autres environnements du système solaire. Il faut souligner que la plupart de ces composés, bien que très proches, ne sont pas présents dans le monde vivant connu sur Terre. Ceci signifie que s'ils ont effectivement permis l'apparition de la vie, son évolution a permis l'apparition d'autres composés différents de ces "précurseurs".
Les autres composés solubles extraterrestres
On ne trouve pas que des molécules dites « d'intérêt biologique » dans les météorites. Les composés les plus abondants sont des acides carboxyliques. On trouve aussi des hydrocarbures comme des alcanes, ou des composés aromatiques polycycliques. Une famille d'alcools est aussi présente.
Tous les composés solubles ont cependant des propriétés similaires :
- une diversité structurale, tous les isomères possibles sont détectés, sans prédominance d'une forme ou d'une autre ;
- une abondance qui décroît quand la taille de la molécule augmente ;
- un enrichissement en isotopes lourds : D, 13C et 15N.
Ces critères permettent donc sans ambiguïté de distinguer les composés solubles extraterrestres des contaminants terrestres.
La matière organique insoluble (MOI)
La matière organique dans les chondrites carbonées est majoritairement présente sous la forme d'une macromolécule insoluble dans les solvants usuels (eau et solvants organiques). Elle représente en effet 75 à 95% en masse de la matière organique totale des chondrites carbonées. Elle est isolée après extractions aux solvants (pour éliminer la fraction soluble) et attaque acide (HF/HCl) des météorites qui vise à détruire la matrice minérale. Le résidu obtenu par ce traitement est très enrichi en matière organique insoluble mais peut parfois contenir jusqu'à 50% de minéraux réfractaires (oxydes par exemple) ou protégés par la matière organique. Cette MOI est considérée comme le réservoir majeur de gaz rares dans les chondrites carbonées, elle contient aussi des grains dit "présolaires", c'est-à-dire plus vieux que le système solaire, sous la forme de grains de carbures de silicium, de nanodiamants ou de grains de graphite.
Les techniques classiques de géochimie organique utilisées pour caractériser les kérogènes ou les charbons terrestres ont été appliquées à la MOI. À cause de ses propriétés physico-chimiques, elle est moins bien connue que la fraction soluble. Deux approches sont classiquement utilisées pour l'étudier : une approche spectroscopique, qui donne accès à une vue globale et moyennée de la MOI sans la dégrader, et une approche par dégradations (soit thermiques soit chimiques) qui offre l'avantage d'apporter des informations moléculaires plus précises mais seulement sur la partie la moins réfractaire à ces traitements. Ces informations moléculaires sont complétées par des données isotopiques en particulier du carbone et de l'hydrogène. Des observations microscopiques (photonique et électronique) ont aussi été effectuées.
L'étude moléculaire
Les analyses élémentaires effectuées sur la MOI de différentes chondrites carbonées montrent qu'elle est constituée d'un squelette carboné, avec de l'hydrogène, de l'oxygène, de l'azote et du soufre (formules structurales types : C100H72O18N3,5S2 pour Orgueil et C100H70O22N3S6,5 pour Murchison). La MOI a été analysée par oxydations chimiques et pyrolyses couplées à la chromatographie en phase gazeuse. L'identification des fragments est rendue possible par l'utilisation de la spectrométrie de masse moléculaire. La détermination des fragments issus de la dégradation d'une macromolécule insoluble permet de reconstituer sa structure, plus précisément de déduire ses unités structurales. En effet ces attaques thermiques ou chimiques n'ont pas les rendements suffisants pour « solubiliser » toute la MOI. On analyse seulement la fraction la plus labile de la MOI. Ces analyses doivent ensuite être complétées par des études spectroscopiques comme par exemple par RMN à l'état solide ou par spectrométrie infra-rouge.
Les données récoltées au cours des 25 dernières années permettent de dresser un modèle moléculaire de la MOI des CI et CM. Il apparaît que sa structure moléculaire (voir figure 5) est constituée d'unités aromatiques comportant au maximum 10 cycles aromatiques (noyaux benzéniques) reliées entre elles par des chaînes aliphatiques courtes (jusqu'à 6 carbones) et ramifiées (avec des groupements méthyles ou éthyles, avec parfois des ramifications). La structure est donc très réticulée, c'est-à-dire que de nombreuses interconnexions sont présentes entre les différentes unités aromatiques. L'oxygène semble faire partie des liaisons entre les unités aromatiques sous la forme de fonctions éther ou ester. L'azote et le soufre semblent être inclus dans les unités aromatiques sous la forme d'hétérocycles azotés (noyaux pyrroles) et soufrés (noyaux thiophènes). Ainsi, contrairement à ce qui avait été proposé avec l'étude des premiers échantillons extraterrestres, bien qu'ayant une composition élémentaire similaire aux kérogènes et charbons terrestres, la MOI des chondrites carbonées a une structure très différente, héritée d'un processus très différent de celui qui a donné les MO fossiles terrestres.
Une caractéristique structurale supplémentaire distingue la MOI des kérogènes et charbons terrestres. Les fragments obtenus par dégradation thermique ou chimique de la MOI possèdent des propriétés communes avec les composés solubles extraterrestres : plus leur nombre de carbone augmente, plus leur abondance diminue et tous les isomères possibles sont détectés sans prédominance d'une forme ou d'une autre. Ceci prouve que la MOI a été synthétisée par un processus abiotique, contrairement aux kérogènes et aux charbons terrestres qui proviennent de la maturation de matière organique fossile d'origine végétale, qui a gardé les traces de la spécificité isomérique des processus biologiques.
L'utilisation de la RPE (Résonance Paramagnétique Electronique) a permis de mettre en évidence la présence de radicaux (avec un électron célibataire) et de diradicaloïdes (deux électrons célibataires) organiques dans la MOI. La signature en RPE de la MOI est très différente des échantillons organiques terrestres, de plus elle contient des régions très enrichies en radicaux alors que dans la matière organique des sédiments terrestres les radicaux sont répartis de manière homogène.
La MOI des autres classes de chondrites carbonées est beaucoup moins bien connue car elle semble être beaucoup plus aromatique et donc plus résistante aux techniques d'étude. De plus la teneur en matière organique et l'abondance de ces météorites est trop faible pour permettre leur étude avec les outils actuels de géochimie organique.
Les études structurales
Ces études moléculaires ont été confortées par des observations en microscopie électronique. L'observation en microscopie électronique à transmission à haute résolution (METHR) permet d'observer le profil des feuillets aromatiques dans la MOI. Une méthode d'analyse d'image permet d'accéder à des données structurales quantitatives (longueur des feuillets, nombre de feuillets empilés, distances interfeuillets, …). Ces données ont confirmé la taille moyenne proposée à partir des études par RMN 13C à l'état solide. En METHR, la MOI d'Orgueil et de Murchison apparaît comme une structure homogène peu organisée, avec des plans aromatiques assez écartés et formant des empilements d'unités aromatiques limités à 2 à 4 feuillets. Par contre, dans les CV (par exemple Allende) ou les CO, la MOI est plus hétérogène : une partie montre des structures similaires à celles des CI et CM mais on visualise aussi des carbones mieux organisés formés d'empilements d'un nombre plus important de feuillets plus longs et plus plans, la distance inter-feuillets tendant à se rapprocher de celle du graphite (0.335 nm) comme le montrent des plis de lamelles de graphite (figure 6). Cette évolution est interprétée comme étant la conséquence de l'effet d'un métamorphisme thermique qui aurait affecté les corps parents des chondrites de types 3 à 6.
Figure 6. Images en microscopie électronique à transmission haute résolution de la MOI de Kainsaz (CO3)
Droits réservés - © 2006 J.-N. Rouzaud (ENS Paris), L. Remusat
L'utilisation de la spectrométrie Raman confirme ces observations : le spectre Raman de la MOI des chondrites de type CO ou CV montre une augmentation de l'organisation structurale et une diminution des défauts quand le degré de métamorphisme augmente (contrainte thermique plus importante).
Les données isotopiques
L'analyse isotopique de la MOI a été menée dans le but de comprendre l'origine et l'évolution de la MOI. On connaît ainsi les rapports D/H, 13C/12C et 15N/14N globaux de la MOI. Très récemment, les valeurs du D/H et du 13C/12C ont été mesurées de manière spécifique, c'est-à-dire sur des fragments moléculaires de la MOI. Ce genre d'études permet de déterminer de manière précise les rapports isotopiques au niveau moléculaire. Toutes ces mesures montrent que la MOI est enrichie en isotopes lourds. Ceci est particulièrement remarquable pour le rapport D/H. Celui-ci varie de 260 à 540 .10-6 (c'est-à-dire que le δD correspondant varie de 650 à 2500‰) suivant les chondrites carbonées. Cet enrichissement important est le signe de processus de type interstellaire : réactions d'échanges se déroulant à basse température dans des environnements soumis à des rayonnements UV intenses. Les forts enrichissements en D seraient hérités de processus précédant la formation des corps parents des chondrites carbonés, car une fois que la MO est incorporée au corps parent, celui-ci la protège des rayons UV. Le débat actuel porte sur la localisation de ces réactions d'enrichissement : dans un environnement interstellaire, ce qui impliquerait que la MOI soit un « polluant » organique de la nébuleuse qui a formé le système solaire, donc qu'elle soit formée avant la nébuleuse, ou bien elles ont eu lieu dans les premiers instants du système solaire, en périphérie de la nébuleuse où le gaz est froid et les rayonnements UV importants. Dans ce dernier cas, la synthèse de la MOI serait contemporaine de celle des premiers solides « solaires ». Récemment l'utilisation des sondes ioniques à l'échelle nanométriques (NanoSIMS) a permis de mettre en évidence des zones extrêmement enrichies en D dans la MOI avec un rapport D/H allant jusqu'à 1200.10-6 (figure 7). Leur signification est débattue.
Les mesures individuelles de δ13C sur les fragments de la MOI montrent un lien génétique probable entre cette dernière et les hydrocarbures aromatiques solubles contenus dans les météorites. Ces hydrocarbures pourraient avoir été formés par dégradation d'une partie labile de la MOI.
L'origine de la MOI ?
De nombreux critères moléculaires et isotopiques rapprochent la MOI de la matière organique détectée dans les milieux interstellaires. Tout d'abord son caractère aromatique très marqué. Parmi les espèces organiques détectées dans l'espace, on trouve des HAPs (Hydrocarbures Polyaromatiques). Le parallèle avec la MOI a été rapidement fait même si les HAPs interstellaires sont majoritairement plus gros (plus de cycles) que les unités polyaromatiques de la MOI. Il faut toutefois noter que les plus petits PAHs sont connus pour être détruits par un fort rayonnement UV ; les unités aromatiques des météorites pourraient donc représenter la distribution initiale. Une autre propriété de la matière organique dans les milieux interstellaires est son enrichissement en deutérium. Ceci a conduit de nombreux auteurs à proposer une origine interstellaire pour la MOI et certains composés solubles à cause de leur enrichissement en deutérium. Cependant les enrichissements en D observés dans les molécules organiques interstellaires sont beaucoup plus importants que ceux mesurés dans la MOI. L'origine de la MOI est donc toujours sujette à débat.
Il apparaît cependant que l'histoire de la MOI est complexe, car elle a sûrement été affectée par de nombreux événements comme la formation du système solaire et la condensation des premiers solides, l'altération hydrothermale ou le métamorphisme haute température sur le corps parent, les irradiations, etc. On est donc encore loin d'avoir un scénario accepté par tous sur l'origine de la MOI et son évolution entre sa formation et aujourd'hui.
Conclusion
Les chondrites carbonées contiennent donc une grande variété de composés organiques, très différents des composés terrestres et qui sont très probablement d'origine abiotique. Cependant de nombreux auteurs proposent que cette matière organique ait pu servir de substrat au développement de formes de vie primitives sur Terre ou ailleurs dans le système solaire. En effet on peut facilement imaginer que ce contenu organique ait pu être apporté sans être dégradé sur la Terre Primitive et ainsi participer, au travers de la « soupe prébiotique » océanique, à l'apparition des premières formes de vie terrestres. Les estimations montrent en effet que la quantité de matière organique d'origine extraterrestre apportée sur Terre depuis sa formation est supérieure à la biomasse vivante actuelle. Cet apport continu de matière organique extraterrestre se déroule encore aujourd'hui.
Quelques références
Voir aussi l'article L'origine de la vie : apports de la géologie et de l'astronomie, par Pierre Thomas.
Articles dont sont tirées les données isotopiques du tableau.
- [1] M. H. Engel , S. A. Macko, J. A. Silfer, 1990. Carbon isotope composition of individual amino acids in the Murchison meteorite. Nature 348, 47-49
- [2] M. H. Engel , S. A. Macko, 1997. Isotopic evidence for extraterrestrial non racemic amino acids in the Murchison meteorite. Nature 389, 265-267
- [3] S. Pizzarello, R. V. Krishnamurthy, S. Epstein, J. R. Cronin, 1991. Isotopic analysis of amino acids from the Murchison meteorite. Geochimica et Cosmochimica Acta 55, 905-910
- [4] S. Pizzarello, X. Feng, S. Epstein, J. R. Cronin, 1994. Isotopic analysis of nitrogenous compounds from the Murchison meteorite : ammonia, amines, amino acids and polar hydrocarbons. Geochimica et Cosmochimica Acta 58, 5579-5587
- [5] S. Pizzarello, Y. Huang, 2005. The deuterium enrichment of individual amino acids in carbonaceous meteorites : a case for the presolar distribution of biomolecule precursors. Geochimica et Cosmochimica Acta 69, 599-605
- [6] F. Robert, S. Epstein, 1982. The concentration and isotopic composition of hydrogen, carbon and nitrogen in carbonaceous meteorites. Geochimica et Cosmochimica Acta 46, 81-95
Autres articles.
- François Robert, 1997. Les espèces chimiques du carbone dans les milieux extraterrestres, in Le Carbone dans tous ses états, P. Bernier & S. Lefrant (eds), Gordon & Breach Science Publishers, 83-126.
- Michel Maurette, 2001. La matière extraterrestre primitive et les mystères de nos origines, in L'environnement de la Terre primitive, M. Gargaud, D. Despois et J.-P. Parisot (eds), Presses universitaires de Bordeaux, 99-127
- Jacques Reisse, 2001. À propos de l'origine de la matière organique sur la Terre primitive et son évolution durant la période prébiotique, in L'environnement de la Terre primitive, M. Gargaud, D. Despois et J.-P. Parisot (eds), Presses universitaires de Bordeaux, 323-342
- S. Pizzarello, G.W. Cooper, G.J. Flynn, 2006. The nature and distribution of the organic material in carbonaceous chondrites and interplanetary dust particles, inMeteorites and the Early Solar System II, D. Lauretta, H.Y. McSween (eds), University of Arizona Press, 625–651
- I. Gilmour, 2003. Organic matter in meteorites, in Treatise on geochemistry, volume 1 : Meteorites, Comets, and Planets, A.M. Davis (ed), Elsevier
- Une page web en anglais, sur le site du remote sensing tutorial du centre Goddard Space Flight Center de la NASA.
Remarque : signification du δ : c'est l'écart relatif entre le rapport isotopique d'un échantillon et celui d'une référence, il s'exprime en ‰ suivant la formule suivante :
Dans le cas du δD, la référence est le SMOW ( Standard Mean Ocean Water ), qui a un D/H=155,76.10-6.
==========================================================================================
===========================================
Aucun commentaire:
Enregistrer un commentaire