mise à jour : 20 novembre 2018


Sciences pour les Exoplanètes et les Systèmes planétaires

Un système planétaire est composé d'une (ou plusieurs) étoile(s) et d'un cortège de planètes. Il y a le nôtre, le Système Solaire, et les milliers d'autres dont nous découvrons la diversité depuis vingt ans après des siècles de spéculations sur leur existence.

Ce site présente les systèmes planétaires au travers des outils scientifiques, de la physique, de la chimie, des mathématiques... qui sont les vaisseaux à bord desquels nous partons à leur découverte.

Le site se décline en modules autonomes. Les connaissances nécessaires pour suivre un module dépendent du sujet traité et couvrent les niveaux d'une Licence scientifique. Chaque module correspond à peu près à une dizaine d’heures de lecture/de travail, et est structuré en 4 parties :

Découvrir : texte de présentation du sujet. Il n’y a pas/peu d’équation. durée approximative : 2 heures.

Comprendre : la science nécessaire à la compréhension du sujet (mathématiques, physique, chimie…). durée approximative : 3 heures.

Se tester : des questions, QCM, exercices.. avec aide et solution, pour vérifier l'acquisition des connaissances. durée approximative : 2 heures.

Mini-projet : un travail de recherche sur de vraies données observationnelles ou théoriques.

Le plan des chapitres est accessible ici.

Ces modules peuvent être utilisés en autoformation, ou intégrés dans un cours en présentiel ou à distance. Les droits d'utilisation sont précisés ci-dessous.

Cet ensemble de modules s'accompagne du site Les exoplanètes qui contient un catalogue exhaustif des exoplanètes connues et de leurs caractéristiques, des outils de visualisation et de traitement statistique, de cartes du ciel, des TP guidés, quelques pages d'informations générales sur les exoplanètes.

Ce projet a été réalisé dans le cadre du Labex ESEP.

Veuillez nous signaler tout problème rencontré sur ces pages à l'adresse contact.sesp at obspm.fr

Les auteurs du site, les crédits et les conditions d'utilisation sont décrits ici.

bandeau_esep_obsp_psln_ia_uvsq_upec_unisciel.png

Auteurs- Crédits- Droits d'utilisation

Ce projet a été réalisé dans le cadre du Labex ESEP. Il a bénéficié d'un soutien de UNISCIEL Il a été soutenu par les établissements suivants :

Responsable : Françoise Roques (francoise.roques at obspm.fr)

Le comité éditorial est constitué de : Christian Balança (LERMA), Yves Bénilan (LISA), Jean-Mathias Griessmeier (LPC2E), Emmanuel Marcq (LATMOS), Thomas Navarro (LMD), Stefan Renner (IMCCE), Francoise Roques (LESIA), Jean Schneider (LUTh).

Les auteurs sont : Jean-Loup Baudino, Jean-Yves Chaufray, Valérie Ciarletti, Thierry Dudok de Wit, Sylvain Fouquet, François Forget, Nicolas Fray, Jean-Mathias Griessmeier, Nathan Hara, Jacques Laskar, Alice Le Gall, Emmanuel Lellouch, Emmanuel Marcq, Sophie Masson, Ronan Modolo, Yaël Nazé, Gary Quinsac, Thomas Navarro, Arianna Piccialli, Gary Quinsac, Loïc Rossi, Jean Schneider, Philippe Thébault, Martin Turbet.

Merci aux relecteurs : Alain Doressoundiram, Stéphane Erard, Thierry Fouchet, Anaëlle Halle, Sébastien Lebonnois, Emmanuel Lellouch, Benoit Mosser, Filippo Pantellini, Didier Pelat, François Raulin, Patricia Schippers, Bruno Sicardy.

L'équipe technique comprend :

Les contenus ont été créés sous Licence Creative Commons 5: Paternité + Pas d’Utilisation Commerciale + Partage à l’Identique (BY NC SA). Le titulaire des droits autorise l’exploitation de l’œuvre originale à des fins non commerciales, ainsi que la création d’œuvres dérivées, à condition qu’elles soient distribuées sous une licence identique à celle qui régit l’œuvre originale, en particulier à condition de l’attribuer à son l’auteur en citant son nom.

logo_cc_gnugpl.png

Les outils et les appliquettes sont distribués sous Licence libre GNU GPL.

Crédit : nom de l'auteur - SESP


Plan du livre

  1. Introduction
  2. Structures planétaires
  3. Observations
  4. Techniques et méthodes
  5. Lieu de vie

Introduction

Auteur: Françoise Roques

Planètes

Nous savons maintenant que toute étoile du ciel possède deux planètes en moyenne, et nous sommes à la veille de savoir si ces innombrables systèmes planétaires sont les soeurs, en beauté et en diversité, des planètes du Soleil.

Pour introduire ce voyage parmi les planètes, le premier chapitre nous présente, entre religion, philosophie et sciences, les grandes étapes de la recherche de vie dans l'Univers. Le deuxième chapitre décrit le scénario "standard" de la formation des planètes, "standard" parce que basé sur notre connaissance des seules planètes du Soleil. Un scénario "revisité" sera peut-être à ajouter dans quelques années.


Recherche des mondes extraterrestres

Auteur: Yaèl Nazé, Jean Schneider

Planètes et exoplanètes : Histoire et définitions

1888
Universum.jpg
Jusqu'à 1995, les planètes étaient, pour l'Humanité, le propre d'une seule étoile, le Soleil.
Crédit : C. Flammarion, 1888
2011 : Des exoplanètes gazeuses mais aussi telluriques
lissaueretal2011-17.jpg
En ce début de 21ième siècle, on détecte des planètes dont les propriétés sont proches de celles de la Terre: Sur cette figure, la couleur traduit la température (échelle à droite de la figure). On voit que Kepler-11 b et Corot-7 b, respectivement les croix rouge et orange, sont plus massives et plus chaudes que la Terre mais elles ont des densités semblables à celle de la Terre.
Crédit : d'aprés J. Lissauer, 2011

Ce module présente :

Ce module ne nécessite aucune connaissance préalable.


Histoire de la pluralité des mondes

Auteur: Yaël Nazé

Débats antiques et religieux

Auteur: Yaël Nazé

L'Autre

Une des plus grandes questions philosophiques tourmentant l’homme depuis des siècles est celle de l’« autre ». Sommes-nous uniques, création esseulée dans l’Univers, ou faisons-nous partie d’une grande communauté cosmique aux mondes innombrables ? La recherche de vie « ailleurs » s’est d’abord limitée à notre planète, les grandes expéditions rapportant la présence de nombreuses « races » aux traits étranges. Toutefois, la problématique ne se limite pas à la seule Terre ; les hommes se sont très tôt interrogés sur la présence de vie au-delà de notre atmosphère... et ce avec des fortunes diverses.

L’idée de pluralité des mondes est aussi ancienne que l’humanité. Elle faisait partie intégrante des mythes et cosmogonies anciens car toutes les tribus primitives peuplèrent le ciel... Il ne s’agit toutefois pas d’un peuple céleste de nature humaine, mais plutôt d’une cohorte divine : le firmament est donc habité, quelle que soit la culture – l’idée actuelle de vie extraterrestre s’éloigne toutefois beaucoup de ces conceptions initiales.


Débats antiques:les atomistes

epicure.jpg
Epicure
Crédit : S. Cnudde

La Grèce antique

Comme toujours, c’est la Grèce qui accueille les premiers débats « modernes » sur la pluralité des mondes. La problématique n’est alors pas discutée pour elle-même, mais s’insère dans le contexte plus global d’un courant philosophique complet.

Ainsi, les atomistes considéraient la matière composée d’éléments indivisibles, les « atomes ». Pour eux, c’était bien sûr le cas de la Terre, mais aussi du reste de l’Univers. De plus, notre monde a été créé par la collision fortuite d’atomes – un processus naturel qui peut évidemment se reproduire ailleurs : les mondes sont donc en nombre infini, à l’instar des atomes. Plusieurs philosophes antiques approuvent ces idées pluralistes. Pour Xénophane de Colophon (570-480 av. J.-C.), la Lune est sans doute habitée et il doit exister d’autres terres ; Démocrite (465-365 av. J.-C.) enseigne que la Lune présente des montagnes et des vallées, tout comme la Terre, et qu’il existe d’autres mondes créés par des agglomérats d’atomes ; Épicure (341-270 av. J.-C.) approuve ses prédécesseurs atomistes en assurant : « Il y a une infinité de mondes similaires ou différents du nôtre... Nous devons croire que dans tous ces mondes, il existe des créatures vivantes, des plantes et toutes choses que nous trouvons en ce monde. » Son disciple Métrodore le soutient en déclarant qu’« il est aussi absurde de concevoir un champ de blé avec une seule tige qu’un monde unique dans le vaste Univers. ».

Même Lucrèce (98-55 av. J.- C.) rejoint les adeptes de la pluralité en des termes très modernes : « Dès lors, on ne saurait soutenir pour nullement vraisemblable, quand de toutes parts s’ouvre l’espace libre et sans limites, quand des semences innombrables en nombre, infinies au total, voltigent de mille manières, animées d’un mouvement éternel, que seuls notre Terre et notre ciel aient été créés, et qu’au delà restent inactifs tous ces innombrables corps premiers. Et ce d’autant plus que ce monde est l’œuvre de la nature. [...] Aussi, je le répète encore, il te faut avouer qu’il existe ailleurs d’autres groupes de matière analogues à ce qu’est notre monde que, dans un étreinte jalouse, l’éther tient enlacé. Du reste, quand la matière est prête en abondance, quand le lieu est à portée, que nulle chose, nulle raison ne s’y oppose, il est évident que les choses doivent prendre forme et arriver à leur terme. Et si maintenant les éléments sont en telle quantité que toute la vie des êtres vivants ne suffirait pas pour les dénombrer ; si la même force, la même nature subsistent pour pouvoir rassembler en tous lieux ces éléments dans le même ordre qu’ils ont été rassemblés sur notre monde, il te faut avouer qu’il y a dans d’autres régions de l’espace d’autres terres que la nôtre et des races d’hommes différentes et d’autres espèces sauvages. »


Débats antiques : les opposants

aristote.jpg
Aristote
Crédit : S. Cnudde

La philosophie atomiste n’est cependant pas le seul courant philosophique de l’Antiquité, et certains sont bien plus sceptiques sur la question. Parmi les chefs de file des opposants, on compte Aristote (384-322 av. J.-C.). Dans ses théories, il considère quatre éléments, qui ont chacun leur place naturelle : la terre, plus lourde, se trouve au centre, suivie de l’eau, l’air et le feu, par ordre d’éloignement. Si l’un d’eux est écarté de sa position, il tend à y revenir : ainsi, les rochers coulent et les flammes montent. Imaginons qu’il existe une seconde Terre, un autre monde : les éléments seraient perturbés et ne sauraient vers quoi se diriger – il n’y aurait plus de « place naturelle » mais bien deux centres attractifs ! Il ne peut donc y avoir qu’un monde. De plus, Aristote pense que les quatre éléments sont confinés sur la Terre corruptible, car les cieux, parfaits, sont eux composés d’un mystérieux cinquième élément... Il semble donc absurde d’imaginer les astres habités.


Questionnement chrétien

Thomas d'Aquin
thomas-aquinas.jpg
Crédit : C. Crivelli

Au début de notre ère, la philosophie d’Aristote domine les réflexions savantes, et il faut attendre la fin du Moyen-Âge pour voir apparaître de nouveaux débats. Le problème principal est que le monde occidental, désormais chrétien, assure l’existence d’un Dieu omnipotent, incompatible avec certaines idées du philosophe grec. En effet, si Dieu avait envie de créer un deuxième monde, ce ne sont certes pas les théories d’Aristote qui l’en empêcheraient... ou alors les pouvoirs divins sont limités – une hérésie ! D’aucuns tentent de pallier cette contradiction. Ainsi, Thomas d’Aquin (1225-1274) assure qu’il n’y a aucun problème d’omnipotence dans cette question de pluralité des mondes, car la perfection peut justement se trouver dans l’Unicité de la création ! Roger Bacon (1214-1294) et d’autres assurent que, pour avoir plusieurs mondes et aucun problème de « place naturelle », il faudrait qu’un vide existe entre ces mondes, ce qui est impossible dans la philosophie d’Aristote : notre monde est donc bien unique.

Pourtant, les critiques se font de plus en plus nombreuses, avec comme antienne « Dieu n’est pas soumis aux lois d’Aristote ». En 1277, Etienne Tempier (?-1279), évêque de Paris, condamne ainsi 219 exécrables erreurs à caractère scientifique, en y incluant notamment le fait que la Cause Première ne peut créer plusieurs mondes. Jean Buridan (1300- 1358) assure quant à lui que Dieu est capable de créer un deuxième monde et de s’arranger pour que les éléments respectent les lois d’Aristote dans ce monde-là aussi ! Pour Guillaume d’Ockham (1280-1347), celui du fameux rasoir, la pluralité des mondes est une évidence, voire une nécessité – dans chaque monde, les éléments retournent à leur place, sans même le besoin d’une intervention divine. Nicole Oresme (1325-1382), évêque de Lisieux, poursuit en affirmant que, si les corps lourds restent au milieu des légers, il n’y a aucun problème. Le cardinal Nicolas de Cuse (1401-1464) va même plus loin : pour lui, l’Univers est ouvert, et la Terre n’y occupe aucune place privilégiée ; de plus, la création divine peut s’exprimer partout – tout corps étant formé des mêmes éléments. Les adeptes de la pluralité restent cependant minoritaires, et la plupart des penseurs de l’époque résolvent le problème à la manière de Thomas d’Aquin : oui, Dieu pourrait créer un autre monde mais en pratique, il n’en a fait qu’un.


Questions philosophiques et scientifiques

Auteur: Yaël Nazé

Révolution héliocentrique

Héliocentrisme
Heliocentric.jpg
Crédit : Harmonia Macrocosmica (Andreas Cellarius 1708).

Le véritable changement de mentalité doit attendre la révolution héliocentrique. Dans ce modèle, la Terre n’est qu’une planète parmi d’autres. Copernic lui-même ne tire pas les conséquences de cette idée fondamentale, mais d’aucuns s’en chargent pour lui : si la Terre n’est pas centrale, l’homme non plus ! Un des porte-drapeaux de cette nouvelle génération est Giordano Bruno (1548-1600) : « Dans le cosmos, il doit y avoir une infinité de soleils avec des planètes et la vie autour d’ elles. » ou encore « Il y a d’ innombrables soleils et d’innombrables terres, toutes tournant autour de leur soleil comme le font les sept planètes (Rappelons qu’à l’époque, Uranus et Neptune n’avaient pas encore été découvertes.) de notre système. Nous n’en voyons que les soleils parce qu’ils sont les plus grands et les plus lumineux, mais leurs planètes nous restent invisibles parce qu’elles sont petites et peu lumineuses. Les innombrables mondes de l’univers ne sont pas pires et moins habités que notre Terre. ».

Hélas, Bruno ne s’arrête pas à la pluralité et commence à remettre en cause certains fondements de la foi catholique (transsubstantiation, virginité de Marie, nature divine du Christ, etc.) en poussant les théories atomistes à l’extrême. Pour ces réflexions par trop audacieuses, il est condamné comme hérétique, puis brûlé au Campo dei Fiori de Rome le 17 février 1600. Cependant, cette exécution ne peut arrêter la marche des idées pluralistes, qui se voient même renforcées par les premières observations au télescope. Outre une confirmation de l’héliocentrisme, celles-ci montrent les astres semblables à la Terre : taches solaires et montagnes lunaires ont tôt fait d’abattre les théories de perfection céleste...


Une évidence universelle

Johannes Kepler
kepler.png
Crédit : Wikipedia

La vie ailleurs passe alors du statut d’impossibilité naturelle à celui d’évidence universelle. On imagine alors tous les corps peuplés, y compris le Soleil ! Par extension, les étoiles, soleils lointains, doivent également posséder des planètes et ces autres systèmes solaires ne peuvent qu’accueillir la vie. On y voit même la preuve de la toute-puissance de Dieu, qui n’aurait certainement pas laissé les étoiles seules, sans raison d’être.

Les plus grands scientifiques apportent alors leur soutien à l’idée. Kepler (1571-1630) pense la Lune habitée (une cavité lunaire observée par Galilée serait selon lui une digue dans laquelle les Sélènes creusent des grottes-maisons). L’illustre Allemand publie même un roman de science-fiction en 1634 dans lequel un explorateur découvre la faune et la flore de notre satellite, protégé évidemment par une atmosphère, gage de vie. Il assure toutefois que la Terre abrite les plus merveilleuses des créatures... mais il a un doute « S’il y a des globes dans les cieux semblables à notre Terre, nous battrons-nous avec eux pour savoir qui occupe la meilleure partie de l’Univers ? Car si leurs globes sont plus nobles, nous ne sommes pas les plus nobles des créatures. Alors comment est-il possible que les choses soient faites pour l’homme ? Comment pouvons-nous être les maîtres de l’œuvre de Dieu ? »


Révolution cartésienne

Les vortex de Descartes
vortex.jpg
Figure 1 : Théorie des tourbillons : "Si nous supposons par exemple que le premier ciel AYBM au centre duquel est le Soleil tourne sur ses pôles dont l'un marqué A est l'austral et B le septentrional, et que les quatre tourbillons KOLC qui sont autour de lui tournent sur leurs essieux TT, YY, ZZ, MM et qu'il touche les deux marqués O et C vers leurs pôles et les deux autres K et L vers les endroits qui en sont fort éloignés" (Descartes, 1647).
Crédit : Principia Philosophia, R. Descartes(1596-1650),
Entretiens sur la pluralité des mondes
Fontenelle_Entretiens.jpg
Figure 2 : La Marquise et le Philosophe, frontispice des Entretiens sur la pluralité des mondes.
Crédit : Bernard le Bouvier de Fontenelle

Alors que Descartes (1596-1650) reprend les idées atomistes et multiplie les « tourbillons », chacun centré sur un système solaire (figure 1), son protégé Christiaan Huygens (1629- 1695) écrit le Cosmotheoros (qui sera publié en 1698) dans lequel les planètes, mais pas la Lune, sont habitées par des êtres paisibles et savants, en majorité... astronomes. La pluralité devient alors à la mode en littérature : Pascal (1623-1662) penche pour une infinité d’univers, dont plusieurs « terres » habitées, Cyrano de Bergerac (1619-1655) envoie lui aussi ses personnages dans la Lune, tandis que Voltaire (1694-1778) met en scène un habitant de Sirius dans Micromegas...

Les idées de l’époque sont rassemblées et vulgarisées par Bernard le Bouvier de Fontenelle (1657-1757) dans son célèbre Entretiens sur la Pluralité des Mondes publié en 1686 (figure 2) . Dans cet ouvrage, on retrouve une infinité d’étoiles, toutes des soleils possédant des planètes – selon l’auteur, cette pluralité rend l’Univers encore plus magnifique qu’on ne le pensait auparavant. Fontenelle raconte même que les extraterrestres se baladent non loin et pêchent peut-être des humains comme nous les poissons (les enlèvements par des « aliens », avec trois siècles d’avance !). Les arguments en faveur de la vie extraterrestre sont énumérés : similitude de la Terre et des planètes quant aux conditions de vie, impossibilité d’imaginer d’autres usages à ces objets célestes, fécondité de la Nature et nécessité de peupler les autres planètes... Le livre connaît un succès sans égal, et se répand dans toute l’Europe.


Rédemption et preuves

Toute opposition n’est toutefois pas morte, et les thèses religieuses ont parfois bien du mal à s’accorder avec la pluralité généralisée. Thomas Paine (1737-1809) écrit ainsi en 1793 que « croire que Dieu a créé une pluralité de mondes au moins aussi nombreux que ce que nous appelons étoiles rend le système de foi chrétien à la fois petit et ridicule. » et « celui qui croit aux deux [pluralité et chrétienté] n’a que peu réfléchi à l’un comme à l’autre. » S’il existe des millions de mondes, alors comment croire que le Messie soit venu précisément sur la Terre pour sauver tous les êtres pensants de la Galaxie ? Ou alors, il passe d’un monde à l’autre « souffrant sans fin une succession de morts entrecoupées de rares intervalles de vie » de manière à sauver chaque peuple de l’Univers à son tour... Cela semble si ridicule qu’une seule conclusion doit s’imposer : la doctrine chrétienne est à abandonner. Ces idées sont peu suivies par les contemporains de Paine, qui prennent toutefois la peine de lui répondre. Timothy Dwight (1752-1817), Thomas Chalmers (1780-1847) et Thomas Dick (1774-1857) réaffirment alors que la pluralité constitue une des bases de la chrétienté, une confirmation de la Gloire de Dieu (on est loin des juges de Bruno !) – on retrouverait d’ailleurs la notion de vie extraterrestre à divers endroits des Ecritures !

Certains nouveaux groupes religieux incorporent même la pluralité directement dans leur foi : mormons, adventistes du 7e jour, swedenborghiens. Mais la question de la portée de l’incarnation christique et de la rédemption associée reste sans réponse, même aujourd’hui, et les débats continuent dans les milieux théologiques, quoique sur un ton moins passionné et surtout plus ouvert qu’au Moyen-Âge.


Anthropocentrisme

Robert Dicke
Robert_Dicke.jpg
Crédit : NAS Biographical Memoirs

Le courant majoritaire n’empêche pas plusieurs philosophes allemands du 19e siècle de renoncer également à la pluralité, en faveur de l’anthropocentrisme : G.W.F. Hegel (1770-1831) affirme ainsi que la Terre est la plus excellente des planètes ; L. Feuerbach (1804-1872) assure que la Terre est l’âme et la raison d’être du cosmos ; A. Schopenhauer (1788-1860) accepte la présence d’extraterrestres mais considère l’humanité au pinacle de la création ; G.W. von Leibniz (1646-1716) et d’autres soutiennent ces idées...

Certains rapprochent également les tenants du « principe anthropique » de ce courant centré sur l’homme. Ce principe fut introduit dès 1961 par Robert Dicke (1916-1997), qui assurait que l’âge de l’Univers n’est pas quelconque mais «limité par des critères liés à l’existence de physiciens. » En 1973, l’idée est reprise par Brandon Carter (1942-), qui sépare la chose en deux versions : la faible et la forte. La première peut s’exprimer comme suit : « ce que l’on peut s’attendre à observer doit être restreint par les conditions nécessaires à notre présence en tant qu’observateurs ». Exemple : l’Univers ne peut être trop vieux car il faut que le carbone, brique indispensable à la vie, ait eu le temps d’être formé dans les étoiles et distribué un peu partout ; il ne peut être trop grand sinon il ne resterait plus que des cadavres stellaires inhospitaliers. La seconde version va plus loin encore et affirme que « l’Univers, et donc les paramètres fondamentaux dont il dépend, doivent être tels qu’ils admettent la création d’observateurs en son sein à un certain stade » – en résumé, la vie est donc essentielle au cosmos. Exemple : la constante de gravitation ne peut être ni plus petite, sinon il n’y aurait que des étoiles rouges et froides, ni plus grande, sinon les étoiles bleues et chaudes, tout aussi hostiles à la vie, domineraient le ciel.

Un lien esprit-matière est invoqué et selon John A. Wheeler (1911-2008), l’Univers s’adapte pour rencontrer les besoins de la vie et de l’esprit. Si les « observateurs » ne doivent pas en principe être nécessairement humains, c’est bien dans le cadre de l’humanité que ce principe a été formulé : certains adhérents au principe ne croient d’ailleurs pas en la vie extraterrestre. On peut d’ailleurs rapprocher ces idées de la pensée du biologiste Alfred R. Wallace (1823-1913) qui déclarait au début du 20e siècle « L’objectif final et la raison de ce vaste univers était la production et le développement de l’âme vivante dans le corps périssable de l’Homme. ».

Le principe anthropique, surtout dans sa version forte, est loin de faire l’unanimité. Le grinçant Fred Hoyle (1915-2001) ironise sur le sujet : « ce n’est pas tant l’Univers qui doit être compatible avec nous, que nous qui devons être compatibles avec l’Univers. Le principe anthropique a inversé la donne. » Certains dénoncent un problème important de ce principe : l’impossibilité de le tester, d’en obtenir des prédictions – il ne s’agirait donc peut-être pas d’une théorie, mais d’une profession de foi... D’aucuns insistent dans cette voie et assurent n’y voir qu’une version plus scientifique et sophistiquée de l’argument de « design » en faveur de l’existence d’un dieu...


Habitable n'est pas habitée

Camille Flammarion
Flammarion_Juvisy_observatory.jpg
Camille Flammarion, farouche défenseur de la pluralité.
Crédit : Wikipedia

Certains penseurs préfèrent attaquer la pluralité dans ses postulats de base. Un bon exemple est William Whewell (1794-1866), pluraliste en 1827 devenu anti en 1850. Il s’interroge sur les preuves dont on dispose pour affirmer la pluralité des mondes, et n’en trouve aucune de bien tangible. L’Univers est grand, soit, mais il n’y a à l’époque aucune preuve que les étoiles possèdent des planètes, ni que les étoiles sont véritablement semblables au Soleil (au niveau de la stabilité, des propriétés physiques, etc.). Il réfute l’idée selon laquelle la variabilité d’Algol est due au passage d’un corps opaque (une planète ?) devant l’astre. Même dans notre Système solaire, on n’est pas sûr que les autres planètes soient habitables, ni alors, ni aujourd’hui ! Enfin, Whewell s’oppose également à la doctrine du « Tout doit servir » : on sait alors que la Terre est restée longtemps inhabitée... notre civilisation ne représente donc qu’un « atome de temps », alors pourquoi la Terre ne serait pas qu’un « atome d’espace » dans l’Univers ? Whewell récuse donc l’utilisation de l’analogie à tout va : il exige des preuves concrètes avant de discuter de ce problème – qui selon lui dépend donc plus de la science que de la religion. Précisons aussi que Whewell est le premier à décrire le concept de « zone d’habitabilité » et à reconnaître que la présence de vie n’implique pas nécessairement la présence de vie intelligente. Ses écrits font beaucoup de bruit et sont ardemment débattus, mais ils diminuent finalement peu le soutien général en faveur de la pluralité. On retrouve ainsi tout au long du 19e siècle des déclarations comme « Il faudrait avoir retiré bien peu de fruits de l’étude de l’astronomie pour pouvoir supposer que l’homme soit le seul objet des soins de son Créateur, et pour ne pas voir, dans le vaste et étonnant appareil qui nous entoure, des séjours destinés à d’autres races d’êtres vivants. » (François Arago, 1786-1853) ou « La vie se développe sans fin dans l’espace et dans le temps. Elle est universelle et éternelle. Elle remplit l’infini de ses accords, et elle règnera à travers les siècles, durant l’interminable éternité » (Camille Flammarion, 1842-1925).


Observations et recherches

Auteur: Yaël Nazé

Universalité de la matière

Une nouvelle technique va changer un peu la donne : la spectroscopie, un moyen d’étudier à distance la composition chimique et les propriétés chimiques des astres – on possède enfin un moyen de tester les hypothèses à la base de la pluralité. Cette science va permettre de prouver que la matière est, essentiellement, partout la même dans l’Univers, ajoutant de l’eau au moulin des pluralistes. Elle va toutefois ruiner leurs espoirs dans d’autres domaines : non-détection de l’atmosphère lunaire (les Sélènes font leurs bagages...) ; ailleurs, présence de gaz toxiques ou conditions de pression et de température très défavorables à la vie. Le débat sur la vie extraterrestre va se mettre à osciller entre pessimisme (surtout première moitié du 20e siècle) et optimisme (surtout seconde moitié du 20e siècle) : formation des planètes, théories biologiques, observations martiennes apportent alors chacune leur lot de (dés)illusions.


Formation planétaire

kant2.jpg
figure 1 : Immanuel Kant
Crédit : S. Cnudde
laplace2.jpg
figure 2 : Pierre-Simon de Laplace
Crédit : S. Cnudde

La question de la formation des systèmes planétaires pimente le débat. Une première théorie, élaborée par Immanuel Kant (1724-1804, fgure 1) et Pierre-Simon de Laplace (1749-1827, figure 2), part de la « nébuleuse primitive » : l’ensemble du Système solaire naît d’un nuage qui se contracte; sa rotation accélérant, le nuage donne naissance à un disque plat; en se refroidissant, ce disque devient instable et se divise en anneaux qui donnent naissance aux planètes.

Rapidement, on met en évidence un sérieux problème dans ce modèle. En effet, les planètes de notre Système solaire tournent rapidement alors que le Soleil, qui possède la majorité de la masse du système, tourne très lentement sur lui-même. À l’époque, on ne connaît aucun moyen pour une étoile de se débarrasser du moment cinétique et cette observation indiscutable conduit alors à l’abandon de la théorie.

Entre 1897 et 1901, Thomas C. Chamberlin (1872-1952) et F.R. Moulton (1872-1952) relèvent les difficultés de la théorie nébulaire et envisagent une alternative, déjà imaginée par Buffon au 18e siècle. Le Système solaire se serait formé suite à une collision : un astre serait passé près du Soleil, et en aurait arraché un peu de matière par effet de marée; celle-ci prend la forme d’un jet spiralé, dont les petits noyaux denses forment les planètes par accrétion de planétésimaux. Comme les astres sont séparés par des distances importantes, les collisions sont rares dans notre Galaxie... donc les systèmes planétaires aussi ! Chamberlin propose d’identifier les « nébuleuses spirales » à des systèmes planétaires en formation. Cette dernière partie sera vite oubliée, pour ne retenir que l’essentiel de la théorie : la collision. En 1916, James Jeans (1877-1946) reprend le travail de ses prédécesseurs et tente de modéliser le phénomène. Il arrive finalement à un filament de gaz chaud, qui se condense en planètes directement, et calcule que dans notre Galaxie, une rencontre entre étoiles se produit tous les trente milliards d’années, soit le double de l’âge de l’Univers : les systèmes planétaires sont donc bien rares. De plus, les astronomes connaissent alors de nombreux systèmes binaires : notre Soleil vivant seul, cela prouve bien que le Système solaire est loin d’être une norme universelle !

Relevons une contradiction dans les théories de Chamberlin : les collisions sont rares, donc les systèmes planétaires aussi ; toutefois, si les nébuleuses spirales sont bien de jeunes systèmes planétaires, alors ils sont assez courants puisqu’on en connaît alors des centaines. De plus, comme le remarquera T.J.J. See, s’il s’agissait vraiment de cela, on devrait observer plus de spirales là où les étoiles sont plus nombreuses, ce qui est juste le contraire des observations... Plus tard, on démontrera que ces « spirales » sont en fait d’autres galaxies.

Une vingtaine d’années plus tard, on démontre qu’il est impossible de former avec ce modèle des planètes dont la composition et les orbites sont celles que l’on observe, que de telles collisions ne peuvent arracher suffisamment de matière pour former le Système solaire dans son ensemble, et que le filament obtenu est de toute façon instable. La théorie nébulaire, et avec elle les cortèges de planètes, resurgit alors dans les années 1940. Des modifications permettent d’éliminer le vieux problème : une grande partie de la nébuleuse primitive est évacuée dans l’espace, emportant la majorité du moment angulaire – on ajoutera ensuite l’action du vent solaire dans le ralentissement du Soleil. Avec le retour de ce modèle, les systèmes planétaires sont alors de nouveau nombreux dans l’imaginaire astronomique...


La biologie entre en jeu

Exprience de Miller
Miller-Urey.png
Figure 1 : Schéma de l’expérience de Miller. On produit des décharges électriques dans un ballon contenant les gaz primitifs, et des composés organiques se forment alors.
Crédit : Wikipedia
ALH84001
ALH84001_structures.jpg
Figure 2 : Structure étrange dans la météorite martienne ALH84001.
Crédit : Wikipedia

Alors qu’il s’agit de discuter la présence de vie, la biologie est curieusement absente des débats jusqu’à l’aube du 20e siècle, laissant les astronomes et les philosophes occuper le premier plan. À la fin du 19e siècle, les choses commencent à changer.

Louis Pasteur (1822-1895) mettant à mal les théories de génération spontanée, certains proposent alors que la vie terrestre vient d’ailleurs (théorie dite de panspermie)... Lord Kelvin (1824-1907) décrit ainsi les météorites comme des fragments de planètes verdoyantes venues féconder la Terre. Se disant que la descente dans l’atmosphère et la collision brutale avec le sol doit détruire la vie dans ces objets, Svante Arrhénius (1859-1927) propose plutôt que les spores présents dans l’atmosphère soient gentiment poussés par la pression de radiation pour finir par ensemencer, sinon l’Univers, tout au moins le Système solaire. Il calcule que des spores terrestres atteignent ainsi l’orbite de Mars en vingt jours, et l’étoile la plus proche en neuf mille ans. Il suppose que les températures glaciales de l’espace interstellaire suspendent le pouvoir de germination de ces « graines » – certains expérimentent et constatent que c’est bien le cas ; toutefois, le rayonnement ultraviolet a tendance à détruire les cellules vivantes...

Cependant, lors de la mission d’Apollo 12, les astronautes récupérèrent des morceaux d’une sonde, Surveyor 3, qui avait atterri deux ans plus tôt. Après une analyse détaillée, on trouva sur la caméra de la sonde une centaine de bactéries Streptococcus mitis qui avaient survécu, sans eau ni nourriture, au vide de l’espace, à ses radiations dangereuses et à ses températures extrêmes (20K) ! Depuis peu, on pense toutefois que la caméra aurait pu être contaminée à son retour. Toutefois, en parallèle, diverses expériences ont été menées et ont montré que certains petits organismes pouvaient résister aux conditions extrêmes de l'espace.

Plus récemment, Fred Hoyle et Chandra Wickramasinghe (1939 -)reprennent l’hypothèse de panspermie, en assurant que l’absorption ultraviolette du milieu interstellaire est due à des virus ou des algues (leur arrivée dans l’atmosphère provoquant des épidémies sur Terre), que la poussière interstellaire est peut-être de la cellulose, ou encore que les explosions récurrentes du nombre de nouvelles espèces correspondent à l’arrivée massive de « semences » spatiales. Allant plus loin encore, Francis Crick (1916-2004) et Leslie Orgel (1927-) proposent une panspermie dirigée – des vaisseaux spatiaux extraterrestres envoyés délibérément pour féconder les planètes... Tout cela ne règle évidemment pas le problème de l’apparition de la vie, reportant le problème de la Terre à une autre planète.

Dans les années 1950, Melvin Calvin (1930-2007) et Stanley Miller (1911-1997) arrivent à produire des substances organiques (acide formique pour le premier, acides aminés pour le second) à partir d’un mélange de gaz « primitifs » (figure 1).

Très vite, ces résultats font l’effet d’une bombe : si l’on arrive à produire ces composés aussi facilement, cela implique que la vie est possible ailleurs ! Les astronomes découvrent d’ailleurs des composés organiques dans le milieu interstellaire voire des acides aminés dans des météorites... Certains assurent même y avoir trouvé des « algues » (Nagy & Claus en 1961 et Mc Kay en 1996 pour ALH84001, figure 2), mais ces résultats sont encore loin d’être confirmés. Tout cela, combiné à la découverte de vie dans les conditions les plus extrêmes de la Terre, pousse certains à l’optimisme : « Il y a aujourd’hui toute raison de penser que l’origine de la vie n’est pas un ‘heureux accident’ mais un phénomène complètement régulier. » (A.I. Oparin en 1975).

Côté théorique, la fin du 19e siècle a vu Charles Darwin (1809-1882) et Alfred R. Wallace introduire l’idée de sélection naturelle. Cette théorie permet d’envisager l’évolution dans d’autres conditions – comme celles régnant sur d’autres planètes, par exemple. Elle pousse au départ à l’optimisme mais il apparaît rapidement que l’évolution de la vie sur Terre ne s’est pas faite de façon très linéaire... Wallace affirme ainsi qu’il a fallu des millions de petites modifications pour arriver à l’Homme – obtenir la même chose ailleurs est donc impossible ; de plus, l’humanité est la seule race intelligente sur Terre – la possibilité d’une intelligence extraterrestre est donc encore plus faible. Beaucoup reprennent ces idées : « L’homme sait enfin qu’il est seul dans l’immensité indifférente de l’Univers d’où il a émergé par hasard. Non plus que son destin, son devoir n’est écrit nulle part. À lui de choisir entre le Royaume et les ténèbres.» (J. Monod en 1970), «La pleine réalisation de la quasi-impossibilité de l’origine de la vie nous rappelle combien cet événement était improbable. » (E. Mayr en 1982). Sans preuves observationnelles, le débat reste actuellement ouvert. Les scientifiques les plus optimistes s’accordent toutefois à dire que « vie extraterrestre » ne rime pas avec « humains » : le chemin évolutif ayant probablement été différent ailleurs, les formes de vie le seront aussi.


Mars la fertile

Une des cartes de de Mars de Percival Lowell
carte_lowell.jpg
Crédit : P. Lowell

Mars la fertile

La planète rouge, proche voisine de la Terre, est un lieu d’expérimentation idéal pour les théories pluralistes. Peuplée dès le 16e siècle, comme les autres planètes, Mars va occuper le devant de la scène aux 19e et 20e siècles.

C’est le moment où l’on commence à cartographier la planète en détails. En 1858, le père Angelo Secchi (1818-1878) observe la planète rouge et en décrit les structures. Pour certaines, il utilise le terme de canali. Il baptise par exemple la région de Syrtis Major « canal de l’Atlantique ». Pour Secchi, il s’agit là de structures tout à fait naturelles, tout comme l’Atlantique sur Terre n’a pas été construit par la main de l’homme. Quelques années plus tard, William Rutter Dawes (1799-1868) décrit lui aussi des « mers » martiennes, larges taches sombres, se terminant par de longs bras noirâtres.

Il faut préciser que les astronomes n’observent pas Mars n’importe quand. Tous les deux ans environ, Mars se trouve à l’opposé du Soleil, vu depuis la Terre. À cet instant, il est près de la Terre et donc observable dans les meilleures conditions : il s’agit d’une opposition. C’est le moment rêvé pour envoyer des sondes vers la planète rouge. Cependant, les orbites de la Terre et de Mars sont elliptiques : les oppositions peuvent avoir lieu n’importe où, mais certaines sont plus favorables que d’autres (le diamètre apparent lors des oppositions varie entre 14 et 25 secondes d’arc, contre 4 arcsecondes lorsque Mars est très éloigné). Lorsque la distance entre les deux planètes est minimale, on parle de grande opposition. Celles-ci se produisent environ tous les 18 ans, et celle de 1877 marqua l’histoire.

Cette année-là, Asaph Hall (1829-1907) découvre les deux satellites de Mars, et Giovanni Schiaparelli (1835-1910) décide de cartographier la planète. Il utilise une nomenclature similaire à celle utilisée pour la Lune : mers, continents, etc. Mais il reprend également la notation de Secchi, canali, pour désigner de petites structures longilignes noires. Ce terme sera parfois utilisé dans le sens de « canal », ce qui a une signification totalement différente du « bras de mer » de Secchi : il s’agit d’une structure artificielle, ce qui suppose donc l’existence de constructeurs ! Et ce terme possède une résonance bien particulière dans l’Europe du 19e siècle. En effet, à l’époque, on vient de terminer péniblement les titanesques travaux du canal de Suez : si l’on ne doutait pas de l’existence de petits martiens, une civilisation capable de construire ainsi des canaux sur toute la planète s’annonce bien plus avancée que la nôtre !

Schiaparelli continue ses observations lors de l’opposition suivante. Ce n’est plus une grande opposition, et Mars est donc moins bien visible. Malgré cela, ses canaux s’affinent et certains se dédoublent même: c’est le phénomène de gémination. Diverses campagnes d’observation sont entreprises, et beaucoup d’astronomes commencent à apercevoir ces structures géantes. On disserte sans fin sur leur raison d’être : Schiaparelli y voit un grand système hydrique, mais pas forcément artificiel, certains sont encore plus modérés, mais d’autres au contraire plus enthousiastes. Une partie des astronomes conclut ainsi que les « mers » sont en fait de simples forêts, car certains canaux les traversent. Une végétation que l’on voit d’ailleurs grandir et mourir au fil des saisons : il n’y a pas de doute, Mars est bien une planète vivante.

C’est ici qu’entre en scène un astronome peu commun : Percival Lowell (1855-1916). De famille fortunée, le jeune Percival s’intéresse très tôt à l’astronomie, mais il la délaisse bientôt pour les affaires et la diplomatie. La quarantaine venue, le milliardaire revient à ses premières amours. Sur ses fonds propres, il construit à Flagstaff un observatoire tout entier dédié à l’observation de la planète rouge. Dès le départ, il annonce qu’il va étudier les canaux, et ses cartes deviennent rapidement une référence dans le monde. Avec 400 canaux environ, c’est un vaste système d’irrigation qui semble sillonner la planète. Lowell en est convaincu : les Martiens sont des jardiniers (d’où leur couleur verte ?) luttant pour leur survie sur une planète désertique, avec de l’eau qu’il faut péniblement acheminer depuis les lointaines calottes polaires nord et sud. D’ailleurs, lorsque deux canaux se croisent, ne voit-on pas une large tache sombre, indiquant la présence d’une oasis ? Toutefois, des contradictions se font jour : certaines photos montrent bien des canaux mais ceux observés dans un petit télescope ne se dévoilent parfois pas dans les instruments plus grands; sur un même télescope, durant une même nuit, les observations rapportées changent selon l’observateur ; une même personne ne voit pas toujours ces canaux de la même façon,...


Mars, les observations

Schiaparelli/Antoniadi
Antoniadi_Mars1.gif
Une des cartes que Schiaparelli dressa de Mars (en haut), à comparer à une des cartes d’Antoniadi (en bas)
Crédit : Antoniadi (La planète Mars)
Le visage sur Mars
visagemars.png
"The face", une signature en forme de visage humain laissée par une civilisation décadente... une image de basse résolution prise par Viking et une image à haute résolution de la même région.
Crédit : NASA/ESA

Vu le peu de certitudes, il existe donc quelques opposants à la théorie des canaux artificiels, par exemple le français Eugène Antoniadi (1870-1944). Ce dernier était pourtant au départ convaincu de l’existence des canaux. Mais après de longues heures d’observation, il doit cependant revenir sur ses convictions, et analyse les canaux comme de simples alignements fortuits. Pour convaincre le monde scientifique, son collègue Edward Maunder (1851-1928) tente même une expérience dans une classe. Dessinant sur une feuille de papier une carte de Mars « naturelle » (quelques points au hasard), il demande aux élèves de reproduire ce qu’ils voient : si les élèves du premier rang copient fidèlement les points disposés au hasard, les potaches du dernier rang dessinent consciencieusement des lignes droites... imaginaires. L’esprit humain, assurent Antoniadi et Maunder, a tendance à (sur)interpréter les choses naturelles, et à dessiner des lignes là où il n’y a rien de particulier en réalité. De plus, la mauvaise qualité des instruments de l’époque n’arrange rien.

Mais le courant opposé a tôt fait de balayer les objections d’Antoniadi et des autres opposants : ils ne sont jamais que de piètres observateurs, prévient-on ! Et d’ailleurs, Antoniadi, basé à Meudon, ne pourrait pas distinguer de fins détails sur la planète rouge à travers les cieux parisiens si pollués !

À la fin du 19e siècle, quatre interprétations circulent : une illusion (Maunder, Newcomb, Antoniadi), des structures réelles et continues dues à des craquelures dans la surface martienne (Pickering, Eddington), de fines lignes naturelles (Schiaparelli), de fines lignes artificielles (Lowell, Flammarion, Lockyer, Russell). Beaucoup d’astronomes modérés sont persuadés de l’existence de la vie sur Mars – tous ne vont pas jusqu’à soutenir l’image des Martiens bâtisseurs, mais Lowell a la presse pour lui et son modèle devient extrêmement populaire. Les médias diffusent l’affaire, et certains vont jusqu’à affirmer que les canaux forment le nom de Dieu en hébreu ou que les habitants nous envoient parfois des signaux ! Des romans mettant en scène les hypothétiques Martiens fleurissent, le plus connu étant certainement « La Guerre des Mondes » d’Herbert Georges Wells (dont la lecture radiodiffusée par Orson Welles le 30 octobre 1938 provoqua une panique sans précédent).

Le passage au 20e siècle ne clôt pas les débats. Certains astronomes affirment en 1909 avoir détecté de l’eau et de l’oxygène dans l’atmosphère martienne, voire en 1956 des molécules organiques... observations infirmées par la suite (elles étaient dues à une contamination par l’atmosphère terrestre).

Finalement, en juillet 1965, Mariner 4, première sonde lancée à l’assaut de la planète rouge, envoie ses premières images : Mars est une planète désolée, glacée et pratiquement sans air. Il n’y a nulle trace des fameux canaux, comme le confirmeront d’ailleurs les successeurs de Mariner.

Après l’observation de loin vient le temps des tests sur place. En 1976, les sondes Viking emportent avec elles quatre expériences destinées à tester la présence de vie sur Mars : Gas Chromatograph-Mass spectrometer (analyse des composés du sol martien), Gas exchange (si un organisme vivant se trouve dans l’échantillon de sol martien, il rejettera du gaz lorsqu’il recevra de de l’eau et/ou des nutriments), Labelled release (solution aqueuse avec 7 composés organiques marqués, expérience destinée à chercher de la vie qui les décompose en méthane ou gaz carbonique), Pyrolitic release (sans changer les conditions, on ajoute du gaz carbonique marqué et 120 heures plus tard, une pyrolyse décompose le résultat). Les deux premières ont des résultats clairement négatifs, les deux dernières des résultats positifs, mais attribués généralement à des réactions non biologiques : l'enthousiasme pour la vie martienne prend alors du plomb dans l’aile.

D’un autre côté, les responsables de la sonde Mars Express ont affirment avoir trouvé du méthane, un gaz qui se décompose rapidement sur Mars, distribué de façon non-uniforme à la surface tout comme la vapeur d’eau : l’origine en est encore incertaine (volcans, bactéries méthanogènes ?). D’autres expériences biologiques seront donc tentées à l’avenir, notamment avec la sonde européenne Exomars, pour obtenir des résultats définitifs tout en essayant d’éviter les ambiguïtés des mini-labos des Viking.

Les Martiens, héritiers des canaux du 19e siècle, n’ont cependant jamais vraiment déserté notre imagination. En 1976, ils ressurgissent de plus belle avec la découverte de « The Face ». Un étrange monticule en forme de tête humaine – c’est bien connu, les Martiens nous ressemblent. Sous la pression du public, la NASA a dû refaire récemment des images de la région à haute résolution... qui montrent une simple colline érodée! Cela n’empêche pas certains de parcourir les images de la planète rouge et d’y trouver des soucoupes volantes abandonnés, des pyramides-dortoirs, des forteresses abandonnées, et autres joyeusetés.


Les compagnons invisibles

Méthode des transits
transit.png
Figure 1 : Méthode du transit : en passant devant son étoile, la planète cache une partie du disque stellaire, provoquant une baisse de luminosité.
Crédit : OCA
Méthode astrométrique
wobble.png
Figure 2 : Méthode astrométrique : le mouvement de l’étoile est détecté par le changement de position de l’astre par rapport aux objets lointains. Déplacement du Soleil sous l'effet des mouvements planétaires (Jupiter et Saturne principalement), vu à une distance de 10 pc. L'amplitude de ce déplacement est de 500 microsecondes d'arc
Crédit : NASA
Méthode des vitesses radiales
exoplanet_spectro.gif
Figure 3 : L'étoile tourne autour du centre de gravité étoile-planète. La mesure du décalage des raies sombres visibles dans son spectre (l'effet Doppler) permet de calculer sa vitesse radiale. L'amplitude de cette variation informe sur la masse de la planète.
Crédit : Observatoire de Paris, ASM, E. Pécontal
vandekamp2.jpg
Figure 4 : P. Van de Kamp
Crédit : S. Cnudde

Puisque la théorie nébulaire prédit la présence de nombreux systèmes planétaires, les astronomes ont commencé à les chercher. Les fausses alarmes se multiplient, jusqu’à la dernière décennie du 20e siècle... La quête débuta par la découverte de compagnons invisibles. En 1782, des transits (figure 1) de tels objets sont proposés pour expliquer la variabilité d’Algol. (En réalité, les changements de luminosité de cette étoile résultent des éclipses de l’astre par un compagnon stellaire plus froid).

Cette idée fera son chemin, et en 1858 D. Lardner propose de chercher des objets planétaires par transits. Moins d'un siècle plus tard, D. Belorizky calcule que le transit d'un Jupiter fait une diminution de flux de 1%, ce qui est alors détectable, tandis qu'Otto Struve redécouvre la méthode et la promeut ! Dans les annees 1980, des astronomes proposent des missions spatiales permettant de chercher des transits d'exoplanètes, qui seront mises en oeuvre 20 ans plus tard avec CoROT et Kepler.

En 1844, F.W. Bessell (1784- 1846) en découvre pour Sirius et Procyon par la méthode astrométrique (figure 2).

En 1889, Edward Pickering (1846-1919) découvre des astres inconnus par la méthode des vitesses radiales (figure 3). Bien sûr, compagnon invisible, car noyé dans la lumière de l’astre principal, ne veut pas nécessairement dire compagnon planétaire – mais certains s’enthousiasment déjà, tels Simon Newcomb (1835-1909) qui déclare : « L’histoire de la Science n’offre pas de plus grande merveille que les découvertes de planètes invisibles qui sont en train de se produire. ».

En 1855, le capitaine W.S. Jacobs, féru d’astronomie, rapporte les «anomalies orbitales » de l’étoile binaire 70 Oph, détectées par la méthode astrométrique et probablement associées à une planète. Thomas Jefferson Jackson See (1866-1962), astronome fantasque, reprend l’idée en 1896 et assure que ces anomalies prouvent absolument l’existence d’une planète, de période égale à 36 ans. Un de ses confrères, F.R. Moulton, calcule néanmoins qu’un tel système à 3 corps serait instable, et donc qu’il ne peut exister de planète dans ce système. En 1905, W.W. Campbell et Hebert D. Curtis (1872-1942) calculent que le Soleil se déplace de seulement 0,03 km/s à cause des planètes : les instruments de l’époque ne permettent pas de détecter une amplitude aussi faible, et la recherche par la méthode des vitesses radiales est donc vouée à l’échec. Robert G. Aitken (1864-1951) insiste en 1938 : les planètes ont une masse trop faible par rapport au Soleil pour avoir un effet détectable par les instruments contemporains – il faut attendre.

Cependant, les astronomes sont impatients, et continuent malgré tout leurs recherches planétaires. La rotation des étoiles leur donne un argument supplémentaire. En effet, les étoiles chaudes et massives tournent rapidement (période de l’ordre d’heures ou de jours), alors que les plus froides ont une rotation bien plus lente (période de l’ordre du mois). Certains astronomes, dont Otto Struve (1897-1963), affirment que cette dichotomie est due à la présence de planètes autour des étoiles froides – planètes qui emportent une partie du moment cinétique (On prouvera plus tard que ce phénomène n’a rien à voir avec la presence de planètes) .

Galvanisés par ces premiers résultats, les scientifiques reprennent les recherches. Ainsi, en 1936, une première perturbation astrométrique avait été détectée pour l’étoile Ross 614 par Dirk Reuyl (1906-1972) : le compagnon était de nature stellaire, mais ce résultat ouvrait la porte à la détection de compagnons planétaires. En 1938, Erik Bertil Holmberg (1908-2000) rapporte un possible compagnon planétaire pour Procyon, mais le résultat fut rapidement infirmé – il y avait trop peu de mesures pour en tirer quelque chose de vraiment concluant. En 1943, les découvertes se multiplient: Kaj Strand rapporte la découverte de planètes pour 61 Cyg (confirmée par lui en 1957 et par des collègues en 1960), Reuyl et Holmberg font pareil pour 70 Oph (infirmé par Strand en 1952).

L’année suivante, c’est l’astronome Peter van de Kamp (1901-1995, figure 4), cousin de Reuyl, qui reprend le flambeau avec des compagnons pour l’étoile de Barnard et Lalande 21185 – comme il a un doute sur leur nature planétaire, il continue ses observations les années suivantes.

Au final, il examine plus de deux mille plaques photographiques, prises entre 1916 et 1919 ainsi qu’entre 1938 et 1962, de l’étoile de Barnard. Il trouve que cette étoile à grand mouvement propre n’a pas une trajectoire parfaitement rectiligne, mais qu’elle oscille plutôt autour d’une ligne droite, un mouvement perturbé selon lui par deux « Jupiter » qui gravitent autour de l’étoile. Dès 1973, George Gatewood et Heinrich Eichhorn mènent de nouvelles campagnes d’observations de l’objet mais ne remarquent rien de particulier ; un autre astronome, John Herschey, examine douze étoiles des plaques qui ont servi à van de Kamp et trouve que toutes présentent un étrange mouvement : le problème vient en fait du télescope, et plus particulièrement d’un changement de lentille ! Les astronomes persistent pourtant : en 1983, Robert S. Harrington (1942-1993) et V.V. Kallaraka rapportent que les étoiles van Biesbroeck 8 et 10 présentent des changements dans leurs mouvements propres dus à des compagnons très peu massifs... le résultat sera confirmé deux ans plus tard par interférométrie des tavelures mais en l’absence d’autres confirmations, la conclusion générale fut négative : une fausse alerte, encore une !


Recherches actives d'exoplanètes

Fomalhaut
fomalhaut_hst_lab800-1.jpg
Figure 1 : Le disque de Fomalhaut et la planète Fomalhaut b qui orbite sur le bord intérieur du disque.
Crédit : NASA

L’optimisme revient pourtant la même année avec la découverte de nuages de particules solides autour de Véga, β Pictoris et d’autres: il doit s’agir de disques protoplanétaires... une première étape est franchie, reste à trouver les planètes déjà formées. Il ne faudra plus attendre longtemps. En 1988, Bruce Campbell et deux collègues rapportent les résultats de six ans d’observations : 7 étoiles (sur les 16 étudiées) présentent des variations des vitesse peut-être dues à des compagnons de 1 à 9 masses de Jupiter et l’une d’entre elles possède un compagnon stellaire. Les auteurs proposent l’existence d’une planète pour γ Cep, leur meilleur candidat, mais ils restent prudents, vu les limitations de leur instrument et le fait qu’il pourrait s’agir non d’une planète mais bien d’une naine brune. Après des doutes sur cette découverte début des années 1992, elle fut confirmée en 2003... Rétrospectivement, il s’agit donc de la première observation d’exoplanète.

Peu apres, Latham et ses collègues proposent eux aussi une planète pour l'etoile HD114762. Après des doutes sur ces découvertes, elles furent confirmées... Rétrospectivement, il s’agit donc des premières détections d’exoplanètes.


les premières découvertes

51-Pegase
vr.gif
Figure 1 : La courbe des vitesses radiales de l'étoile 51-Peg.
Crédit : M. Mayor
Imagerie directe
imagerie.png
Figure 2 : J.J. See avait déjà affirmé en 1897 avoir détecté une demi-douzaine de planètes, et ce en imagerie directe ( !), autour de plusieurs étoiles proches (il ne précisera jamais lesquelles et l’on ne put dès lors ni infirmer ni confirmer ses allégations). En mai 1998, des utilisateurs du télescope spatial Hubble affirment avoir détecté directement, pour la première fois, une exoplanète. La « planète », de plusieurs fois la masse de Jupiter, serait située à 1500 UA de son étoile, une binaire qui l’aurait éjectée... irréfutable, disent ses découvreurs, car elle est encore reliée à son étoile par un « jet » (image de gauche). En 2000, on démontre qu’il s’agit en fait d’une étoile lointaine, très rougie. C’est finalement le VLT qui produira la première image, en 2004 (image de droite).
Crédit : NASA/ESO

51 Pegase

La première réussite reconnue de la méthode des vitesses radiales fut la découverte d’une planète autour de 51 Peg (figure 1) par les astronomes suisses Michel Mayor (1942-) et Didier Queloz (1966-), effectuée en 1995 avec un télescope français de... 1,93m de diamètre ! La méthode astrométrique a connu son premier succès plus récemment, en 2002, lorsque le télescope spatial Hubble a confirmé par cette méthode la présence d’une planète autour de l’étoile Gliese 876. Le premier transit exoplanétaire a quant à lui été repéré en 2000 pour l’étoile HD209458, dont le compagnon planétaire avait été découvert par la méthode des vitesses radiales.

Planètes autour d'un pulsar

Des planètes ont aussi été découvertes avec une méthode non imaginée au début du 20e siècle : le délai temporel des pulsars. La position d’un pulsar avec compagnon planétaire oscille autour de leur centre de masse commun : les signaux envoyés par le pulsar lorsqu’il est plus près de l’observateur parviendront plus rapidement à la Terre que ceux envoyés lorsque le pulsar est sur la partie éloignée de son orbite. Les temps d’arrivée des pulsations émises par l’astre oscillent donc également : leur analyse permet de déterminer les propriétés du compagnon. Utilisée par M. Bailes et ses collègues en 1991, cette mthode leur permet de trouver une exoplanète orbitant le pulsar PSR1829-10 – mais ils se rétractent six mois plus tard : ils n’avaient pas tenu compte de l’excentricité de l’orbite terrestre dans leurs calculs. L’année suivante, Aleksander Wolszcan (1946-) et Dale A. Frail repèrent plusieurs exoplanètes autour du pulsar PSR1257+12, ce qui sera confirmé en 1994. La découverte de planètes autour de pulsars peut sembler a priori sans intérêt pour le débat sur la vie extraterrestre (supernova et astre mort ne forment pas une combinaison très accueillante pour la vie), elle permet néanmoins un argument supplémentaire en faveur de l’universalité des systèmes planétaires : si des planètes peuvent se former dans des conditions aussi hostiles, alors elles le font sûrement partout !

Imagerie directe

Aujourd’hui, la technologie permet d’étudier les atmosphères d’exoplanètes, et l’on se prend à rêver de la détection de « biosignatures »... En attendant, l’imagerie directe fait ses premiers pas (figure 2) . En effet, la première image d’exoplanète fut obtenue avec le Very Large Telescope (8m ESO) en juillet 2004, une découverte confirmée en décembre 2005: il s’agit d’une planète de 4 à 6 la masse de Jupiter, de période 2450 ans, se trouvant à 55 UA d’une étoile naine de type M8 (0,025 la masse du Soleil) située à 220 années-lumière. Avec les projets de télescopes super-géants, d’aucuns espèrent pouvoir cartographier ces exoplanètes... La quête d’une seconde terre continue donc.


Vies et intelligences?

Auteur: Yaël Nazé

Search for Extraterrestrial Intelligence (SETI)

Avec la découverte du rayonnement radio et le développement des télécommunications qui s’ensuivit, la recherche de vie extraterrestre prit un autre tournant : et si on « écoutait » le ciel, à la recherche non de la simple vie, mais bien d’autres civilisations ?

L’idée est loin d’être neuve. Au tournant du siècle passé, Nikola Tesla (1856-1943), inventeur génial, pense utiliser l’induction pour amener l’énergie dans les maisons. Pour vérifier la faisabilité de son concept, il tente plusieurs expériences. Notamment, il construit un gigantesque transmetteur (une tour de 50 m de haut entourée de fil électrique). Une nuit de 1899, il enregistre des perturbations – son transmetteur était aussi un récepteur ! Il les prend pour une communication interplanétaire et il affirme en 1901 être le premier à établir une communication entre deux mondes différents – la réalité est plus prosaïque : selon toute vraisemblance, il s’agissait de l’émission radio d’éclairs lointains. Dans le même ordre d’idées, Guigliemo Marconi (1874-1937), responsable de la première émission transatlantique, imagine dès 1919 des communications basées sur le langage mathématique pour entrer en contact avec d’autres intelligences – il affirme même avoir reçu un signal inexpliqué et lointain en 1920 (il est le seul à l’avoir enregistré, ce qui suggère un problème quelconque). Avec ses collègues, il encourage les gens à écouter nos voisins martiens avec leur récepteur TSF lors de l’opposition Terre-Mars de 1924. On arrive même à mobiliser l’armée, qui diminuera ses émissions radio pour faciliter la détection de signaux martiens – un signal étrange est rapporté, sans confirmation extérieure. Hélas, tous ignoraient qu’à ces basses fréquences, les ondes radio sont arrêtées par l’ionosphère: aucune émission extraterrestre ne pouvait leur parvenir.

Dans un article pionnier paru en 1959, Giuseppe Cocconi (1914-) et Philip Morrisson (1915-2005) montrent que les communications interstellaires sont possibles. Les radiotélescopes ont alors atteint une sensibilité suffisante pour ce faire. Ils proposent de se focaliser sur des signaux à bande étroite et centrés sur 1420MHz, fréquence d’une raie d’hydrogène, élément le plus abondant dans l’Univers8 : en envoyant un message à cette fréquence, on est en effet certain qu’au moins un groupe de personnes écoute... les astronomes ! Ils reconnaissent toutefois que « La probabilité de succès est difficile à estimer, mais si l’on ne cherche jamais, les chances de réussir sont nulles. ». Aujourd’hui, on se focalise sur le point d’eau (water hole), une bande située entre les longueurs d’onde de 21,1 cm (H) et 17,6 cm (OH), car les deux composés associés forment l’eau, base de la vie...8 Aujourd’hui, on se focalise sur le point d’eau (water hole), une bande située entre les longueurs d’onde de 21,1 cm (H) et 17,6 cm (OH), car les deux composés associés forment l’eau, base de la vie...

Au même moment, un certain Frank Drake (1930-) entre en jeu. Il avait été frappé par un cours sur les exoplanètes donné par Struve et par la réception d’un signal (en fait, un parasite terrestre) alors qu’il observait les Pléiades: les signaux extraterrestres deviennent une passion chez lui. Indépendamment de Morrisson et Cocconi, il arrive à la même conclusion sur le choix de la fréquence et décide de tenter l’expérience en positionnant l’antenne de 26m de Green Bank vers deux étoiles proches (12 années-lumière) et de type solaire : τ Ceti et ε Eridani. Ce projet, baptisé Ozma, utilise l’antenne 6 heures par jour d’avril à juillet 1960, au total 200h d’observation, sans succès. Il en faut plus pour décourager Drake et ses collègues, qui fondent SETI (Search for Extraterrestrial Intelligence) et obtiennent des fonds de la NASA en 1992 – un an plus tard, le budget est annulé et ils doivent recourir au mécénat privé. Depuis, il y a eu le projet Phoenix (durant neuf ans, jusque mars 2004, il utilisa le radiotélescope d’Arecibo pendant 5% du temps disponible) ainsi que les projets SERENDIP et southern SERENDIP (utilisant la technique du piggyback - soit utiliser un instrument "collé" à un autre pour travailler en parallèle des projets « normaux » , cela permet d'obtenir un accès au ciel, mais sans pouvoir choisir la zone observée ni la durée d'observation).

Ces projets ont généré des milliards de données : comme les exobiologistes ne possédaient pas la puissance informatique pour les analyser, ils ont lancé en mai 1999 SETI@home, un économiseur d’écran utilisé par au moins 3 millions de personnes dans le monde. Cette idée a aujourd’hui été reprise par d’autres grands projets scientifiques.

En se focalisant sur le domaine radio, on avait oublié que d’autres communications sont possibles. Dans le domaine visible, il existe un signal typiquement artificiel : des impulsions laser. Depuis quelques années, certains scrutent le ciel à la recherche de ce type de signal. D’autres proposent de rechercher les émissions infrarouges associées à des sphères de Dyson (une sphère entourant une étoile-mère, permettant d’utiliser toute son énergie).

Jusqu’ici, aucun résultat probant n’a été obtenu. Dans les années 1960, deux sources radio variant avec une période de cent jours parurent suspectes... mais elles correspondaient en fait à un nouveau type de sources, les quasars. Peu après, des impulsions radio très régulières firent aussi penser à un signal LGM (Little Green Man) : hélas, il ne s’agissait « que » de la découverte des pulsars...

En 1977, un signal baptisé « Wow » avait bien focalisé l’attention, mais il ne s’est jamais reproduit: on pense aujourd’hui qu’il s’agissait probablement d’une interférence terrestre.

En y réfléchissant, les hypothétiques réceptions peuvent se séparer en trois grands types : on pourrait surprendre un signal local (ex : notre TV, les études radar d’objets du Système solaire, etc), un signal échangé entre deux civilisations ou entre une civilisation et sa colonie ou une de ses sondes spatiales (civilisations qui ignorent tout de nous), ou encore un signal délibérément envoyé pour se signaler aux autres mondes. Le seul problème, c’est la distance : plus la distance est grande, plus le signal est faible (loi en 1/d2 !) : avec notre technologie, nous pourrions capter un signal TV émis à une distance maximale d’une année- lumière ou un signal militaire puissant et à bande étroite dans les dix années-lumière environnantes (à cette distance, il y a déjà quelques étoiles) ; la situation est similaire pour les signaux de la deuxième catégorie (en imaginant que les extraterrestres soient capables d’émettre autant que nous).


Envoi de messages

Signal envoyé vers M13
signal-m13.png
Figure 1 : Signal envoyé vers M13
Crédit : Arecibo
plaque envoyée sur les sondes Pioneer
plaque-pioneer.gif
Figure 2 : Plaque gravée envoyée sur les condes Pioneer
Crédit : NASA
Disque envoyé sur les sondes Voyager
disque-voyager.jpg
Figure 3 : Disque gravé envoyé sur les sondes Voyager
Crédit : NASA

Écouter, c’est bien, mais cela suppose que quelqu’un émet. Le faisons-nous ? Pas vraiment... Nous émettons continuellement des signaux des deux premières catégories ci- dessus, mais les signaux délibérés ne sont pas encore monnaie courante. Au 19e siècle, Karl Gauss (1777-1855) aurait pourtant déjà proposé d’utiliser une centaine de miroirs d’un mètre de diamètre pour envoyer un signal lumineux dans l’espace. À la même époque, de nombreuses propositions ont été émises pour se signaler à nos collègues sélènes, vénusiens ou martiens: il suffirait de construire (à l’aide d’arbres, par exemple) des structures géométriques remarquables, par exemple un triangle rectangle flanqué de trois carrés signalerait notre connaissance du théorème de Pythagore.

En 1974, un signal radio a quand même été envoyé depuis Arecibo vers l’amas globulaire M13, situé à 21 000 années-lumière (figure 1) . Il s’agit d’un message de 1679 bits (0 et 1 étant classiquement représentés par deux fréquences différentes), soit 73 lignes et 23 colonnes (73 et 23 sont deux nombres premiers, une caractéristique mathématique que les intelligences extraterrestres apprécieront...). Répété durant trois minutes, il explique notamment d’où le message est venu – un coucou interstellaire qui parviendra dans 21000 ans à leurs destinataires. Précisons que l’envoi de ce message ne fit pas l’unanimité : l’astronome royal britannique, Martin Ryle (1918-1984), tenta d’en empêcher la diffusion par peur de «conséquences hostiles»... Son intervention relança le débat sur la gentillesse ou la méchanceté possibles des civilisations extraterrestres, mais les adhérents à la cause SETI tablent clairement sur la sagesse d’une civilisation avancée, qui a pu survivre aux développements technologiques.

Toujours au niveau pratique, certaines sondes spatiales ont été munies de messages. Les sondes Pioneer (1972/1973) recèlent une plaque gravée (figure 2) : elles ont mis 21 mois pour rejoindre Jupiter, et si elles étaient lancées vers l’étoile la plus proche, elles l’atteindraient en 115 000 ans – Pioneer 10 s’approchera en fait d’Aldébaran dans deux millions d’années... Les messages des sondes Voyager (1977) sont plus élaborés (figure 3): ces vaisseaux renferment un disque comportant des images et des sons (des vœux multilingues, de la musique, des bruits naturels, etc.). Actuellement, ces sondes se trouvent à 15 milliards de kilomètres du Soleil ; leurs signaux, lancés par un émetteur de seulement 320W, mettent 16h à nous parvenir. Une chose est sûre : s’ils arrivent à déchiffrer ces messages, les extraterrestres sont effectivement intelligents !


Equation de Drake

En 1961, l’astronome Frank Drake propose à dix collègues de participer à la première conférence SETI. Au moment de fixer l’agenda, il élabore une équation devenue célèbre : N=T_e*p_pl*n_e*p_v*p_i*p_c*L Les différents termes sont :

Le résultat est que N vaut alors 12 à 50 (Drake était plus optimiste, et simplifiait son équation en N=L). Les plus pessimistes proposent plutôt N=1 (le seul exemple, c’est nous). Parfois surnommée la paramétrisation de l’ignorance, l’équation de Drake possède néanmoins un avantage réel : poser correctement le problème, même si l’on est actuellement incapable de le résoudre, et le découper en ses constituantes, plus « faciles » à envisager.

Calcul de l'équation de Drake


Paradoxe de Fermi

Enrico Fermi (1901-1954) résuma la situation en 1950, durant un dîner à Los Alamos: «L’Univers contient des milliards d’étoiles. Beaucoup de ces étoiles ont des planètes, où se trouvent de l’eau liquide et une atmosphère. Des composés organiques y sont synthétisés ; ils s’assemblent pour former des systèmes autoreproducteurs. L’être vivant le plus simple évolue par sélection naturelle, se complexifie jusqu’à donner des créatures pensantes. La civilisation, la science et la technologie suivent. Ces individus voyagent vers d’autres planètes et d’autres étoiles, et finissent par coloniser toute la Galaxie. Des gens aussi merveilleusement évolués sont évidemment attirés par un endroit aussi beau que la Terre. Alors, si cela s’est bien produit ainsi, ils ont dû débarquer sur Terre. Where is everybody ? »

S’il existe une civilisation galactique, elle devrait avoir colonisé toute la galaxie, soit via des robots, soit personnellement. Comme on ne voit rien, c’est qu’il n’y a personne... Nous sommes donc seuls. C’est l’hypothèse de la Terre rare. En effet, nous serions issus d’une successions de hasards : sans un Jupiter pour dévier les mortels astéroïdes, sans un satellite gros comme la Lune pour stabiliser l’axe de rotation (or on sait aujourd’hui que cette Lune provient d’un gros impact), sans un impact important qui a éliminé les dinosaures et permis aux mammifères, donc finalement nous, de proliférer (or les impacts se font au hasard), nous ne serions pas là... Ces considérations rejoignent celles de certains biologistes, évoquées plus haut.

Le paradoxe de Fermi, comme on le surnomme, peut toutefois se résoudre de deux autres manières. Tout d’abord, il existe peut-être d’autres civilisations, mais elles n’ont pas colonisé la Galaxie : le voyage interstellaire est peut-être difficile voire impossible (pour des raisons techniques ou sociologiques – on a mieux à faire, c’est trop cher ou trop dangereux) ; le caractère d’explorateur des humains est peut-être une exception dans l’Univers ; ou une civilisation avancée ne peut éviter l’auto-destruction. Il est également possible, tout simplement, que ces civilisations n’ont pas eu le temps de s’étendre car certains estiment à une dizaine de milliards d’années le temps nécessaire pour coloniser l’ensemble de la Galaxie – les ETs ne sont pas là, mais ils sont en chemin. Cependant, on peut également imaginer qu’il existe une civilisation galactique colonisatrice, mais que nous ne nous en rendons pas compte : nous avons peut-être peu d’intérêt pour eux (s’intéresse-t-on à une fourmi ?) ; ou nous sommes peut-être surveillés sans interférence (hypothèse du « zoo » galactique).


Imagination populaire

OVNIS
Kenneth_Arnold.gif
Figure 1 : Les OVNIs sont souvent associés aux « soucoupes volantes ». Ce terme provient d’une interview avec l’homme d’affaires Kenneth Arnold qui en 1947 rapporta avoir vu neuf objets alors qu’il pilotait son avion privé. Il les décrivit comme des « disques volant comme une soucoupe si vous la lancez de l’autre côté de l’eau » – le terme de soucoupe s’appliquait donc à décrire le mouvement des objets, et non leur forme, mais le journal titra le lendemain en première page « flying saucers ».. l’ère des soucoupes volantes venait de commencer.
Crédit : K.A.

Cela fait plus d’un siècle que les extraterrestres ont fait leur apparition dans la prose et la poésie : en fait, depuis Fontenelle, les idées extraterrestres percolent toutes les couches de la société et y implantent l’idée d’une vie ailleurs. Ainsi, la science-fiction, outre ses aspects divertissants, joue également un rôle plus fondamental : elle permet au public de s’habituer à l’idée extraterrestre – certains assurent même que la découverte de vie ailleurs, sur Mars par exemple, ou la réception d’un signal étranger auraient certes un grand retentissement le jour même, mais seraient vite oubliées dans la société hyper-médiatisée actuelle. Du point de vue sociologique, espoirs et craintes entourent l’idée extraterrestre : conduira-t-elle à une plus grande unité (front commun contre les aliens ou pour la préservation de la Terre si nous sommes uniques) ou à une destruction de la société si la civilisation de l’autre est très avancée (scientifiques dépassés, lien de dépendance) ? La question est en tout cas posée, et les maîtres de SETI ont jugé nécessaire de publier un protocole détaillé sur la manière d’agir en cas de réception avérée de signal extraterrestre.

Bien sûr, d’aucuns assurent que le contact s’est déjà produit. Des « preuves » de leur ancien passage peuvent être trouvées dans les lignes de Nazca au Pérou (des pistes d’atterrissage pour extraterrestres), les représentations d’astronautes extraterrestres trouvés dans les peintures de Bosch ou les gravures des tombes de Palenque (Mexique), le déplacement des moai de l’Île de Pâques entre leur carrière (où ils auraient été découpés au laser) et leur emplacement actuel, la vision d’objets cylindriques dans le ciel de Nuremberg le 14 avril 1561, le grand complexe astronomique de Stonehenge, etc. Toutes ces considérations assez folkloriques ont pu être écartées sans grand problème.

Depuis la seconde guerre mondiale, les extraterrestres reviennent en force, et pas seulement au cinéma ou en littérature : cette fois, il s’agit d’OVNIs. En pleine guerre froide, les Américains ont craint qu’il ne s’agisse d’engins soviétiques... Ils ont mis sur pied plusieurs commissions de manière à évaluer la menace pour la sécurité nationale (projet Sign fin 1948, projet Grudge en 1949, projet Blue Book en 1956, rapport Condon fin des années 1960). Leurs conclusions sont rassurantes : il n’existe aucune preuve qu’il s’agisse d’un ennemi (sous-entendu à l’époque, l’URSS), d’une manifestation interplanétaire ou d’un danger quelconque pour le pays ; d’ailleurs, 90% des OVNIs s’expliquent de manière tout à fait naturelle. Après tout, on ne compte plus les phénomènes célestes : débris spatiaux qui se désintègrent dans l’atmosphère, foudre en boule, vols d’oiseaux, voire tests d’engins « secrets » – même le lever de Vénus ou de la Lune effraie parfois les Terriens ayant perdu le contact avec le ciel ! Il faut toutefois avouer que l’évaluation des grandeurs de phénomènes célestes n’est pas évidente : bien peu d’entre nous ont conscience que la Lune a la même taille au zénith et à l’horizon. Les erreurs sont donc fréquentes tant sur la taille et la distance que le mouvement d’un objet et sa direction : la plupart des témoignages ne sont donc pas fiables – même s’ils proviennent d’un pandore assermenté. De plus, nombre de citoyens modernes ont perdu le contact avec la nature, et ne connaissent plus les phénomènes célestes, même les plus courants.

Ceci dit, 90% n’est pas 100% : il reste une partie de phénomènes inexpliqués... par la science actuelle : est-elle la meilleure possible ? On peut raisonnablement en douter (dans le cas contraire, il faudrait arrêter de financer la recherche !). Il reste donc encore à prouver que ces cas inexpliqués sont l’œuvre d’extraterrestres : par analogie, si la police de New York réussit à résoudre 90% des crimes de la ville (ce sont des humains ayant attaqué d’autres humains), cela ne veut pas dire que les 10% restants sont forcément commis par des aliens désœuvrés...


Définitions :planètes et exoplanètes

Auteurs: Jean Schneider, Francoise Roques

Qu'est-ce-qu'une planète, une exoplanète?

Les découvertes successives de planètes dans le système solaire, puis autour d'autres étoiles s'accompagnent, à chaque fois, de la remise en cause de ce qui définit une planète, et donc du nombre de planètes. Pour ce qui concerne les exoplanètes, la question n'est pas réglée.

Planets.jpg
Crédit : MegaHDWall

Le nombre de planètes

Le nombre de planètes a évolué dans l'histoire au fur et à mesure des connaissances.

En 2006, l'Union Astronomique Internationale va intégrer toutes ces découvertes pour donner une définition des planètes et créer la population des planètes naines avec, entre autres, Pluton et Ceres.

Ce texte est inspiré de la vidéo "1, 2, 3, Planète!"


Définition des planètes du système solaire

Gaspra
Gaspra.jpg
Figure 1 : L'astéroide Gaspra n'est pas une planète parce qu'il est trop petit: sa gravité n'est pas suffisante pour qu'il prenne une forme sphérique.
Crédit : NASA
Pluton
pluto.jpg
Figure 2 : Pluton n'est pas une planète mais une "planète naine", qui appartient au disque de Kuiper.
Crédit : NASA

En 2006, l'Union Astronomique Internationale (UAI) a défini les planètes du Système Solaire ainsi :

Les "petits corps", typiquement plus petit qu'une centaine de kilomètres, gardent leur forme primordiale (figure 1), alors que les corps plus massifs se déforment jusqu'à atteindre la forme d'équilibre qu'est la sphère, éventuellement applatie si le corps tourne rapidement sur lui-meme.

Une « planète naine » ne satisfait pas à la troisième condition. Pluton (figure 2) a ainsi perdu son statut de planète quand des centaines d'objets ont été découverts dans son environnement, faisant de lui un des membres de la "ceinture de Kuiper". De même, Céres est une planète naine qui appartient à la ceinture des astéroïdes.


Définition des exoplanètes

Parcequ'on n'a pas accès aux informations qui définissent une planète, on ne peut transposer cette distinction et ces définitions aux planètes en dehors du système solaire. La Commission de l'UAI dédiée aux exoplanètes est en train de réfléchir à une définition des exoplanètes et rendra publiques ses conclusions le moment venu.

Il est d'ailleurs utile de rèfléchir à la pertinence et à l'utilité d'une définition. La phrase « ceci est (ou n'est pas) une exoplanète » peut donner l'illusion qu'on a saisi son essence.

Par exemple, il serait simple de dire qu'une exoplanète est un corps qui tourne autour d'une autre étoile que le Soleil. Mais on sait maintenant que certaines planètes ont été éjectées de leur système. Seraient-elles encore des exoplanètes?

On sait que les planètes du système solaire se sont formées dans un disque circumsolaire selon un mécanisme bien particulier, contrairement aux étoiles qui se sont formées par effondrement d'un nuage de matière interstellaire. On pourrait donc définir les exoplanètes comme les corps qui se sont formés selon ce même processus.

Les planètes formées dans un disque ont la particularité de posséder un noyau solide. Elles ont aussi une densité supérieure aux objets formés par effondrement d'un nuage de gaz interstellaire. Mais il est très difficile, pour ne pas dire impossible, de savoir si une exoplanète a un noyau solide.

D'autre part, entre 13 et 74 masses de Jupiter, les naines brunes ont une brève période durant laquelle ils émettent de la lumière avant de redevenir aussi inerte et invisible qu'une planète.


Deux logiques

histo2.png
Figure 1 : Histogramme des masses de compagnons d'étoiles. Le creux entre les étoiles binaires et les exoplanètes à gauche est le désert des naines brunes. Les objets dans l'intervalle orange peuvent etre de l'une ou l'autre population.

Il y a donc au moins deux logiques pour définir une exoplanète : à partir de ses caractéristiques physiques ou à partir de son mode de formation. Ces deux méthodes n'aboutissent pas à la meme définition.

On ne voit pas pourquoi privilégier une définition par rapport à l'autre, mais il y a toutefois un problème pragmatique. Quels objets mettre dans les catalogues d'exoplanètes ? Le problème est en plein débat. L'UAI n'a pas pris position sur ce sujet. Actuellement, la communauté des astronomes suit de fait la solution choisie par le catalogue de l'Encyclopédie des Planètes Extrasolaires qui s'appuie sur l'argumentation suivante.


Une question délicate

Des discussions sont en cours pour savoir si, en plus du critère de masse, on pourra utiliser le spectre des objets pour distinguer une planète d'une naine brune. (développer un peu)

Quelle que soit au final la solution choisie, il y aura toujours des cas limites où on ne pourra pas décider s'il s'agit d'une planète ou d'une naine brune, ce qui relativise toute définition trop stricte.

Références :


Se tester

Auteur: Francoise Roques

Questions : Histoire

exerciceAntiquité

Les philosophes Epicure et Lucrece étaient convaincus de l'existence des mondes extraterrestres.

Question 1)

Sur quelle idée reposait leur conviction?

exerciceDécouverte

Une étape importante a été de réaliser que les "planètes", astres errants au milieu des astres fixes, étaient de même nature que la Terre, des corps sphériques avec, éventuellement, des satellites.

Question 1)

Quelle invention a permis de comprendre la nature des planètes?

exercicePlanètes

Le nombre de planètes du système solaire a fluctué au cours de l'histoire.

Question 1)

Combien y avait-il de planètes dans le système solaire en 1655? et en 1780?

Question 2)

Qu'est-ce-qui différencie Uranus et Neptune des 6 autres planétes?

Question 3)

Qu'est-ce-qu'a de particulier la découverte de Neptune?


Questions : Définitions

exerciceDéfinitions

La définition des planètes comporte 3 conditions.

Question 1)

La première condition est qu'une planète tourne autour du Soleil. Quels objets cette condition exclut-elle?

Question 2)

La deuxième condition est qu'une planète a une masse suffisante pour être de forme sphérique. Quels objets ne sont pas des planètes à cause de cette condition ?

Question 3)

La troisiéme condition est qu'une planéte a éjecté tous les objets présents sur les orbites proches. Quels objets sont exclus par cette condition?

Question 4)

Comment appelle-t-on les objets qui obéissent aux deux premières conditions et pas à la troisiéme?

Question 5)

Une exoplanète doit-elle forcément tourner autour d'une étoile?


Exercices : Exoplanètes

Utilisez le catalogue Les exoplanètes, pour regarder la distribution des paramètres (histogrammes) et leurs relations (diagrammes).

exerciceHistogrammes

Notez qu'il est possible de choisir l'échelle et le nombre de bins.

Question 1)

Etude de l'histogramme des masses des exoplanètes:

A quoi sont dues les limites inférieures et supérieures de la distribution des masses?

La distribution est-elle régulière? Comment cela peut-il s'expliquer?

exerciceDiagrammes

Utilisez l'outil Diagrammes. On peut modifier les intervalles de valeur et choisir des échelles logarithmiques.

Question 1)

Suivre l'évolution de la masse des exoplanètes en fonction des années de découverte.

Question 2)

Que montre le diagramme des masses en fonction des rayons des exoplanètes?

Question 3)

Autres questions:

  • Que montre l'histogramme des années de découverte des planètes.
  • Où se trouve l'exoplanète la plus lointaine?
  • Quelle est l'exoplanète la moins massive?


Mini-projet

Auteur: Francoise Roques

Mini projet: Evolution

Lire et faire un commentaire de l'article "Defining and cataloging exoplanets: The exoplanet.eu database" .


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Formation et évolution des systèmes planétaires

Auteur: Philippe Thébault

Formation et évolution des systèmes planétaires

Une des questions clef quant à la compréhension de nos origines est celle de la formation de la Terre et, plus généralement, de toutes les planètes. Pendant plusieurs siècles, étudier cette formation planétaire équivalait implicitement à expliquer la formation des seules planètes que nous connaissions : celles de notre système solaire. La situation a radicalement changé en 1995, avec la découverte de la première « exoplanète » autour d’une autre étoile. A ce jour, plus de 1000 planètes extrasolaires ont été détectées, et, du moins d’un point de vue numérique, les 8 planètes du système solaire ne représentent plus aujourd’hui qu’une infime fraction du total.

Malgré cela, les modèles de formation planétaires sont encore affectés par un fort tropisme « système solaire », car ils sont, dans leurs grandes lignes, les héritiers de théories développées dans les années 70, 80 et 90 pour expliquer la formation des 8 planètes telluriques et géantes autour du soleil. Ce tropisme s’explique bien entendu également par le fait que ces 8 planètes sont encore, de très loin, celles que nous connaissons le mieux. Ceci n’empêche pas que l’existence de systèmes extrasolaires, dont certains ont des caractéristiques très éloignées de celles du système solaire, est de plus en plus prise en compte dans les études les plus récentes. L’un des défis principaux de ces études est aujourd’hui d’expliquer la grande diversité de systèmes planétaires révélée par les observations.

Dans les pages qui suivent, nous présenterons en détail le modèle « standard » de formation planétaire, sur les grandes lignes duquel la plupart des chercheurs s’accordent aujourd’hui. Comme nous le verrons cependant, rien n’est gravé dans le marbre et il existe encore (et heureusement !) bien des questions en suspens dans ce scenario « standard ».

Par ailleurs, le modèle standard étant, pour l’essentiel, adapté aux caractéristiques de notre système solaire, nous axerons notre présentation sur les planètes de ce système. Mais nous verrons également comment ce scenario, ou du moins certaines de ses étapes, est affecté par les contraintes déduites des centaines de systèmes extrasolaires connus à ce jour.


Découvrir

Auteur: Philippe Thébault

Historique et contraintes observationnelles

Auteur: Philippe Thébault

Quelques repères historiques: modèles evolutionnistes et modèles catastrophistes

Les premières tentatives pour expliquer scientifiquement la formation des planètes remontent au 17ème siècle. En schématisant quelque peu, on peut dire que, durant près de 3 siècles, vont s’opposer les partisans de deux scénarios radicalement différents.

Cours-1-Descartes.gif
Les tourbillons de Descartes
Crédit : Bibliothèque de l’Observatoire de Paris

Historiquement les plus anciens, les modèles dits « évolutionnistes» postulent que les planètes naissent de façon « naturelle » lors de la formation du soleil et des autres étoiles. Le premier de ces modèles est celui de Descartes (1633), pour qui l’univers est rempli de tourbillons, au centre desquels les éléments les plus lourds se condensent pour former les étoiles tandis que les plus légers restent en périphéries pour former les planètes. Un siècle plus tard, Kant (1755) et Laplace (1796) proposent que les étoiles se forment par effondrement d’un nuage de matière (une « nébuleuse ») en rotation sur lui même : pour conserver le moment cinétique lors de la contraction, la force centrifuge crée un disque dans le plan de rotation, disque dans lequel se forment des anneaux concentriques dans lesquels vont finalement se condenser les planètes.

Les modèles « catastrophistes » postulent au contraire que les planètes se forment lors d’évènements isolés, rares et/ou violents. Pour le naturaliste Buffon (1741), c’est la collision d’une comète avec le soleil qui produit un nuage de débris à partir duquel se condensent et se refroidissent les planètes. L’âge d’or des modèles catastrophistes est cependant le début du XX siècle, au moment où le scénario de la nébuleuse semble irréaliste en raison de son incapacité à expliquer que les planètes possèdent 100 fois plus de moment cinétique que le soleil (voir ici). A cette époque, c’est la rencontre proche entre le soleil et une autre étoile qui est privilégiée, rencontre qui arracherait de la matière au soleil et/ou à l’étoile, matière à partir de laquelle se condensent ensuite les planètes (scénario de Moulon-Chamberlain,1904 et Jeans, 1917).

Ce n’est que dans la 2ème moitié du XX siècle que le débat sera (définitivement?) tranché en faveur des modèles évolutionnistes, quand tous les scenarios catastrophistes auront été rejetés, notamment quand Spitzer (1939) aura montré que la matière chaude arrachée au soleil va se disperser bien plus rapidement qu’elle ne peut se condenser.

Il est important de souligner qu’au delà de leurs détails techniques, ces 2 types de scénarios aboutissaient à deux visions totalement différentes quant à notre place dans l’univers. Pour les « catastrophistes », les planètes telles que la nôtre sont dues à un événement exceptionnel, et sont donc sans doute très rares, tandis que les thèses évolutionnistes prédisent que les planètes sont un « produit dérivé » banal de la formation stellaire et doivent donc être très abondantes dans notre galaxie. On peut remarquer que cette opposition de visions s’est aujourd’hui en partie reportée sur le débat sur la vie dans l’Univers, avec d’un côté ceux qui pensent quenous sommes sans doute seuls dans l’Univers, car l’apparition de la vie nécessite un concours de circonstances hautement improbable, et ceux qui au contraire pensent que la vie apparaît « naturellement » lorsque les conditions physiques sont réunies.


Structure du système solaire

images/Cours-2-JSS.png
98% du moment cinétique du système solaire est contenu dans les planètes.
Crédit : Philippe Thebault
images/Cours-2-MasseSS-.png
99,8% de la masse du système solaire est contenue dans le Soleil.
Crédit : Philippe Thebault

Avant de présenter la théorie des modèles de formation planétaire, il est essentiel de les replacer dans leur contexte. Il faut pour cela bien comprendre quelles sont les caractéristiques fondamentales du système solaire qui vont contraindre tout modèle de formation. Certaines de ces caractéristiques sont du niveau de l’évidence, et d’autres un peu plus techniques, mais toutes nous apprennent des choses essentielles sur l’origine des planètes.

Un premier fait essentiel est que les 8 planètes orbitent toutes à peu près dans le même plan, et de plus dans le même sens. Par ailleurs, ce plan et ce sens correspondent aussi à l’axe et au sens de rotation du soleil sur lui même. Ce simple fait plaide très fort en faveur d’une origine commune pour toutes les planètes, origine sans doute également liée à l’origine du soleil lui même. Car si, par exemple, le soleil avait capturé les planètes les unes après les autres, alors il n’y aurait aucune raison pour qu’elles soient toutes dans le même plan.

Autre point fondamental : plus de 99,9% de la masse MSS du système solaire se trouve dans le soleil lui même, les planètes ne représentant qu’une toute petite fraction de celle-ci. Mais par ailleurs, l’essentiel du moment cinétique JSS du système solaire (pour schématiser, son énergie de rotation) est, lui, contenu dans les planètes, le soleil ne contenant que 1% du moment total. Ce paradoxe est, on le verra plus loin, l’un des faits les plus contraignants pour les modèles de formation planétaire.


Composition des planètes

images/Cours-3-tableau-planetes.png
Composition des 4 planètes géantes du système solaire, en unité de masse terrestre
Crédit : Philippe Thebault

Un premier regard, même superficiel, sur les planètes du système solaire montre que celles-ci peuvent se repartir en 2 groupes bien distincts: les 4 planètes telluriques, petites et proches du soleil, et les 4 planètes géantes, beaucoup plus massives et situées dans les régions externes et froides. Les planètes telluriques ont des masses comprises entre 0.06 et 1M_earth, sont essentiellement rocheuses et sont très pauvres en Hydrogène et Helium, les 2 éléments de loin les plus abondants dans l’Univers. A l’inverse, les planètes géantes ont des masses comprises entre 15M_earth (Uranus) et 300M_earth (Jupiter). Parmi ces géantes il faut tout d’abord distinguer les 2 géantes « gazeuses » que sont Jupiter et Saturne, dont l’essentiel de la masse est contenue sous forme d’H2 et He gazeux, mais qui contiennent cependant de 10 à 50 M_earth de solides sous formes de roches et de glace (probablement concentrée dans un coeur solide). Viennent ensuite les géantes « glacées » que sont Uranus et Neptune, dont l’essentiel de la masse est sous forme de glace (d’eau, d’ammoniaque et de méthane), mais qui possèdent cependant une atmosphère contenant de 1 à 5M_earth de H2 et He.

On peut remarquer que la composition de toutes ces planètes diffère très fortement de la composition globale de l’Univers, qui est lui constitué à 98% d’hydrogène et d’Helium. Même les géantes gazeuses contiennent une proportion très importante d’éléments lourds si on les compare à la composition du soleil, qui est, elle, très proche de celle de l’univers dans son ensemble. Ce point est fondamental quand il s’agira de remonter à la « Nébuleuse solaire de masse minimale » initiale (cf. lien).


L'âge du système solaire

Toutes les planètes du système solaire ont été très fortement remodelées dans les premiers temps de leur histoire, et la surface de nombreuses d’entre elles a également été irréversiblement altérée par l’évolution au cours des milliards d’années qui ont suivi. De ce fait, il ne reste aucun matériel planétaire primordial qui puisse nous permettre de remonter aux premiers instants du système solaire. De tels matériaux primordiaux et en particulier une certaine catégorie de météorites appelée « chondrites » constituent les corps les plus primitifs du système solaire, et l’on pense que leur intérieur n’a quasiment pas été altéré depuis les premiers instants de celui-ci. On peut mesurer l’âge de ces chondrites à l’aide de la décomposition radioactive de certains éléments qu’elles contiennent (cf. lien). De manière assez remarquable, ces méthodes de datation ont permis d’estimer l’âge du système solaire à une précision extraordinaire : 4,568 milliards d’années ! L’âge des plus vieilles roches terrestres, de petites inclusions cristallines de zircon, est, quant à lui, estimé à 4.404 milliards d’années. Ce qui laisserait donc environ 150 millions d’années au maximum pour former la planète Terre. L’âge des plus vieilles roches lunaires est, lui, d’environ 4.5 milliards d’années.

AllendeMeteorite
images/Cours-4-AllendeMeteorite-WIKI.jpg
La météorite « Allende », la plus célèbres des « chondrites carbonnées ».
Crédit : Wikipedia

Le scénario standard: formation d'un disque protoplanetaire

Auteur: Philippe Thébault

Le scénario standard de formation planètaire

Il existe aujourd’hui un scenario « standard » de formation planétaire, dont les grandes lignes sont acceptées par l’essentiel des scientifiques, du moins en ce qui concerne les planètes telluriques. Pour l’essentiel, ce scenario a été développé au cours des années 60 et 70, notamment à partir des travaux pionniers du savant russe Victor Safronov. Ce modèle est l’héritier direct des anciens modèles évolutionnistes (cf. lien), avec lesquels il partage l’idée essentielle que les planètes se forment « naturellement » et conjointement avec les étoiles, à partir de la contraction d’une « nébuleuse » en rotation.

images/Cours-5-plan_form-NEW.png
Description schématique des principales étapes du scénario « standard » de formation planétaire
Crédit : Observatoire de Paris

Dans ce scénario standard, les planètes se forment progressivement, étape par étape, à la suite d’une succession de processus distincts. Ceux-ci peuvent schématiquement se résumer ainsi (cf. Figure) : Tout commence avec un grand nuage de gaz moléculaire froid, dont certaines régions peuvent s’effondrer sous l’effet de leur propre gravité, formant des cœurs denses et chauds qui vont devenir une proto-étoile. Autour de ces cœurs, la contraction du nuage (ou plutôt d’un fragment de celui-ci) va finir par former un disque sous l’effet de la force centrifuge. On arrive alors à une étape où proto-étoile, disque et enveloppe (le reste du fragment de nuage initial) coexistent, la matière étant accrétée de l’enveloppe sur le disque, puis du disque sur l’étoile. Le disque d’accrétion est initialement très chaud, mais il va se refroidir avec le temps. Ceci va permettre la condensation de grains solides : roches, mais aussi glaces dans les régions externes. Ces grains vont ensuite croitre par collisions mutuelle pour former des corps kilométriques appelés « planétésimaux ». L’accrétion mutuelle de ces planétésimaux va alors former des embryons planètaires, puis les planètes elles-mêmes, tandis que le disque de gaz primordial va se disperser.

Nous allons maintenant examiner plus en détail chaque étape de ce processus. Comme nous le verrons, malgré un consensus global sur les grandes lignes, certaines étapes du modèle standard sont encore mal comprises et les débats sont loin d’être clos.


Au commencement: un nuage moléculaire

Toutes les étoiles, et par la même occasion les planètes qui leurs sont liées, naissent dans de gigantesques nuages moléculaires. Ces nuages sont essentiellement composés d’Hydrogène et d’Helium, à savoir les 2 éléments les plus abondants dans l’Univers, et sont extrêmement froids, avec des températures de l’ordre de 10K. Ils ont des tailles pouvant aller d’une fraction de parsec (pc) à plus de 20pc, et peuvent contenir de quelques dizaines à plusieurs milliers de masses solaires (M_sun). Bien que ces nuages soient bien plus compacts que la matière inter-galactique alentour, leur densité est tout de même extrêmement faible comparée à notre environnement quotidien, de l’ordre de seulement 100 à 10 000 atomes d’Hydrogène par cm3. Ceci est à comparer aux quelques 1015 molécules/cm3 de l’atmosphère terrestre ! (En fait, un nuage moléculaire « dense » est bien plus vide que le « vide » à l’intérieur d’une chambre à vide dans un laboratoire !).

images/Cours-6-Cone_Nebula_NGC_2264_HST.jpg
La nébuleuse du « Cône », une pépinière de jeunes étoiles.
Crédit : Hubble Space Telescope (NASA)

Ces « nurseries » stellaires sont observées par milliers dans notre galaxie, soit comme des « poches sombres » bloquant la lumière des étoiles situées derrière elles, soit comme de magnifiques nuages éclairées de l’intérieur par les premières étoiles qui s’y sont formées (cf. Image).


Effondrement du nuage, formation d'une Proto-Etoile

Un nuage moléculaire est a priori à l’équilibre hydrostatique, c’est à dire que sa gravité est compensée par la pression thermique des molécules qui le composent (cf. Théorème de Viriel). Cependant, dans certains de ces nuages, cet équilibre va être rompu et ils vont commencer à s’effondrer sur eux-mêmes, et ce pour des raisons encore mal comprises. Est ce parce-que certains nuages deviennent trop massifs pour que la pression thermique puisse lutter ? Ou bien cet effondrement est il déclenché de l’extérieur, par exemple lorsque 2 nuages se collisionnent ou bien lorsqu’une supernova explose à proximité ? Quoi qu’il en soit, une fois cet effondrement commencé, les choses s’emballent assez rapidement. Au bout de quelques milliers d’années, la turbulence crée des structures en filaments en même temps que le nuage initial commence à se fragmenter en morceaux de plus en en plus petits (cf. Image), chacun de ces fragments pouvant potentiellement être un site de formation stellaire : les étoiles naissent donc en groupe !

A l’intérieur de chaque fragment, une forte condensation de matière se produit au centre, jusqu’à ce que celui-ci devienne opaque à la lumière infra-rouge. A partir de ce moment, une sorte d’ « effet de serre » se produit et la température augmente fortement dans ce cœur dense. A un certain point, la pression thermique stoppe l’effondrement du cœur et cette concentration de matière dense et chaude forme le premier stade d’une proto-étoile. Cette proto-étoile est initialement peu massive (1% de sa masse finale), mais elle augmente progressivement, car la matière du reste du nuage continue à s’effondrer et s’accumuler sur elle.

Cours-7-Starformation-Bates.png
Effondrement d’un nuage moléculaire et formation d’un groupe de jeunes étoiles dans une simulation numérique.
Crédit : Matthew Bate (Université d’Exeter)

Etoile T-TAURI et formationd'un disque d’accrétion

images/Cours-8-Infall.png
Schéma de l’accrétion de l’enveloppe gazeuse vers le disque et la proto-étoile.
Crédit : Observatoire de Paris
images/Cours-8-HLTAU-ALMA2.jpg
Une région de formation d’étoiles dans la constellation du Taureau. Avec en particulier l’étoile HL Tau (en haut à droite) et son magnifique disque proto-planétaire (image en encart, réalisée avec le télescope européen ALMA), ainsi que l’étoile HH Tau (en bas à droite) et ses jets de matière aux pôles de l’étoile.
Crédit : Hubble Space Telescope, NASA (grande image), et télescope ALMA, ESO (disque de HL Tau).

En parallèle au processus de formation stellaire, l’effondrement du nuage va également créer un disque en rotation autour de la proto-étoile. Ce disque se forme sous l’effet de la force centrifuge, dont l’intensité augmente à mesure que le nuage se contracte (à cause de la conservation du moment cinétique). On atteint donc un état où coexistent 3 composantes : 1) La proto étoile au centre, 2) le disque circumstellaire, et 3) le reste du nuage qui continue à s’effondrer. Il est important de noter que pendant cette étape de coexistence, le transfert de matière se fait du nuage vers le disque, et ensuite du disque vers l’étoile. D’où le nom de disque d’accrétion.

Au cours de cette phase d’accrétion, la température de la proto-étoile continue d’augmenter. Lorsque celle-ci dépasse plusieurs milliards de degrés au centre de la proto-étoile, des réactions thermonucléaires vont se déclencher: une étoile est née ! Un très puissant jet de matière va alors se développer le long de l’axe de rotation stellaire. Une telle étoile, entourée d’un disque d’accrétion et produisant un jet bipolaire est dans ce qu’on appelle sa phase « T Tauri », du nom d’une étoile de la constellation du taureau. Cette phase T Tauri n’est pas qu’un simple concept théorique, car l’on dispose aujourd’hui de très nombreuses observations de ce type d’étoile jeune, révélant souvent à la fois un disque circumstellaire, un jet bipolaire et des restes de matière du nuage initial (voir image).


Accrétion visqueuse du disque

Le disque qui entoure la jeune étoile après environ un million d’années est appelé disque « d’accrétion », car la matière qu’il contient spirale lentement vers l’intérieur pour finalement tomber sur l’étoile. Ces mouvements de matière sont dus à la viscosité du disque, viscosité elle-même due à la turbulence du gaz. L’effet global de cette viscosité turbulente est de transférer l’essentiel de la matière vers l’intérieur du disque, tandis qu’une petite fraction de cette matière part vers l’extérieur en emportant l’essentiel du moment cinétique J du disque.

images/Cours-9-moment-disque-NEW.png
Transfer de matière de l’enveloppe vers le disque en rotation képlérienne, et mouvement radial de la matière dans le disque dû à la viscosité de celui-ci.
Crédit : Observatoire de Paris

On pense que ce double transfert (masse vers l’intérieur, J vers l’extérieur), est ce qui résout, du moins en partie, le paradoxe d’un système solaire où 99.9% de la masse est dans le soleil, mais 99% du moment cinétique est dans les planètes (voir lien).


Le disque « PROTO-PLANETAIRE »

Le disque d’accrétion est initialement extrêmement chaud, et ce en raison du rayonnement intense de la jeune étoile, mais aussi à cause de la chaleur dégagée par la viscosité dans le disque. L’analyse des météorites montre que se produisent peut-être également des « flashs » thermiques brefs mais intenses dus sans doute à des ondes des chocs. Dans les régions les plus internes, les températures peuvent dépasser les 1500K, vaporisant même les particules rocheuses (silicates et composés ferreux). Au cours du temps, cependant, le disque va progressivement se refroidir. Dans les régions internes, les températures sont alors suffisamment basses pour permettre la condensation des roches, mais pas des composés volatils et des glaces (eau, méthane, CO, etc.). Dans les régions externes, en revanche, les températures descendent suffisamment pour permettre la condensation des glaces, et notamment de la glace d’eau (T<160 K). La frontière entre disque interne rocheux et disque externe roches+glaces est appelée « limite des glaces » (« snowline » en anglais). Elle se situe à environ 3 UA dans notre système solaire, et correspond donc peu ou prou à la limite entre planètes telluriques et planètes géantes. On pense que cela n’est pas un hasard, car, au delà de la limite des glaces, la matière solide est 3 à 4 plus abondante et permet donc l’accrétion de corps plus gros, pouvant de plus retenir une épaisse enveloppe de gaz (voir lien).

images/Cours-10-disque-PP-NEW.png
Structure du disque proto-planétaire autour du jeune soleil.
Crédit : Observatoire de Paris

La nébuleuse solaire de masse minimale

Dans les années 1970 et 80, plusieurs scientifiques ont réalisé que, à partir de la structure actuelle du système solaire, il est possible d’avoir une idée de la distribution de matière dans le disque proto-planétaire initial. Il faut pour cela faire 2 hypothèses : 1) que la position actuelle des planètes correspond, approximativement, à celle où elles se sont formées, et 2) que le disque proto-planétaire avait une composition proche de ce qu’elle est aujourd’hui dans le soleil.

La procédure pour remonter au disque initial est alors assez simple : On considère tout d’abord la masse de matière solide (roches et glaces) contenue dans les planètes et on la distribue de manière continue entre l’orbite me Mercure et celle de Neptune (voir LIEN vers page d’exercice). Ceci nous donne alors la distribution radiale des solides dans le disque proto-planétaire. Si on fait ensuite l’hypothèse que le rapport solides/volatiles (H et He) est le même que dans le soleil, alors on peut remonter à la masse « manquante » de volatiles qui était présente au départ et qui a disparu en cours de route. Cette masse initiale est bien supérieure à la masse actuelle de gaz dans les planètes, même pour les géantes « gazeuses » Jupiter et Saturne. On a alors reconstitué un disque proto-planétaire « minimal », c’est à dire contenant la masse minimale de matière (de composition solaire) nécessaire à former les planètes actuelles. On appelle ce disque théorique la « Nébuleuse Solaire de Masse Minimale » (NSMM ou plus communément MMSN en anglais).

images/Cours-11-MMSN.png
Profil de densité radiale de la Nébuleuse Solaire de Masse Minimale (MMSN).
Crédit : Observatoire de Paris

On voit sur la Figure ci-dessus que, de manière remarquable, la distribution radiale de matière dans cette nébuleuse suit une loi de puissance en r-1.5 sur tout l’extension du disque. On remarque certes un saut de densité d’un facteur 3 vers 3AU, mais ce saut s’explique par la « ligne des glaces », au delà de laquelle la matière solide devient plus abondante en raison de la condensation de la glace d’eau.

Le profil d’une telle MMSN ne doit cependant être considéré qu’à titre indicatif, en particulier dans le système solaire externe, car on sait aujourd’hui que les planètes géantes ne se sont sans doute pas formées à leur position actuelle et ont sans doute migré dans le disque initial (cf. lien).


Le scénario standard: accretion des planètes telluriques

Auteur: Philippe Thébault

Condensation et accrétion des premiers grains

Le disque proto-planétaire se refroidit progressivement au cours du temps. A mesure que la température baisse, de plus en plus d’éléments peuvent se condenser. A moins de 1600K, ce sont des oxydes métalliques, à 1400K c’est le Fer, et, enfin, à 1300K, les silicates. La condensation forme initialement des grains très petits, de l’ordre de quelques microns. La croissance de ces grains se fait ensuite lors de collisions mutuelles, quand la vitesse d’impact est suffisamment faible pour qu’ils restent soudés. Pour des particules de si petites tailles, ce qui les fait « coller » les unes aux autres lors de collisions, ce sont les forces de surface moléculaire (forces de Van der Waals). Les vitesses et la fréquence des rencontres entre grains sont déterminées par le fait qu’ils sont couplés au gaz et que celui-ci a des mouvements turbulents. On pense que, pour une MMSN typique, les vitesses de collisions entre petits grains sont de l’ordre de 10cm/s à 10m/s (la vitesse d’un cycliste). Des expériences en laboratoire ont montré que ces vitesses sont effectivement suffisamment faibles pour permettre à 2 grains de s’accréter lors d’une collision. Ce processus d’accrétion grain à grain va former des particules filamenteuses de type fractal (cf. image), dont la taille peut atteindre quelques cm.

images/Cours-12-fractal-growth-seizinger.png
Structure fractale résultant de l’accrétion mutuelle de grains micrométriques
Crédit : simulations numériques de A. Seizinger, Université de Tübingen.

La barrière du mètre

La suite de l’histoire est beaucoup plus problématique. Quand les corps solides ont atteint quelques centimètres ou décimètres, les modèles de croissance par collisions mutuelles rencontrent un problème majeur, qu’on appelle pour simplifier « la barrière du mètre ». En effet, ces corps sont devenus suffisamment gros pour commencer à se découpler du gaz, et ce gaz va alors commencer à exercer une forte friction sur eux. Ceci a deux conséquences : 1) Les vitesses relatives de collisions impliquant ces objets deviennent élevées, et le bilan de ces collisions n’est plus l’accrétion mais l’érosion des corps, et 2) La friction du gaz fait perdre du moment cinétique au corps solides, et ceux ci vont se mette à spiraler vers le centre du disque et l’étoile. Pour des corps de 1m, on calcule que le temps de migration vers le centre est de seulement quelques centaines d’années dans une MMSN « standard ».

La barriere du métre
images/Cours-13-metre-barrier.png
Bilan des collisions mutuelles entre corps solides dans la nébuleuse solaire de masse minimale, déduites de diverses simulations numériques effectuées dans la dernière décennie. En abscisses : taille de l’impacteur. En ordonnées : taille de la cible. On voit très clairement que dès que l’un des corps dépasse le mètre, l’accrétion est quasiment impossible
Crédit : Observatoire de Paris

Passer la barrière du métre

Plusieurs théories ont été avancées pour expliquer comment surmonter la barrière du mètre. Certaines font appel à l’action de la turbulence du gaz et au fait que celle-ci crée des vortex au centre desquels les particules solides peuvent s’accumuler. Dans ces vortex, l’accrétion peut se remettre en marche pour 2 raisons: 1) les vitesses relatives sont suffisamment faibles pour que les particules « collent » à nouveau lors de collisions, et 2) La densité de grains solides au centre des vortex peut par ailleurs devenir telle qu’une instabilité gravitationnelle se déclenche, formant directement et rapidement des corps de plusieurs kilomètres. Dans le même ordre d’idée, d’autres scénarios envisagent que les grains sont piégés au niveau de singularités dans le disque de gaz, là où existe un très fort gradient de pression. Ces singularités peuvent se situer au bord de ce qu’on appelle des « Dead Zones » (sans activité magnétique), ou bien au niveau de la ligne des glaces, ou bien encore au niveau de surdensités créées par des Instabilités Magnéto-Hydrodynamiques (« MRI »). Dans ces zones de piégeage, l’accrétion peut se poursuivre pour les mêmes raisons que dans le scénario des « Vortex ».

images/Cours-14-zonalflow.png
Instabilité de « courant » dans un disque proto-planétaire (MMSN).

D’autres scénarios proposent une solution alternative, fournie par la physique des collisions elle-même. Si il existe une très large dispersion de la taille des corps solides, alors les plus gros de ces corps seraient capable d’accréter les plus petits, même en cas de vitesses relativement élevées. Dans le même ordre d’idée, même en cas de collisions érosives, les fragments érodés pourraient former une poussière facilement ré-accrétable par les plus gros corps.

Il faut cependant rester prudent, car aucun de ces scénarios ne propose pour l’instant une explication 100% satisfaisante. Ce problème est l’un des sujets majeurs de la recherche actuelle sur la formation planétaire.


L’accrétion « boule de neige » des planétésimaux

Malgré un enfantement qui pose pour l’instant beaucoup de problèmes aux théoriciens (voir page précédente), il est probable que des « planétésimaux », c’est à dire des corps solides de l’ordre du kilomètre, vont finir par se former dans le disque. Ces planétésimaux vont ensuite eux aussi croître par collisions mutuelles, mais le processus d’accrétion est radicalement différent de ce qu’il était pour les petits grains, car c’est maintenant la force de gravité qui va faire « coller » les corps les uns aux autres. Le critère pour qu’il y ait accrétion est que la vitesse de collision vcoll doit être inférieure à la vitesse de libération vlib des 2 corps impactant. Pour des corps de l’ordre du kilomètre, vlib est de l’ordre de quelques m/s, soit la vitesse d’un piéton (pressé).

Si tous les planétésimaux avaient la même taille et croissaient ensemble, alors il faudrait environ 1 million d’années pour former un corps de 1000km aux alentours de 1 UA. On pense cependant que le processus d’accrétion est en fait beaucoup plus rapide, et ce du fait de la dispersion en taille des planétésimaux. Si en effet certains planétésimaux sont initialement plus gros que les autres, alors leur vitesse de libération sera supérieure et ils auront tendance à dévier les autres corps vers eux. Ceci les fera grossir plus rapidement, donc acquérir une vlib encore plus élevée, et donc dévier encore plus les petits planétésimaux vers eux, et ainsi de suite. Le processus s’emballe donc de lui même, dans une sorte d’effet « boule de neige » (voir lien1 et lien2), qui va se maintenir tant que les vitesses de collisions restent petites, de l’ordre de ce qu’elles étaient initialement (c’est à dire quelques m/s). L’accrétion boule de neige est capable de former de gros corps en seulement quelques 104 ans, sachant qu’à ce moment une grande partie de la masse de solides est encore sous forme de planétésimaux kilométriques.

Cours-15-belt-dust-plan.jpg
Un disque de planétésimaux (Vue d’artiste).
Crédit : http://www.spitzer.caltech.edu

Accrétion «oligarchique»

Le processus d’accrétion « boule de neige » ne peut pas continuer éternellement. Il va s’arrêter quand les quelques corps en croissance rapide deviennent suffisamment gros pour commencer à exciter gravitationnellement leur environnement. A ce moment là, la croissance ne s’emballe plus, tout en se poursuivant cependant à un rythme élevé. On entre alors dans la phase dite « oligarchique » du processus d’accrétion, car seuls les quelques heureux embryons formés par effet de boule de neige sont en croissance. On pense que la transition entre accrétions « boule de neige » et « oligarchique » a lieu lorsque la taille des embryons est de l’ordre de quelques centaines de kilomètres. La phase oligarchique va alors durer de l’ordre de 105 ans, pour former des « embryons » planétaires de la taille de la Lune.


Epuisement des ressources: fin de l'accrétion oligarchique

Au cours des phases d’accrétion « boule de neige » puis oligarchique chaque embryon fait progressivement le « vide » autour de lui. Le disque est alors structuré en régions concentriques à l’intérieur desquelles un seul gros corps dominant a émergé. Chaque embryon peut accréter les planétésimaux se situant à l’intérieur de sa « zone d’alimentation », correspondant à tous corps dont l’orbite peut être déviée sur l’embryon par focalisation gravitationnelle (cf. lien). Schématiquement, cette zone d’alimentation correspond à un anneau circulaire centré sur l’embryon, dont la largeur augmente à mesure que l’embryon grossit. Cependant, comme la masse disponible à l’intérieur de la zone d’alimentation croît moins vite que le taux auquel cette masse est accrétée par l’embryon, on aboutit in fine à une situation où la zone d’alimentation est vide. A ce moment, la phase de croissance par accrétion de petits planétésimaux s’arrête. Dans la région des planètes telluriques, on peut calculer qu’à ce stade, des corps d’environ 1000km se sont formés (cf. page d’exercice)

images/Cours-17-Feeding-zone.png
Vidage de la zone d’alimentation autour d’un embryon planétaire en
Crédit : Philippe Thebault

Interaction entre embryos, phase finale de l'accrétion

Comme nous l’avons vu à la page précédente, l’accrétion boule de neige et oligarchique ne permet sans doute pas de former directement des planètes, mais s’arrête, par épuisement de la matière (planétésimaux, poussière, etc …) à accréter, lorsque des embryons planétaires de la taille de la Lune ont été formés. Heureusement (si, du moins, on considère l’apparition de planètes comme un bien), ces embryons sont alors devenus suffisamment massifs pour se perturber mutuellement à distance. Ces perturbations vont rendre leurs orbites excentriques, et celles-ci vont pouvoir se croiser. Ces collisions entre embryons vont se faire à vitesses élevées, mais les embryons sont maintenant suffisamment massifs pour que l’accrétion mutuelle soit possible même lors d’impacts assez violents.

Ce « jeu de quilles » entre embryons va durer quelques millions, voire quelques dizaines de millions d’années. A la fin de cette période extrêmement violente, la plupart des milliers d’embryons formés par l’accrétion oligarchique ont disparu. Ils ont été soit éjectés du système solaire, soit (pour la plupart) accrétés par les quelques heureux gagnants qui vont devenir les planètes que nous connaissons aujourd’hui.

Notons que, dans les régions internes du système solaire, ces planètes ne vont jamais devenir suffisamment massives pour pouvoir accréter le gaz qui est encore présent dans le disque. On verra qu’il en va tout autrement dans la région des planètes géantes (cf. lien).

Cours-18-Embryo-Collision.jpg
Vue d’artiste d’une collision entre 2 embryons massifs.
Crédit : http://www.spitzer.caltech.edu

formation de la lune

Les datations isotopiques indiquent que la Lune s’est formée entre 30 et 200 millions d’années après la Terre. Ceci place la formation de la Lune vers la fin de la phase agitée de collisions entre embryons planétaires (cf. page précédente). Les modèles récents postulent d’ailleurs que la formation de la Lune est due à un impact géant entre la proto-Terre et une autre proto-planète, appelée « Theïa », peut-être de la taille de Mars. Dans le modèle « standard » de Robin Canup (cf. image), Theïa impacte la Terre à vitesse élevée et est détruite ; un nuage de débris extrêmement chauds, essentiellement formé du manteau de Theïa se forme en orbite autour de la proto-Terre (qui est partiellement détruite par l’impact mais survit cependant), la Lune s’accrète ensuite à partir de cet anneau de débris en refroidissement. Un tel impact expliquerait plusieurs des caractéristiques peu banales de la Lune : 1) La Lune est très pauvre en fer comparée à la Terre. 2) Elle est également très pauvre en éléments volatiles (H20, Azote, CO2, etc…), 3) le timing pour la formation, 4) le moment angulaire très élevé du couple Terre-Lune.

images/Cours-19-earthmoon-Canupmodel.jpg
Simulation numérique de l’impact Terre-Theia ayant donné naissance à la Lune.
Crédit : Robin Canup (Southwest Research Institute)

Des analyses récentes d’échantillons lunaires ont cependant mis en évidence un problème majeur avec cette théorie : le fait que la surface de la Lune ait la même composition isotopique que la Terre pour les éléments O, Ti, Cr, W et K. Ceci n’est pas possible si la Lune est pour l’essentiel constituée de matière « theïenne », dont la composition isotopique a a priori peu de chances de ressembler à celle de la Terre, car étant probablement formée ailleurs dans le système solaire. Pour tenter de résoudre ce paradoxe, plusieurs modèles récents ont exploré différentes théories. Il est possible par exemple que le disque de débris post-impact ait été tellement chaud et dense qu’un équilibre isotopique avec la composition terrestre s’est fait. Il est possible également que la Terre et Theïa aient une origine commune. Alternativement, un impact plus énergétique (appelée « hit and run ») pourrait également arracher plus de matière à la Terre et faire que le disque de débris pré-lunaire soit dominé par de la matière terrestre. Enfin, si la rotation sur elle-même de la proto-Terre était initialement extrêmement rapide, alors l’impact avec Theïa aurait pu arracher énormément de matière du manteau terrestre pour former le disque pré-lunaire. Toutes ces théories ont leurs avantages et leurs défauts, mais on peut remarquer qu’aucune d’entre elles ne remet en cause le fait que la Lune se soit formée à partir d’un impact Terre-Theïa.


Et le gaz dans tout ça? Dispersion du disque primordial

Toutes les étapes de formation dont nous venons de parler se font dans un disque protoplanétaire dont l’essentiel de la masse est encore sous forme de gaz primordial (surtout de l’hydrogène). Les grains et les planétésimaux en croissance interagissent très fortement avec ce gaz et nous avons vu que ce gaz est sans doute essentiel pour que l’accrétion des plus petits grains puisse se faire.

Ce disque de gaz primordial n’est cependant pas éternel. L’observation des jeunes étoiles montre en effet que les disques proto-planétaires primordiaux se dispersent sur des échelles de temps comprises entre 1 et 10 millions d’années, la durée de vie moyenne étant sans doute de l’ordre de 3 millions d’années pour une étoile de type solaire. Ceci place la dispersion du disque sans doute au cours de la phase finale d’interactions mutuelles entre gros embryons (cf. lien).

Reste à expliquer pourquoi et comment le disque se disperse. Il existe pour cela plusieurs mécanismes possibles, comme par exemple le vent stellaire de l’étoile en phase T-Tauri, ou l’accrétion visqueuse du disque sur l’étoile. La cause la plus probable semble cependant être l’effet de « photo-évaporation » dû au rayonnement ultra-violet de la jeune étoile, qui, couplé à la viscosité du disque, est capable de disperser très rapidement le disque de gaz hydrogène après l’avoir « coupé » en deux (voir PHOTO-EVAPORATION).

images/Cours-20-discfraction-roccatagliata.png
Proportions d’étoiles étant entourées de disques proto-planétaires massifs, dans différents amas stellaires ayant des âges différents.
Crédit : Roccatagliata et al., 2011, (the Astrophysical Journal).

Le scénario standard: formation des planètes géantes

Auteur: Philippe Thébault

Formation des planètes géantes ... Une toute autre histoire?

Le scénario présenté dans les pages précédentes se rapportait à la formation des planètes telluriques. La formation des planètes géantes est un problème en partie différent, avec quelques contraintes spécifiques. Les plus évidentes étant qu’il faut arriver à accréter beaucoup plus de matière sur chaque planète, entre 15 et 300M_earth, et qu’en plus, pour Jupiter et Saturne du moins, il faut arriver à accréter une énorme quantité de gaz (cf. lien). Cette accrétion du gaz pose de plus une contrainte très forte sur le timing de la formation de ces planètes, qui doit être achevée avant la dispersion du disque de gaz primordial, c’est à dire avant 10 millions d’années maximum (cf. lien). Enfin, il faut trouver un scénario de formation qui explique pourquoi Jupiter et Saturne sont très riches en gaz alors qu’Uranus et Neptune ne le sont pas.

Il reste que, comme on va le voir, le scénario « standard » de formation des géantes est, pour l’essentiel, une adaptation du scénario standard pour la formation des telluriques, en y rajoutant une étape finale d’accrétion d’une enveloppe de gaz massive. Cependant, comme nous le verrons également, ce scénario rencontre des difficultés, principalement le timing très strict pour l’accrétion du gaz, qui ont conduit plusieurs chercheurs à envisager un mode alternatif (et spécifique) de formation pour les planètes géantes, basé sur un effondrement gravitationnel direct dans le disque.


Le Modèle «standard» de formation des géantes: le «coeur solide»

Dans ce scénario auquel adhère une majorité de chercheurs (mais attention, majorité n’est pas vérité !), la formation des géantes suit un processus par étapes qui ressemble fortement à ce qu’il est pour les planètes telluriques. Il commence notamment par la condensation de particules solides qui vont ensuite se coller entre elles par collisions et former des planétésimaux, planétésimaux qui vont ensuite former, par accrétion gravitationnelle, des embryons planétaires massifs.

La différence essentielle est que nous sommes ici au delà de la limite des glaces, et que donc les particules solides qui vont constituer les briques de la formation planétaire sont composées de roches et de glaces. On estime que ceci multiplie par 4 la quantité de matière solide disponible (voir MMSN). Les planétésimaux vont donc être plus gros et pouvoir former des embryons planétaires plus massifs. Ceci va également permettre d’accélérer le processus d’accrétion, et compenser le fait que les vitesses orbitales (et donc les rencontres proches) sont plus faibles dans les régions externes.

images/Cours-22-coeursolide-gaz.png
Principales étapes de la formation d’une planète géante dans le scénario du « cœur solide » : a) Accrétion « boule de neige » sur un embryon solde ‘roche + glace) qui se détache des planétésimaux environnants 
Crédit : Observatoire de Paris
images/Cours-22-b.png
Principales étapes de la formation d’une planète géante dans le scénario du « cœur solide » :b) Quand l’embryon atteint environ 10 M_Terre, il commence à accréter le gaz alentour ;
Crédit : Observatoire de Paris
images/Cours-22-c.png
Principales étapes de la formation d’une planète géante dans le scénario du « cœur solide » : c) Quand la masse de gaz accrétée est comparable à celle du cœur solide, l’accrétion du gaz s’emballe
Crédit : Observatoire de Paris

Modèle du coeur solide (2): accrétion du gaz sur jupiter et saturne

La présence de glace d’eau permet à la phase d’accrétion boule de neige et oligarchique de former des embryons planétaires bien plus massifs que dans les régions internes. Si cette masse dépasse environ 10 MTerre, alors la force d’attraction de la proto-planète est suffisante pour commencer à accréter le gaz qui l’entoure. Cette accrétion du gaz est tout d’abord progressive: il se forme une atmosphère dense dont la masse augmente linéairement avec le temps. Mais quand la masse de gaz devient comparable à celle du cœur solide au centre, cette atmosphère devient instable et s’effondre. L’accrétion du gaz s’emballe alors extrêmement vite, et permet d’accumuler plusieurs dizaines de masses terrestres en quelques milliers d’années (voir Figure) .Les 3 étapes de ce processus ont des durées très différentes : la phase initiale d’accrétion oligarchique de cœur solide dure 105 ans, l’accrétion progressive de l’enveloppe de gaz se fait sur plusieurs millions d’années, alors que la phase finale d’effondrement et d’accrétion brutale du gaz se fait en quelques milliers d’années seulement.

images/Cours-23-Accretion-Pollack-NEW.png
Evolution de la masse du cœur solide (MZ) , de gaz (MZ), et de la masse totale de Jupiter dans les simulations numériques de Pollack et al., 1996 (Astrophysical Journal)
Crédit : Observatoire de Paris

Les limitations du modèle coeur solide

Comme nous l’avons déjà évoqué, la présence du gaz dans Jupiter et Saturne impose que la formation de ces planètes doit être achevée avant la dispersion du disque gazeux primordial, c’est à dire avant 10 millions d’années dans les hypothèses les plus optimistes (cf. lien) .

Il se trouve que beaucoup de modèles théoriques buttent sur cette contrainte temporelle. L’étape la plus problématique est la formation d’un cœur solide de masse 10 MTerre en moins de 1 millions d’années (sachant qu’ensuite l’étape d’accrétion progressive du gaz va durer plusieurs millions d’années supplémentaires). Avec la nébuleuse solaire de masse minimale, les simulations les plus optimistes arrivent à former un tel cœur solide au niveau de Jupiter, mais en aucun cas au niveau de Saturne, sans parler d’Uranus ou de Neptune. Le problème de Saturne peut certes se résoudre avec un disque massif de 10xMMSN, ce qui n’est pas l’hypothèse la plus générique mais reste une possibilité au vu des observations de disque. En revanche, la formation in-situ d’Uranus et Neptune ne semble pas possible dans le scénario de « cœur solide », même en tirant les paramètres à leurs limites.

Cours-24-Thommes2003.jpg
Simulation numérique montrant l’évolution dans le temps de la masse (en masses terrestres) du plus gros corps formé (ligne en trait plein) à différents endroits de la nébuleuse proto-planétaire solaire (MMSN).
Crédit : E. Thommes, (Astrophysical Journal).

Migration des proto-planètes et planètes

On sait depuis les années 70 qu’une planète immergée dans un disque de gaz interagit dynamiquement avec lui, et que cette interaction peut être suffisante pour significativement faire migrer la planète. Curieusement, ce mécanisme a, dans un premier temps, été largement ignoré dans les modèles de formation planétaire, sans doute parce-que les premières versions de ces modèles n’avaient pas vraiment besoin de migration. La situation a radicalement changé avec la découverte des premières exoplanètes, et en particulier des « Jupiter chauds » très massifs et très près de leur étoile, strictement impossibles à former avec le modèle standard (cf. lien). Par ailleurs, les problèmes rencontrés par le scenario de cœur solide pour former Uranus et Neptune in-situ, ont eux aussi rendu attractive la possibilité d’une migration (cf. page précédente). Aujourd’hui, tous les modèles de formation planétaire prennent en compte la migration, qui est un mécanisme essentiel pour expliquer certaines caractéristiques du système solaire ainsi que nombre d’exoplanètes

Il faut cependant distinguer 2 mécanismes de migration bien distincts : la migration des proto-planètes par interaction avec le disque gazeux primordial, et celle, plus tardive, des planètes avec le disque résiduel de planétésimaux.


Migration dans le disque de gaz primordial

Migration de Type I

Quand une proto-planète atteint une masse comparable à celle de la Terre alors que le disque de gaz est encore présent, elle se met à interagir dynamiquement avec celui-ci. Plus spécifiquement, la planète interagit avec les ondes de densité qu’elle crée dans le disque de gaz. Pour des profils de densité « standard », le bilan de ces interactions est une perte de moment cinétique de la planète, et donc une migration de celle-ci vers l’intérieur. La migration peut alors être très rapide, et faire tomber la planète sur l’étoile en quelques 104 ans seulement ! Ce mécanisme a un seul problème : il est trop efficace ! Comment expliquer que les planètes telluriques de notre système solaire n’aient pas été avalées par le soleil ? Il existe plusieurs solutions à ce paradoxe. La première est que le soleil a bien avalé quantité de proto-planètes telluriques, et que celles que nous voyons aujourd’hui proviennent de plus loin dans le disque et ont migré pour prendre la place laissée vide. Le corollaire est alors bien sur qu’il y avait au départ bien plus de matière solide dans le disque que ce que nous voyons aujourd’hui. Une autre solution est que l’accrétion des proto-planètes telluriques ne s‘achève qu’après la dispersion du disque de gaz. Dans ce cas, pas (ou peu) de migration, car seuls des embryons oligarchiques << M_earth étaient formés quand le disque primordial est encore présent.

Cours-26-typeImig.gif
Migration de Type I pour planète de masse terrestre dans un disque proto-planétaire. On voit que la planète créé des sillons (des ondes de densité) dans le disque, mais n’est pas capable de vider la région autour d’elle.
Crédit : Simulations numériques de Frédéric Masset (CEA).

Migration de Type II

Pour des proto-planètes géantes de plus de 10M_earth, la situation change. Ces objets vont en effet creuser un sillon dans le disque de gaz et vider la région autour d’eux. Une fois ce « trou » créé, l’évolution radiale de la planète est couplée à celle du disque. Or, comme celui-ci spirale lentement vers l’étoile en raison de sa viscosité, la planète va elle-aussi migrer au même rythme. Cette migration régulière est a priori plus lente que celle de type I, et se fait sur une échelle de temps comparable à l’échelle de temps visqueuse du disque. Elle semble cependant inévitable pour toute planète géante en croissance. Et là encore se pose la question : quid des géantes du système solaire ainsi que de toutes les exoplanètes géantes observées à plusieurs UA de leur étoile ? Comment ont elles pu échapper à ce destin fatal ? La réponse pourrait être ici que l’union fait la force. En effet, si une planète migre toujours vers l’intérieur, deux planètes ensembles peuvent elles stopper cette migration, voir même l’inverser à condition que les ouvertures creusées par les 2 planètes se chevauchent et que la planète interne soit 2-4 fois plus grosse que l’autre. C’est ce qui s’est peut-être produit pour le couple Jupiter/Saturne, lors d’un processus migratoire complexe appelé le « Grand Tack » (cf. lien).

Cours-26-typeIImigb.gif
Migration de Type II pour planète de masse 15 M_earth. LA planète est à présent capable de creuser un large vide autour d’elle. Elle « figée » dans le disque et va migrer lentement vers l’intérieur à mesure que le disque spirale vers l’étoile par accrétion visqueuse.
Crédit : Simulations numériques de Frédéric Masset (CEA).

Migration tardive après la dispersion du disque

Les migrations de Type I et II cessent après la dispersion du disque de gaz. Mais les planètes peuvent tout de même continuer à bouger, mais c’est cette fois ci en interagissant avec les planétésimaux résiduels non utilisés dans l’accrétion planétaire. En effet, à la fin de la phase oligarchique, une grande partie de la masse de solides est sans doute toujours sous forme de planétésimaux kilométriques. Les interactions des planètes avec ce disque de planétésimaux peuvent être complexes, car, à la différence du gaz, ceux ci peuvent être perturbés sur des orbites très excentriques, « rebondir » d’une planète à l’autre, voire éjectés du système. On pense que c’est un tel processus d’interaction planétésimaux/planètes qui est à l’origine de la structure actuelle du système solaire externe. C’est en particulier ce jeu de billard planétaire qui aurait placé Uranus et Neptune à leur position actuelle à 20 et 30 UA du soleil, alors que ces planètes se sont sans doute formés beaucoup plus près du soleil. Ceci pourrait résoudre les problèmes rencontrés par le scénario de cœur-solide pour former des planètes géantes loin de leur étoile (cf. lien).

images/Cours-27-Nicemodel.png
Le « modèle de Nice ». Les 4 planètes géantes se forment dans une région compacte en deçà de 15 UA du soleil. Après la dispersion du disque de gaz, elles interagissent avec les petits planétésimaux restant et migrent vers l’intérieur (Jupiter) ou vers l’extérieur (Saturne, Uranus et Neptune). Au bout d’environ 500 millions d’années, les planètes géantes passent par une phase dynamiquement chaotique qui disperse et éjecte quantité de planétésimaux dans le jeune système solaire. C’est cette phase chaotique qui serait à l’origine du Bombardement Massif Tardif (« Late Heavy Bombardment ») de météorites dont la Lune a gardé trace, ainsi que de la formation de la Ceinture de Kuiper au delà de l’orbite de Neptune.
Crédit : Observatoire de Paris

Un scénario alternatif: formation des géantes par instabilité gravitationnelle

Même si, on l’a vu, des pistes existent pour résoudre les problèmes rencontrés par le scénario « cœur solide » pour former Saturne « à temps » ou pour former Uranus et Neptune tout court, certains chercheurs envisagent des solutions plus radicales : abandonner le modèle standard et le remplacer par un scénario alternatif. Ce scénario est celui d’une formation par instabilité gravitationnelle dans le disque protoplanétaire gazeux. Ce disque n’est en effet pas homogène, et, inévitablement, des surdensités (des « grumeaux ») locales peuvent exister. En principe la pression thermique du gaz empêche l’effondrement gravitationnel de ces surdensités, et, de plus, la rotation képlérienne différentielle a tendance à les disperser rapidement. Cependant, si le disque est suffisamment dense et froid, alors ces grumeaux pourraient devenir gravitationnellement instables.

Ce scénario avait tout d’abord été proposé dans les années 70 pour expliquer la formation de toutes les planètes, mais avait rapidement été abandonné pour les planètes telluriques ,car il est très difficile de développer des instabilités dans le disque interne du fait de la forte chaleur et du fort cisaillement képlérien. Dans le disque externe, cependant, les conditions sont plus favorables, car la pression thermique et le cisaillement képlérien y sont moins forts. Des simulations numériques (cf. Image) ont ainsi montré qu’un disque protoplanétaire peut effectivement développer des instabilités locales. L’avantage de la formation par instabilité est qu’elle est en principe extrêmement rapide, de l’ordre de quelques centaines d’années seulement au niveau de l’orbite de Jupiter. Cependant, une grande inconnue subsiste : pour que ces instabilités initiales aillent jusqu’au bout et forment des planètes il faut qu’elles soient capable de se refroidir rapidement à mesure qu’elles se contractent. Or aucune simulation n’a encore prouvé à ce jour que cela était possible. Le scenario par instabilité a cependant connu un très fort regain d’intérêt avec la découverte récente de planètes extrasolaires géantes orbitant très loin, parfois à plus de 100UA, de leur étoile. De telles planètes sont en effet a priori strictement impossibles à former avec le scenario de « cœur solide », alors que le modèle par instabilité devient, lui, plus efficace dans ces régions externes. L’autre alternative étant, bien sur, que ces planètes se soient formées par cœur solide plus à l’intérieur et aient ensuite migrées vers l’extérieur (cf. page précédente).

Cours-28-Rice-DiscinstabilMNRAS.gif
Formation de condensations de matière dans un disque proto-planétairepar instabilité gravitationnelle.
Crédit : Simulations numériques de Ken Rice (University of California)

La formation de la ceinture d’astéroides

Le système solaire ne se résume pas, loin s’en faut, aux planètes. Il est également peuplé d’une quantité innombrable de petits corps, la plupart d’entre eux regroupés dans 2 vastes structures. La plus célèbre est sans aucun doute la ceinture d’astéroïdes située entre Mars et Jupiter. On sait aujourd’hui que cette ceinture n’est probablement pas constituée des débris d’une ancienne planète qui aurait été détruite. On a plutôt affaire à une région où une planète n’a jamais pu se former, très probablement en raison des perturbations de Jupiter. Un point très important est que la masse totale de cette ceinture est très faible par rapport à ce à quoi on pourrait s’attendre dans un disque proto-planétaire ayant formé les planètes telluriques et géantes. Si on prend par exemple la nébuleuse solaire de masse minimale (MMSN), alors on estime qu’il devait y avoir initialement 1000 fois plus de matière solide dans la région des astéroïdes qu’il n’y en a aujourd’hui. Le grand défi de tout modèle de formation est donc d’expliquer comment 99.9% de la masse de la ceinture d’astéroïdes a pu disparaître.

Il n’existe aujourd’hui pas encore de consensus sur comment la ceinture s’est formée. Ce qui est sur est qu’il est impossible que les perturbations dynamiques de Jupiter (du moins, du Jupiter actuel) puissent à elles-seules éjecter autant de matière entre 2 et 4UA. Une solution pourrait être que les perturbations de Jupiter aient agi de manière indirecte, en excitant de gros embryons planétaires formés dans la ceinture, et que ces embryons, une fois placés sur des orbites excentriques, aient perturbés et éjectés l’essentiel des astéroïdes primitifs. Un autre scénario, qui a actuellement le vent en poupe, est celui dit du « Grand Tack ». Ce modèle suppose que les 4 planètes géantes se sont formées plus près du Soleil que leurs positions actuelles, et aient ensuite migré dans le disque. Jupiter aurait tout d’abord migré vers l’intérieur jusqu’à 1.5UA du Soleil (migration type II, voir lien) et éjecté l’essentiel de tous les corps présents dans la région astéroïdale actuelle. Mais une fois que Saturne l’a quasiment rejoint, les interactions entre les 2 planètes géantes vont les refaire migrer vers l’extérieur, destin que vont aussi partager Uranus et Neptune. Dans le chaos dynamique qui s’ensuit alors, des planétésimaux issus des régions externes vont être injectés dans la région <4UA (cf. image). La ceinture d’astéroïde est alors au final peuplée d’un mélange de corps provenant de différentes régions du système solaire, mais sa masse totale reste très faible.

images/Cours-29-GrandTack.png
Formation de la ceinture d’astéroides dans le modèle du « Grand Tack ».
Crédit : Sean Raymond (Université de Bordeaux).

Formation planètaire dans les étoiles binaires

Le scénario de formation planétaire présenté aux pages précédentes suppose implicitement que le disque proto-planétaire et les planètes orbitent autour d’une étoile seule et isolée. Cette configuration pourrait a priori nous sembler la plus « naturelle », mais nous sommes ici fortement biaisés par le cas particulier qui est le nôtre : le système solaire. En réalité, la majorité des étoiles se trouvent dans des systèmes stellaires multiples, le plus souvent des binaires. On connaît aujourd’hui près d’une centaine d’exoplanètes habitant de tels systèmes (cf. Figure), et ce chiffre est sans doute sous-estimé, car les programmes de détection de planètes extrasolaires ont longtemps sciemment évité les systèmes binaires. La question qui se pose ici est, bien entendu, de savoir si la binarité influe sur le processus de formation planétaire, et si oui, comment ?

Pour de nombreuses binaires avec exoplanètes, la séparation entre les 2 étoiles est très grande, parfois plusieurs centaines, voire plusieurs milliers d’UA. Il est probable que, dans ce cas, la présence d’un compagnon stellaire ait eu une influence assez limitée sur l’accrétion de planètes autour de chaque étoile. Mais il existe des exoplanètes dans des binaires ayant des séparations de moins de 100UA, et on recense même 4 planètes dans des binaires séparées d’environ 20UA (cf. Figure). Pour mettre les choses en perspective, c’est comme si, dans le système solaire, on remplaçait Uranus par une étoile plus de 1000 fois plus massive ! Il paraît évident que les perturbations d’une étoile si proche vont fortement affecter la formation planétaire. Et c’est ce qu’ont effectivement montré de nombreuses études théoriques au cours de la dernière décennie. Ces études arrivent même à un résultat assez déconcertant, à savoir qu’il semble impossible de former les exoplanètes des binaires Gamma Cephei, HD196885 et HD40004 avec le modèle standard. Comment expliquer alors l’existence paradoxale de telles planètes ? Est ce que la formation planétaire se fait par un processus différent dans les binaires ? Ou bien est ce que c’est le modèle « standard » lui même qui doit être révisé pour expliquer ces cas « extrêmes »? Ou bien, solution moins radicale, est ce que ces binaires serrées étaient beaucoup plus séparées dans leur jeunesse, permettant alors à la formation planétaire de se faire dans un environnement beaucoup moins perturbé ? Ces questions sont encore loin d’être tranchées et les prochaines années devraient nous apprendre beaucoup sur cette problématique encore relativement recente.

images/Cours-30-PlanBin-graph.png
Structure de tous les systèmes binaires contenant au moins une exoplanète détectée (au 1/1/2014). Le cercle bleu indique la distance de la planète par rapport à l’étoile centrale, et le cercle jaune celle du compagnon stellaire. La taille du cercle bleu est proportionnelle à la masse de la planète. Les petits segments horizontaux traversant les petits cercles indiquent les excursions radiales des planètes et étoiles compagnons dues à l’excentricité de leurs orbites. Le segment vertical noir indique la limite externe de stabilité orbitale autour de l’étoile primaire (toute orbite au delà de cette limite est instable en raison des perturnations de l’étoile secondaire).
Crédit : Philippe Thebault.

Comprendre

Auteur: Philippe Thébault

Datation Radio-Isotopique


Datation radio-isotopique: Principe

Certains noyaux atomiques, appelés radioisotopes, sont naturellement instables et peuvent spontanément se désintégrer en noyaux moins massifs et stables, libérant de l’énergie sous forme de rayonnement. La décroissance du nombre N d’un type de radioisotopes {}^{p}A en un élément {}^{q}B suit une décroissance exponentielle d*N/dt prop-lambda*N . Où la quantité t_{1/2} = ln(2)/\lambda est le temps de demi-vie caractéristique de l’élément. Dans le cas le plus simple où aucun élément B n’est présent initialement le temps t peut être trouvé directement par le rapport B/A. Mais en réalité les choses ne sont jamais aussi simples, et ce pour au moins 2 raisons :

1) Il y a a priori toujours du {}^{q}B présent à t=0 ou, du moins, il est impossible d’exclure cette présence. Et on ne connait pas a priori cette quantité initiale de {}^{q}B

2) l’isotope {}^{q}B n’est souvent pas le seul possible pour l’élément B, qui peut également exister sous la forme {}^{q'}B, ce qui peut fortement compliquer les choses. En effet, dans un matériau à l'état gazeux ou liquide, les isotopes {}^{q}B et {}^{q'}B vont naturellement s'équilibrer entre eux à une valeur d'équilibre. En conséquence, dès qu'un matériau fond ou fusionne, toute information sur la quantité d'isotope {}^{q}B produite par désintégration de {}^{p}A va être perdue par cette mise à l'équilibre isotopique (autrement dit, toute fusion est un "reset" des isotopes de B).

Ceci va rendre la datation plus compliquée, mais elle reste néanmoins possible, du moins pour remonter jusqu'au moment de la dernière condensation du matériau. On peut grosso-modo distinguer 2 types de datation : datation absolue et datation relative.


Datation absolue

La désintégration de {}^{238}U en {}^{206}Pb a un temps de ½ vie de 4.47 109 ans, idéal pour mesurer l’âge des plus anciens corps du système solaire. Mais {}^{206}Pb n’est pas l’isotope naturel du Pb, qui est {}^{204}Pb. On obtient alors la relation suivante, liant les abondances de {}^{238}U, {}^{206}Pb et {}^{204}Pb:

\left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_P = \left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_I + \left (\frac{{}^{238}U}{{}^{204}Pb} \right )_I  \left ( 1- e^{-\lambda_{238}t}  \right )

= \left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_I + \left (\frac{{}^{238}U}{{}^{204}Pb} \right )_{P}  \left ( e^{\lambda_{238}t} -1  \right )

où les indices P et I se réfèrent aux abondances actuelles et initiales, respectivement. Le moment "initial" correspond à l'instant où l'objet en question s'est solidifié pour la dernière fois. En effet, dès que le corps fond ou se sublime en gaz, les proportions des 2 isotopes {}^{206}Pb et {}^{204}Pb s'équilibrent rapidement à leur proportion "naturelle" et toute information sur la désintégration de {}^{238}U est perdue (voir page précédente ). A cet instant initial le rapport {}^{206}Pb/{}^{204}Pb est donc égal à la valeur d'équilibre. En revanche, une fois le corps solidifié, un excès de l'isotope {}^{206}P va petit à petit se créer à mesure que {}^{238}U se désintègre. La variable inconnue est ici la quantité initiale absolue de {}^{206}Pb (ou de {}^{204}Pb), que l'on ne connaît pas a priori. Heureusement, il existe un deuxième type de désintégration d’U en Pb, la réaction {}^{235}U \Rightarrow {}^{207}Pb , dont le temps de vie est de 704 106 ans, et qui va nous permettre de contraindre les abondances initiales. Les équations sont alors:

\left (\frac{{}^{207}Pb}{{}^{204}Pb} \right )_P = \left (\frac{{}^{207}Pb}{{}^{204}Pb} \right )_I + \left (\frac{{}^{235}U}{{}^{204}Pb} \right )_P  \left (e^{\lambda_{235}t} -1 \right )

\left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_P = \left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_I + \left (\frac{{}^{238}U}{{}^{204}Pb} \right )_P  \left (e^{\lambda_{238}t} -1 \right )

Et donc: F = \left [\frac{\left (\frac{{}^{207}Pb}{{}^{204}Pb} \right )_P -\left (\frac{{}^{207}Pb}{{}^{204}Pb} \right )_I }{ \left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_P - \left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_I} \right ]=\left ( \frac{1}{137.88} \right )\left ( \frac{e^{\lambda {}_{235}t} -1}{e^{\lambda {}_{238}t} -1} \right )

où 137.88 est la valeur présente de \frac{{}^{238}U}{{}^{235}U}, qui est une constante globale du système solaire actuel, et \lambda_{235}= \ln(2) / \tau_{235}, \lambda_{238}= \ln(2) / \tau_{238}. Cette relation est directement exploitable pour toute météorite non-homogène initialement, mais dont tous les composants se sont formés à la même époque. En effet, dans ce cas, les rapports initiaux {}^{206}Pb/{}^{204}Pb et ^{207}Pb/{}^{204}Pb sont les mêmes partout dans la météorite et sont égaux à leurs valeurs d'équilibre (indiquées par a0 et b0 sur la figure). Par conséquent, dans un graphe {}^{206}Pb/{}^{204}Pb vs. ^{207}Pb/{}^{204}Pb , toutes les mesures du rapport F doivent se situer une même droite, appelée isochrone, dont la pente va directement donner l’âge de la météorite (cf. Figure).

images/Approfondissement-1-Pb-Pb.png
Isochrone isotopique construite à partir des abondances actuelles relatives de 207Pb, 206Pb et 204Pb en différents endroits d’une même météorite
Crédit : Observatoire de Paris

Datation relative

La désintégration radioactive permet également de dater des corps même bien après la disparition des radionucléotides concernés (c'est à dire bien au delà du temps de 1/2-vie de la désintégration concernée). C’est le cas par exemple de la désintégration {}^{26}Al \Rightarrow{}^{26}Mg, dont le temps de ½ vie est de « seulement » 720 000ans. Notons que ni {}^{26}Al, ni {}^{24}Mg ne sont des isotopes naturels de leurs éléments, qui sont, respectivement, {}^{27}Al et {}^{24}Mg. A la différence de la désintégration d’{}^{238}U, il n’existe aujourd’hui plus de {}^{26}Al que l’on puisse mesurer. En principe, on a donc :

({}^{26}Mg)_P=({}^{26}Mg)_I+({}^{26}Al)_I

Cette équation n’est pas d’une grande aide en elle-même, mais, comme pour la datation absolue, on peut tirer parti de la non-homogénéité d’une météorite donnée. Si en effet deux endroits de cette météorite avaient initialement des teneurs totales en Al (tous isotopes confondus) différentes, mais que la proportion de \frac{{}^{26}Al}{{}^{27}Al} était, elle, la même, alors l’excès de {}^{26}Mg ne sera aujourd’hui pas partout le même, et cet excès sera relié à l’abondance actuelle locale de \frac{{}^{27}Al}{{}^{24}Mg} par la relation :

\left ( \frac{{}^{26}Mg}{{}^{24}Mg} \right)_P = \left ( \frac{{}^{26}Mg}{{}^{24}Mg} \right)_I + \left ( \frac{{}^{26}Al}{{}^{27}Al} \right)_I + \left ( \frac{{}^{27}Al}{{}^{24}Mg} \right)_P

Les mesures de \frac{{}^{26}Mg}{{}^{24}Mg} et \frac{{}^{27}Al}{{}^{24}Mg} en différents endroits de la météorite vont alors tracer une isochrone dont la pente donnera la teneur initiale en \frac{{}^{26}Al}{{}^{27}Al} (voir Figure).

Maintenant, si on compare les teneurs initiales de \frac{{}^{26}Al}{{}^{27}Al} obtenus pour différentes météorites, on peut obtenir une datation relative des temps de formation de ces météorites. En effet, étant donné le temps de vie très court de {}^{26}Al, sa teneur par rapport à {}^{27}Al pourra être très différente suivant l’instant où la météorite s’est formée. Si on compare les valeurs \left (\frac{{}^{26}Al}{{}^{27}Al} \right )_Idans 2 météorites différentes, on obtient ainsi la datation relative de leur formation par la formule:

\left (\frac{{}^{26}Al}{{}^{27}Al} \right)_I^1 = \left (\frac{{}^{26}Al}{{}^{27}Al} \right)_I^2 e^{-\lambda(t_1- t_2)}

t_1 et t_2 sont les instants de formation des 2 météorites, et \lambda est le taux de désintégration de la réaction {}^{26}Al \Rightarrow {}^{26}Mg

Il faut cependant ici bien faire attention à deux points très importants :

  1. ces mesures relatives ne sont possibles que si {}^{26}Al était uniformément distribué dans la nébuleuse initiale. Les dernières recherches semblent cependant montrer que tel était bien le cas. 
  2. la fraction de \left (\frac{{}^{26}Al}{{}^{27}Al} \right )_{0} estimée correspond à ce qu’elle était au moment de la dernière condensation de l’objet. En effet, quand le corps est dans un état fluide (gaz, liquide), les abondances de {}^{26}Mg et {}^{24}Mg se ré-équilibrent automatiquement à leurs proportions « naturelles » et tout excès antérieur de {}^{26}Mg est effacé. Autrement dit, le chronomètre isotopique se « reset » lors de tout épisode de très forte température.
images/Approfondissement-1-Al-Mg-Alliende.png
Isochrone obtenue à partir des abondances actuelles des différents isotopes de Mg et Al dans la météorite carbonée « Alliende »
Crédit : Observatoire de Paris

La barrière du mètre

Comme nous l’avons vu (cf. lien), une des étapes les plus délicates du scénario standard de formation planétaire est celle qui fait passer des premières poussières condensées dans la nébuleuse aux planétésimaux kilométriques. La principale difficulté étant atteinte pour des corps de 10cm-1m, pour lesquels les vitesses de collision deviennent trop élevées pour permettre l’accrétion, et qui vont de plus avoir un mouvement de dérive très rapide vers l’étoile centrale. Ces deux problèmes sont tous deux liés à l’action du gaz sur les corps solides. En effet, toute particule solide plongée dans un milieu gazeux subit la friction de ce gaz, qui va être proportionnelle à la surface de contact entre le gaz et l’objet. Cette friction peut ainsi s’exprimer sous la forme

F \propto K\sigma\Delta_V

\Sigma est la section efficace du corps ( \pi r^2) et \Delta_V la différence de vitesse entre le gaz et la particule. Si maintenant on applique le principe fondamental de la dynamique, on obtient que l’accélération a due au gaz vaut:

a=\frac{1}{M}K\sigma\Delta_V \propto \frac{1}{r}\Delta_V(r)

On pourrait a priori se dire que, dans le cas présent, \Delta_V est nul car aussi bien le gaz que les corps solides orbitent autour de l’étoile suivant les mêmes lois de Kepler, et donc en principe à la même vitesse orbitale v_{kep}=(GM/R)^{1/2}. Mais il y a en fait une différence, car le gaz est lui, en plus, soumis à une force de pression due au gradient de température et de densité dans la nébuleuse. Dans un disque proto-planétaire de type MMSN, cette force de pression s’exerce de l’intérieur vers l’extérieur et tend donc à contrebalancer la gravitation de l’étoile. Tout se passe donc comme si le gaz « percevait » une étoile de masse \beta M_* < M_* et aura donc une vitesse Képlérienne v_{kep'} inférieure au v_{kep} d’un corps solide orbitant dans la vide. On dit alors que le disque de gaz est « sub-Képlérien ».

Le comportement de corps solides plongés dans ce disque de gaz est alors compris entre 2 extrêmes : les particules les plus petites (<mm) sont piégées dans le gaz et bougent avec lui, et on a dans ce cas \Delta_V= 0 et donc a=0. A l’autre extrême, les planétésimaux très massifs sont, eux, découplés du gaz et subissent de la friction, mais ne vont pas beaucoup en pâtir car le rapport \frac{1}{r} est tout petit et ils vont donc être très difficile à bouger par le gaz. Donc la aussi a=0. Entre ces 2 extrêmes, il existe un régime intermédiaire avec des corps suffisamment gros pour être découplés du gaz ( \Delta_V > 0) mais pas suffisamment massifs pour être insensibles à la friction. Ce régime de taille intermédiaire se situe autour de 10cm-1m. Pour des corps de cette taille l’effet de la friction gazeuse est maximal (cf. image). Et comme v_{kep}(gaz) < V_{kep}, cette friction aura tendance à ralentir les corps solides et à les faire dériver vers l’étoile. Cette vitesse de dérive peut atteindre plus de 50m/s, ce qui correspond à 1UA en moins de 100ans !

images/Approfondissement-2-meter.png
Vitesse de dérive radiale (en cm/s) vers l’étoile centrale, en fonction de taille des corps solides présents dans la nébuleuse protoplanétaire de type MMSN. On voit très clairement qu’un pic est atteint pour des corps proches de la taille du mètre.
Crédit : Observatoire de Paris

Dynamique d'un disque de planétésimaux

Une population de planétésimaux orbitant le soleil ne pourra former des corps plus massifs que si les vitesses de rencontres mutuelles \Delta V_{coll} sont, pour une fraction importante de ces rencontres, inférieures à \beta V_{lib} ; où V_{lib} est la vitesse de libération à la surface de 2 planétésimaux en collision et \beta<1 un paramètre prenant en compte la dispersion d’énergie lors de l’impact. Toute la question est alors de savoir si, effectivement, ce critère \Delta V_{coll} < \beta V_{lib} va être rempli dans un disque de planétésimaux kilométriques laissé à lui même.

L’état dynamique d’un tel disque va dépendre de l’équilibre entre plusieurs mécanismes: la gravité mutuelle des planétésimaux, la force de friction du gaz primordial toujours présent à ce stade, la dissipation d’énergie lors des collisions physiques, et, bien sur, la gravité de l’étoile autour de laquelle tous les corps orbitent. Si on fait l’hypothèse simplificatrice que tous les planétésimaux ont la même taille r, alors on peut montrer que le disque va tendre vers un état stationnaire où les vitesses de rencontres vont en moyenne être de l’ordre de V_{lib}(r). Si en effet \Delta V_{coll} \ll V_{lib}, alors les déflections gravitationnelles lors de rencontres proches vont automatiquement augmenter \Delta V_{coll}. Et si, à l’inverse, \Delta V_{coll} \gg V_{eva}, alors la dissipation d’énergie cinétique lors des collisions va être très forte et fera diminuer \Delta V_{coll} . Cet équilibre autour de \Delta V_{coll} = V_{lib} est plutôt une bonne nouvelle, car il entraine qu’une fraction des collisions vont effectivement permettre l’accrétion des corps (sachant qu’il y aura toujours une dispersion des vitesses de collision autour leur valeur moyenne).

Sachant que tous ces corps sont en orbite autour d’une étoile, par exemple le Soleil, les vitesses relatives de collisions vont être directement liées à l’excentricité (et à leur inclinaison si on est en 3D) de leurs orbites : plus les orbites sont excentriques, plus \Delta V_{coll} augmente, plus elles sont circulaires, plus \Delta V_{coll} tend vers zero. Pour de petites excentricités, à l’ordre zero on peut écrire que

\Delta V_{coll} \sim eV_{kep}

Il faut réaliser que, pour des planétésimaux kilométriques, on a affaire à des vitesses très faibles, car les V_{lib} de tels corps sont de l’ordre de quelques mètres par seconde seulement. Ceci se traduit par des excentricités orbitales très faibles, de l’ordre de 0.0001 ! (cf. exercice).


Accrétion «Boule de neige»

Si tous les planétésimaux du disque avaient exactement la même taille r et grandissaient tous à la même vitesse, alors leur taux de croissance serait égal à \frac{dm}{dt} = \pi (r^2+r^2) \sigma \frac{e}{i} \omega_k  \frac{V}{h} dt\sigma est la densité surfacique de planétésimaux, V leur vitesse relative de collision et h l’épaisseur du disque. Si on fait l’approximation raisonnable que V \sim e V_{kep} (cf. page précédente) et que h = i a (a, distance à l’étoile et e excentricité moyenne de l’orbite des planétésimaux), alors on obtient \frac{dm}{dt} = 2 \pi r^2 \sigma \frac{e}{i} \omega_k avec \omega_k = \frac{V_{kep}}{a}, vitesse angulaire Keplerienne. On trouve alors que \frac{dR}{dt} = cste, et que la croissance en taille est linéaire avec le temps. Pour une MMSN à 1UA on trouve qu’il faut alors 106 ans pour former un corps de 1000km (cf. EXERCICE)

Mais il semble qu’en réalité l’accrétion suive un chemin beaucoup plus rapide et efficace, mais très sélectif, appelé accrétion « boule de neige ». Il est en effet plus que probable que, dans tout disque réel, toutes les tailles ne sont pas identiques et que, localement, certains planétésimaux soient, par hasard, légèrement plus grands (de taille r_1>r) que ceux qui les entourent. De ce fait, ils ont une vitesse de libération V_{lib}(r_1) supérieure à celle des corps environnants. En conséquence, ils vont légèrement infléchir la trajectoire des autres corps vers eux. On peut paramétriser cette déflection en considérant que le corps r_1 a une section efficace « effective » \sigma_{grav} plus grande que sa simple section efficace géométrique \pi r_1^2. On a alors

\sigma = 2\pi (r_1^2+r_2^2) \left [ 1+ \left (\frac{V{lib}(r_1,r_2)}{\Delta V} \right )^ 2\right ]

\left (1+ \left (\frac{V{lib}(r_1,r_2)}{\Delta V} \right )^ 2 \right ) est appelé le terme de « focalisation gravitationnelle ». Du fait de cette surface efficace« dilatée », le corps r_1 va croître plus vite que les autres. Le rapport \frac{r_1}{r} va donc augmenter, ce qui a pour effet d’encore augmenter la focalisation gravitationnelle, et donc le taux de croissance de r_1, et ainsi de suite. La croissance de ce corps initialement légèrement privilégié va donc rapidement s’emballer.

images/Approfondissement-4-Runaway.png
Accrétion boule de neige : un corps initialement plus gros que les planétésimaux qui l‘entourent va légèrement infléchir la trajectoire de ceux-ci vers lui (Figure A). De ce fait, il va croître plus rapidement que les corps qui l’entourent, ce qui va encore accentuer sa tendance à infléchir vers lui l’orbite de ceux-ci (Figure B). Le processus s’auto-amplifie de lui même et conduit à la formation rapide d’un embryon planétaire alors que la majorité des autres planétésimaux n’a pas accrété de matière (Figure C).
Crédit : Philippe Thebault

Photo-évaporation et dispersion du gaz

L’un des moyens les plus efficaces pour disperser le disque de gaz en moins de 10 millions d’années (voir la page de cours) est le couplage entre (l'accrétion visqueuse du disque) et la photo-évaporation du gaz. Ce dernier mécanisme est la conséquence de l’effet du rayonnement ultra-violet (UV) de l’étoile sur les molécules de gaz, essentiellement H et He. L’interaction des photons UV va en effet chauffer le gaz, c’est à dire lui donner une plus grande agitation thermique, et si cette vitesse d’agitation thermique dépasse la vitesse Képlerienne locale, alors le gaz est éjecté. Comme V_{kep} est \propto a^{-0.5} mais que l’énergie transportée par un photon UV ne diminue pas avec la distance à l’étoile, ce sont les molécules des régions extérieures qui seront le plus facilement éjectées lors d’interaction photon-gaz (mais le flux de photon, et donc le taux d’interaction avec le gaz, va, lui, diminuer avec a). On peut ainsi calculer qu’il existe un rayon critique, appelée r_g, au delà duquel l’énergie déposée par photo-évaporation dépasse l’énergie orbitale :

r_g = \frac{(\gamma -1)}{2\gamma} \frac{GM \mu}{K_B T} \approx 1.4 \frac{M/M_{\odot}}{T/10^4 K} AU

T est la température du gaz par suite de l’interaction avec un photon, \mu est le poids atomique moyen du gaz,K_B la constante de Boltzman, \gamma le ratio des chaleurs spécifiques (5/3 pour un gaz mono-atomique), G la constante gravitationnelle et M la masse de l’étoile. Dans les faits, à cause de la rotation du gaz, le rayon critique de dispersion est plutôt égal à r_{cr} \sim 0.2 r_g. Pour un rayonnement UV typique, on a T \sim 10^4 K. Pour une étoile de type solaire et un disque de type MMSN , on obtient alors r_{cr} = 2 \verb?UA?.

Cependant, tant que le disque est très dense, à la distance r_{cr} le flux de matière  \dot{M_{acc}} vers l’intérieur du disque dû à la viscosité est supérieur au flux de matière M_w éjecté par photo-évaporation (cf. IMAGE, CASE 1). Mais à mesure que la masse du disque diminue par accrétion sur l’étoile, \dot{M_{acc}} va décroître, jusqu’à ce qu’on atteigne le point où \dot{M_{acc}}(r_{cr}) = M_w(r). A partir de ce moment, la matière gazeuse au-delà de r_{cr} est éjectée du système avant de pouvoir franchir la frontière r_{cr} pour se mettre « à l’abri ». Une ouverture est alors créée dans le disque, qui se retrouve coupé en deux. La partie interne du disque est protégée de la photo-évaporation, mais est tellement petite (<2UA) qu’elle va très rapidement être accrétée sur l’étoile (alors qu’auparavant le flux de matière spirallant sur l’étoile était compensé par de la matière venant de plus loin dans le disque). La partie externe du disque va elle se disperser progressivement de l’intérieur (r_{cr}) vers l’extérieur. Les modèles numériques indiquent que la troncature du disque se fait au niveau de r_{cr} sur une échelle de quelques millions d’années, tandis que la dispersion qui s’en suit est beaucoup plus rapide, quelques 105 ans peut-être.

images/Approfondissement-5-PHOTOEVAP.png
Différentes étapes du processus de dispersion d’un disque proto-planétaire gazeux par photoevaporation et accrétion visqueuse du disque.
Crédit : Observatoire de Paris

Se tester

Auteur: Philippe Thébault

Datation de la météorite «Allende»

exerciceDatation de la météorite «Allende»

La météorite dite « Allende », tombée en 1969 au Mexique, est probablement la météorite la plus étudiée de toute l’histoire. Elle est le représentant archétypal des chondrites carbonées, qui sont parmi les corps les plus primitifs du système solaire (cf. lien). Elle a de ce fait fortement contribué à faire connaître l’âge de notre système solaire à une très grande précision. La méthode utilisée pour cette datation se base sur la désintégration U-Pb et sur la mesure des abondances relatives des différents isotopes du plomb.

Question 1)

La Figure présente les différentes mesures isotopiques effectuées en différents endroits de la météorite. En vous basant sur ce graphe, essayez d’estimer l’âge « d’Allende » en utilisant les formules présentées au chapitre «Comprendre ». Attention: Les fractions isotopiques reportées sur le graphe ne sont pas forcément celles de la formule présentée dans le cours.

exo1-datation-allende.png


Reconstruire la nébuleuse solaire de masse minimale (MMSN)

exerciceReconstruire la nébuleuse solaire de masse minimale (MMSN)

La MMSN est une entité théorique qui permet d’avoir une idée de la structure initiale du disque proto-planétaire qui a formé les planètes du système solaire, en faisant l’hypothèse que celles-ci se sont, en gros, formées à leur emplacement actuel (cf. cours).

Question 1)

A partir de la masse et de la composition actuelle des 8 planètes du système solaire, donner une estimation de la distribution radiale de la matière solide (roches+ glaces) dans la MMSN. Pour cela on peut supposer que la masse solide de toutes les planètes était initialement repartie dans un disque continu s’étendant de l’orbite de Mercure à celle de Neptune. L'information que l'on cherche est alors quelle est la densité surfacique de matière (par exemple en kg/m2) dans ce disque en fonction de la distance radiale r au soleil. Il peut ensuite être intéressant de tracer un graphe représentant (r).

Attention: si pour les planètes telluriques la masse solide de ces planètes peut-être considérée comme étant égale à leur masse totale, il n'en va pas de même pour les planètes géantes (qui contiennent également beaucoup de gaz). La masse totale de matière solide (roche+glaces) contenue dans les planètes géantes n'est pas connue avec une grande précision, mais on pourra prendre les fourchettes suivantes:

Jupiter: entre 10 et 45 MTerre de matière solide

Saturne: entre 20 et 30MTerre de matière solide

Uranus: entre 9 et 13 MTerre de matière solide

Jupiter: entre 12 et 16 MTerre de matière solide


Estimation de la vitesse de libération d'un planétésimal

exerciceEstimation de la vitesse de libération d'un planétésimal

Question 1)

Donner la vitesse de libération vlib à la surface d’un planétésimal de taille R et de densité ρ, en supposant, pour simplifier, que celui-ci a une forme sphérique.

Application numérique : donner vlib pour un corps de 1km, pour un corps de 100km, pour la Terre, et pour Jupiter.


Croissance «ordonnée» d'une population de planétésimaux

exerciceCroissance «ordonnée» d'une population de planétésimaux

Comme nous l’avons vu (cf. lien1 et lien2 ), l’étape intermédiaire dans le scénario de formation planétaire est celle qui fait passer de planétésimaux kilométriques à des « embryons » planétaires de 500-1000km. Lors de cette étape, le processus fondamental est l’attraction gravitationelle mutuelle des planétésimaux lors de leurs rencontres. Dans sa version initiale, le modèle d’accrétion des planétésimaux supposait que ceux-ci croissent de manière « ordonnée », c’est à dire tous ensemble et à la même vitesse. Même si on sait qu’aujourd’hui ce scénario ne correspond pas à la réalité (l’accrétion se faisant par effet « boule de neige » bien plus rapide), il est quand même intéressant d’avoir une idée du rythme de croissance pour cette croissance « ordonnée ».

Question 1)

Pouvez vous ainsi estimer le temps qu’il faut pour former des corps de 1000km à partir d’une population de corps de 1km ? On supposera que :

  1. On se situe à 1UA dans une Nébuleuse Solaire de Masse Minimale (cf. cours et Exercice 2).
  2. Le disque de planétésimaux est toujours à l’équilibre dynamique, à savoir que les vitesses de rencontres V_{col} sont de l’ordre des vitesses de libération V_{lib} (attention : V_{lib} va donc évoluer au cours du temps, car cette vitesse est directement proportionnelle à la taille des planétésimaux)
  3. Les orbites des planétésimaux sont orientées de manière totalement aléatoire. V_{col} peut alors facilement s’exprimer en fonction de l’excentricité des orbites (voir cours).
  4. Il y a « équipartition » entre les composantes planes et verticales des orbites des planétésimaux, c’est à dire concrètement que leur inclinaison i = ½ e.
  5. Chaque rencontre entre planétésimaux se traduit par l’accrétion de ces corps l’un sur l’autre
  6. Tous les planétésimaux grandissent ensemble et au même rythme, c’est à dire qu’à tout instant ils ont tous la même taille
  7. Dans la MMSN, la densité surfacique de matière solide à 1UA est σ 10g/cm2
  8. La densité massique d'un planétésimal est comparable à celle d'un astéoïde, soit environ 3g/cm3


Vidage de la zone d'alimentation des embryons

exerciceVidage de la zone d'alimentation des embryons

Les phases d’accrétion boule-de-neige puis oligarchique produisent in fine un seul corps dominant (un « embryon ») à chaque distance radiale de l’étoile centrale (cf. cours « Accretion boule de neige », « Oligarchique » et « épuisement des ressources »). Un tel corps grossit en accrétant des petits planétésimaux et débris contenus dans sa « zone d’alimentation », c’est à dire un anneau radial à l’intérieur duquel tout corps aura une orbite croisant celle du corps dominant en raison de la focalisation gravitationnelle vers celui-ci (cf. lien). Pour un corps massif, la largeur de cette zone d’alimentation est environ égale à 3R_{Hill} de chaque côté de l'orbite de la planète, où R_(Hill)=R*(M_(emb)/(3*M_soleil))^(1/3) est le rayon de Hill correspondant à la « sphère d’influence » gravitationnelle du corps.

Question 1)

A) Montrer que la croissance par accrétion sur l’embryon va forcément finir par s’arrêter, car l’élargissement de la zone d’alimentation est plus lent que la croissance de l’embryon.

B) Estimer, pour une MMSN à 1UA du soleil, quelle est approximativement la masse atteinte par un embryon au moment où sa zone d’alimentation est vidée.


Projet

Auteur: Philippe Thébault

Projet

Auteur: Philippe Thébault

Caractéristiques des exoplanètes dans les systèmes binaires

Contexte

Plus de 80 exoplanètes ont été découvertes dans des systèmes binaires, et ce chiffre est sans doute sous estimé car de nombreux programmes d’observations excluent les binaires de leur échantillon d’étoiles. Le processus de formation de planètes dans un tel environnement, forcément très perturbé, est une question encore non-résolue à ce jour (voir lien). On peut cependant essayer d’avoir une idée de l’effet que peut avoir la binarité en regardant de plus près à quoi ressemblent les exoplanètes découvertes à ce jour dans de tels systèmes. Ressemblent elles aux autres exoplanètes ou bien ont elles des caractéristiques propres? Ce petit projet se propose d’étudier cette question en utilisant la base de données du site « Exoplanètes » pour regarder si la distribution des masses et des orbites des exoplanètes dans les binaires diffère de celles des autres exoplanètes.

Outils

Travail à effectuer

Nous nous intéresserons ici aux planètes orbitant l’une des 2 étoiles d’un système binaire, et non pas celles orbitant autour des 2 étoiles (planètes « circumbinaires »). Nous éliminerons par ailleurs les binaires trop « séparées », pour lesquelles la distance d entre les 2 étoiles est supérieure à 300 UA (valeur arbitraire mais au delà de laquelle on peut raisonnablement penser que le compagnon stellaire a peu d’effet sur la formation d’une planète autour de l’étoile primaire). Le travail se fera alors en 5 étapes :

  1. Aller dans la partie « Base de données : Diagrammes » du site « Exoplanètes ». Par défaut, le site va alors afficher la distribution (m, a), où m est la masse de la planète et a le demi-grand de son orbite, de toutes les exoplanètes connues à ce jour. Sauver et/ou imprimer ce graphe, qui va nous servir de référence.
  2. Etablir ensuite à la main, sur le site « Binary catalogue of exoplanets », la liste des système binaires avec d<300UA
  3. Aller maintenant dans le catalogue de la Base de données du site « Exoplanètes » et sélectionner dans ce catalogue toutes les exoplanètes répertoriées à l’étape 2. Pour cela, il suffit de cocher le petit « carré » au début de la ligne correspondant à la planète désirée. Pour sauvegarder cette liste, cliquer ensuite sur « Cocher la Liste Sélectionnée ».
  4. Maintenant, retourner sur la page « Diagrammes » et produire le graphe (m, a) pour ce sous-groupe des exoplanètes dans les binaires. Pour cela, cliquer dans la case « Echantillons » (tout en bas) et y insérer la sélection effectuée à l’étape 3 en faisant simplement CTRL-V (ou CMD-V sur Mac) dans la case.
  5. Comparer maintenant ce graphe à celui correspondant à l’ensemble de la population exoplanétaire. Pouvez vous y discerner certaines tendances, et si oui, lesquelles ?

Structures planétaires


Structures et environnement des planètes

Ces chapitres présentent la structure des planètes et autres objets des systèmes planétaire,


Surfaces planétaires

Auteur: Alice Le Gall

Découvrir

Auteur: Alice Le Gall

Surfaces planétaires

Plusieurs processus sont à l'oeuvre à la surface des planètes et petits corps du Système Solaire. Leur nature, intensité et conséquence varient principalement en fonction de la composition de la surface (silicatée/glacée), de sa distance à l’étoile et la présence ou non d’une atmosphère. Si le corps planétaire est actif, il peut régulièrement faire « peau neuve » (par volcanisme notamment) alors qu’un corps mort est condamné à voir sa surface se dégrader, parfois lentement mais toujours sûrement.

Dans ce qui suit, nous décrirons les principaux processus qui façonnent les surfaces planétaires, à savoir :


Cratérisation des surfaces

Les cratères d’impact sont des dépressions de surface, généralement circulaires, résultant de l’impact de fragments solides d’origine météoritique ou cométaire. Ils sont présents sur quasiment toutes les surfaces planétaires solides du système solaire et la cratérisation représente la principale cause d’altération des surfaces des corps dépourvus d’atmosphère (excepté pour Io et Europe). Les impacts sont aussi le principal mécanisme d’apport et d’excavation de matériel planétaire ; certaines planètes ou satellites se sont formés par agrégation après collision (la Lune, par exemple) ; les volatiles, océans et atmosphères, présents sur certains corps ont sans doute été apportés par des objects impacteurs (en l’occurrence des comètes).

L’étude des cratères est intéressante à plus d’un titre. Leur forme et leur taille renseignent sur la nature (composition, résistance, stratifications, porosité) des surfaces planétaires cibles, de leurs impacteurs et les propriétés d’une éventuelle atmosphère. Leur distribution informe sur l’âge des surfaces planétaires et apporte des clés dans la compréhension de leur histoire d’autant que les impacts peuvent être à l’origine d’évènements importants voire catastrophiques (formation de la Lune, extinction des dinosaures sur Terre il y a 65 millions d’années…), les plus larges ayant même pu modifier les paramètres orbitaux de certains corps. Les études statistiques des cratères fournissent aussi des informations sur la population des corps impacteurs du système solaire qui sont ce qui reste des planétésimaux de l’accrétion planétaire et donc, à ce titre, des objets très primitifs, témoins privilégiés de la jeunesse du système solaire.

Zoom: Bestiaire de cratères

Bestiaire de cratères
Crater1.png
Crédit : ALG

Ce bestiaire de cratères illustre la variété en termes de forme et d’échelle des cratères planétaires. La morphologie des cratères dépend avant tout de leur taille. Les plus petits d’entre eux, les cratères simples, présentent une forme en bol, avec des bords surélevés. La majorité des cratères lunaires ayant un diamètre inférieur à 15 km sont de ce type. Au delà de ce diamètre, ils présentent un pic central avec éventuellement des terrasses et des dépôts et sont dits complexes. Les cratères complexes sont moins profonds que les cratères simples. Le diamètre de transition entre ces deux types de cratères varie de façon inversement proportionnelle à la gravité de la planète : un pic central apparaît dans les cratères martiens dont la taille est supérieure à 10 km alors que sur Terre, les pics apparaissent dès que les cratères ont un diamètre supérieur à 2-3 km. Dans les cas d’impacts plus gros, le pic central est remplacé par un anneau montagneux voire par des anneaux multiples si le diamètre augmente encore. Une partie des matériaux excavés par l’impact peut, après avoir parcouru une trajectoire balistique, retomber et provoquer la création de cratères secondaires, à proximité du cratère principal. Enfin, si l’impact est suffisamment puissant pour percer la croûte et provoquer des épanchements, on parle de bassins d'impact. Le bassin d'Hellas sur Mars (plus de 2000 km de diamètre) est sans doute le plus grand bassin d'impact du système solaire. Avec le temps, l’érosion ou encore les mouvements du sol altèrent les cratères dont nous n’observons finalement qu’une forme dégradée.


Altération des surfaces sans atmosphère

Les corps qui ne sont pas protégés par une atmosphère (Mercure, Lune, astéroïdes, satellites glacés du système extérieur…) sont directement et constamment exposés aux rayons d’origine solaire et galactique ainsi qu’au bombardement micro-météoritique. Ils subissent, de plus, de grandes variations de température. Ces différents phénomènes dégradent progressivement leur surface, généralement caractérisée par une couche superficielle très poreuse appelée régolithe.

Zoom: Les régolithes planétaires

Régolithes planétaires
regolithes.png
Crédit : ALG

La notion de régolithe est large ; elle désigne « tout matériel d’origine continentale, quel qu’en soit l’âge, recouvrant les roches saines et dures ». Cependant, en planétologie, on l’utilise généralement pour évoquer la couche de poussière, rocheuse ou glacée, recouvrant la surface de corps solides dépourvu d’atmosphère protectrice (Mercure, la Lune, les satellites de Mars, tous les satellites du système extérieur sauf Titan, les astéroïdes et, dans une moindre mesure, Mars et les comètes).

Les régolithes planétaires sont d’abord créés par impacts météoritiques (voir chapitre Cratérisation des surfaces) puis évoluent sous l’effet de l’érosion spatiale (ou « space weathering » en anglais) c’est-à-dire des effets combinés du bombardement micro-météoritique, de la collision des rayons cosmiques d’origine solaire ou galactique ou encore de l’irradiation et de la pulvérisation cathodique (« sputtering ») par les particules du vent solaire. Les chocs thermiques, auxquels sont particulièrement soumis les surfaces sans atmosphère, contribuent également à la désagrégation physique (ou thermoclastie) des roches et donc au développement du régolithe.

Les propriétés et le degré de maturité d’un régolithe varient en fonction de la composition et de la position dans le Système Solaire de l’objet planétaire. Le régolithe lunaire est de loin le mieux connu. Il recouvre l'ensemble de la surface du satellite sur une profondeur de 2 à 8 mètres dans les mers et pouvant même excéder 15 m dans les terres les plus anciennes (4.4 Ga). Il repose sur plusieurs mètres d’un méga-régolithe constitué de gros blocs rocheux, éjectas d’anciens grands impacts. Le régolithe de Mercure est probablement très semblable à celui de la Lune quoique peut être légèrement plus développé car le flux micro-météoritique y est plus important et le contraste thermique entre le jour et la nuit accru. Le développement d'un régolite mature est, en revanche, nettement plus lent sur les astéroïdes en raison de leur faible gravité. Sur Mars, qui possède une atmosphère tenue, l’érosion spatiale s’est combinée à d’autres formes d’érosion (hydrique, éolienne… voir chapitre Erosion et sédimendation des surfaces avec atmosphère) pour former un épais manteau de poussière et de débris. Io est aussi un cas à part car le volcanisme qui y sévit efface immédiatement les traces d’impact. Enfin, la volatilité de la glace d’eau, ainsi que des glaces de CO2 (dioxyde de carbone) ou de CH4 (méthane), rend les surfaces glacées du système solaire particulièrement vulnérables à l’érosion spatiale.


Erosion et sédimentation des surfaces avec atmosphère

Les surfaces des corps dotés d’une atmosphère (Vénus, Terre, Mars, Titan, éventuellement Pluton) sont protégées de l’érosion spatiale et subissent modérément le bombardement météoritique et les effets thermiques. En conséquence, elles n’ont pas ou peu de régolithe. En revanche, elles sont soumises à l’action conjuguée de l’air et de solvants liquides lorsqu’ils existent. Partout où il y a une atmosphère, même extrêmement dense (Vénus) ou, au contraire, tenue (Mars), l'activité éolienne transporte les sédiments les organisant notamment en champs de dunes. Sur Pluton de telles formations n'ont pas encore été observées sans doute pour des raisons de résolution. Sur Terre, aujourd’hui ou sur Mars, hier, le cycle de l’eau a, en outre, façonné la surface via l’érosion pluviale, fluviatile ou glaciaire créant, transformant et distribuant la matière sédimentaire. Sur Titan, c’est le méthane et l’éthane qui modifient les paysages.

Zoom: La planétologie comparée

Dunes dans le Système Solaire
Dunes.png
Crédit : ALG

Les corps solides du système solaire présentent des visages multiples et en même temps étrangement familiers. C’est que des processus semblables à ceux que l’on observe sur Terre y sont à l’œuvre. La planétologie comparée consiste à s’appuyer sur la connaissance de notre planète pour comprendre comment ont évolué d’autres mondes. Au passage, nous observons des processus a priori connus se développer dans des environnements radicalement différents et du même coup enrichissant la compréhension que nous en avons.

Ce principe s’applique particulièrement bien lorsqu’on compare les paysages terrestres à ceux des trois autres corps du système solaire possédant une atmosphère : Vénus, Mars et Titan. Tous présentent à leur surface des dunes, preuves de l’activité éolienne qui y sévit (voir figure ci-contre). Cependant la taille, la forme de ces dunes varient d’une planète à l’autre. La connaissance des dunes terrestres permet de comprendre l’origine de ces divergences et donne des clefs pour déduire de l’observation des dunes extraterrestres les régimes de vents qui les ont sculptées. On reconnait également la signature de l’érosion fluviale à la surface de Mars, pourtant sèche aujourd’hui. L’étude des paléo-réseaux fluviaux ou des vallées de débâcle permet de reconstituer une partie de l’histoire géologique de la planète rouge. Sur Titan, par analogie avec le cycle de l’eau sur Terre, les phénomènes météorologiques liés au cycle du méthane et de l’éthane peuvent aussi être mieux compris et prédits. Enfin, même Pluton, récemment observé par la sonde américaine New Horizons, présente des paysages connus, en particulier des sols polygonaux typiques des régions glaciaires et périglaciaires des hautes latitudes sur la Terre et sur Mars (voir figure ci-contre).

Sols polygonaux sur Pluton et Mars
FigErosionAtm6.png

Renouvellement des surfaces

Sur les corps les plus actifs tels que la Terre, Io ou Europe, le renouvellement de la surface s’opère principalement par l’activité volcanique et tectonique. Il s’agit de processus endogènes c’est-à-dire ayant une cause interne, par opposition aux processus exogènes décrits précédemment.

Le volcanisme est lié au transfert de matière (magma, éléments volatiles et matériaux cristallisés) de l’intérieur vers la surface. Il est l’une des expressions les plus spectaculaires de l’activité interne d’un corps. Il participe au renouvellement des surfaces en recouvrant de ses épanchements (laves) les cicatrices du passé et peut aussi contribuer à la création ou à l’enrichissement d’une atmosphère. De nombreuses planètes ou satellites du système solaire portent sur leur surface les traces d’une activité volcanique passée (Mars, Lune), récente (Vénus) et même présente (Terre, Io, Europe, Encelade).

L’activité tectonique est l’ensemble des mécanismes de mouvements de surface responsables de déformations à grande échelle de la croûte d’une planète. Beaucoup de corps présentent à leur surface des failles, des chaînes dorsales et escarpements témoignant d’une activité tectonique passée. Cependant, à ce jour, le mouvement de plaques tectoniques n’a été observé que sur la Terre.

Des mondes actifs
figvolcan1.png
Crédit : ALG

Comprendre

Auteur: Alice Le Gall

Processus de cratérisation des surfaces

Auteur: Alice Le Gall

Processus d'impact

Le processus d’impact et ses conséquences varient avec la vitesse du corps impacteur et la nature du sol impacté et de son impacteur. Si la planète possède une atmosphère, le projectile est freiné et chauffé ce qui peut entrainer sa vaporisation partielle voire totale ou sa fragmentation. Les météorites de moins de 10 m de diamètre parviennent rarement jusqu’au sol terrestre. Les modèles d’ablation atmosphérique prédisent un nombre réduit de cratère de moins de 20 km de diamètre sur Titan (seul satellite du système solaire possédant une atmosphère substantielle, voir chapitre Erosion et sédimendation des surfaces avec atmosphère), ce que semble confirmer les observations de la sonde Cassini.

Lorsque le projectile, ou ce qu’il en reste, atteint la surface, le processus d’impact commence ; on le décompose classiquement en trois phases qui, en réalité, se chevauchent dans le temps : la phase de contact et compression, la phase d'excavation et la phase de modification et relaxation. C'est ce qu'illustre la figure ci-contre.

Mécanisme de formation d'un cratère simple (gauche) et complexe (droite)
figcraterisation2.png
Crédit : Lunar and Planetary Institute, modifié par P. Thomas (ENS Lyon-Laboratoire de Géologie de Lyon)

Contact et compression

Excavation

Modification et relaxation

L'appliquette "Cratérisation" permet d'appréhender les effets d’un impact météoritique sur Mercure, la Terre (avec ou sans atmosphère), la Lune et Mars en fonction des caractéristiques de l’impacteur (vitesse, angle d’arrivée, taille, densité) et de la surface impactée (densité).


Datation des surfaces planétaires par comptage de cratères

Age relatif

En l’absence d’échantillon du sol, la datation par comptage de cratères est la seule méthode pour estimer l’âge relatif des surfaces planétaires. Celle-ci s’appuie sur deux règles simples:

  1. Plus une surface est cratérisée, plus elle est ancienne.
  2. Plus les cratères sont grands, plus ils sont vieux.

Ces règles reposent sur l’idée que la population des impacteurs a évolué au cours du temps ; la taille des projectiles et le taux de cratérisation étaient nettement plus importants dans la jeunesse du système solaire, à une époque où les débris étaient abondants. Ces derniers ont progressivement été mobilisés pour former les planètes, les plus gros planétésimaux disparaissant en premier jusqu’à ce que les impacteurs moyens puis petits se fassent rares aussi. Si le bombardement météoritique a affecté de façon uniforme la surface d’une planète donnée, certaines régions en ont gardé toutes les cicatrices alors que d’autres ont connu depuis des épisodes de rajeunissement (par volcanisme par exemple).

L’échelle ci-contre renseigne sur le niveau de cratérisation des principales surfaces solides du système solaire, les surfaces les plus jeunes étant les moins cratérisées.

Age absolu

Ainsi, l’étude de la distribution des cratères (nombre de cratères en fonction de leur taille) permet-elle de donner un âge relatif à différentes unités de surface. Pour déterminer leur âge absolu il faudrait connaître précisément l’histoire de l’évolution du flux d’impacteurs dans le système solaire. Une partie de cette histoire a pu être retracée grâce à la datation radiogéniques d’échantillons lunaires collectés lors des missions Apollo. Ces datations précises, comparées à la distribution des cratères lunaires, ont permis de dresser des courbes d’évolution dans le temps de la densité et de la taille des impacteurs, révélant notamment un pic d’impacts il y a environ 4 milliard d’années lors d’une phase appelée le Grand Bombardement Tardif (ou Late Heavy Bombardement, LHB). Les surfaces du système solaire ayant atteint le niveau de saturation sont sans doute vieilles de 4 milliards d’années.

En tenant compte du fait que le flux des impacteurs devait varier avec la distance au Soleil et, lorsque cela est nécessaire, de la présence d’une atmosphère, les enseignements du cas lunaire peuvent être extrapolés afin de dater les autres surfaces planétaires. Cependant il est important de garder à l’esprit que cette extrapolation est sujette à caution ; la position des planètes et la densité des atmosphères ont pu, en effet, varier au cours de l’histoire du système solaire.

Degré de cratérisation des principales surfaces solides du Système Solaire
figcraterisation3.png
Crédit : ALG

Processus d’altération des surfaces sans atmosphère

Auteur: Alice Le Gall

L'érosion spatiale sur les surfaces sans atmosphère

Les surfaces des corps sans atmosphère sont de véritables champs de bataille subissant en permanence:

Tous ces processus sont exogènes, c’est-à-dire ayant une cause externe à l’objet qu’ils affectent. Lentement mais sûrement ils érodent les surfaces mais sont aussi à l’origine de la formation des atmosphères extrêmement tenues, appelées exosphères, que l’on trouve autour de Mercure, de la Lune, de la plupart des satellites glacés et même des anneaux de Saturne.

L'érosion spatiale
figalteration2.png
Crédit : CC BY-SA 3.0, modifié par ALG

Bombardement micro-météoritique

Les surfaces sans atmosphère sont constamment bombardées par des grains météoritique de diamètre <1 mm. Ce bombardement micro-météoritique ne contribue pas à augmenter le volume de régolithe (le régolithe lunaire ne grandit que de 1 mm/106 ans et, en raison de leur faible gravité, les astéroïdes perdent même constamment une partie de leur régolithe) mais il en modifie durablement les propriétés et la distribution.

Fragmentation, agglutination, vaporisation

Les impacts micro-météoritiques pulvérisent progressivement les premiers millimètres du sol, réduisant la taille des particules à la surface. Ce phénomène de fragmentation (ou «comminution» en anglais) est, en partie, compensé par un phénomène d’agglutination: lorsque les impacts sont suffisamment rapides, certains matériaux du sol fondent et, en refroidissant, se soudent (formant des sphérules de verre sur la Lune par exemple) ou soudent entre eux des fragments de roches et de minéraux donnant naissance à des particules plus grosses. Certains matériaux sont même vaporisés sous l’effet des micro-impacts avant d’être redéposés à la surface. Le régolithe lunaire est constitué d’environ 30% d'agglutinates, agrégats dont la taille varie de quelques micromètres à quelques millimètres et présentant à leur surface des nanoparticules de fer intégrées lors de la vaporisation puis re-condensation de minéraux ferrifères (olivine et pyroxène notamment). L’érosion spatiale sur la Lune est donc synonyme d’un obscurcissement (l’albédo diminue) et d’un rougissement de la surface avec le temps. Le régolithe lunaire est dit mature lorsque les processus de fragmentation et d’agglutination se compensent ; la taille des grains est alors ~60 μm. Un régolithe immature est constitué de grains plus gros et d’une proportion réduite d’agglutinates.

Dans le même ordre d'idée, sur les surfaces glacées, le bombardement micro-météoritique participe à la recristallisation de la glace lorsqu’elle est amorphe (c’est-à-dire sans arrangement précis, par opposition à la glace cristalline qui présente une structure héxagonale) à la surface par un processus de recuit (« annealing » en anglais) et lutte donc contre le travail d’amorphisation mené par les rayons solaires UV et les particules ionisées énergétiques (voir Radiations d’origine solaire et cosmique).

Enfin, sur les astéroïdes où la vitesse d’échappement est faible, le bombardement micro-météoritique, aidé par d’autres processus tels que le « sputtering» (voir Radiations d’origine solaire et cosmique), contribue à l’éjection et à la perte des particules les plus petites. Ainsi s’attend-on à trouver un sol plus grossier à la surface des plus petits astéroïdes.

Mélange

Le bombardement micro-météoritique modifie également la distribution des composés des régolithes. Les premiers millimètres du sol lunaire sont en permanence « labourés » par des micro-impacts ce qui a pour effet d’homogénéiser la composition verticale (en profondeur) du régolite. On parle d’"impact gardening" (de l’anglais « garden », jardiner). Ce processus est néanmoins très lent – il faut au moins 100 000 ans pour entièrement retourner et mélanger le premier centimètre du sol lunaire. Les couches plus profondes du régolithe ne sont retournées qu’à l’occasion d’impacts plus importants donc plus rarement.

La distribution horizontale des composés du régolite est, quant à elle, contrôlée par les lois de retombée balistique des éjectas autour du cratère principal (voir Processus de cratérisation des surfaces) et varie peu sous l’effet du bombardement micro-météoritique. Les micro-impacts peuvent néanmoins, localement, apporter de nouveaux éléments à la composition de surface.

Différents niveaux de dégradation des cratères sur Ganymède sous l’effet de l’érosion spatiale et notamment des pluies micro-météoritiques.
figalteration3.png
Crédit : Figure extraite et modifiée de Moore et al. (2000).

Radiations d’origine solaire et cosmique

Sources

Les surfaces sans atmosphère sont également soumises à un bombardement permanent par des particules plus ou moins énergétiques en premier lieu desquelles des photons X et ultra-violet (UV) solaires, des ions issus du vent solaire et des rayons cosmiques provenant de notre Galaxie ou d’au-delà. Ces radiations modifient chimiquement, physiquement et structurellement les surfaces sur une profondeur allant de quelques micromètres à quelques mètres, en fonction de l’énergie des particules.

Le vent solaire est un flux de plasma essentiellement composé de particules d’hydrogène et d’hélium ionisées dont l’énergie est modérée (0.3-3 keV/nucléon). Ce flux varie, en température et en vitesse, avec l’activité du Soleil. Lors d’éruptions solaires et d’éjection de masse coronale, des rafales de particules solaires particulièrement énergétiques (1-100 MeV/nucléon) balayent notre système stellaire.

Les corps pourvus d’un champ magnétique propre (Mercure, Terre, Ganymède) sont protégés en grande partie des radiations, leur magnétosphère déviant les particules chargées le long des lignes de champ et agissant ainsi comme un bouclier. A l’inverse, les magnétosphères des géantes gazeuses, en piégeant et accélérant les particules chargées, produisent d'intenses ceintures de rayonnement et soumettent les satellites qui leur sont les plus proches à de grandes doses de radiations. En particulier, Io et Europe, autour de Jupiter, reçoivent des doses 100 à 1000 fois plus élevées que la Lune.

Effets

Les principaux effets du bombardement par les particules solaires et cosmiques sur les surfaces sont les suivants :

Sur ce dernier point, notons que les surfaces glacées sont particulièrement sensibles aux radiations car elles sont trois fois moins résistantes que les surfaces silicatées et plus volatiles (c’est-à-dire susceptibles de changer de phase). Rappelons que la glace d’eau peut exister sous plusieurs formes: différents états cristallins (en fonction essentiellement de la température) ou amorphes. A basses températures, le bombardement par les particules UV et les ions peut modifier la structure cristalline de la glace en surface, voire même entrainer son amorphisation. Europe, qui baigne dans magnétosphère jovienne et est, par conséquent, soumise à des taux de radiation particulièrement élevés, présente une surface jeune mais largement amorphisée alors que la phase cristalline est stable à la surface de Callisto, satellite près de 3 fois plus éloignée de Jupiter. Ganymède, qui se trouve entre Europe et Callisto et est, de surcroît, protégé par un champ magnétique propre, présente de la glace amorphe aux pôles (là où les lignes de champs sont ouvertes) et cristalline ailleurs.

Ceintures de radiation de Jupiter
figalteration5.png
Crédit : NASA/JPL

Effets thermiques

Les corps sans atmosphère peuvent connaitre des variations de températures considérables au cours d’une journée. Plus l’inertie de la surface (c’est-à-dire sa capacité à stocker la chaleur) est faible et plus la rotation du corps est lente, plus le contraste jour/huit est important. Mercure, en particulier, subit les chocs thermiques les plus violents du système solaire : la température à sa surface peut varier de -170°C à 430°C.

Dilatation/contraction

Sur les surfaces silicatés du Système Solaire, la différence de réponse (dilatation/contraction) des minéraux des roches à l’alternance jour/nuit induit des contraintes mécaniques (surpression) pouvant déboucher sur la fissuration progressive voire l’éclatement de certaines roches. Plus les changements de température sont prononcés et rapides, plus ce processus de désagrégation, appelé thermoclastie, est efficace. En outre, les roches dont la taille excède la profondeur de peau diurne (la profondeur du sol qui subit les fluctuations diurnes du flux solaire - en général quelques centimètres) sont soumises à un fort gradient de température qui peut les fragiliser à long terme.

Migration/ségrégation

Sur les surfaces glacées du système solaire, en raison de la grande volatilité de la glace d’eau (c’est-à-dire de sa capacité à changer de phase), le cycle jour/nuit peut s’accompagner d’un phénomène de migration/ségrégation thermique.

Les surfaces des satellites glacés sont généralement constituées d’un mélange, aux proportions variables, de glace et d’un composé optiquement sombre (matière organique, soufrée ou silicatée). Les régions les plus riches en glace étant aussi les plus brillantes, elles sont moins efficacement chauffées par le Soleil (elles réfléchissent une grande partie du flux solaire) et le taux de sublimation de la glace y est bas. Inversement, dans les régions les plus sombres, le taux de sublimation de la glace peut être élevé. Ce déséquilibre permet un transfert de la glace des régions sombres et chaudes vers régions brillantes et froides. Ce transfert prend fin quand toute la glace du sol des régions sombres a disparu (laissant un sol encore plus sombre) et s’est redéposé dans les régions plus claires (accentuant alors leur brillance). Au passage, il est fréquent qu’une partie des volatiles se perde dans l’espace ou vienne enrichir une exosphère.

Le phénomène de migration/ségrégation thermique a pour effet de renforcer les contrastes d’albédo à la surface et, en séparant la glace de la matière sombre, va à l’encontre des processus de bombardements (météoritiques ou par des particules de haute énergie) qui tendent à homogénéiser le régolithe. Ce phénomène peut être local (exemple de Callisto) ou global (exemple de Japet). Sur Japet, même si l’origine de la matière sombre est vraisemblablement exogénique (en provenance de Phoebe), il est fort probable que le phénomène de migration/ségrégation participe à accentuer le contraste entre les basses et moyennes latitudes, très sombres, de la face avant du satellite et les pôles, particulièrement brillants : le jour, la glace des régions équatoriales se sublime et migre vers les pôles, plus froids, ou elle se re-condense. Sur Callisto, les crêtes des cratères des régions équatoriales sont recouvertes d’un manteau blanc résultant sans doute de la migration de la glace du fond des dépressions, généralement plus chaudes car doublement chauffées, à la fois par le flux solaire direct et par le flux solaire réfléchi sur les parois. Ce processus de modification du paysage par sublimation est aussi à l’œuvre sur Mars où ni l’eau ni le CO2 ne sont stables à la surface.

L’appliquette "Migration" vise à évaluer l’efficacité du phénomène de migration/ségrégation par rapport à d’autres processus d’érosion spatiale sur les principaux satellites glacés du Système Solaire.

L'appliquette Migration application.png

Ségrégation thermique sur Callisto et Japet
figalteration4.png
Crédit : ALG

Erosion et sédimentation des surfaces avec atmosphère

Auteur: Alice Le Gall

L'érosion liée à l'activité atmosphèrique

Les surfaces des corps avec atmosphère sont certes protégées de l’érosion spatiale mais elles subissent d’autres formes d’érosion, souvent plus efficaces, liées à l’activité atmosphérique. Ces formes d’érosion se traduisent généralement par une perte graduelle de substance et notamment de relief. Elles sont aussi parfois à l’origine de paysages spectaculaires.

Il existe plusieurs agents et types d’érosion. Dans ce qui suit nous aborderons :

Et nous mentionnons seulement ici:

Quelque soit son moteur, l’érosion comporte trois phases étroitement liées :

Les gaz (par le biais du vent), l’eau, le méthane, l’éthane liquides sont des fluides. Avant de décrire leur action sur les surfaces planétaires, quelques rappels sur l’écoulement des fluides s’imposent.

FigErosion1.png

Rappels : L’écoulement des fluides

Notion de fluide

Un fluide est un milieu matériel déformable (il change de forme sous l'action d'une force extérieure). Il est constitué de particules libres de se mouvoir les unes par rapport aux autres. Les liquides sont des fluides peu compressibles ; ils conservent le même volume quelque soit leur forme et présentent une surface propre. Les gaz, en revanche, sont des fluides compressibles ; ils tendent à occuper tout l'espace disponible et n'ont pas de surface propre.

Qu’ils soient gazeux ou liquides, les fluides sont caractérisés par leur densité ρ et viscosité η. La densité ou masse volumique est la masse du fluide par unité de volume (en kg/m3). Elle est une mesure du nombre de molécules par unité de volume. La viscosité est une mesure de la résistance d’un fluide au changement de forme (en kg/(m⋅s) ou Pa.s); elle détermine la vitesse de mouvement du fluide. Lorsque la viscosité augmente, la capacité du fluide à s'écouler diminue. Les liquides ont une densité et une viscosité supérieures à celles des gaz: les molécules sont plus rapprochées, des liaisons (forces de van der Waals, interactions dipolaires) s'établissent entre elles qui augmentent la cohésion de l'ensemble. Le tableau ci-dessous donne les caratéristiques des atmosphères et agents liquides des planètes solides du Système Solaire.

Densité, viscosité et vitesse typique de fluides
Fluide Densité ρ (kg/m^3)Viscosité η (10^{-6} Pa s)Vitesse typique (m/s)
Eau liquide 10001540 5
Méthane liquide 450 184
Atmosphère terrestre 1.27 17.1 40
Atmosphère martienne 0.027 10.8
Atmosphère de Vénus71.92 33.0
Atmosphère de Titan 5.3 6.3 0.5-1
Glace 992 10^{14}-10^{21}10^{-6}

Pour un fluide s'écoulant sur une paroi (le vent ou un agent liquide au dessus d’un sol), la viscosité décrit la contrainte de cisaillement, c’est-à-dire la force tangentielle (par opposition aux forces normales, perpendiculaires à la paroi) qui s’applique par unité de surface sur la paroi. Cette contrainte de cisaillement s’accompagne de l'existence d'un gradient de vitesse d'écoulement dans le fluide. En effet, il existe une couche limite contiguë à la paroi, dans laquelle la vitesse du fluide passe de zéro, au niveau de la paroi, à sa la valeur maximale correspondant à celle d'un fluide libre. L'épaisseur de cette couche limite varie suivant l'état de la surface (plus la surface est lisse, plus la couche est mince). Plus précisément, on peut montrer que la vitesse de l’écoulement croit avec la hauteur au dessus de la paroi de manière logarithmique comme l'illustre la figure ci-contre.

Gradient de vitesse d'un fluide au dessus d'un sol
FigFluideGrad.png
Crédit : Université de Nantes

Ecoulement laminaire, écoulement turbulent

Un fluide peut s’écouler de différentes façons. Lorsque les lignes de courant (c’est-à-dire les tangentes en tous points parallèles à la direction de l'écoulement) restent parallèles entre elles et rectilignes, l’écoulement est dit laminaire. Au contraire, quand l’écoulement est désorganisé et le siège de tourbillons, on parle de régime turbulent (voir la figure ci-contre).

Afin de déterminer le régime en vigueur autour d’un "obstacle" (une roche dans l’eau ou un grain de sable dans le vent par exemple), on définit le nombre de Reynolds: R_e=\rho v d/\etad est le diamètre de l’obstacle et v la vitesse terminale ou de sédimentation du fluide (voir ici et ). Si le nombre de Reynolds est grand, les forces inertielles l’emportent sur les forces de frottement liées à la viscosité du fluide ; le régime est turbulent et des tourbillons se développent autour de l’obstacle. Au contraire, si le nombre de Reynolds est petit, en faisant « coller » le fluide à l’obstacle, les forces de viscosité tendent à faire disparaître les tourbillons ; le régime est laminaire.

Régime laminaire, régime turbulent
FigErosion2.png

L' activité éolienne: desctruction

Les vents sont provoqués par les contrastes de températures à la surface d’une planète et par la rotation de la planète. Les effets de l’activité éolienne sur un paysage sont multiples. Le vent déplace la matière sédimentaire, la redistribue, l’organise parfois en dunes et en modifie les propriétés physiques par abrasion mécanique.

Destruction : l’abrasion

Si l’action destructrice du vent est limitée par rapport à celle d’un agent liquide, les roches se trouvant sur le chemin de saltation (processus de transport des grains par sauts successifs, voir ici) des grains déplacés par le vent sont néanmoins progressivement polies, taillées, striées. L’efficacité de l’abrasion par le vent dépendant de la vitesse d’impact des grains, il est peu probable qu’elle soit élevée sur Titan et Vénus. En revanche, elle devrait l’être sur Mars comme semble le confirmer les images de la surface.

FigErosion3.png

L'activité éolienne: transport (initiation)

Transport: Initiation

Initier le mouvement d’une particule requiert d’avantage d’énergie que d’entretenir ce mouvement. Dans cet effort, l’idée que plus la particule est petite, plus elle est facile à mettre en mouvement est erronée ; il n’est pas si aisé d’arracher des particules fines à la surface. Ralph Bagnold (1896-1990), grand explorateur des déserts terrestres, a mis en évidence l’existence d’une taille de particule pour laquelle le mouvement à la surface était le plus facile à initier. Ce diamètre seuil d_t peut êtres estimé par la relation empirique suivante : d_{t}=10.7 \Huge(\frac{\eta^2}{\rho (\sigma - \rho) g}\Huge)^{1/3}\sigma est la densité du grain, g est l’accélération de pesanteur de la planète, \rho la densité de l’air et η sa viscosité. On a pu vérifier sur Terre que la répartition en taille des grains constituant les dunes était globalement distribuée autour de d_t.

La vitesse de cisaillement (qui caractérise la force que le vent exerce sur le sol) seuil de mise en mouvement d’un grain de diamètre d_t est alors : v_{*t}^{min}=3.5\frac{\eta}^{\rho d_t}.

La vitesse de l’écoulement (ici du vent), qui varie de manière logarithmique avec la hauteur z au dessus du sol (voir la figure), est liée à la vitesse de cisaillement v_* par la formule empirique suivante : v(z)=5.75v_*log(z/z_0)z_0 est un facteur lié à la rugosité de surface, environ égal à 1/30 de la taille des grains lorsque ces derniers sont compactés à la surface. Typiquement, sur la Terre et sur Mars, z_0=0.2-0.3 mm. C’est le gradient de vitesse d’écoulement au dessus du sol qui crée un cisaillement et permet de transférer l’énergie du vent vers les grains.

En tout logique, plus la gravité de la planète est faible, plus la taille des particules faciles à déplacer est grande et plus la vitesse seuil de mise en mouvement est petite. Sur Terre comme sur Titan, où les particules sont respectivement constituées de quartz et d’hydrocarbures solides, d_t∼0.2 mm. Cependant, sur Titan, qui 44 fois moins massif que la Terre, un vent à 1 m de la surface de 0.5 m/s suffit à initier leur mouvement alors que sur Terre un vent minimum de 4.5 m/s est requis. Sur Mars, la gravité est réduite aussi mais la faible densité atmosphérique élève la vitesse de cisaillement seuil de mise en mouvement. L’atmosphère dense de Vénus, au contraire, facilite la mise en mouvement de la matière sédimentaire. L’appliquette Erosion permet d’apprécier la facilité d’entrainement de la matière sédimentaire sur différents corps planétaires.

En dessous de la vitesse seuil v_{*t}^{min}, aucune particule, même petite, ne décolle.

En effet, pour les particules dont le diamètre d<d_t, la vitesse de cisaillement seuil de mise en mouvement décroit en 1/d mais reste supérieure à v_{*t}^{min} car le déplacement des petites particules est gêné par la présence d’une couche visqueuse tout près de la surface et/ou l’existence de forces cohésives (forces électrostatique ou de van der Waals). Il a fallu plusieurs tempêtes (« dust devils ») sur Mars pour balayer la poussière installée sur les panneaux solaires de Spirit et d’Opportunity.

Pour les grains dont le diamètre d>d_t, la viscosité de l’air n’est plus un obstacle mais la vitesse seuil de cisaillement nécessaire pour initier leur mouvement croit en \sqrt{d} selon : v_{*t}=0.1\sqrt{\frac{\sigma-\rho}{\rho} gd}. Evidemment, plus le grain est grand et/ou lourd, plus il est difficile à mettre en mouvement. Un air dense, cependant, facilitera son déplacement.

Vitesse de cisaillement seuil de mise en mouvement d’un grain en fonction de son diamètre d.
FigErosion7.png
Crédit : Adapté de la Figure 9.6 de H. Jay Melosh (2011)

L'activité éolienne: transport (suspension, saltation, reptation)

Transport : Suspension, saltation, reptation

Un bon moyen de prédire comment le vent déplacera un grain de diamètre d et de densité \sigma, est de comparer la vitesse de cisaillement de l’écoulement v_* à la vitesse limite de chute du grain dans l’atmosphère v_L, aussi appelée vitesse terminale: v_L=\sqrt{ \frac{4}{3}  \frac{(\sigma-\rho)dg}{C_d \rho}}C_d est un facteur caratéristique lié à la taille et à la forme du grain. C_d \approx 0.4 pour les grains de forme sphérique caractérisés par un nombre de Reynold suffisamment grand pour considérer que l’écoulement autour d’eux est de nature turbulente et C_d \approx 24/R_e pour les grains plus petits pour lesquels la viscosité de l’air joue un rôle non négligeable (petit nombre de Reynolds). Pour ces cas là on peut aisément montrer : v_L=\frac{d^2}{18}\frac{(\sigma-\rho)g}{\eta}.

Lorsque la vitesse de cisaillement de l’écoulement est nettement supérieure à v_L, le grain mis en mouvement entre en suspension ; il peut alors s’élever très haut dans l’atmosphère et traverser des distances intercontinentales. La condition v_*>>v_L étant plus facilement vérifiée pour des grains petits et/ou légers, ce type de mouvement concerne essentiellement les poussières.

Lorsque la vitesse de cisaillement de l’écoulement est comprise entre la vitesse seuil de mise en mouvement et la vitesse limite de chute (v_{*t}<v_*<v_L), le grain arraché à la surface est entrainé par le vent et se déplace alors par sauts successifs. C’est le phénomène de saltation. Les grains sont soulevées par le vent sur une longueur l \sim v_*/g (qui correspond à une hauteur de quelques centimètres ou dizaines de centimètres sur Terre) et retombent sous l'effet de leur propre poids, en rebondissant et en éjectant d'autres particules par impact. Une fois le mouvement de saltation initié, il requiert un vent moins fort pour être entretenu dans la mesure où, à chacun de ses sauts, le grain transmet une partie de son énergie cinétique à de nouveaux grains. Notons néanmoins que le mouvement de saltation peut être contrarié par le passage sur une surface rugueuse (ou la végétation sur Terre) et la présence d’une force de cohésion entre les grains (notamment la tension superficielle si les grains sont humides).

Enfin, les grains de plus grande dimension et/ou plus massifs, plus difficiles à soulever (v_*<v_{*t}), roulent ou glissent à la surface. Ils se déplacent ainsi de proche en proche sans jamais perdre le contact avec le sol. En réalité, leur mouvement est davantage déclenché par l'impact des particules en saltation plutôt que par l'action du vent. C’est la reptation.

Modes de transport des particules par le vent
FigErosion4bis.png
Crédit : Y. Reffet

L'activité éolienne: accumulation

Accumulation : dunes et autres formations éoliennes

Des vents excédant la vitesse seuil de déplacement ont été directement mesurés sur la Terre, Vénus et Titan. Mais cela ne suffit pas à expliquer pourquoi au moins 13% de la surface de Titan, 1.5% des continents terrestres, 0.7% du sol de Mars et 0.004% de la surface de Vénus observée par le Radar de Magellan sont couverts de dunes. Le mécanisme de formation de ces accumulations sableuses est complexe et nous n’en donnerons que le principe ici.

Les premiers grains mis en saltation, en retombant au sol, transmettent une partie de leur énergie à d’autres grains qui peuvent alors plus facilement se mettre en mouvement. La quantité de grains en saltation augmente ainsi progressivement jusqu’à ce que le flux soit saturé c’est-à-dire jusqu’à ce que le fluide ne puisse plus se charger en sable. Commence alors l’accumulation ; le sable érodé en amont se dépose sur le sol. Si la quantité de sable est suffisante, une dune apparaitra.

La morphologie des dunes est très variable (en étoile, barkhane, linéaire, transverse, … etc.); elle dépend non seulement du régime de vent en vigueur (unidirectionnel ou multidirectionnel, permanent ou oscillant) mais aussi de la disponibilité et de la nature des sédiments sur place. Dans les régions où la direction du vent s’inverse périodiquement, à l’échelle d’un jour ou d’une saison, les dunes sont souvent de type linéaire. L’essentiel des dunes observées sur Titan sont de ce type. Elles sont très semblables aux structures observées sur Terre en Namibie ou encore dans le désert d’Arabie Saoudite.

Il est important de souligner que le flux en masse de sédiment transporté par le vent étant proportionnel au cube de la vitesse de cisaillement (\propto v_*^3), l’orientation des dunes est donc plus volontairement contrôlées par des vents rares mais exceptionnellement puissants plutôt que par des vents présents tout au long de l’année mais dont l’intensité est faible. En particulier, il a été récemment montré que les dunes de Titan était sculptées lors de rares tempêtes tropicales, ce qui a permis de résoudre le mystère de leur orientation, contraire à celle des vents moyens prédits par les modèles climatiques mais en accord avec la direction de propagation des vents forts soufflant aux moments des Equinoxes.

Enfin, soulignons qu’il existe d’autres formes édifices éoliens, notamment des yardangs, (crêtes rocheuses sculptée par le vent) et trainées (« wind streaks ») sans expression topographique.

Classification des édifices éoliens
FigErosion5bis.png
Crédit : Adapté de la Figure 9.12 de H. Jay Melosh (2011)

L’activité pluviale et fluviale: destruction

Si la surface de Mars a pu voir l’eau couler dans le passé, aujourd’hui seules les surface de la Terre et de Titan sont soumises à l’érosion pluviale et fluviale. Il pleut, en effet, sur Terre partout où la température l’autorise. Sur Titan, ce sont les cycles du méthane et de l’éthane qui régissent la météo. Lorsque le sol est perméable, les « eaux » des pluies s’y infiltrent, venant parfois enrichir des aquifères - ou « alcanofères » sur Titan- souterrains, jusqu’à le saturer avant de s’écouler à la surface.

Destruction : Abrasion, altération physique et altération chimique

Au fur et à mesure, l’écoulement liquide décompose et désagrège le socle rocheux en place (aussi appelé substrat), par altération physique, mécanique mais aussi chimique, et participe ainsi à la production d’une masse sédimentaire ensuite transportée à l’état de grains ou de manière dissoute vers de plus basses altitudes

Altération physique: Plusieurs processus physiques provoquent la fragmentation mécanique du matériel rocheux sans en affecter la composition. En particulier, sur Terre, l’eau, en s’infiltrant, dans les fissures des roches les fragilise et contribue à leur désagrégation par cryoclastie (processus de fragmentation lié au cycle de gel/dégel) ou haloclastie (processus de fragmentation lié à la formation de cristaux de sels suite à l’évaporation de l’eau sur Terre). Ces processus étant liés à des changements de phase de l’agent liquide, ils ne sont sans doute pas très efficaces sur Titan où les variations de température à la surface sont très limitées (<2° pendant la journée, <4° d’une saison à l’autre).

Abrasion mécanique: Les débris solides transportés dans les écoulements sont aussi de puissants agents d’érosion; ils entaillent le substrat rocheux pour creuser des vallées et saper des berges. Un liquide étant plus dense qu’un gaz, l’activité fluviale est un agent d’érosion nettement plus efficace que l’activité éolienne : elle exerce une pression plus forte sur les sols, est capable de transporter des débris plus gros et est davantage aidée dans ses attaques mécaniques par la gravité. Pendant leur transport prolongé, les débris voient généralement leur taille se réduire et leur forme s’arrondir ; 10 km suffisent à façonner un galet de calcaire sur Terre - 300 km pour un galet siliceux. L’ampleur de ce travail d’érosion dépend de la vitesse et de la viscosité du fluide en mouvement ainsi que de la nature (notamment de la dureté) des sédiments et du socle rocheux. Est-ce l’érosion fluviale qui a façonné les pierres arrondies de 2 à 20 cm de diamètre photographiées par la sonde Huygens à la surface de Titan (voir la figure ci-contre)? Et si oui, combien de kilomètres on été nécessaires pour leur donner leur forme ? Des travaux préliminaires sur l’érodabilité de la glace d’eau à -180°C (la matière probable de la croûte de Titan) suggère que l’érosion par les rivières d’hydrocarbure sur Titan est aussi efficace que l’érosion fluviale sur Terre.

« Galets » sur Titan et sur la Terre
FigErosionFluviale1.png
Crédit : NASA/JPL/ESA/University of Arizona (Titan) et S.M. Matheson (Terre)

Altération chimique:Les activités pluviale et fluviale peuvent aussi modifier la nature chimique du socle rocheux, notamment par :

Figures karstiques sur la Terre et sur Titan
FigErosionFluviale2.png

L'activité fluviale: transport

Initiation

On l’a vu avec l’activité éolienne, la capacité d’un fluide à mobiliser un sédiment de diamètre d et de densité σ dépend de la densité ρ du fluide, de sa viscosité η et, bien sûr, de sa vitesse d’écoulement. En utilisant une loi d’échelle, l'appliquette "Erosion" permet de comprendre comment les différents paramètres en jeu agissent sur la mise en mouvement de la matière sédimentaire et de comparer l’action d’entrainement du vent sur différents corps planétaires à celle d’un solvant liquide (eau ou méthane liquide). Cependant, sans entrer dans le détail, soulignons que le modèle d’initiation de mouvement présenté dans la section "Activité éolienne: transport (initiation)" s’applique mal au mouvement des petites particules dans un fluide liquide, notamment parce que les forces de cohésion sont moindres et de natures différentes que celles en jeu dans un fluide gazeux. La figure ci-contre montre que des vitesses d’écoulement moins importantes sont requises pour transporter des petites particules dans l’eau ou le méthane liquide.

Transport fluvial
FigErosionPluviale41.png
Crédit : ALG

Suspension, saltation, traction

Une fois mis en mouvement, les sédiments peuvent être transportés. Les modes de transport des sédiments par un agent liquide sont sensiblement les mêmes que ceux vu pour l’activité éolienne: suspension (les particules ne sont jamais en contact avec le fond de la rivière), saltation (les grains se déplace en rebondissant sur le fond) et traction (les grains se déplacent en roulant ou en glissant au fond sans jamais perdre le contact avec le sol). Le transport des sédiments dans un liquide par saltation ou traction est aussi appelé charriage. A cette liste vient néanmoins s’ajouter la possibilité de transporter certains composés sous une forme dissoute (voir ici). Soulignons que l’addition d'une faible quantité de substance en suspension ou en solution peut augmenter grandement la viscosité du liquide.

Pour prédire le mouvement d’un grain dans une rivière, on peut comparer la vitesse de cisaillement du fluide à ce qu’on appelle la vitesse de sédimentation v_s c’est-à-dire la vitesse minimale qu'un flot doit avoir pour transporter, plutôt que déposer, un sédiment de diamètre d et de densité σ. La vitesse de sédimentation est à l’activité fluviale ce que la vitesse terminale est à l’activité éolienne. Elle dépend de la pesanteur, de la taille de la particule, de sa densité et de celle du fluide, et, pour les plus petites particules (celles dont le nombre de Reynolds est inférieur à 1), de la viscosité du fluide.

A l’instar de ce que l’on a vu pour l’érosion éolienne, la vitesse de sédimentation peut s’écrire: v_s=\frac{d^2}{18}\frac{(\sigma-\rho)g}{\eta} pour les petites particules sphériques autour desquels l’écoulement est laminaire et v_s=\sqrt{ \frac{4}{3}  \frac{(\sigma-\rho)dg}{0.4 \rho}} pour les particules sphériques plus grosses dont autour desquels l’écoulement est de nature turbulente.

Si l’écoulement est gravitaire (uniquement produit par l’action de la pesanteur), la vitesse de cisaillement basal (au fond d’un lit de rivière) est lié, en première approximation, à la profondeur du flot h (ou la hauteur des « eaux »), à la pente S du lit (S=sin \alpha) et à la gravité g par la relation : v_*=\sqrt{ghS}. Dans la pratique, on peut considérer que si v_*>v_s, les grains sont suspendus dans le liquide et si v_*<v_s, ils sont charriées (par saltation ou traction) ; les sédiments restent alors confinés dans une zone proche du fond. Plus la pente locale est forte ou plus le niveau des «eaux» est haut (notamment en période de crue), plus la matière sédimentaire sera facilement et abondamment transportée.

Notons que parce que la vitesse de l’écoulement n'est pas constante sur une section de cours d'eau (elle est maximale un peu en-dessous de la surface et dans l'axe du cours d'eau et minimale sur le fond et près des berges), une rivière profonde aura peu d'action sur le fond au contraire d’un écoulement très superficiel (quelques décimètres). Sur Terre, à vitesse égale en surface, la force érosive des wadi (lits de rivières généralement asséchées, en milieu aride) est en effet bien plus forte que celle des rivières des pays tempérés.

La figure ci-contre illustre les modes de transport des gros grains sédimentaires sur la Terre, Titan et Mars. Elle montre notamment que, pour une même vitesse d’écoulement, des sédiments plus gros peuvent être charriés sur Titan par rapport au cas terrestre. D’autre part, du fait de leur densité plus faible, les sédiments composés de glace sont a priori plus faciles à transporter que des sédiments de nature organique.


Paysages fluviaux et accumulation

Les « eaux » fluviales sont généralement collectées au sein de bassins de réception et viennent alimenter un réseau fluviatile hiérarchisé (rigoles, ruisseaux, rivières et fleuves sur Terre). Notons, une différence notable avec le cas éolien : l’agent liquide, contrairement au vent, ne se répartit pas sur toute la surface mais suit la ligne de plus grande pente en restant confiné dans un lit. Les filets d' « eau » confluent et fusionnent en chenaux de taille croissante. La mise en place de ces réseaux fluviatiles dépend de la pente régionale, du débit de liquide et de la nature du substrat (notamment de sa perméabilité). Sur pente forte, les chenaux sont multiples et confluent: le réseau fluviatile est dit en tresse: c'est le cas des portions amonts des cours d'eau (torrents de montagne). Quand la pente devient faible les différents cours d’ « eau » se rejoignent généralement en un unique chenal d'écoulement, souvent sinueux: le réseau à méandres caractérise la plaine alluviale proche de l'embouchure.

La matière sédimentaire mobilisée est déposée à l’endroit où la pente diminue formant ce que l’on appelle des cônes de déjection ou cônes alluviaux. La consolidation des sédiments est à l'origine de la formation des couches sédimentaires mais cette matière peut aussi être re-mobilisée lors de nouveaux épisodes pluvieux. Sur Terre, les sédiments finissent souvent leur voyage dans les océans. C’est peut être aussi le cas sur Titan dont les plus grands lacs sont connectés à des réseaux fluviatiles complexes (voir la figure ci-contre). Les amas de dépôts à l’embouchure des fleuves sont appelés deltas. De part et d’autre du lit limité par les berges, il est aussi fréquent de trouver des levées alluviales, topographies bombées formées par les dépôts des crues. Quelques exemples de paysages fluviaux sur la Terre, Titan et Mars sont présentés sur la figure ci-contre.

Paysages fluviaux
FigErosionFluviale3.png
Paysages fluviaux
FigErosionFluviale4.png
Crédit : Adapté de Grotzinger et al. (2013), Sedimentary processes on Earth, Mars, Titan and Venus. In : Comparative Climatology of Terrestrial Planets, S.J. Mackwell et al. Eds, pp 439-472. Univ. Of Arizona, Tucson.

Les dessins que forment les réseaux fluviatiles à la surface renseignent sur la nature du substrat rocheux, la pente locale et une éventuelle activité tectonique. Ils fournissent également des informations précieuses sur les climats présents ou passés. Cependant il faut garder à l’esprit que le flux de sédiments transportés variant en v_*^3, la forme des chenaux d’écoulement est généralement représentative d’événements catastrophiques et notamment d’épisodes de crue. Enfin, soulignons que tous les chenaux ne sont pas d’origine fluviale : les chenaux visibles à la surface de Vénus ont été creusés par des coulées de lave.


Se tester

Auteur: Alice Le Gall

Exercices


Catégories de cratères

Crater_Exo1.png
Auteur: Alice Le Gall

exerciceCatégories de cratères

Question 1)

Quel point du cours la figure ci-contre illustre-t-elle ?


Création du régolithe lunaire

exerciceCréation du régolithe lunaire par cratérisation

Une météorite (sphérique) composée de roches denses ayant une densité 3000 * kg * m^(-3) et un rayon de 1 km frappe la Lune avec une vitesse de 12* kms^(-1).

Question 1)

Calculer l’énergie cinétique E_c de ce projectile ?

Question 2)

Quelle est l’amplitude équivalente M de cet impact sur l’échelle de Richter ? On utilisera la formule: M=0.67*log_10 *E_c-5.87. Qu’en serait-il si la météorite était composée de fer (donc de densité de 8000*kg*m^(-3))?

Question 3)

3) Quelle fraction de cette énergie est nécessaire à la vaporisation totale du projectile ? On considérera que l’énergie de vaporisation est égale à 18*10^6 *J*kg^(-1).

Question 4)

Quel est le diamètre du cratère transitoire crée par cet impact ? On supposera que la Lune a la même densité que la météorite et que le projectile arrive sur la surface lunaire avec un angle de 30°.

Question 5)

D’après votre analyse de l’exercice "Catégorie de cratères", s’agit-il d’un cratère simple ou complexe ?

Question 6)

Quel est le volume de matière déplacé sachant que la profondeur du cratère transitoire vaut le tiers de son diamètre ?

Question 7)

Sachant qu’un tiers du volume déplacé est éjecté et redéposé hors du cratère, combien d’impacts de ce type faudrait-il pour recouvrir d’éjectas toute la surface de la Lune sur une épaisseur moyenne de 5 m ?

Cet exercice s'inspire d'un exercice proposé dans "Planétologie" de C. Sotin, O. Grasset et G. Tobie, Edition Dunod, Paris, 2009.


Cratères secondaires

Auteur: Alice Le Gall

exerciceCratères secondaires

Une météorite de fer ayant une densité de 7 * gcm^(-3) et un diamètre de 300*m frappe la Lune avec un angle de 30° et une vitesse de 12*kms^(-1).

Question 1)

Estimer la taille du cratère formé par cet impact.

Question 2)

Des roches sont excavées du cratère avec une vitesse de 500*ms^(-1). A quelle distance du cratère principal se formeront les cratères secondaires ?

Question 3)

Reprendre les questions 1) et 2) pour un impact sur Mercure. Comparer avec le cas lunaire et conclure.


Epaisseur du régolithe lunaire

Exo3.png
Auteur: Alice Le Gall

exerciceEpaisseur du régolithe lunaire

Question 1)

Commentez cette figure extraite de Shkuratov & Bondarenko (Icarus 149, 329, 2001) donnant l’épaisseur h du régolithe de différentes régions de la face visible de la Lune en fonction de l’âge de la surface T. A votre avis, quel type d’observation a permis d’estimer h ?


Des dunes sur Triton?

Exo4.png

exerciceDes dunes sur Triton?

Triton, le plus grand satellite de Neptune, possède une atmosphère tenue, composée presque uniquement d’azote. Cette atmosphère a probablement comme origine des geysers dont les traces (en l’occurrence des traînées sombres orientées dans le sens du vent dominant résultant de l’éjection puis de la retombée à la surface de panaches de poussières de 2 à 8 km de haut, cf. figure) ont été observées sur la calotte polaire australe du satellite par la sonde Voyager 2. La densité de l’atmosphère de Triton à la pression de surface (∼5 Pa) est de 1.3*10^(-4)*kgm^(-3) et la viscosité de l’azote à la température de surface (∼38 K) est 2.2*10^(-6)*Pa*s. L'accélération de pesanteur à la surface de Triton est 0.78 m/s^2.

Supposons que des grains de glace d’eau soient présents à la surface de Triton.

Question 1)

Quelle taille ont les grains susceptibles d’être déplacé ?

Question 2)

Quelle vitesse doit avoir le vent à 1 m au dessus de la surface pour les déplacer?

Question 3)

Comparez cette vitesse à la vitesse du son dans l’atmosphère de Triton (environ 127 m/s) et concluez sur la probabilité qu’une future mission, dotée de l’instrumentation adéquate, trouve à la surface du satellite des dunes.

Question 4)

A votre avis, quels processus pourraient être à l’origine de la matière sédimentaire sur Triton ?

Cet exercice s'inspire d'un exercice de "Planetary Surface Processes" de H. Jay Melosh, Cambridge University Press, 2011.


Vitesse de sédimentation

Auteur: ALG

exerciceVitesse de sédimentation

Considérons un cours d’eau particulièrement calme s’écoulant à 1 m/s. Le fond de ce cours d’eau est à 1 m de la surface.

Question 1)

Combien de temps faut-il à un grain de sable de 2 µm de diamètre pour atteindre le fond du cours d’eau ?

Question 2)

Même question pour une particule fine d’argile de 0.2 µm de diamètre?

Question 3)

A votre avis, les particules d’argile fines participent-elles à la sédimentation au fond du cours d'eau ?


Volcanisme sur Io

Io.png
Auteur: ALG

exerciceVolcanisme sur Io

La sonde Voyager 1 a détecté 9 volcans actifs à la surface de Io. En supposant que chacun de ses volcans a un taux d’éruption de 50*km^3/an, déterminer :

Question 1)

La vitesse moyenne de renouvellement de la surface sur Io en cm/an.

Question 2)

Le temps nécessaire au renouvellement total de la surface de Io sur une épaisseur d’1 km.


Mini-projets

Auteur: Alice Le Gall

Appliquette Cratérisation

Cette appliquette illustre les effets d’un impact météoritique sur Mercure, la Terre (avec ou sans atmosphère), la Lune et Mars en fonction des caractéristiques de l’impacteur (vitesse, angle d’arrivée, taille, densité) et de la surface impactée (densité).

Pour le détail des formules à partir desquelles a été construire cette appliquette, se référer à : G. S. Collins, H. J. Melosh, R. A. Marcus: Earth Impact Effects Program: A Web-based computer program for calculating the regional environmental consequences of a meteoroid impact on Earth, Meteoritics & Planetary Science 40, Nr 6, 817–840 (2005).

A vous de jouer en répondant notamment aux questions ci-dessous!

application.png

On rappelle que les astéroïdes sont composés de roches et de métaux ; leur densité varie entre 2000 et 8000 kg/m^3 et leur vitesse à l’entrée de l’atmosphère terrestre est généralement comprise entre 11 et 21 km/s. Les comètes, quant à elle, sont essentiellement composées de glace ; leur densité est comprise entre 500 et 1500 kg/m^3 et leur vitesse à l’entrée de l’atmosphère terrestre est généralement comprise entre 30 et 72 km/s.

Auteur: Alice Le Gall

exerciceQuestions

Question 1)

En utilisant l'appliquette, vérifiez, quand cela est possible, les résultats des exercices Création du régolithe lunaire par cratérisation et Cratères secondaires.

Question 2)

Retrouvez le diamètre de transition entre cratère complexe et cratère simple pour chaque corps planétaire. Comment évolue-t-il avec la gravité ?

Question 3)

En comparant les sorties de l’appliquette pour les cas « Terre » et « Terre sans atmosphère », déduisez le principal effet de l’atmosphère.

Question 4)

Retrouvez le coefficient de la loi en puissance qui lie le diamètre final d’un cratère simple à l’accélération de pesanteur du corps sur lequel il se trouve.

Question 5)

Estimez le diamètre de la météorite à l’origine de Meteor Crater, en Arizona, sachant que ce cratère a un diamètre d’environ 1.2 km, que l’impacteur était très probablement riche en fer et en nickel, et qu’il a frappé la Terre avec un angle d’environ 80°. Vérifiez que l’ordre de grandeur théorique de la profondeur finale du cratère est en accord avec la réalité.

Question 6)

Mêmes questions pour le cratère lunaire complexe Tycho dont le diamètre est de 85 km sachant que l’impacteur qui lui a donné naissance avait une trajectoire basse au dessus de l’horizon (c’est-à-dire avec un angle d’arrivée d’au moins 45°) et que sa densité était proche de celle de la Lune.


Appliquette Migration

En raison de la grande volatilité de la glace, les surfaces glacées sans atmosphère sont soumises à un phénomène de migration/ségrégation thermique. L’appliquette ci-dessous vise à évaluer l’efficacité de ce phénomène par rapport à d’autres processus d’érosion spatiale sur les principaux satellites glacés du Système Solaire. Elle s’inspire du travail de thèse de J.R. Spencer: The surfaces of Europa, Ganymède, and Callisto- An investigation using Voyager IRIS Thermal Infrared Specta, Ph.D dissertation by John R. Spencer, 1999.

Lisez l’essentiel à savoir ci-dessous et essayez de répondre aux questions.

application.png

Le taux instantané de sublimation s de la glace peut, en première approximation, s’exprimer de la façon suivante : s=P_(vap)*(1/rho)*sqrt((M/(2*pi*R*T)))rho est la densité volumique de la glace (0.92*g*cm^(-3)), M est la masse molaire de l'eau (18*g*mol^(-1)), R est la constante universelle des gaz parfaits (8.3144621*J*K^(-1)*mol^(-1)) et T, la température instantanée (en K).

T s’obtient en égalisant le flux solaire (entrant) et le flux émis par la surface (sortant) : sigma*T^4=(1-A)*(E_o/d^2)*cos(i)sigma est la constante de Stefan-Boltzmann (5.67*10^(-8)*W*m^(-2)*K^(-4)), E_o est la constante solaire (c’est-à-dire la puissance reçue du Soleil par unité de surface normale aux rayons solaires à la distance héliocentrique de 1 UA) (1360*W*m^(-2)), d est la distance héliocentrique en UA du corps glacé, A est est l’albédo de la surface et i est l’angle d’illumination du Soleil à la surface (l’angle entre la normale à la surface et la direction de l’ensoleillement). Il dépend de la latitude, de l’heure locale et éventuellement de la saison. Ici on considère que i=latitude.

P_(vap) est la pression de vapeur saturante de la glace en Pascal, c’est-à-dire la pression à laquelle la phase gazeuse de l’eau est à l’équilibre avec sa phase solide à la température T. Dans la gamme de températures des satellites glacés du système solaire (130-150 K), il a été établi semi-empiriquement que : ln*P_vap=28.9-((4.77*10^4)/(R*T)).

exerciceQuestions

Question 1)

Mise en jambe : par une analyse dimensionnelle, retrouvez la dimension de s ?

Question 2)

Comparez l’amplitude du phénomène de ségrégation thermique entre les satellites galiléens (d=5.2*UA), les satellites saturniens (d=9.5*UA) et ceux d’Uranus (d=19.2*UA). Vous vous placerez à l’Equateur, à midi, en été et prendrez un albédo de 0.4 pour la glace équatoriale.

Question 3)

Tracez le taux de sublimation lié au phénomène de ségrégation thermique en fonction de la latitude et de l’albédo de la glace pour un satellite galiléen. Comparez son intensité sur Europa (A=0.7), Ganymède (A=0.3) et Callisto (A=0.1).

Question 4)

À quelle(s) latitude(s) ce phénomène est-il le plus actif ?

Question 5)

Dans le système de Jupiter, la vitesse de « laboure » des régolithes par impacts micro-météoritiques est de quelques 10^(-3) mm/an. L’intensité du phénomène de « sputtering », quant à elle, décroit avec la distance à Jupiter : 10^(-4.5) mm/an sur Europe, 10^(-6)mm/an sur Ganymède et 10^(-7) mm/an sur Callisto. Que peut-on en déduire sur l’efficacité du phénomène de ségrégation thermique sur Europe, Ganymède et Callisto ? Discutez.


Appliquette Erosion

L’activité éolienne et, lorsqu’elle existe (sur Terre et Titan), l’activité fluviale participent efficacement au transport des sédiments des surfaces planétaires dotées d’une atmosphère. L’initiation de ce mouvement se fait plus ou moins facilement en fonction de la nature des sédiments (densité), des caractéristiques du fluide (densité et viscosité de l’air ou de l’agent liquide) et de la pesanteur. C’est ce qu’illustre cette appliquette.

Le modèle simplifié sur lequel s’appuie cette appliquette est décrit en partie dans la section activité éolienne. Pour plus de détails se référer à : « Planetary Surface Processes » de H. Jay Melosh, Cambridge University Press, 2011.

A vous de jouer en essayant de répondre aux questions ci-dessous.

Mise en mouvement des sédiments sur Vénus, la Terre, Mars et Titan application.png

Les caractéristiques (densité, viscosité) des fluides (atmosphères, liquides) présents à la surface de Vénus, la Terre, Mars et Titan sont donnés ici. Rappelons que la composition des sédiments varie d’un corps planétaire à l’autre : du quartz (2650 kg/m^3 ) sur Terre, du basalte (2900 kg/m^3) sur Vénus et Mars et de la glace d’eau (992 kg/m^3 à 92 K) et/ou de la matière organique (1500 kg/m^3) sur Titan.

Auteur: Alice Le Gall

exerciceQuestions

Question 1)

Testez l’appliquette pour un cas quelconque et expliquez la courbe obtenue et notamment les 2 régimes qui se dégagent.

Question 2)

Sur quel objet planétaire le transport des particules sédimentaires par le vent est-il le plus facile ? Classez les planètes par ordre de facilité du transport éolien et expliquez.

Question 3)

Toutes ces planètes présentent des dunes à leur surface, sur laquelle les grains constituant ces dunes sont sans doute les plus fins ?

Question 4)

Trouvez la combinaison Planète-Atmosphère-Sédiments pour laquelle l’entrainement de la matière sédimentaire à la surface requiert les vents les plus faibles.

Question 5)

La taille typique des grains constituant les dunes sur Terre est de l’ordre de 200 μm. Commentez.

Question 6)

Comparez la mise en mouvement d’un grain à la surface par le vent à celle d’un grain situé au fond d’une rivière sur Terre. Expliquez.

Question 7)

Même question pour Titan. Notez que la composition des sédiments sur Titan n’est pas encore bien identifiée. Il pourrait s’agir de matière organique, de glace d’eau ou d’un mélange de ces composés. L’agent liquide est le méthane liquide.

Question 8)

Comparez le transport fluvial sur Titan à celui sur Terre.

Question 9)

Dans le passé, de l’eau liquide coulait sans doute à la sa surface de Mars. Comparez l’activité paléo-fluviale de Mars à celle présente de la Terre. Que se passe-t-il pour les grains les plus petits ?

Question 10)

Quelle doit être la vitesse minimum du vent à 1 m du sol pour la mise en mouvement de grains à la surface de Mars. Qu’en déduisez vous ?


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Structure thermique des atmosphères planétaires

Auteur: Emmanuel Marcq

Structure thermique des atmosphères planétaires

Dans cette partie, nous verrons comment s'établit la structure thermique dans les couches externes fluides (principalement gazeuses, ce que l'on appelle les atmosphères) des planètes, ainsi que les conséquences de l'existence d'une telle structure.

prerequisPrérequis

Il est possible de parcourir la partie Découvrir avec un simple bagage de Terminale scientifique ou d'amateur de vulgarisation scientifique. En revanche, la bonne compréhension des phénomènes en jeu et la capacité à calculer même approximativement les conditions moyennes au sein d'une atmosphère planétaire exigent un bagage en physique générale niveau licence, à savoir plus précisément :

[Cliquer ici pour commencer le cours]


Découvrir

Auteur: EM

Introduction

Auteur: EM

Importance du profil de température

Conditions à la surface

L'observation de la seule biosphère connue à jour (celle de la Terre) conduit les exobiologistes à poser comme nécessaire la présence d'eau liquide (ou au moins d'un liquide aux propriétés analogues comme l'ammoniac) à la surface d'une planète pour qu'une chimie prébiotique complexe, puis une activité biologique au sens propre, puisse s'y développer. Si bien que la notion d'habitabilité planétaire est de nos jours quasiment devenue un synonyme de présence possible d'eau liquide.

Or, si la disponibilité de l'eau dans l'Univers ne fait guère de doutes (la molécule H2O étant l'une des plus répandues), la question de son apport sur les planètes telluriques fait encore l'objet de débats. Surtout, la permanence de son état liquide est encore plus difficile à obtenir, et nécessite une fourchette de conditions de pression et de température bien particulières (ainsi, à la pression atmosphérique terrestre, doit-on se trouver entre 0°C et 100°C pour que l'eau puisse demeurer liquide). Les conditions de pression et de température au sein des atmosphères planétaires de leur sommet jusqu'à l'éventuelle surface constituent donc l'un des facteurs essentiels conditionnant les phénomènes pouvant s'y dérouler (qu'ils soient de nature biologique, ou plus simplement chimique ou météorologique).

Classification des atmosphères planétaires
forget_leconte.png
Typologie des atmosphères planétaires en fonction de la température (abscisse) et de la masse de la planète (ordonnée). Les atmosphères habitables correspondent à la zone centrale, où l'eau peut se trouver sous forme de glace, de vapeur et, de façon cruciale, liquide.
Crédit : Tiré de Forget & Leconte (2013)

Observables à distance

Une autre question cruciale est celle de la détectabilité de telles planètes dans notre voisinage galactique. Le seul moyen envisageable pour caractériser ces planètes consiste en l'étude spectroscopique (c'est-à-dire, décomposé selon ses différentes "couleurs") du rayonnement qui nous parvient. Ce rayonnement peut nous parvenir principalement par deux processus physiques distincts :


Transports d'énergie au sein des atmosphères

Il existe trois modes de transport de la chaleur au sein des atmosphères planétaires, qui déterminent les variations de température au sein de ces atmosphères :

Illustration des modes de transport de la chaleur
ConvetionConductionRadiation.jpg
Dans cette situation de la vie quotidienne, les trois modes de transport de l'énergie sont illustrés : la chaleur (énergie thermique) voyage au sein du liquide par des mouvement de convection, la casserole est chauffée radiativement par la plaque et le manche métallique est un bon conducteur de chaleur vers la main.

Grandeurs fondamentales

Auteur: EM

Échelle de hauteur

definitionDéfinition et intérêt

Une des plus importantes caractéristiques des atmosphères planétaires est leur épaisseur verticale. En toute rigueur, leur densité décroît continûment avec l'altitude jusqu'à rejoindre celle du milieu interplanétaire, si bien qu'il est difficile de leur attribuer une épaisseur bien définie. On peut néanmoins caractériser la rapidité avec laquelle cette densité décroît avec l'altitude (atmosphère plus ou moins bien "tassée" verticalement). Cela définit ce que l'on appelle l'échelle de hauteur atmosphérique, qui représente la différence d'altitude entraînant une division de la pression atmosphérique (liée à la densité) par un facteur constant (e \approx 2.718). Le lecteur intéressé par une définition quantitative pourra se reporter ici.

Facteurs influant sur l'échelle de hauteur

Cette échelle de hauteur est le résultat du compromis entre deux phénomènes physiques : la gravitation qui tend à tasser les molécules de l'atmosphère vers le bas, et l'agitation thermique des molécules qui tend à les disperser dans tout l'espace, y compris vers le haut. À ce titre, et toutes choses égales par ailleurs, l'échelle de hauteur atmosphérique est :

Échelles de hauteur des atmosphères du système solaire
Planète (ou satellite)VénusTerreMarsJupiterIoSaturneTitanUranusNeptuneTritonPluton
Échelle de hauteur (en km)168,411257,9482127221418

Dans le système solaire, les valeurs extrêmes vont de 8\,\mathrm{km} pour la Terre à environ 50\,\mathrm{km} pour Saturne. Ces valeurs sont en général très petites devant le rayon de la planète, si bien que l'on peut négliger la courbure de la planète et considérer l'atmosphère comme une succession de couches planes empilées de bas en haut. C'est ce que l'on appelle l'approximation plan-parallèle.

Détermination graphique de l'échelle de hauteur
scale_height.png
Lecture graphique de l'échelle de hauteur atmosphérique. Sur le profil de pression standard de l'atmosphère terrestre, on repère l'altitude H à laquelle la pression est divisée par le nombre e (environ 2,718). Cette altitude définit l'échelle de hauteur au niveau de la surface, proche ici de 8\,\mathrm{km}.
Crédit : Emmanuel Marcq

Gradient adiabatique

definitionDéfinition

Là où la convection est le mode de transport dominant d'énergie dans une atmosphère, on constate une décroissance régulière de la température avec l'altitude selon un coefficient (en °C/km ou K/km) appelé gradient adiabatique. En effet, si l'on considère une masse de gaz au cours de son transport dans un courant de convection vertical, celle-ci devra lutter contre la pesanteur et donc fournir de l'énergie pour ce faire. Or, le seul "réservoir" d'énergie d'un gaz parfait réside dans sa capacité calorifique. Il y aura donc une conversion partielle de son énergie thermique (en fait, de son enthalpie puisqu'on y inclut le travail des forces de pression) vers de l'énergie potentielle de pesanteur, et donc une baisse de la température de la parcelle d'air d'autant plus grande que celle-ci aura acquis davantage d'altitude (voir ici pour la démonstration). Si une région de l'atmosphère est soumise à cette circulation et en négligeant les autres modes de transport d'énergie, la température y décroît alors avec l'altitude en suivant ce gradient adiabatique.

Gradient adiabatique humide

En pratique cependant, les atmosphères planétaires ne sont pas constituées que de gaz parfaits, mais comportent des gaz en équilibre avec leur propre phase condensée (liquide ou solide). C'est le cas par exemple sur Terre de la vapeur d'eau qui constitue une proportion variable de l'atmosphère terrestre et se trouve parfois en équilibre avec des gouttes d'eau liquide ou des cristaux de glace d'eau. Ou encore de Titan où c'est le méthane gazeux qui se trouve parfois au contact de gouttes de méthane liquide. En ce cas, il existe un réservoir d'énergie supplémentaire pour une parcelle d'atmosphère en mouvement ascendant, à savoir l'énergie libérée par le gaz condensable lorsqu'il se convertit en gouttelettes liquides ou en cristaux solides, ce que l'on appelle la chaleur latente de condensation. Ce réservoir supplémentaire d'énergie limite alors la baisse de température avec l'altitude vers une valeur plus faible. On parle alors de gradient adiabatique humide, que l'on distingue du gradient adiabatique sec en l'absence de condensation.

Troposphère

La couche atmosphérique où la convection est le mode dominant de transport d'énergie s'appelle la troposphère, caractérisée par la décroissance en température décrite ci-dessus. C'est la couche atmosphérique la plus profonde, au contact de la surface pour les planètes telluriques. Au-dessus de la troposphère, les densités plus faibles rendent le transport d'énergie par rayonnement comparativement plus efficace que la convection, car le milieu dilué devient davantage transparent au rayonnement thermique.

Comparaison des profils thermiques de la Terre et de Titan
ETilayers.jpg
Comparaison des profils thermiques des atmosphères de la Terre et de Titan (un satellite de Saturne). On y constate que le profil thermique y suit une pente constante entre la surface et 10 km d'altitude pour la Terre et 30 km pour Titan, ce qui définit l'étendue verticale de la troposphère pour les deux atmosphères. Ces pentes correspondant aux gradients adiabatiques, plus fort sur Terre que sur Titan car la gravité terrestre est plus forte.
Crédit : LASP, Université du Colorado

Modèle du corps noir

definitionDéfinition

Le corps noir est un objet physique idéal qui absorbe tout le rayonnement électromagnétique qu'il reçoit (sa réflectivité est donc nulle à toutes les longueurs d'onde).

Propriétés

La propriété fondamentale du corps noir est que l'intégralité du rayonnement électromagnétique en provenance de cet objet est d'origine thermique. Le spectre de ce rayonnement ne dépend alors que de la température du corps noir en question. En particulier :

Corps noirs approchés

Certains objets réels sont de bonnes approximations du corps noir idéal, du moins sur certains intervalles de longueur d'onde et dès que le rayonnement réfléchi y est négligeable devant l'émission thermique et en l'absence de processus d'émission autres que thermiques. C'est par exemple le cas de la plupart des objets du quotidien dans le domaine infrarouge moyen (pour les longueurs d'onde autour de 10\,\mathrm{\mu m}.), ou encore des étoiles dans le domaine visible.

Spectres de corps noir
cn.png
Représentation des spectres thermiques émis par divers corps noir de température variable. Notez les échelles logarithmiques utilisées sur chacun des axes, nécessaires pour bien représenter les longueurs d'onde du pic et puissances spectrales, toutes deux très différentes selon la température.
Crédit : Astrophysique sur Mesure

Domaines visibles et infrarouge thermique

Il est d'usage de distinguer deux intervalles spectraux différents lorsque les planètes ont une température notablement plus faible que leur étoile (ce qui est toujours le cas dans le système solaire, mais pas toujours pour les planètes extrasolaires !).


Température d'équilibre

definitionDéfinition

La température d'équilibre d'une planète est la température théorique de sa surface (si on suppose cette température uniforme) en l'absence d'atmosphère. C'est une grandeur théorique qui n'a pas vocation à être mesurée, contrairement à la température effective.

Bilan de rayonnement

La température d'équilibre se détermine à partir d'un simple bilan de rayonnement (visible et thermique). Cela revient à négliger les autres sources d'énergie que le rayonnement de l'étoile hôte (le Soleil pour la Terre par exemple) : géothermie, réactions chimiques ou nucléaires, transitions de phase, etc. Sont pris en compte :

La température de surface influe ici sur le rayonnement thermique. Elle est égale à la température d'équilibre lorsque le bilan est équilibré, à savoir : Puissance lumineuse reçue = Puissance lumineuse réfléchie + Puissance rayonnée thermiquement, ce qui est équivalent à Puissance lumineuse absorbée = Puissance rayonnée thermiquement.

Détermination de la température d'équilibre
teq.png
Bilan de puissance pour une planète sans atmosphère : le flux reçu de l'étoile équilibre la somme du flux réfléchi par la planète et du flux rayonné thermiquement (en rouge), qui dépend fortement de la température de la planète. Ce bilan peut donc servir à déterminer cette température, appelée température d'équilibre.
Crédit : Emmanuel Marcq

Influence des différents paramètres

Une remarque importante est que cette définition repose sur l'hypothèse irréaliste d'une température de surface homogène sur l'ensemble de la planète, donc avec une redistribution parfaite de l'énergie. Cette température est donc un outil théorique plus qu'une température physiquement mesurable. Le lecteur intéressé par une approche plus quantitative (mais identique conceptuellement) pourra se reporter ici.


Température effective

definitionDéfinition

La température effective est une mesure de la puissance émise thermiquement par une planète. Elle se définit comme la température du corps noir (idéal) émettant la même puissance totale (en comptant toutes les longueurs d'onde) que la planète par unité de surface. Contrairement à la température d'équilibre, c'est une grandeur expérimentalement mesurable.

Comparaison entre température effective et température d'équilibre

Nous connaissons assez bien le système solaire pour pouvoir mesurer les températures effectives des planètes et les comparer aux températures d'équilibre théoriques. Le résultat est résumé sur le tableau ci-dessous :

Températures caractéristiques dans le système solaire
Planète (ou satellite)MercureVénusTerreLuneMarsJupiterSaturneTitanUranusNeptune
Température d'équilibre (°C)161-42-19-2-63-163-192-191-215-227
Température effective (°C)161-42-19-2-63-149-178-191-214-214
Température moyenne de surface (°C)16146215-2-58N/AN/A-179N/AN/A

Pour la plupart des planètes extrasolaires (hormis les plus grosses et les plus chaudes), seule la température d'équilibre peut être estimée (en supposant un albédo donné par un modèle théorique). Les ordres de grandeur de ces deux températures sont comparables lorsque la source d'énergie principale de l'atmosphère est le rayonnement de l'étoile hôte, comme c'est le cas dans le système solaire. Pour les planètes telluriques (et le satellite de Saturne Titan), ces deux températures sont mêmes égales car les sources d'énergie interne à la planète ont un effet négligeable sur l'atmosphère, ce qui n'est pas le cas pour les géantes gazeuses.

Comparaison entre température effective et température de surface

On constate également sur le tableau précédent que pour les corps possédant une surface solide, la température moyenne de la surface est toujours au moins égale à la température effective (égale pour un corps sans atmosphère comme la Lune ou bien Mercure, supérieure pour ceux possédant une atmosphère). Ce phénomène est appelé effet de serre et sera expliqué plus en détail à la page suivante.


Effet de serre

introductionOrigine

Le phénomène essentiel à l'origine de l'effet de serre au sein d'une atmosphère réside dans la différence d'absorption des rayonnements infrarouge thermique (en provenance de la planète) et visible/UV (en provenance de l'étoile) par les constituants de l'atmosphère. Les constituants gazeux d'une atmosphère (en excluant les particules solides ou liquide en suspension comme les poussières ou les cristaux et gouttelettes des nuages) sont en général transparents pour la lumière visible émise par leur étoile. En revanche, certains de ces gaz (comme la vapeur d'eau H2O, le dioxyde de carbone CO2 ou encore le méthane CH4) absorbent très bien le rayonnement infrarouge d'origine thermique émis par la planète.

Mécanisme

Cette différence d'absorption entre les rayonnements conduit à une séparation entre les régions :

Or, le bilan d'énergie de la planète impose que ce soit la couche rayonnant vers l'espace qui soit à la température effective permettant un équilibre entre la puissance reçue et celle absorbée. Il faut donc que l'énergie absorbée en profondeur puisse être transportée jusqu'à cette altitude de rayonnement. Comme l'atmosphère profonde située entre ces deux niveaux est opaque aux infrarouges, le rayonnement n'est pas le mode le plus efficace de transport, et c'est la convection qui prend le relais. Cette atmosphère profonde, s'étendant depuis l'altitude d'émission infrarouge jusqu'en bas (surface ou intérieur planétaire pour les géantes) n'est autre que la troposphère définie précédemment. Afin que ce transport d'énergie par convection puisse avoir lieu, il faut que la température de surface soit plus élevée que celle au sommet de la troposphère selon le gradient adiabatique. La température au sommet de la troposphère étant égale à la température effective, la température de surface est en conséquence plus élevée, ce qui est la définition même de l'effet de serre.

Effet de serre et profil thermique
radconv.png
Effet de serre modéré (à gauche) et intense (à droite). L'augmentation de l'opacité infrarouge de l'atmosphère (à droite) force le rayonnement thermique à provenir de couches plus élevées (à partir du pointillé rouge). La troposphère, zone où la convection assure le transport d'énergie vers le haut (flèches blanches) et où le profil de température est linéaire, s'étend donc plus profondément. Cela conduit à une température de surface plus élevée : l'effet de serre a augmenté (mais le profil de température dans la zone supérieure radiative reste inchangé ! Le bilan radiatif global et donc la température effective restent identiques.)
Crédit : Emmanuel Marcq

Couches atmosphériques supérieures

Ce sont les couches atmosphériques situées au-dessus de la troposphère, où la convection joue un rôle négligeable.

definitionMésosphère

La couche atmosphérique située au-dessus de la troposphère est (en général, voir page suivante) appelée mésosphère. Le transport d'énergie s'y fait exclusivement par rayonnement. La température y décroît avec l'altitude en tendant vers une valeur appelée température de peau atmosphérique. Cette décroissance s'y effectue de façon beaucoup plus modérée que dans la troposphère située en dessous et soumise au gradient adiabatique.

definitionThermosphère

Au sommet de la mésosphère, l'atmosphère devient complètement transparente à tous les rayonnements (les rayonnements visible ou IR thermique ne peuvent donc y déposer leur énergie) et extrêmement ténue (la convection est donc inefficace). Le transport d'énergie y est donc assuré faute de mieux par des processus de conduction qui sont eux-mêmes très inefficaces à grande distance. Cette zone connaît donc d'énormes contrastes de température verticaux et horizontaux car l'énergie qui y est déposée par les particules énergétiques de l'espace interplanétaire ou les rayonnements X et γ de l'étoile s'évacue très difficilement, ce qui conduit à l'appellation de thermosphère. La température y décroît avec l'altitude, comme montré plus en détail ici.

definitionStratosphère

Certaines atmosphères planétaires possèdent une couche supplémentaire appelée stratosphère située entre la troposphère et la mésosphère. Cette couche est une couche radiative (la convection n'y joue aucun rôle dans le transport vertical de la chaleur) et connaît une inversion de température : la température y croît avec l'altitude ! Cette inversion est causée par une absorption partielle de la lumière et/ou des UV stellaires assez haut dans l'atmosphère, si bien que cette énergie ne peut pas s'évacuer par convection et seulement difficilement par radiation. Il se crée alors une anomalie chaude qui déforme le profil de température, allant jusqu'à l'inversion de température.

Dans le système solaire, Vénus et Mars ne possèdent pas de stratosphère (ces atmosphères principalement constituées de CO2 rayonnent très efficacement en infrarouge le peu de puissance absorbé à haute altitude, si bien que les anomalies de températures n'altèrent pas la forme du profil thermique). La Terre en possède une, causée par l'absorption des UV solaires par l'ozone (O3), sous-produit du dioxygène (O2) d'origine biologique. Les planètes géantes en possèdent également (causée par des composés hydrocarbonés absorbant les UV) ainsi que Titan (par absorption des UV solaires sur les particules du brouillard photochimique produit dans la haute atmosphère).

Profils thermiques des trois atmosphères telluriques du système solaire
EVMgreenhouseT.jpg
Profils thermiques de Mars, Vénus et de la Terre. Les profils thermiques des atmosphères de Mars et de Vénus ne comportent pas de stratosphère, tandis que l'atmosphère terrestre en comporte une, située d'après ce graphique entre 10 et 50 km d'altitude.
Crédit : Laboratory for Atmospheric and Space Physics, traduit et adapté par E. Marcq

Comprendre

Auteur: EM

Sans atmosphère

Auteur: EM

Lois du corps noir

Nous allons à présent aborder les lois quantitatives permettant de modéliser simplement les profils verticaux de température au sein des atmosphères planétaires. Cela nécessite quelques rappels sur le rayonnement thermique, dit de "corps noir".

definitionSpectre du corps noir

L'intensité lumineuse B_{\lambda}(T), définie comme la puissance émise par unité de surface émettrice, par angle solide autour de la direction du rayon et par unité de longueur d'onde \lambda émise par tout corps noir idéal de température T, est donnée par la loi de Planck :

\[ B_{\lambda}(T) = \frac{2 h c^2}{\lambda ^5} \frac{1}{\exp \left( \frac{hc}{\lambda kT} \right) -1} \]

h, c et k désignent respectivement les constantes fondamentales de Planck, de la vitesse de la lumière et de Maxwell-Boltzmann. Cette fonction possède des propriétés mathématiques aux conséquences importantes pour la suite du cours.

definitionLoi de Wien

Elle donne la position du maximum en \lambda de B_{\lambda}(T) à température T donnée, comme illustré précédemment.

\lambda_{\mathrm{max}} \approx \frac{hc}{2,821\;k T} \approx \frac{2898\,\mathrm{\mu m \cdot K}}{T }

Autrement dit, plus le corps est chaud, et plus il émet principalement à des longueurs d'ondes courtes et ce de façon inversement proportionnelle. Cela justifie la séparation du spectre lumineux en :

La séparation entre les deux domaines est prise de façon conventionnelle autour de 5\,\mu\mathrm{m}. Dans le contexte exoplanétaire, une remarque importante s'impose dès maintenant : la plupart des exoplanètes actuellement connues sont extrêmement chaudes, avec des températures excédant souvent 1000\,\mathrm{K}, si bien que la limite entre infrarouge thermique et lumière stellaire est décalée vers de plus courtes longueurs d'onde, voire devient complètement dénuée de sens. Cela empêche notamment d'appliquer tels quels les modèles atmosphériques conçus dans le système solaire qui distinguent ces deux catégories.

definitionLoi de Stefan

Lorsque l'on ne s'intéresse pas au détail du spectre émis par le corps noir, il est souvent intéressant de calculer le flux (c'est à dire la puissance par unité de surface émettrice) total émis par le corps noir dans un demi-espace (par exemple, pour une surface planétaire, vers le haut). Pour cela, il suffit d'intégrer la loi de Planck sur sa variable spectrale \lambda, et sur les 2\pi\,\mathrm{sr} d'angle solide en question. Le calcul donne alors le résultat suivant, connu sous le nom de loi de Stefan-Boltzmann :

\[ F = \sigma T^4 \]

\sigma = \frac{2\pi^5 k^4}{15h^3c^2} \approx 5.67 \times 10^{-8}\,\mathrm{W/m^2/K^4} est connu sous le nom de constante de Stefan-Boltzmann. La puissance émise par un corps noir dépend donc énormément de sa température (une augmentation relative de 1\% de sa température entraîne ainsi une augmentation d'environ 4\% du flux émis).


Loi de Kirchhoff

definitionÉmissivité

Le corps noir est un modèle abstrait que l'on ne rencontre pas dans la vie courante. Le spectre thermique S_{\lambda}(T) émis par un corps donné se trouvant à l'équilibre thermodynamique à la température T peut alors s'exprimer comme S_{\lambda}(T) = \varepsilon_{\lambda}\times  B_{\lambda}(T)\varepsilon_{\lambda} est une grandeur sans dimension appelée émissivité (qui dépend de la température, mais de façon moins marquée que la fonction de Planck B_{\lambda}(T) si bien que par souci d'alléger les notations, on ne la note pas en général \varepsilon_{\lambda}(T) comme on le devrait en toute rigueur).

definitionLoi de Kirchhoff

Considérons un corps noir en contact radiatif avec un corps réel à travers un filtre laissant seulement passer les radiations à la longueur d'onde \lambda. On sait qu'une fois l'équilibre thermodynamique atteint, ces deux corps en contact radiatif auront la même température T. Si l'on note a_{\lambda} la fraction du rayonnement incident absorbée par le corps réel, que l'on appelle absorbance, il en renvoie la fraction complémentaire \left( 1 - a_{\lambda} \right). Un bilan net des flux (nul à l'équilibre) à travers le filtre donne alors la relation B_{\lambda}(T) = \varepsilon_{\lambda} B_{\lambda}(T) + \left(1 - a_{\lambda} \right) B_{\lambda} (T), ce qui se simplifie en a_{\lambda} = \varepsilon_{\lambda}. C'est la loi de Kirchhoff, que L'on résume souvent en "les bons absorbeurs sont les bons émetteurs".

Illustration de la loi de Kirchhoff
kirchhoff.png
Crédit : EM

conclusionConséquences


Température d'équilibre sans atmosphère

Cette page développe de façon quantitative les notions vues de façon qualitative ici.

demonstrationDétermination du flux incident sur la planète

demonstrationBilan de puissance

demonstrationExpression de la température d'équilibre

Le bilan radiatif à l'équilibre imposant l'égalité entre la puissance rayonnée par la planète et la puissance absorbée par la planète, on obtient alors l'équation suivante :

\[ \pi R^2 \left(1 - A \right) F = 4 \pi R^2 \sigma {T_{\mathrm{eq}}^4 \]

qui se résout directement, après simplification du rayon R de la planète (ce qui signifie qu'en première approximation, la température d'une planète ne dépend pas de sa taille) en :

T_{\mathrm{eq}} = \left[ \frac{\left(1 - A\right) F}{4 \sigma} \right]^{1/4} = \sqrt{\frac{R_*}{d}} \left( \frac{1-A}{4} \right)^{1/4} T_*

ce qui permet de constater que cette température décroît avec la distance à l'étoile, et est proportionnelle à celle de l'étoile. Ainsi, toutes choses égales par ailleurs, pour une étoile naine rouge d'une température moitié de celle du Soleil, il faut pour conserver une température d'équilibre donnée se rapprocher de l'étoile d'un facteur quatre : on peut d'ores et déjà affirmer que les zones habitables autour des petites étoiles de faible température (naines rouges) sont très proches de ces dernières. Notons au passage que la température d'équilibre d'une planète est bornée par celle de son étoile, plus précisément comprise entre 0\,\mathrm{K} (à très grande distance) et 0,7 \times T_* à la limite où l'orbite de la planète est tangente à son étoile (et la planète de rayon négligeable devant l'étoile).


Structure verticale des atmosphères

Auteur: EM

Atmosphère isotherme

demonstrationÉquation hydrostatique en géométrie plan-parallèle

Cette équation relie l'augmentation de la pression en descendant avec la masse volumique locale (autrement dit, elle exprime le fait que l'origine physique de la pression au sein des atmosphères est le poids de la colonne de gaz située à la verticale). La différence de pression dP entre le haut et le bas d'une couche d'épaisseur dz (la direction verticale étant bien définie en géométrie plan-parallèle) dépend donc de la masse contenue dans un volume de section horizontale S et d'épaisseur dz, d'où, par équilibre des forces verticales s'exerçant sur ce volume -S P(z+dz) + S P(z) = \rho dV g = \rho g S dz

Équilibre hydrostatique
hydrostat.png
Schéma des forces appliquées à une tranche d'air à l'équilibre.
Crédit : Emmanuel Marcq

Une simplification par S fait donc apparaître dP = - \rho g dz : la pression décroît bien avec l'altitude, selon la masse volumique et la gravité locales.

definitionReformulation de l'équation d'état du gaz parfait

La forme habituelle de cette équation PV = nRT, où R \approx 8,314\,\mathrm{J/mol/K} désigne la constante des gaz parfaits, P la pression, V le volume occupé, n le nombre de moles et T la température n'est pas vraiment adaptée à une formulation locale (intensive, dirait-on en thermodynamique). Il vaut mieux la présenter sous la forme P = \frac{n}{V} RT, où l'on voit apparaître la densité molaire (homogène à des \mathrm{mol/m^3}) locale. Or, cette grandeur est proportionnelle à la masse volumique selon la relation \frac{n}{V} = \frac{\rho}{M}M désigne la masse molaire. Il est alors possible d'exprimer la masse volumique du gaz parfait en fonction des conditions de pression et température locales, ainsi que de la masse molaire du gaz constituant : \rho = \frac{MP}{RT}.

demonstrationÉchelle de hauteur

On suppose ici que l'atmosphère est constituée d'un gaz parfait de masse molaire M, et que l'atmosphère est de surcroît isotherme à la température T selon l'altitude. L'utilisation de l'équation d'état du gaz parfait au sein de l'équilibre hydrostatique donne, par substitution de \rho, \frac{dP}{P} = - \frac{dz}{H} avec H = \frac{RT}{Mg} désignant une grandeur homogène à une altitude. On l'appelle échelle de hauteur, et son interprétation est plus claire en intégrant l'équation différentielle où elle apparaît, avec la condition à la limite inférieure P(z=0) = P_0 :

\[ P(z) = P_0 \exp \left( - \frac{z}{H} \right)

L'échelle de hauteur H représente donc la hauteur caractéristique avec laquelle la pression décroît avec l'altitude pour tendre vers 0 dans l'espace interplanétaire à grande distance de la planète (mais l'approximation plan-parallèle, ainsi que la thermodynamique usuelle à l'équilibre cessent d'être valides à quelques dizaines d'échelles de hauteur au-dessus de la surface).

Dans le cas d'une atmosphère non isotherme, la résolution formelle est un peu plus complexe, mais l'idée générale d'une décroissance localement exponentielle selon une échelle de hauteur locale dépendant de la température locale reste valable.

Autre interprétation de l'échelle de hauteur

On peut reformuler la constante des gaz parfaits selon R = k \mathcal{N}k désigne la constante de Maxwell-Boltzmann et \mathcal{N} la constante d'Avogadro, puis simplifier dans l'expression de H. On obtient alors mgH =  kTm = M/\mathcal{N} désigne la masse d'une molécule de gaz : une molécule de gaz à la hauteur caractéristique possède donc une énergie potentielle de pesanteur du même ordre que son énergie cinétique microscopique (thermique) moyenne. On comprend donc bien pourquoi H représente le compromis entre l'agitation thermique qui tend à disperser les atmosphères (H est croissant avec T), et le poids qui a tendance à tasser les atmosphères vers le bas : H décroît avec m (atmosphère dense) et g (gravité forte).


Effet de serre

prerequisCadre du modèle

Dans un modèle purement radiatif d'une colonne d'atmosphère (sans convection ni conduction), il est relativement facile d'estimer l'effet de serre causé par une atmosphère (transparente en lumière visible et partiellement opaque au rayonnement infrarouge thermique) entourant une planète tellurique.

On supposera que la surface possède une émissivité égale à 1 en infrarouge thermique, et que celle de l'atmosphère (directement reliée à son absorbance via la loi de Kirchhoff) est prise constante et égale à \varepsilon_a dans tout le domaine infrarouge thermique (c'est ce que l'on appelle l'approximation grise). L'atmosphère est considérée ici isotherme à la température T_a. On négligera aussi les flux d'énergie éventuels provenant de l'intérieur de la planète, et on supposera que l'étoile émet de façon négligeable dans l'infrarouge thermique, situé loin de son maximum d'émission dans le visible (ou le proche IR pour les plus froides d'entre elles).

Bilans de flux

Représentation des flux rayonnants
gh1.png
Représentation schématique des flux (bleu pour le domaine stellaire visible-UV-proche IR, rouge pour le domaine infrarouge thermique).
Crédit : Emmanuel Marcq

La situation est très simple pour les flux stellaires. \bar{F} désigne le flux moyen à la surface de la planète, qui se déduit du flux à incidence normale appelé constante solaire (ou stellaire) par l'égalité des puissances : \pi R^2 F = 4 \pi R^2 \bar{F} (voir le raisonnement définissant la température d'équilibre pour plus de détails, R désigne ici le rayon planétaire). On en déduit immédiatement \bar{F} = F/4 : un facteur 2 s'explique aisément par le fait que seul un hémisphère est éclairé, et l'autre facteur 2 par la moyenne du cosinus de l'angle d'incidence intervenant dans le calcul local du flux.

En vertu de la définition de l'émissivité, l'atmosphère rayonne donc \varepsilon_a \sigma {T_a}^4 dans chacun des demi-espaces inférieur (vers la surface) et supérieur (vers l'espace). En vertu de la loi de Kirchhoff, cette émissivité est égale à son absorbance, si bien que la fraction complémentaire \left( 1 - \varepsilon_a \right) du rayonnement en provenance de la surface (considérée comme un corps noir) réussit à la traverser, le reste étant absorbé (on néglige les processus de diffusion ici ; seules les émissions et absorptions sont prises en compte).

Le bilan des flux à la surface donne alors à l'équilibre radiatif (synonyme d'égalité entre la somme des flux entrants et la somme des flux sortants) : \bar{F} + \varepsilon_a \sigma {T_a}^4 = A \bar{F} + \sigma {T_{\mathrm{surf}}}^4, tandis que celui au niveau de la couche atmosphérique donne \sigma {T_{\mathrm{surf}}}^4 = \left(1 - \varepsilon_a \right) \sigma {T_{\mathrm{surf}}}^4 + 2 \sigma \varepsilon_a {T_a}^4. Nous avons donc deux équations pour les deux inconnues T_a et T_{\mathrm{surf}}, et la résolution du système donne alors : T_{\mathrm{surf}} = \left( \frac{2}{2 - \varepsilon_a} \right)^{1/4} T_{\mathrm{eq}} et T_a = \left( \frac{1}{2 - \varepsilon_a} \right)^{1/4} T_{\mathrm{eq}} où l'on aura reconnu la température d'équilibre T_{\mathrm{eq}} = \left[\frac{(1-A) F}{4 \sigma} \right]^{1/4} =  \left[\frac{(1-A) \bar{F}}{\sigma} \right]^{1/4} définie précédemment.

conclusionDiscussion


Effet de serre : modèles plus complexes

introductionLimite du modèle à une seule couche

Le modèle vu précédemment a l'inconvénient de ne pas pouvoir excéder une augmentation de température à la surface de 19\,\%. Ceci est insuffisant dans le cas des atmosphères très épaisses comme celle de Vénus, où le rapport T_{\mathrm{surf}}/T_{\mathrm{eq}} excède 320\,\% ! Cela signifie que de telles atmosphères ne peuvent se modéliser par une unique couche isotherme, même totalement absorbante aux rayons infrarouges. Il existe différents modèles plus complexes permettant de mieux rendre compte des effets de serre intenses.

Modèles à plusieurs couches

Une première idée est d'ajouter, au-dessus de la première couche atmosphérique complètement opaque au rayonnement thermique de la planète, une ou plusieurs couches (la dernière couche immédiatement avant l'espace pouvant être partiellement transparente). Ces différentes couches atmosphériques peuvent alors chacune adopter des températures différentes, et former ainsi un profil de température décroissant avec l'altitude. Il faut ainsi environ une centaine de couches opaques pour rendre compte de la température de surface de Vénus.

L'étude d'un modèle à deux couches atmosphériques fait l'objet du mini-projet associé à ce chapitre.

Modèles radiatifs continus

Une vision plus réaliste mais ne faisant toujours intervenir que des échanges d'énergie par rayonnement consiste à découper l'atmosphère en un mille-feuille constitué d'une infinité de couches atmosphériques infiniment fines (d'un point de vue radiatif). En restant dans l'approximation grise en infrarouge thermique et transparente en lumière visible, il est même possible (mais hors-programme au niveau licence) de démontrer l'expression du profil de température en fonction de la profondeur optique \tau en infrarouge thermique : T^4(\tau) = \frac{{T_{\mathrm{eq}}}^4}{2} \left( 1 + \frac{3}{2} \tau \right). Notons que dans ce modèle, on obtient T_{\mathrm{surf}}^4 = {T_{\mathrm{eq}}}^4 \left(1 + \frac{3}{4} \tau_{\mathrm{surf}} \right) > T^4 \left( \tau_{\mathrm{surf}} \right) : le seul équilibre radiatif tend à créer une discontinuité de température au niveau de la surface, ce qui déclencherait alors des processus de convection pour y remédier. Un tel contraste thermique est néanmoins observable à la surface des planètes telluriques éclairées par le Soleil, comme une plage sur Terre par beau temps (le sable peut alors être brûlant et l'air frais), ou mieux encore dans les déserts de Mars.

Néanmoins, dans les atmosphères épaisses ou pour expliquer l'existence des stratosphères, l'absorption de la lumière stellaire par l'atmosphère doit être prise en compte (par exemple, seuls quelques pourcents de la lumière solaire atteint directement la surface de Vénus). Des expressions analytiques deviennent alors délicates à trouver, mais des modèles numériques peuvent être utilisés pour déterminer les profils de température dans une colonne d'atmosphère (ce que l'on appelle un modèle 1D radiatif). On peut également profiter de la puissance de calcul des ordinateurs pour abandonner d'autres approximations : il est par exemple indispensable d'abandonner l'approximation grise en infrarouge thermique si l'on veut simuler le spectre du rayonnement thermique émis par la planète.


Expression des gradients adiabatiques

demonstrationGradient adiabatique sec

Lorsqu'une parcelle de gaz se déplace verticalement de façon adiabatique, sa température varie sous l'effet des variations de pression. Si l'on considère un déplacement élémentaire entre l'altitude z et z+dz d'une masse m d'un gaz de capacité calorifique à pression constante Cp, d'entropie S et de volume V à la pression P et à la température T, un bilan de son enthalpie H donne dH = m C_p dT = T dS + V dP = V dP puisque dS=0 (déplacement adiabatique). La variation de pression dP étant reliée au déplacement vertical selon la loi hydrostatique dP = - \rho g dz = -\frac{m}{V} g dz, on obtient alors dT = -\frac{g}{C_p} dz = \Gamma dz en posant \Gamma = -\frac{g}{C_p}, appelé gradient adiabatique (sec). La détente adiabatique d'une parcelle de gaz ascendante conduit donc à un refroidissement proportionnel à la différence d'altitude selon le gradient adiabatique.

Une autre façon, peut-être plus intuitive, de considérer ce phénomène est d'interpréter la relation intermédiaire obtenue mC_p dT = - mg dz : la variation d'enthalpie du gaz (son "énergie thermique" en tenant compte des forces de pression) est directement reliée à sa variation d'énergie potentielle. Faire monter une parcelle de gaz lui coûte de l'énergie potentielle, ce qui est prélevé sur l'énergie thermique interne de ce gaz en l'absence de chaleur communiquée depuis l'extérieur.

demonstrationGradient adiabatique humide

Certaines atmosphères comportent des espèces chimiques condensables. L'exemple par excellence est la vapeur d'eau sur Terre, qui peut se condenser en glace ou un eau liquide. On rencontre aussi ce cas de figure sur Titan avec cette fois le méthane, ou encore dans les atmosphères des géantes gazeuses au niveau de leurs couches nuageuses. Le bilan précédent doit alors être modifié pour tenir compte de la libération de chaleur latente causée par le changement d'état qui peut arriver lorsque l'espèce condensable est saturée.

Le nouveau bilan d'enthalpie est alors donné par dH = VdP + L dm_{\mathrm{vol}}L désigne l'enthalpie massique de condensation et dm_{\mathrm{vol}} la masse d'espèce volatile qui se condense au cours du déplacement au sein de la parcelle de gaz. On arrive alors à l'expression suivante pour le nouveau gradient adiabatique \Gamma' (dit gradient adiabatique humide) : \Gamma' = \frac{\Gamma}{1 + \frac{L}{C_p} \frac{\partial e_{\mathrm{vol}}}{\partial T}}e_{\mathrm{vol}} désigne la fraction massique du volatil au sein de la parcelle de gaz. On constate alors que \Gamma' est plus faible que \Gamma en valeur absolue : la libération de chaleur latente par liquéfaction ou condensation compense partiellement le refroidissement dû à l'ascension.

Gradients adiabatiques au sein des atmosphères du système solaire
VénusTerreMarsJupiterSaturneUranusNeptuneTitan
\Gamma \, (\mathrm{K/km})-10.5-9.8-4.5-2-0.71-0.67-0.85-1.3
\Gamma' (\mathrm{K/km})-5-0.5

Profil thermique radiatif-convectif

demonstrationNécessité du phénomène de convection

La comparaison entre le profil thermique à un instant donné et le gradient adiabatique au même endroit permet de connaître la stabilité de l'atmosphère vis-à-vis des phénomènes de convection. Supposons pour bien comprendre un profil thermique isotherme. Si un mouvement local amène une parcelle de gaz à un niveau plus élevé de façon assez rapide pour qu'aucun échange thermique n'ait lieu (par conduction ou rayonnement), celle-ci va se refroidir en suivant le gradient adiabatique, et sera donc plus froide et plus dense que ses environs immédiats. Cette parcelle aura donc tendance à retomber jusqu'à son niveau de départ, puisqu'un gaz plus froid est également plus dense toutes choses égales par ailleurs : par exemple, pour un gaz parfait, \rho = \frac{MP}{RT}. On est donc en présence d'une atmosphère stable.

À l'inverse, si le profil thermique décroît plus fortement avec l'altitude que ce qu'indique le gradient adiabatique, cette parcelle de gaz sera certes refroidie si elle est soumise à un déplacement ascendant adiabatique, mais elle se retrouvera tout de même légèrement plus chaude que l'atmosphère environnante, et donc moins dense. Elle pourra donc continuer son mouvement ascendant jusqu'à ce qu'elle rencontre une zone stable où le profil thermique décroît moins vite que le gradient adiabatique. Une telle zone où des mouvements de convection à grande échelle peuvent se développer à partir d'une petite perturbation est dite instable. L'effet à long terme de ces mouvements de convection va conduire à un mélange qui homogénéisera le profil vertical de température jusqu'à retrouver une situation marginalement stable, c'est-à-dire avec un profil thermique suivant exactement le gradient adiabatique.

Stabilité du profil thermique
adiabat.png
Sur l'image de gauche, le profil thermique décroît rapidement avec l'altitude (dégradé de couleur rouge vers bleu). Si une masse d'air (délimitée par l'ellipse pleine) est amenée de façon adiabatique à un niveau supérieur, son refroidissement adiabatique est insuffisant par rapport aux alentours et elle reste plus chaude que ses environs. Elle peut alors continuer à monter, le profil thermique est instable. Sur l'image de droite, le profil thermique décroît très lentement avec l'altitude. La même masse d'air montant alors plus haut se retrouve plus froide que ses environs, et retombe alors à son niveau de départ. Le profil thermique est convectivement stable.
Crédit : Emmanuel Marcq

Troposphère

Les profils thermiques purement radiatifs tels que ceux modélisés ici ont tendance à voir leur pente \frac{dT}{dz} = \frac{dT}{d\tau} \times \frac{d\tau}{dz} croître en valeur absolue à mesure que la profondeur optique infrarouge \tau croît en s'enfonçant dans l'atmosphère profonde. Sous couvert d'hypothèses raisonnables concernant la composition du gaz considéré parfait (pour C_p) et la croissance de \tau selon le niveau de pression dans l'atmosphère, il est possible (mais hors-programme) de montrer que la pente du profil radiatif excède, en valeur absolue, le gradient adiabatique pour \tau voisin de l'unité. Les régions atmosphériques situées en dessous (\tau > 1) deviennent donc instables vis-à-vis de la convection qui s'y développe, et le profil thermique se met alors à suivre non plus la valeur donnée par le seul équilibre radiatif, mais le gradient adiabatique. On appelle cette couche atmosphérique troposphère. Les couches situées au-dessus (\tau < 1) sont quant à elles stables vis-à-vis de la convection, et l'équilibre radiatif y est valable : on se trouve alors dans la stratosphère ou la mésosphère, selon l'existence ou non d'une inversion de température.

Notons qu'il existe quand même une troposphère dans les atmosphères des planètes telluriques trop peu opaques au rayonnement infrarouge thermique pour avoir \tau > 1 (par exemple Mars, et dans une moindre mesure la Terre). En ce cas, l'instabilité de départ est causée par la discontinuité de température au niveau de la surface planétaire (voir ici), qui donne naissance à des mouvements de convection s'étendant jusqu'à une altitude équivalente à une échelle de hauteur environ.

Profil thermique radiatif-convectif
radconv2.png
En pointillé, le profil thermique purement radiatif. En dessous d'une certaine altitude (marqué par un point noir), ce profil devient convectivement instable et la convection prend le relais pour transporter l'énergie (aidant ainsi au refroidissement de la surface). la couche atmosphérique située sous ce point s'appelle alors la troposphère, et celle au-dessus mésosphère (il n'y a pas de stratosphère dans ce profil).
Crédit : Emmanuel Marcq

Autres couches atmosphériques

Couches atmosphériques des planètes telluriques du système solaire
EVMgreenhouseT.jpg
Crédit : LASP, Emmanuel Marcq (traduction)

Condition d'existence d'une stratosphère

Les profils thermiques les plus simples ne comportent qu'une troposphère surmontée d'une mésosphère, et le profil thermique y décroît toujours avec l'altitude. Mais il existe parfois au sein de la zone purement radiative une anomalie, une zone où la température croît avec l'altitude. Une telle zone est appelée stratosphère. Pour qu'une telle couche existe au sein d'une atmosphère, il faut qu'elle absorbe elle-même une partie du flux stellaire (dans le domaine visible, UV ou proche IR) et qu'elle soit relativement mauvaise émettrice en infrarouge thermique afin que l'énergie reçue par absorption du flux stellaire ne soit pas immédiatement perdue par rayonnement infrarouge thermique. Si l'on néglige les processus de diffusion lumineuse (ce qui est une hypothèse souvent vérifiée dans le domaine infrarouge thermique en l'absence de nuages, mais assez inexacte pour la lumière stellaire à plus courte longueur d'onde), le critère quantitatif pour l'existence d'une stratosphère est d'avoir une région verticale d'épaisseur optique \Delta \tau_v en lumière stellaire et \Delta \tau en infrarouge thermique tels que \Delta \tau_v > \Delta \tau.

Dans le système solaire, la Terre possède une stratosphère due à la présence d'ozone, qui est un très bon absorbant de la lumière UV du Soleil. Comme, à l'altitude où cette absorption a lieu, l'atmosphère est froide et sèche, et que l'atmosphère terrestre est pauvre en \mathrm{CO}_2, il y a peu d'absorption du rayonnement infrarouge, et donc aussi une faible émissivité infrarouge (\mathrm{H_2O} et \mathrm{CO}_2 étant les gaz à effet de serre principaux au sein des atmosphères telluriques). Les conditions d'existence d'une stratosphère sont donc réunies. En revanche, les atmosphères de Vénus et de Mars, constituées principalement de \mathrm{CO}_2 qui est un excellent émetteur infrarouge, ne possèdent pas de stratosphère. Dans le système solaire extérieur, on trouve également des stratosphères, dues à la présence de méthane (\mathrm{CH}_4) au sein de ces atmosphères qui absorbe bien dans l'infrarouge proche émis par le Soleil. Dans le cas de Titan, la stratosphère est due non seulement au méthane, mais aussi à l'absorption de la lumière solaire par les particules du brouillard photochimique qui l'entoure à haute altitude.

Thermosphère

Thermosphère
thermo.png
Positions respectives de la source de chaleur (+Q) et du puits radiatif mésosphérique (-Q). Le profil conductif s'établit alors entre les deux avec transport par conduction de la chaleur verticalement selon \vec{\jmath}_Q entre les deux, imposant le gradient thermique positif dT/dz > 0.
Crédit : Emmanuel Marcq

Au sommet de la mésosphère, vers un niveau de pression de 1\,\mathrm{Pa}, l'atmosphère devient trop peu dense pour être efficacement absorbante au rayonnement infrarouge et ainsi échanger de l'énergie de façon radiative. Le seul phénomène encore capable de transporter l'énergie devient alors la conduction thermique, obéissant à la loi de Fourier : \vec{\jmath}_Q = - k \overrightarrow{\nabla{T}}k désigne la conductivité thermique du milieu et \vec{\jmath}_Q le flux de chaleur ainsi transporté. La structure thermique dans cette couche est alors dictée par la position des sources et des puits de chaleur :

Les positions respectives de ces puits et de ces sources causent un profil thermique croissant avec l'altitude, et pouvant atteindre des températures très élevées la journée car la conductivité thermique d'un tel milieu dilué est très faible, la chaleur peut donc y être piégée de façon très efficace. On nomme donc cette couche thermosphère. Sur Terre, la dissociation des molécules de \mathrm{O}_2 par les UV solaires est une source de chaleur intense (ces molécules très fragiles vis-à-vis des rayonnements dissociants et/ou ionisants sont nombreuses dans l'atmosphère terrestre), si bien que les températures thermosphériques peuvent atteindre des valeurs très élevées, supérieures à 1000\,\mathrm{K}. Pour les planètes géantes du système solaire, la source d'énergie est principalement due au chauffage par effet Joule dans l'ionosphère (friction des électrons libres). En revanche, dans les atmosphères telluriques riches en \mathrm{CO_2} comme celles de Vénus et Mars, la dissociation des molécules est relativement difficile et le dioxyde de carbone est un radiateur efficace même à faible pression, ce qui entraîne des maxima de température diurne bien plus faible, pouvant même disparaître complètement pendant la nuit. On appelle alors parfois cette couche cryosphère lorsque ce phénomène se produit.


Se tester

Auteur: EM

QCM

Auteur: EM

Définitions

qcmDéfinitions

Voici quelques questions sur les définitions des grandeurs employées

1)  Que désigne la température d'équilibre d'une planète ?



Effet de serre

Auteur: EM

qcmEffet de serre

Diagrammes
gh3.png

Difficulté :   

1)  Parmi les trois diagrammes ci-dessus, lequel ou lesquels correspondent à une situation d'effet de serre ?







Profils thermiques

Auteur: EM

qcmProfils thermiques

Profils verticaux de température
EVMlayers.jpg

Difficulté :   

1)  Comment nomme-t-on les différentes couches atmosphériques colorées sur les trois profils thermiques ci-dessus (du plus foncé au plus clair)





Exercices

Auteur: EM

Étude d'une atmosphère fictionnelle

Auteur: Emmanuel Marcq

exerciceExercice

Vous venez d'être embauché par un célèbre réalisateur Hollywoodien en tant que conseiller scientifique pour son prochain film de science-fiction. L'action se déroulera sur une lune tellurique nommée Pandore d'une planète géante appelée Polyphème en orbite autour de l'étoile \alpha\,\mathrm{Cen}. Toutes les données numériques pertinentes se trouvent ci-dessous.

Données numériques pertinentes

Étoile (α Centauri) :

  • Masse : 1,1 masse solaire
  • Rayon : 1,27 rayon solaire
  • Classe spectrale : G2V
  • Température photosphérique : 5790 K

Polyphème :

  • Masse : 0,44 masse jovienne
  • Rayon : 0,75 rayon jovien
  • Période de rotation : 15 h
  • Période de révolution : 1,4 année terrestre
  • Rayon de l'orbite : 1,32 UA
  • Albédo visible : 0.4

Pandore :

  • Rayon : 0,78 rayon terrestre
  • Masse : 0,43 masse terrestre
  • Rayon de l'orbite : 264000 km
  • Période de rotation (synchrone avec révolution) : 31,5 h
  • Albédo visible : 0,3
  • Pression atmosphérique à la surface : 1,22 bar
  • Température moyenne de surface : 27°C
  • Composition atmosphérique (% en masse) : \mathrm{N_2} (81 %), \mathrm{O_2} (16 %), \mathrm{CO_2} (2 %), \mathrm{Ar} (1 %), \mathrm{H_2O} (variable), \mathrm{Ne}, \mathrm{CO}, \mathrm{CH_4}, \mathrm{H_2S}, \mathrm{O_3}, \mathrm{OCS}, \mathrm{SO_2} (traces).
  • Capacité calorifique à pression constante : 1012 J/kg/K
Question 1)
  1. Quelle est la puissance lumineuse totale émise par l'étoile hôte ?
  2. Calculer alors la constante stellaire au niveau de l'orbite de Polyphème.

Question 2)
  1. Calculer la température d'équilibre {T_{\mathrm{eq}}}' de la planète géante
  2. La température effective {T_{\mathrm{eff}}}' de Polyphème sera-t-elle supérieure ou inférieure à {T_{\mathrm{eq}}}' ? Justifier.
  3. Bonus : proposer une composition possible des nuages visibles de Polyphème, situés à une altitude où la température est voisine de {T_{\mathrm{eq}}}'.

Question 3)
  1. Calculer la température d'équilibre T_{\mathrm{eq}} de Pandore. La comparer à celle du point triple de l'eau, égale à 273.15\,\mathrm{K}. Que vaut alors T_{\mathrm{eff}} ?
  2. Quel est le nom du phénomène responsable de l'écart entre la température de surface T_S et T_{\mathrm{eff}} ? En donner une explication qualitative.

Question 4)

On se propose à présent d'estimer l'opacité infrarouge de l'atmosphère de Pandore à l'aide d'un modèle simple. L'atmosphère est supposée parfaitement transparente en lumière visible et absorbe la totalité des rayonnements infrarouges thermiques. La température de l'atmosphère, supposée uniforme, sera notée T_a.

  1. Faire un schéma en représentant de façon distincte les flux visible et IR thermique montants et descendants
  2. Exprimer le flux thermique s'échappant vers l'espace en fonction notamment de T_{\mathrm{eff}}.
  3. Effectuer un bilan des flux au niveau de la surface.
  4. En déduire alors les expressions de T_S et T_a en fonction de T_{\mathrm{eff}}.
  5. Effectuer l'application numérique et comparer avec la valeur de T_S donnée dans l'énoncé. Que constate-t-on ? Proposer une explication.

Question 5)

Afin d'améliorer ce modèle, on ajoute une seconde couche atmosphérique partiellement opaque aux IR thermiques au-dessus de la première couche (qui reste complètement opaque à ces mêmes IR thermiques). On note la température de la couche supérieure T_1 et celle de la couche profonde T_2. La couche 1 absorbe une fraction 0 < \varepsilon_1 < 1 du rayonnement IR thermique. Ces deux couches sont toujours considérées parfaitement transparentes en lumière visible.

  1. Faire un nouveau schéma représentant les différents flux.
  2. En effectuant trois bilans respectivement au niveau de l'espace, de la couche semi-transparente aux IR et à la surface, déterminer un système de trois équations à trois inconnues T_1, T_2 et T_S. On fera apparaître l'expression de T_{\mathrm{eff}} dans ce système.
  3. Résoudre ce système d'équations. En déduire la valeur de \varepsilon_1, puis celles de T_1 et T_2.
  4. Sur Terre, une modélisation analogue ne nécessite qu'une seule couche semi-transparente aux IR sans couche profonde (\varepsilon_{\mathrm{Terre}} \simeq 0.8). Comparer l'intensité de l'effet de serre sur Terre et sur Pandore.

Question 6)

Compte tenu de la composition atmosphérique, s'attend-on à trouver une stratosphère sur Pandore ? Si oui, quelle serait l'espèce chimique responsable ?

Question 7)
  1. Calculer la masse molaire moyenne de l'atmosphère ainsi que la gravité de surface.
  2. En déduire l'échelle de hauteur atmosphérique H au niveau de la surface.
  3. La limite de l'atmosphère (exobase) se situe à une pression de 10^{-9}\,\mathrm{bar} = 10^{-4}\,\mathrm{Pa}. Estimer l'altitude de cette exobase (on considérera H constant pour ce calcul).

Question 8)

Calculer le gradient adiabatique sec \Gamma. Le gradient adiabatique humide sera-t-il inférieur ou supérieur en valeur absolue ?

Question 9)

Représenter l'allure du profil thermique moyen de Pandore. On considérera que la troposphère s'étend sur une échelle de hauteur H, et on fera figurer l'échelle de hauteur, les différentes couches atmosphériques et les températures à leurs limites quand cela est possible.


Mini-projet

Auteur: EM

Énoncé

introductionIntroduction

Hypothèses du modèle

Le but de ce mini-projet est de gagner une compréhension plus intuitive de l'équilibre radiatif au sein d'une atmosphère tellurique, et notamment du phénomène d'effet de serre, au moyen d'un modèle simplifié basé sur des hypothèses simplificatrices vues dans ce cours. Ceci permettra de vérifier par le calcul les résultats obtenus en manipulant ce modèle.

Le modèle est donc plan-parallèle, et traite le spectre électromagnétique en deux domaines distincts : le visible/UV/IR proche (shortwave, SW) et l'infrarouge thermique (longwave, LW ou IR). Ces deux domaines sont traités chacun de façon grise. L'atmosphère est constituée de deux couches considérées isothermes, pouvant absorber et émettre tout ou partie des rayonnements IR thermiques. Le rayonnement SW n'est quant à lui absorbé que par la surface, l'atmosphère étant donc parfaitement transparente. Les échanges autres que radiatifs sont négligés par ce modèle.

Réglages

Voici la signification des différents champs à remplir :

  • Flux solaire moyen : il s'agit du flux stellaire moyenné dans le temps et dans l'espace au sommet de l'atmosphère. À ne pas confondre avec la constante stellaire, qui n'est pas moyennée !
  • Albédo bolométrique : c'est la fraction (en puissance) du flux SW renvoyé vers l'espace par la surface de la planète.
  • Opacités des couches 1 et 2 : il s'agit des épaisseurs optiques en IR thermique, variant donc entre 0 et +\infty.

Calculatrice application.png

Modèle à deux couches application.png

Questions

Atmosphère transparente en IR

  1. Comment régler les opacités des couches atmosphériques pour obtenir une atmosphère transparente en infrarouge thermique ?
  2. En cherchant l'albédo bolométrique de la Terre et le flux solaire moyen sur Internet, remplissez les champs appropriés. Que remarque-t-on pour les températures ?
  3. Justifiez le résultat obtenu pour la température de surface. À quelle valeur remarquable est-elle égale ? Vérifiez que cette égalité est maintenue en changeant la valeur de certains paramètres que l'on précisera.
  4. Bonus : essayez de reproduire la température diurne au point subsolaire dans le cas de la Lune et de Mercure.

Effet de serre à une couche

  1. Essayez diverses valeurs de l'opacité IR pour la couche la plus proche de la surface (couche n°2). Que remarque-t-on à propos des températures ? Comment s'appelle ce phénomène ?
  2. Que se passe-t-il dans le cas où l'on fait tendre l'opacité IR de cette couche vers l'infini ? Effectuez alors par vous-même le calcul théorique et justifiez les valeurs obtenues par le modèle.
  3. En déduire la fourchette de valeurs pour la température de surface dans ce cas de figure en fonction de la température d'équilibre correspondante.
  4. Essayez de reproduire avec ce modèle les températures de surface des corp suivants (à rechercher sur Internet) : Terre, Mars, Vénus, Titan.
  5. Que remarque-t-on pour ces deux derniers cas ? Proposez une amélioration du modèle.

Effet de serre à deux couches

Dans cette partie, on fixe l'opacité de la couche n°2 à proximité de la surface à une valeur très élevée, et on ajuste seulement l'opacité de la couche n°1.

  1. Que remarque-t-on concernant les températures ?
  2. Déterminer la nouvelle fourchette possible pour la température de surface. Justifier les températures obtenues quand les couches n°1 et n°2 sont toutes deux complètement opaques au rayonnement IR.
  3. Essayez à présent de reproduire la température que l'on aurait sur Titan en l'absence de nuages (T_S = 94\,\mathrm{K}). Pour quelle opacité de la couche n°1 ce résultat est-il obtenu ?
  4. Que remarque-t-on pour le cas de Vénus ? Comment améliorer encore ce modèle ?

Pour aller plus loin

  1. On fixe à présent l'opacité de la couche n°2 à une valeur très faible, et celle de la couche n°1 à une valeur très élevée.
    1. Montrer que {T_2}^4 = \frac{1}{2} \left( {T_1}^4 + {T_S}^4 \right)
    2. Vérifiez que le modèle donne le même résultat.
  2. Peut-on reproduire une stratosphère avec ce modèle ? Pourquoi ? Que faudrait-il ajouter comme paramètre réglable pour pouvoir le faire ?
  3. Comment prendre en compte l'effet radiatif en lumière SW des nuages avec ce modèle simplifié ? Comment pourrait-on améliorer leur prise en compte dans ce modèle ?

-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Dynamique atmosphérique

Auteurs: Thomas Navarro, Arianna Piccialli

Dynamique atmosphérique

objectifsObjectif

Les objectifs de ce chapitre sont, d'une part, d'acquérir quelques notions de base de dynamique des fluides et, d'autre part, d'explorer les différents régimes dynamiques qu'on peut observer sur les planètes de notre Système Solaire.

prerequisPrérequis

Les concepts abordés dans ce chapitre font appels à des notions de:

bibliographieLivres conseillés


Découvrir

Auteurs: Thomas Navarro, Arianna Piccialli

Méthode d'étude

Auteur: Thomas Navarro

Méthodologie

On connait très peu de choses sur les atmosphères des exoplanètes connues. Or cette question est fondamentale, tant pour les planètes géantes gazeuses dont l'atmosphère constitue la majeure partie de la planète, que pour les planètes à surface solide où le rôle de l'atmosphère dans leur habitabilité est primordial. Une atmosphère étant une enveloppe fluide en mouvement, son étude passe par sa dynamique et la compréhension de sa circulation.

Il existe deux méthodes complémentaires pour mieux comprendre la circulation atmosphérique : l'observation et la théorie. Notre connaissance de la circulation des atmosphères des exoplanètes est limitée car les observations sont à l'heure actuelle très difficiles. C'est pourquoi le recours à la théorie de la circulation atmosphérique, en se basant sur la mécanique des fluides, sert de socle à l'étude des circulations atmosphériques des exoplanètes. L'utilisation de modèles informatiques pour la simulation d'une atmosphère permet d'étendre cette théorie à des cas plus complexes tenant compte des nuages, aérosols, surface, etc ...

Les observations de la circulation atmosphèrique d'exoplanètes existent mais sont très rares. Par exemple, on a pu mesurer pour la planète HD 189733b son spectre d'émission et en tirer une carte de température. On a aussi pu mesurer les vents en haute altitude (d'au plus 10 000 km/h) de la planète HD 209458b par effet Doppler des lignes d'absorption du monoxyde de carbone présent dans son atmosphère. Toutefois, ces exemples restent rares si bien qu'en comparaison les observations des atmosphères planètaires de notre système solaire semblent exister à profusion. La connaissance de la dynamique atmosphérique des exoplanètes passe donc aussi et surtout par l'étude comparée des atmosphères du sytème solaire. Toutefois, notre système solaire ne présente pas toute la gamme des types d'exoplanètes connues, et par exemple l'étude d'une planète gazeuse géante chaude en rotation synchrone avec son étoile sur une orbite de 3 jours, cas assez exotique au regard du sytème solaire, passera également par la théorie et les moyens de simulation ...

conclusionConclusion

puzzle.png
Atmosphère d'une exoplanète : les éléments du puzzle à résoudre !
Crédit : Th. Navarro

Détecter et connaître les grandes caratéristiques physiques d'une exoplanète (orbite, taille, masse) est la première étape dans la compréhension d'une exoplanète. Connaître son atmosphère est la suite logique et la science actuelle en est à ses balbutiements dans ce domaine. L'étude des planètes du système solaire, tellement plus accessibles, et l'utilisation de modèles de climats s'avèrent nos meilleurs atouts pour comparer et extrapoler notre savoir à toutes les planètes en général.

spitzer1.jpg
Carte de température de HD 189733b, qui varie entre 650° C côté nuit et 930°C côté jour. Le décalage entre l'emplacement du maximum de température et le midi solaire révèle le rôle de l'atmosphère dans le transport de chaleur.

Pourquoi a-t-on une circulation?

Auteurs: Thomas Navarro, Arianna Piccialli

Bilan radiatif au sommet de l'atmosphère

On a vu que la notion de température d'équilibre ou effective requiert plusieurs hypothèses. L'une d'entre elles est que l'énergie rayonnée par unité de surface de la planète vers l'espace est homogène, c'est-à-dire qu'elle est la même en tous points, depuis l'équateur jusqu'aux pôles.

Or, la figure 1 nous donne un exemple pour la Terre qui montre la limite de cette hypothèse. On peut y voir que l'énergie absorbée par la Terre provenant du Soleil (et donc principalement dans la bande visible du spectre lumineux) dépend de la latitude, comme attendu d'après la figure 2. On y remarque surtout que l'énergie émise par la Terre vers l'espace, principalement de la bande infrarouge, dépend aussi de la latitude et est différente de la courbe d'énergie reçue. Ceci est un simple constat, issu d'observations, qu'il va s'agir d'interpréter.

En comparant les valeurs des puissances émises et reçues dans la figure 1, on constate qu'il y a une perte d'énergie vers les pôles et un gain d'énergie vers l'équateur. En vertu du principe de conservation de l'énergie, et en supposant que la planète est dans un état stationnaire, on ne peut que conclure que de l'énergie est transférée de l'équateur vers les pôles. Ce transfert d'énergie est causé par le mouvement global de l'atmosphère de la planète (et des océans s'ils sont présents).

On verra plus loin dans le cours que cette différence en énergie est également le moteur de la circulation atmosphérique.

objectifsObjectif

Plus généralement, ce cours sur la dynamique atmosphérique va de pair avec celui sur la structure thermique des atmosphères. On y aborde ici les mouvements fluides à grande échelle, tandis que le cours sur la structure thermique aborde l'équilibre radiatif et les mouvements convectifs verticaux uniquement.

Bilan radiatif de la Terre
rad_balance_ERBE_1987.jpg
Figure 1 : Bilan d'énergie de la Terre sur une année (1987). Puissance reçue par la Terre depuis le Soleil dans le visible en haut de l'atmosphère en bleu, et émise par la Terre vers l'espace dans l'infrarouge (en rouge).
Crédit : Pidwirny, M. (2006). "Global Heat Balance: Introduction to Heat Fluxes". Fundamentals of Physical Geography, 2nd Edition. Date Viewed. http://www.physicalgeography.net/fundamentals/7j.html
Radiation solaire
Solar_radiation.png
Figure 2 : La radiation solaire arrive à des angles différents à la surface de la Terre selon la latitude. Pour une même quantité d'énergie émise par le soleil, la zone couverte est plus petite à l'équateur et s'agrandit aux pôles. Ainsi, la Terre reçoit plus d'énergie par unité de surface à l'équateur qu'aux pôles.
Crédit : Arianna Piccialli

La circulation de Hadley

introductionUn exemple historique

Les échanges d'énergie à l'échelle globale d'une planète sont fondamentaux pour comprendre la circulation à grande échelle. Historiquement, la première description et compréhension de ces mouvements a été faite sur Terre au 18ème siècle.

L'exemple le plus célèbre de la preuve d'une circulation atmosphérique à grande échelle provient de l'observation des vents permettant la navigation sur les océans terrestres. Les vents dominants soufflent d'Est en Ouest aux latitudes tropicales (environ 30°S à 30°N, et qu'on appelle alizé). Une explication satisfaisante de l'origine de ces vents fut donnée par George Hadley en 1735 : il existe une circulation à l'échelle de la planète qui transporte des masses d'air depuis l'équateur jusqu'aux tropiques en formant une cellule, qu'on appelle cellule de Hadley tel qu'on peut le voir sur la Figure 1.

L'origine des alizés est la suivante : quand une masse d'air tombe vers la surface aux tropiques, elle retourne à l'équateur. Ce faisant elle subit la force de Coriolis : elle est donc déviée vers sa droite dans l'hémisphère Nord, ou vers sa gauche dans l'hémisphère Sud, c'est-à dire vers l'Ouest dans les deux cas. Inversement, une masse d'air qui part de l'équateur vers les tropiques subira une déviation vers l'Est et formera un courant jet en altitude au niveau des tropiques et orienté vers l'Est.

L'origine des alizés est ainsi comprise, mais quid de l'origine de la cellule de Hadley en elle-même ? Elle provient de la différence d'énergie reçue par la Terre en fonction de la latitude. La hauteur d'échelle atmosphérique est plus grande à l'équateur (ou, autrement dit, l'air est plus dilaté), ce qui cause un gradient horizontal de pression entre l'équateur et les pôles, de plus en plus marqué à mesure que l'on s'élève du sol (voir Figure 2). Ce gradient de pression provoque un mouvement d'air en altitude, de l'équateur vers les tropiques. Le reste de la cellule de Hadley se met en place pour "fermer" la circulation d'air, par simple conservation de la masse.

conclusionGénéralisation

Le mécanisme de la cellule de Hadley, connu depuis longtemps sur Terre, semble être universel dans les atmosphères des planètes, mais avec des caractéristiques différentes (extension en latitude, nombre de cellules) selon les propriétés physiques de l'atmosphère. Il est essentiel à la compréhension des mouvements à grande échelle d'une atmosphère et permet d'expliquer le transfert d'énergie de l'équateur vers les tropiques. Il est en réalité très complexe à comprendre dans les détails, et on trouve sur Terre d'autres mécanismes de transfert d'énergie au-delà des tropiques (voir Figure 1).

Circulation atmosphérique terrestre
circulation.png
Structure des mouvements atmosphériques globaux sur Terre.
Crédit : T. Navarro
Origine de la circulation de Hadley
hadley.png
La cellule de Hadley trouve son origine dans un mouvement d'air en altitude de l'équateur vers les tropiques dû à un gradient de pression.
Crédit : Thomas Navarro

attentionPrécision

La circulation de Hadley n'est pas une cellule de convection. Son origine est une différence de chauffage en latitude, suivant l'horizontale, et non un gradient thermique vertical qui génère une force de flotabilité qui s'oppose à la gravité comme dans le cas de la convection. Ainsi, pour déterminer les dimensions de la cellule de Hadley il faut connaître la vitesse de rotation de la planète et le gradient horizontal de pression, des phénomènes qui ne rentrent pas en jeu dans les causes de la convection.


Revue des différentes dynamiques atmosphériques planétaires

Auteurs: Thomas Navarro, Arianna Piccialli

Introduction

La rotation de la planète est la clé de la circulation atmosphérique, comme on vient de le voir sur Terre avec le rôle de la force de Coriolis dans la formation de la cellule de Hadley. Ainsi, il est fondamental de garder en tête les périodes de rotation pour les planètes du système solaire.

L'obliquité, qui est l'angle entre l'axe de rotation et la perpendiculaire au plan de l'orbite autour du Soleil, nous renseigne sur les saisons. Dans le cas de Vénus, l'obliquité proche de 180° signifie que la rotation est rétrograde : Vénus tourne de l'Est vers l'Ouest, dans le sens opposé aux autres planètes.

Caractéristiques des planètes avec une atmosphère
CorpsPériode de révolution (jours)Période de rotationObliquité
Vénus224.7243.0 jours177.4°
Terre365.223h5623.4°
Mars687.024h3725.2°
Jupiter4335.39h503.1°
Saturne10757.714h1426.7°
Titan10757.715.95 jours26.7°

Les informations que nous possédons sur ces planètes proviennent d'observations, de résultats de modèles et des équations régissant l'atmosphère.

definitionMéthodes d'étude des atmosphères planétaires

Les méthodes d'étude des atmosphères planétaires comprennent des moyens différents tels que la télédétection (en utilisant des telescopes sur la Terre ou des vaisseaux spatiaux); des mesures directes in situ obtenues par sondes, ballons, atterrisseurs; des études de laboratoire; et des modèles de circulation atmosphèrique. Les mesures des mouvements atmosphériques sont accomplies principalement par les moyens suivants :

  1. Mesures directes du vent in situ en utilisant des anémomètres.
  2. Suivi des ballons-sonde atmosphériques placés à différentes altitudes (Régulièrement utilisé sur Terre et deux fois sur Vénus) (Fig.1).
  3. Suivi des atterrisseurs pour mesurer le vent (Sur Vénus, Mars, Jupiter, et Titan) (Fig. 2).
  4. Suivi des nuages pour déterminer la vitesse du vent (Surtout sur Vénus) (Fig. 3).
  5. Détermination indirecte de la vitesse du vent à partir des champs de température (Voir les équilibres dynamiques).
  6. Mesures du décalage Doppler des raies spectrales pour déterminer la vitesse du vent (Surtout pour Vénus, Mars, et Titan).
Figure 1
Vega-Venus-Balloon.jpg
Représentation artistique du ballon VEGA dans l'atmosphère de Vénus.
Crédit : http://space-sky.com/inflatables-in-space/
Figure 2
nature04060-f1.2.jpg
Vitesse du vent zonal sur Titan pendant la descente de la mission Huygens.
Crédit : M. K. Bird, et al., Nature 438, 800-802 (8 December 2005)
Figure 3
Figures/Tracking_clouds_on_Venus.jpg
Exemples de nuages identifiés dans les images de Venus Express et utilisés pour déterminer la vitesse du vent su Vénus.
Crédit : Fig. 3 dans Khatuntsev et al, Cloud level winds from the Venus Express Monitoring Camera imaging, Icarus (2013); doi: 10.1016/j.icarus.2013.05.018

Planètes à rotation rapide

La Terre et Mars présentent des circulations à grande échelle très similaires typiques d'une planète en rotation rapide - les deux planètes ont des périodes de rotation similaires (Table). La différence principale est due à la présence des océans sur la Terre. En définitive, les deux atmosphères sont mises en mouvement par la différence d'énergie reçue sur la surface en fonction de la latitude.

La Terre

circulation.png
Circulation atmosphérique moyenne schématique sur Terre. Les cellules ne sont pas à l'échelle : elle font quelques dizaines de km d'altitude pour des milliers de km de largeur !
Crédit : T. Navarro

La circulation atmosphérique à grande échelle se caractérise par des cellules de circulation entre différentes latitudes. Si la cellule de Hadley rejoint l'équateur aux latitudes moyennes à environ 30 ° Nord et Sud comme vu auparavant, les cellules de Ferrel ne fonctionnent pas du tout sur le même mécanisme que les cellules de Hadley. Elles mettent en jeu des ondes planétaires baroclines qui dominent les mécanismes de transfert. Les cellules de Ferrel se situent entre les latitudes 30 et 60 ° dans chaque hémisphère, dans lesquelles on trouve un courant-jet. On trouve également une cellule polaire de latitude 60° au pôle dans chaque hémisphère, délimitée par le vortex polaire.

Cette structure en cellule est un comportement moyen de l'atmosphère, qui varie avec les saisons et surtout avec les conditions météorologiques locales, dépendant de nombreaux phénomènes transitoires et chaotiques. Par exemple le centre de la cellule a tendance à se déplacer de part et d'autre de l'équateur lorsque le point subsolaire varie en latitude selon la période de l'année. De plus, il n'existe pas non plus de courant ascendant ou descendant continu et clairement mesurable dans les branches des cellules pour un observateur momentané en un endroit donné. Il s'agit là d'un comportement moyen qui peut être dominé par des effets locaux ou temporaires (cycle jour/nuit, topographie, perturbation météorologique, etc ...). La manifestation la plus tangible de ces cellules à tout un chacun demeure néanmoins la présence de courants jets.

Mars

Tout comme la Terre, Mars possède également une cellule de Hadley. Du fait de l'atmosphère plus ténue de Mars (la pression au sol y est de seulement 6 mbar en moyenne, par rapport à 1000 mbar sur la Terre), les gradients de pression relatifs des pôles à l'équateur sont plus grands et la cellule de Hadley y est plus étendue. Pendant l'équinoxe on trouve deux cellules de Hadley centrées sur l'équateur comme sur Terre, mais durant le solstice, on ne trouve plus qu'un seule grande cellule de Hadley des moyennes latitudes de l'hémisphère d'été vers les moyennes latitudes de l'hémisphére d'hiver. Il faut noter que la différence notable de position de l’ascendance au moment du solstice entre la Terre et Mars vient de la faible inertie de la surface martienne (contrairement aux océans terrestres), qui fait que le maximum de température se déplace complètement dans l’hémisphère d’été alors qu’il reste dans les tropiques sur Terre.


Planètes à rotation lente

Vénus

L'atmosphère de Vénus est caractérisée par une dynamique complexe: une super-rotation rétrograde domine dans la troposphère/basse mésosphère, tandis qu'une circulation solaire-antisolaire peut être observée dans la thermosphère. La super-rotation s'étend depuis la surface jusqu'au sommet des nuages avec des vents de seulement quelques mètres par seconde près de la surface et atteignant une valeur maximale de 100 \textrm{ms}^{-1} au sommet des nuages (70 km), ce qui correspond à un periode de rotation de 4 jours terrestres. Les processus responsables du maintien de la super-rotation zonale dans la basse atmosphère et sa transition vers la circulation solaire-antisolaire dans la haute atmosphère sont encore méconnus.

En plus de la super-rotation zonale, une cellule de Hadley s'écoulant de l'équateur aux pôles avec des vitesses de moins de 10 \textrm{ms}^{-1} a été observée au sommet des nuages. La circulation de Hadley ou méridienne sur Vénus joue un rôle important dans le transport d'air chaud vers les pôles et d'air froid vers l'équateur. Il s'agit d'une cellule dans chaque hémisphère et elle n'est pas limitée aux régions proches de l'équateur comme sur la Terre où la cellule de Hadley est limitée par la force de Coriolis, mais elle s’étend jusqu’aux pôles.

Vénus
Cover_Venus.jpg
Crédit : ESA/VMC/Venus Express

Titan

Il y a très peu mesures directes de la circulation atmosphérique de Titan, un satellite de Saturne, avec une période de rotation de 16 jours. Comme sur Vénus, une super-rotation est prévue dans la haute atmosphère; néanmoins, au contraire de Vénus, les saisons sur Titan jouent un rôle important dans la circulation générale. Les observations obtenues par la sonde Cassini-Huygens montrent la présence d'un seul jet très intense direct vers l'est avec des vitesses de 190 \textrm{ms}^{-1} entre les latitudes 30^\circ-50^\circ dans l'hémisphère nord. L'existence d'une circulation de Hadley de l'équateur au pôle a été également prédite. L’hémisphère Nord est l’hémisphère d’hiver au moment des observations de Cassini. Les cellules de circulation prédites vont d’un pôle (été, ascendance) à l’autre (hiver, subsidence) pendant la majeure partie de l’année, avec une transition autour de l’équinoxe au cours de laquelle l’ascendance se déplace pour changer d’hémisphère, la cellule se réduisant sur l’hémisphère de printemps pendant qu’une autre se développe sur l’hémisphère d’automne, puis prend sa place.


Planètes géantes

Sur les planètes telluriques les vitesses du vent sont mesurées par rapport à la surface de la planète. Comme les géantes gazeuses et les géantes glacées ne disposent pas d'une surface solide, les vents sont généralement mesurés par rapport à la période de rotation de leur champ magnétique. Chacune des quatre planètes géantes (Jupiter, Saturne, Uranus, et Neptune) montrent une circulation zonale intense formée par un système de courants-jets qui alternent leur circulation (Est-Ouest) avec la latitude.

Géantes gazeuses

Les planètes géantes gazeuses de notre Système solaire, Jupiter et Saturne, sont composées essentiellement de gaz légers, comme l'hydrogène et l'hélium. On observe aussi la formation de nuages constitués de méthane, d'ammoniac, et du sulfure d'hydrogène.

Au niveau des nuages d'ammoniac, Jupiter possède environ 6-8 courants-jets par hémisphère, avec une vitesse maximale à l'équateur où le jet dirigé vers l'est atteint une vitesse zonale de \sim 100-125 m s-1, et à 23° Nord les vents atteignent jusqu'à 180 m s-1. Saturne possède 4-6 courants-jets par hémisphère, avec un très fort et large jet équatorial direct vers l'est à une vitesse maximale de \sim 450 m s-1. Jupiter affiche également de nombreux tourbillons de courte durée et des tempêtes de longue durée comme la Grande Tache rouge.

Animation issue de 16 images de Jupiter prises par Voyager 1, espacées de 10h (durée du jour sur Jupiter) et traitées pour en produire une animation fluide.
Crédit : NASA / JPL / Björn Jónsson / Ian Regan

Géantes glacées

Les planètes géantes glacées de notre Système solaire, Uranus et Neptune, sont constituées principalement d'eau, méthane ou d'ammoniac.

Les deux planètes glacées montrent un jet équatorial dirigé vers l'ouest - avec une vitesse de \sim 100 m s-1 et de \sim{500} m s-1 respectivement pour Uranus et Neptune - et deux jets intenses aux latitudes moyennes dirigés vers l'est avec une vitesse maximale de 200 m s-1. Comme sur Jupiter, forts tourbillons, convection et tempêtes ont été observés sur Neptune. Au contraire, sur Uranus aucune tempête n'a été observée.


Comprendre

Auteurs: Thomas Navarro, Arianna Piccialli

La circulation atmosphérique générale

Auteurs: Thomas Navarro, Arianna Piccialli

Outils

Auteurs: Thomas Navarro, Arianna Piccialli

Coordonnées sphériques

Comme toute équation de la physique, les équations régissant la dynamique atmosphérique doivent s'exprimer dans un système de coordonnées et un référentiel choisis arbitrairement. Un tel système naturellement adapté à une sphère, et donc à une planète, sont les coordonnées sphériques (r,\varphi,\theta), où r est la distance au centre de la sphère, \varphi est la l'angle de la longitude, et \theta est l'angle de la latitude.

On définit également un repère local pour tout point de l'espace de coordonnées (x,y,z), avec comme base le triplet (\vec{i}, \vec{j}, \vec{k})\vec{i} est dirigé vers l'Est, \vec{j} dirigé vers le Nord, et \vec{k} selon la verticale locale vers le haut. Le référentiel d'étude est ce référentiel local, lié à la rotation de la planète, il s'agit donc d'un référentiel tournant, donc non galiléen.

Pour résumer, on travaille dans deux référentiels différents, ce qui donne trois systèmes de coordonnées différents :

  1. Le référentiel de la planète, qui tourne avec elle, dans un système de coordonnées cartésiennes (axes X,Y,Z).
  2. Le référentiel de la planète, qui tourne avec elle, dans un système de coordonnées sphériques (coordonnées r,\varphi,\theta).
  3. Un référentiel local, de base (\vec i,\vec j, \vec k), qui est un système de coordonnées cartésiennes.
Système de coordonnées sphériques
spherical_coord_new.png
Crédit : Arianna Piccialli

L'exercice suivant permet de se familiariser avec la manipulation mathématique des coordonnées et des repères. Les resultats serviront à établir l'équation fondamentale de la dynamique.

exerciceExercice

Question 1)

Montrer que dans le référentiel de la planète, un point de coordonnées sphériques \left( \begin{array}{c} r\\ \varphi \\ \theta \end{array} \right) a pour coordonnées cartésiennes \left( \begin{array}{c} r\cos\theta\cos\varphi \\ r\cos\theta\sin\varphi \\ r\sin\theta \end{array} \right)

Question 2)

Exprimer \vec i, \vec j et \vec k dans le repère de la planète en fonction des angles \varphi et \theta

Question 3)

Montrer qu'une vitesse dans le référentiel local \left( \begin{array}{c} u\\ v \\ w \end{array} \right) au point de coordonnées sphériques \left( \begin{array}{c} r\\ \varphi \\ \theta \end{array} \right) s'exprime par \vec U = r\cos\theta\frac{d\varphi}{dt}\vec i+r\frac{d\theta}{dt}\vec j + \frac{dr}{dt}\vec k.

Question 4)

Exprimer \frac{d\vec i}{dt}, \frac{d\vec j}{dt} et \frac{d\vec k}{dt} en fonction de (u,v,w), (r,\varphi,\theta) et (\vec i,\vec j, \vec k).


Forces apparentes

Pour résoudre les équations régissant une atmosphère, on se place dans le référentiel local, lui-même dans un référentiel tournant avec la planète. Ce référentiel n'est pas inertiel, c'est-à-dire qu'il est en accélération par rapport à un référentiel inertiel. Afin de poser le principe fondamental de la dynamique, il est essentiel de tenir de compte de l'accélération apparente du référentiel d'étude, sous la forme de pseudo-forces.

remarquePrécision

Traditionnellement et pour des raisons pratiques on parle de force, ou pseudo-force, en multipliant l'accélération apparente par la masse de l'objet. On parlera ici plutôt de l'accélération d'une force apparente afin de s'affranchir du terme de masse, qui disparaitra dans les équations finales.

Les deux forces apparentes à considérer dans le cas d'une atmosphère sont la force centrifuge et la force de Coriolis.

definitionProduit vectoriel

L'expression mathématique des forces apparentes requiert l'emploi du produit vectoriel, défini ainsi:

Le produit vectoriel \mathbf{C} des vecteurs \mathbf{A} et \mathbf{B} s'écrit \mathbf{C}=\mathbf{A}\times\mathbf{B} et correspond au vecteur orthogonal à la fois à \mathbf{A} et \mathbf{B} tel que le triplet (\mathbf{A},\mathbf{B},\mathbf{C}) soit de sens direct. et que le module du produit soit \| \mathbf{C}\| = \| \mathbf{A}\| \| \mathbf{B}\| \sin \alpha\alpha est l'angle direct de \mathbf{A} vers \mathbf{B}. Ainsi, si \mathbf{A} et \mathbf{B} sont colinéaires, leur produit vectoriel sera le vecteur nul.

cross.png
\mathbf{A}, \mathbf{B} et \mathbf{C} forment une base directe puisque \sin \alpha est positif. Si \sin \alpha était négatif, la base serait dans le sens indirect.
Crédit : Thomas Navarro

Le produit vectoriel s'écrit avec des coordonnées dans un système cartésien uniquement :

\mathbf{A} \times \mathbf{B} = \left( \begin{array}{c} x_a \\ y_a \\ z_a \end{array} \right) \times \left( \begin{array}{c} x_b \\ y_b \\ z_b \end{array} \right) = \left( \begin{array}{c} y_az_b-z_ay_b \\ z_ax_b-x_az_b \\ x_ay_b-y_ax_b \end{array} \right)

Cette relation n'est pas valable en coordonnées sphériques. Il faut faire la transformartion en coordonnées cartésiennes pour pouvoir utiliser cette relation.


Force centrifuge

definitionForce centrifuge

La force centrifuge est la force apparente due au fait que le référentiel d'étude est en rotation, donc en accélération. En effet, l'orientation de la vitesse d'un point lié à la planète varie, mais pas son module. Ainsi, une particule au repos dans un référentiel galiléen aura une force apparente dans le référentiel de la planète.

On définit le vecteur rotation \mathbf{\Omega} comme étant le vecteur orienté selon l'axe de rotation de la planète et de module \|\mathbf{\Omega}\| = \Omega = \frac{2\pi}{T} avec T la période de rotation de la planète. L'accélération de la force centrifuge s'exprime \mathbf{a_{ce}}}=-\mathbf{\Omega}\times(\mathbf{\Omega}\times\mathbf{l}) avec \mathbf{l} le vecteur position depuis l'axe de rotation où la force s'applique. Dans un système de coordonnées sphériques, on a \|\mathbf{l}\|=\|\mathbf{r}\|\cos{\theta}, avec \mathbf{r} le vecteur position depuis le centre de la planète.

Une autre manière de l'exprimer est de dire qu'il s'agit d'une accélération perpendiculaire à l'axe de rotation, orientée vers l'extérieur et de valeur r\left(\frac{2\pi}{T}\right)^2\cos\theta = r\Omega^2\cos\theta

La force centrifuge est regroupée avec la force de gravité, dont l'accélération vaut \mathbf{g_m} = -g_m\vec k, l'indice m faisant référence à la masse de la planète. On obtient une force dont l'accélération totale est \mathbf{g} = -\mathbf{\Omega}\times(\mathbf{\Omega}\times\mathbf{l})+\mathbf{g_m}. Cette force dérive d'un potentiel, qu'on appelle le géopotentiel, somme de l'action de la gravité et de la force centrifuge.

exerciceExercices de démonstration et d'acquisition du cours

Question 1)

Démontrer par l'analyse ou par un schéma en 3D que \mathbf{\Omega}\times(\mathbf{\Omega}\times\mathbf{l}) correspond bien à une accélération perpendiculaire à l'axe de rotation, orientée vers l'extérieur et de valeur r\Omega^2 \cos\theta. Comment s'exprime cette accélération dans le référentiel local ?

Question 2)

Par la suite on fait l'approximation que pour l'accélération due au géopotentiel, on peut se contenter de considérer sa composante uniquement suivant l'axe \vec k pour l'additionner à la pesanteur, ceci afin de simplifier les équations du problème. Afin de s'assurer que cette approximation reste acceptable, quelle est l'erreur maximale faite dans le cas de la Terre si on ne considère pas les autres composantes de l'accélération due au géopotentiel ? Quelle est cette erreur relativement à l'accélération de pesanteur ? Et pour Jupiter ?


Force de Coriolis

Dans un référentiel en rotation, une autre force apparente est à prendre en compte lors d'un déplacement. Il s'agit de la force de Coriolis, qui tient compte du fait que le déplacement d'une particule génère une accélération apparente supplémentaire. Par exemple, le mouvement rectiligne d'une particule est apparement dévié pour un observateur situé dans un référentiel tournant.

L'accélération de la force de Coriolis s'exprime \mathbf{a_{co}}}=-2\mathbf{\Omega}\times\mathbf{U} avec \mathbf{U} le vecteur vitesse de la parcelle d'air considérée.

La vitesse \mathbf{U} d'une parcelle d'air dans l'atmosphère est généralement orientée parallèlement à la surface locale, c'est-à-dire que sa composante radiale (c'est-à-dire sa composante verticale locale) est en générale petit par rapport à au moins une des deux autres. En négligeant la composante radiale, on constate les choses suivantes :

Ceci explique pourquoi certaines structures atmosphériques, tels les ouragans ou les anticyclones, tournent toujours dans le sens des aiguilles d'une montre dans l'hémisphère Nord, et dans le sens contraire dans l'autre hémisphère.

exerciceExercice de démonstration et d'acquisition du cours

Question 1)

Démontrer par l'analyse ou par un schéma en 3D les 3 points ci-dessus.


Formalisme eulérien ou lagrangien

Les écoulements atmosphériques peuvent être décrits en utilisant deux points de vue classiques, appelés eulérien ou lagrangien :

prerequisDescription eulérienne

L'écoulement est suivi par un observateur depuis une position fixe. C'est le cas, par exemple, d'un atterrisseur sur Mars fixé au sol qui mesure la vitesse du vent, la température, ou la pression. Cette description est souvent préférée car elle est la plus pratique.

prerequisDescription lagrangienne

Dans ce cas, les particules fluides sont suivies le long de leurs trajectoires. C'est la description la plus intuitive.

rappelDérivée particulaire

Les descriptions lagrangienne et eulérienne sont liées à travers la dérivée particulaire, encore appelée dérivée totale, et qui s'écrit D/Dt. Soit \textbf{A}[\textbf{r}(t)] une grandeur physique vectorielle de l'écoulement, dépendant du point d'observation \textbf{r}=(x, y, z) et du temps t. La variation de la grandeur \textbf{A} s'écrit :

\underbrace{\frac{D\textbf{A}}{Dt}}_\text{\textrm{Variation lagrangienne}}=\frac{\partial{\textbf{A}}}{\partial{\mathrm{t}}}+\left(\frac{dx}{dt}\frac{\partial{\textbf{A}}}{\partial{\mathrm{x}}}+\frac{dy}{dt}\frac{\partial{\textbf{A}}}{\partial{\mathrm{y}}}+\frac{dz}{dt}\frac{\partial{\textbf{A}}}{\partial{\mathrm{z}}}\right)=\underbrace{\frac{\partial{\textbf{A}}}{\partial{\mathrm{t}}}}_\text{\textrm{Variation eul\'{e}rienne}}+\underbrace{(\mathbf{U}\cdot{\nabla})\textbf{A}}}_\text{\textrm{Terme d'advection}}

\mathbf{U}=u\vec{i}+v\vec{j}+w\vec{k} est la vitesse du fluide avec composants: u={dx}/{dt}, v={dy}/{dt}, w={dz}/{dt}.

Dans la cas où la grandeur est un champ scalaire f[\textbf{r}(t)], la relation est la même.

La dérivée particulaire décrit la variation avec le temps en suivant la particule en mouvement (point de vue lagrangien), en revanche \partial{\textbf{A}}}/\partial{\mathrm{t} décrit la variation locale avec le temps en un point d'observation fixé (point de vue eulérien) .


Équations de la dynamique

L'équation fondamentale de la dynamique

Le mouvement d'une particule dans un fluide est décrit par la deuxième loi de Newton (conservation de la quantité de mouvement) qui lorsqu'elle est appliquée à la mécanique des fluides donne l'équation de Navier-Stokes. Dans un système en rotation l'équation du mouvement d'une parcelle de fluide est:

\rho\frac{D\mathbf{U}}{Dt}=\Sigma\mathbf{F} avec \mathrm{D}/\mathrm{Dt} est la dérivée particulaire qui s'écrit \mathrm{D}/\mathrm{Dt}={\partial{}}/\partial{\mathrm{t}}+\mathbf{U}\cdot{\nabla}, \mathbf{U} la vitesse du fluide, \Sigma\mathbf{F} la somme des forces s'appliquant sur la parcelle et \rho la densité du fluide.

Soit en détaillant les forces :

\frac{D\mathbf{U}}{Dt}=\mathbf{a_{co}}+\frac{\mathbf{F_{p}}}{\rho}+\mathbf{g}+\mathbf{F_r}

avec \mathbf{a_{co}} l'accélération de la force de Coriolis, \mathbf{F_p} les forces dues au gradient de pression, \mathbf{g} l'accélération du géopotentiel, et \mathbf{F_r} qui désigne l'accélération dues à la viscosité. Ce qui donne :

\frac{D\mathbf{U}}{Dt}=-2\mathbf{\Omega}\times\mathbf{U}-\frac{1}{\rho}\nabla{p}+\mathbf{g}+\mathbf{F_r} (1)

\mathbf{\Omega} est le vecteur de rotation de la planète \nabla{p} est le gradient de pression.

exerciceExercice

Question 1)

Comment s'exprime l'accélération de la force de Coriolis -2\mathbf{\Omega}\times\mathbf{U} dans le repère local ?

Les équations en coordonnées sphériques

On a \frac{D\mathbf{U}}{Dt} = \frac{D(u\vec i)}{Dt} + \frac{D(v\vec j)}{Dt} + \frac{D(w\vec k)}{Dt}. Or il a été vu en exercice les expressions des dérivées temporelles des vecteurs \vec i,\vec j et \vec k. Ceci nous permet d'établir les équations de Navier-Stokes dans le référentiel local, en notant que \mathbf{g}=-g\vec k et \mathbf{F_r}=F_{rx}\vec i + F_{ry}\vec j +F_{rz}\vec k:

application.png

Ce système d'équations décrit tous les types de mouvements atmosphériques à toutes les échelles. Ces équations sont compliquées à résoudre, mais dans bien des cas utiliser une approximation est suffisante pour modéliser de nombreux phénomènes atmosphériques dynamiques.

exerciceExercice

Question 1)

Déduire les équations de Navier-Stokes en coordonnées sphériques données ci-dessus à partir de l'équation fondamentale de la dynamique (Equation 1).


Les équations primitives

introductionApproximations

Les équations de la dynamique sont très compliquées car elles forment un système non linéaire. Ceci signifie que la somme de deux solutions n'est pas forcément solution du problème, ce qui rend la résolution de ces équations très ardue, et à ce jour encore source de recherches. Cependant, en fonction des phénomènes étudiés et des caractéristiques de l'atmosphère planétaire, certains termes de ces équations peuvent en dominer d'autres. Pour estimer les différents termes dans les équations, on utilise la méthode de l'analyse d'échelle. Les ordres de grandeur des différents termes en jeu dans les équations fondamentales de la dynamique seront très différents selon l'échelle des écoulements que l'on souhaite étudier. Dans le tableau ci-dessous on compare les termes dominants sur les planètes à rotation rapide (la Terre) avec ceux sur les planètes à rotation lente (Vénus):

Termes dominants dans les équations de la dynamique
U^2/aUV/aUW/a2\Omega\sin\theta{U}2\Omega\sin\theta{W}\mathbf{F_r}
Terre10-510-510-810-310-610-12
Vénus10-310-510-510-510-710-12

avec a le rayon de la planète. On a r=a+z, où z est l'altitude depuis la surface.

On peut alors appliquer les approximations suivantes:

\frac{\partial{p}}{\partial{z}}=-g\rho

On obtient alors les équations primitives de la météorologie :

definitionMouvement horizontal:

\frac{Du}{Dt}-2\Omega{v}\sin\theta-\frac{uv\tan\theta}{a}=-\frac{1}{\rho}\frac{\partial{p}}{\partial{x}}

\label{Navier_stokes_2}\frac{Dv}{Dt}+2\Omega{u}\sin\theta+\frac{u^2\tan\theta}{a}=-\frac{1}{\rho}\frac{\partial{p}}{\partial{y}}

definitionEquilibre hydrostatique vertical:

\frac{\partial{p}}{\partial{z}}=-g\rho

À ce système d'équations on ajoute l'équation des gaz parfaits:

definitionEquation d'état:

\frac{p}{\rho} = \frac{RT}{M}

Avec R=8.31~ \mathrm{J}\cdot \mathrm{mol}^{-1}\cdot \mathrm{K}^{-1} la constante universelle des gaz parfaits et M la masse molaire du gaz qui constitue l'atmosphère, et dépend donc de sa composition. Pour l'air terrestre, on a M = 29\times10^{-3}~ \mathrm{kg}\cdot \mathrm{mol}^{-1}

ainsi que l'équation de conservation de la masse:

definitionEquation de continuité:

\frac{\partial{p}}{\partial{t}}+\mathrm{div}(\rho\mathbf{U})=0

Enfin, le premier principe de la thermodynamique:

definitionPremier principe de la thermodynamique:

\frac{c_p}{\theta}\frac{d\theta}{dt}=\frac{Q}{T}

Avec Q le forçage diabatique et \theta la température potentielle : \theta=T\left[\frac{p_0}{p}\right]^{\kappa}, où \kappa=\frac{R}{M\cdot c_p}, c_p la chaleur spécifique à pression constante et p_0une pression de référence.

On obtient ainsi 6 équations avec 6 inconnues (u,v,w,p,\rho,T).

Ce système d'équations primitives est le plus complet utilisé pour l'étude de la circulation générale de l'atmosphère. C'est notamment celui utilisé par les modèles de circulation générale.


Les équilibres dynamiques


Équilibre géostrophique

Les équilibres géostrophique et cyclostrophique sont deux approximations des équations primitives. Ils sont purement diagnostiques : ils ne contiennent pas de dérivées dans le temps, d'où l'impossibilité de faire des prédictions. Néanmoins, ils sont des outils puissants pour décrire différents écoulements observés dans les planètes.

definitionL'équilibre géostrophique

L'approximation géostrophique est un développement des équations primitives utilisée aux moyennes latitudes sur les planètes à rotation rapide (Terre, Mars). On suppose l'équilibre entre la force de Coriolis et la force due au gradient horizontal de pression. La force centrifuge est négligée.

2\Omega\sin\theta{v}=\frac{1}{\rho}\frac{\partial{p}}{\partial{x}}

2\Omega\sin\theta{u}=-\frac{1}{\rho}\frac{\partial{p}}{\partial{y}}

D'après ces équations, lorsque cet équilibre est valide, la vitesse du vent est directement proportionnelle au gradient horizontal de pression. Notez que l'équilibre géostrophique cesse d'être valide autour des latitudes équatoriales.

Force en action en équilibre géostrophique
Eq_geostro.png
Crédit : Arianna Piccialli

definitionVent géostrophique

En combinant les deux composantes de la vitesse, on peut introduir le vent géostrophique comme :

\mathbf{V_g} =  u_g\vec i+v_g\vec j=\vec k\times\frac{1}{{\rho}f}\nabla{P}


Équilibre cyclostrophique

definitionL'équilibre cyclostrophique

La circulation générale des planètes à rotation lente (Vénus, Titan), aussi bien que les vortex et les tourbillons sur toutes les planètes, peut être approximée par l'équilibre cyclostrophique. Cela suppose l'égalité entre la composante dirigée vers l'équateur de la force centrifuge et le gradient méridional de la pression. La force de Coriolis est négligée.

\frac{uv\tan\theta}{r}=\frac{1}{\rho}\frac{\partial{p}}{\partial{x}}

\frac{u^2\tan\theta}{r}=-\frac{1}{\rho}\frac{\partial{p}}{\partial{y}} (1)

Forces en action en équilibre cyclostrophique
Eq_cyclost.png
Crédit : Arianna Piccialli, adaptation de Schubert, 1983.

definitionVent cyclostrophique

L'équation du vent cyclostrophique peut alors être écrite comme :

u=\sqrt{-\frac{r}{\rho\tan\theta}\frac{\partial{p}}{\partial{y}}

exerciceExercice

Question 1)

Montrer à partir de l'équation (1) que l'équation du vent cyclostrophique peut être écrite comme :

2u\frac{\partial{u}}{\partial{\xi}}=\left.-\frac{R}{\tan{\theta}}\frac{\partial{T}}{\partial{\theta}}\right|_{\mathrm{p}=\mathrm{const}}

où : \mathrm{R}=191.4 J kg-1 K-1, et \xi=-\ln{\frac{p}{p_{ref}}} est la coordonnée de pression logarithmique, avec p_{ref} la pression au niveau de référence.


Nombre de Rossby

Auteurs: Thomas Navarro, Arianna Piccialli

Nombre de Rossby

definitionDéfinition

Le nombre de Rossby est un nombre sans dimension qui permet de caractériser les mouvements atmosphériques. Il est défini par:

Ro = \frac{U}{2\Omega{L}}=\frac{\textrm{acc\'el\'eration horizontale}}{\textrm{acc\'el\'eration de Coriolis}}

U est une vitesse caractéristique du système, \mathbf{\Omega} est la vitesse angulaire de rotation de la planète, et L est une longueur caractéristique du système.

exerciceExercice

Question 1)

Quelle est la dimension du nombre de Rossby ?

Une valeur de nombre de Rossby très supérieure à l'unité indique que la force de Coriolis due à la rotation de la planète est négligeable par rapport à la force d'inertie, dans ce cas on parle d'équilibre cyclostrophique. Dans le cas contraire d'un nombre de Rossby inférieur à l'unité, l'équilibre est dit géostrophique.

Les équilibres dynamiques
R_0 \ll 1Equilibre géostrophique[Terre, Mars]
R_0 \gg 1Equilibre cyclostrophique[Vénus, Titan, Ouragans]

exempleExemples d'écoulements observés dans les planètes

Les valeurs du nombre de Rossby pour différents systèmes sont comparées sur le tableau ci-dessous :

Tableau 1: Valeurs du nombre de Rossby pour différents systèmes
Vénus103
Terre1
Mars<<1
Titan>>1
Tourbillons de poussière102-103
Tornades103
Ouragans>>1

Systemes géostrophiques

exempleLa Terre et Mars

La Terre et Mars présentent une circulation atmosphérique aux grandes échelles très similaire et typique des planètes à rotation rapide : les deux planètes ont en fait une période de rotation similaire (Voir Tableau). La principale différence entre eux vient de:

  1. La présence d'océans sur la Terre.
  2. Le cycle de CO2 sur Mars, qui produit la condensation/sublimation d'une grande masse de CO2.

Un régime géostrophique des vents zonaux domine la circulation dans les deux planètes en dehors des latitudes tropicales. Aux latitudes moyennes, à la fois sur la Terre et sur Mars, la circulation est caractérisée par deux courant-jets, un dans chaque hémisphère.

Sur la Terre, ces jets sont des vents zonaux qui circulent de l'ouest vers l'est et leur vitesse augmente avec l'altitude jusqu'à la tropopause. Au-dessus de la tropopause ces jets affaiblissent, et puis ils augmentent encore avec l'altitude au-dessus de \sim 25 km jusqu'à \sim 70 km, où ils atteignent une vitesse de 60 m s-1.

Sur Mars, en raison de l'atmosphère très ténue et de l'absence des océans, l'atmosphère réagit presque instantanément au chauffage solaire. C'est aussi la raison pour laquelle les courant-jets dépendent des variations saisonnières. Au solstice d'hiver dans l'hémisphère nord, le courant-jet est centré entre \sim 40^{\circ}-50^{\circ} de latitude atteignant une vitesse maximale de 40 m s-1 à 5 km. Il augmente encore à 35 km, où il atteint une vitesse de 110 m s-1. A cette même époque, le courant-jet dans l'hémisphère sud est beaucoup plus faible.

Il faut noter que ces configurations des vents sont une moyenne temporelle et spatiale et ils sont vus rarement sur des journées individuelles. Les configurations des vents d'un jour à l'autre dévient considérablement de cette circulation globale.


Systemes cyclostrophiques

definitionVénus et Titan

Vénus et Titan sont deux planètes à rotation lente, caractérisées respectivement par une période de rotation de 244 jours (Vénus) et 16 jours (Titan). Une description détaillée de leur circulation peut être trouvée ici. Les deux planètes sont caractérisées par des forts vents zonaux dans l'ensemble de l'atmosphère, une caractéristique appelée super-rotation. Sur Vénus, la super-rotation atteint une vitesse supérieure à 100 m s-1 au sommet des nuages (vers 70 km d'altitude), correspondant à une période de rotation de 4 jours terrestres (\sim60 fois plus rapide que Vénus elle-même). Différentes études ont montré que sur les planètes qui tournent lentement, comme Vénus et Titan, les forts vents zonaux au sommet des nuages peuvent être décrits par l’équilibre cyclostrophique. Ce qui donne une possibilité de reconstruire le vent zonal si le champ de température est connu.

definitionTornades et ouragans sur la Terre

D'autres systèmes cyclostrophiques à petite échelle sont les ouragans et les tornades (Figure 1); ils sont caractérisés par un centre de basse pression et de forts vents. En raison d'un nombre de Rossby élevé (Tableau 1), la force de Coriolis peut être négligée pour les tornades et les ouragans, et on suppose l'équilibre entre la force centrifuge et le gradient de pression.

Figure 1
Tornado.jpg
Une tornade sur Terre observé par l'équipe VORTEX-99 le 3 Mai 1999 en Oklahoma.
Crédit : National Oceanic and Atmospheric Administration (NOAA).

Selon le glossaire de météorologie (AMS 2000), une tornade est une colonne d'air tournant violemment, en contact avec le sol et la base des nuages, et souvent (mais pas toujours) visible comme un nuage en forme d'entonnoir (Figure 1). La plupart des tornades ont des vitesses de vent entre 18 m s-1 et 135 m s-1. Son vortex a un diamètre typique de quelques centaines de mètres et tourne, en général, dans le sens contraire des aiguilles d'une montre dans l'hémisphère Nord. Les tornades se produisent sur tous les continents, mais sont plus fréquentes dans les États-Unis, où le nombre moyen de tornades enregistrées est d'environ 1000 par an, avec la majorité d'entre eux sur les plaines centrales et dans les états du sud. Les tornades sont associées à des orages violents et sont alimentés par l'afflux d'air chaud et humide. En général, ils sont le résultat de l'instabilité produit par la différence de température et d'humidité entre la surface, où l'air est plus chaud, et les niveaux supérieurs de l'orage, où l'air est plus froid.

Ouragan est le nom utilisé pour indiquer les cyclones tropicaux qui se produisent dans l'Atlantique ou le Pacifique Est. Les ouragans sont marqués par une région centrale d'air descendants, l'oeil, enfermé par des orages forts associés à des vents et des pluies intenses. Comme pour le cas des tornades, l'énergie des ouragans est fournie principalement par libération de chaleur latente dans l'air humide. Les ouragans sur la Terre se forment dans les régions tropicales au-dessus des océans chauds, et ils s'affaiblissent lorsqu'ils arrivent sur terre, où la source d'énergie disparaît. Dans l'oeil d'un ouragan, le nombre de Rossby locale est toujours >1 et peut arriver jusqu'à 100. Dans ce cas, l'équilibre devient cyclostrophique.

Les cyclones tropicaux sur la Terre et le vortex polaire de Vénus présentent des similitudes morphologiques et dynamiques, comme on peut voir dans la Figure 2. Le vortex de Vénus et les ouragans sont caractérisés par différentes échelles horizontales et durée de vie: le vortex de Vénus à un diamètre de 12000 km et il semble être permanent; les plus grands cyclones tropicaux observés sur la Terre ont un rayon de moins de 1000 km et durent environ une à deux semaines dans leur phase de maturité. La source d'énergie est aussi différente pour le vortex sur Vénus et les ouragans terrestres: la source d'énergie pour les ouragans est la libération de chaleur latente; le vortex polaire sur Vénus reçoit un apport d'énergie par le dépôt du rayonnement solaire au niveau des nuages et par l'émission thermique dans la basse atmosphère. Malgré leurs différences, les circulations du vortex de Vénus et des ouragans est très similaires: à partir du leur comparaison une meilleure compréhension de la dynamique de Vénus peut être atteinte.

Figure 2
VMC_hurricane.png
(Gauche) Le vortex polaire de Vénus; (Droit) l'ouragan Frances sur la Terre.
Crédit : Limaye et al., 2009

definitionTourbillons de poussière sur la Terre et Mars

Les tourbillons de poussière, présents à la fois sur la Terre et Mars, sont caractérisés par des vitesses de vent de rotation élevées, des champs électrostatiques importants et sont rendus visibles par la présence de poussière et de sable soulevé. Ils sont distincts des tornades car les tornades sont associées à des orages tandis que les tourbillons de poussière se forment sous un ciel clair.

Sur la Terre (Figure 3), l'étude de tourbillons de poussière est fondamentale pour comprendre leur rôle dans la convection et l'érosion des zones arides. Les tourbillons de poussière se produisent généralement en été dans les régions désertiques plus chaudes. Ils sont des événements transitoires et la plupart ne durent que quelques minutes.

Figure 3
Dust_devil_earth.jpg
Tourbillon de poussière sur la Terre observé dans le désert de l'Arizona.
Crédit : NASA

Sur Mars (Figure 4), les tourbillons de poussière peuvent avoir un effet important sur le cycle global de poussière. Les tourbillons de poussière sur Mars ont d'abord été identifiés dans les images prises par l'orbiteur Viking comme des petits nuages avec des longues ombres coniques. En plus, des traces laissées au sol par des tourbillons de poussière ont été détectées dans des images de la Mars Orbiter Camera et ont été également observées au sol par des atterrisseurs. Les tourbillons de poussière martiens et terrestres semblent avoir une morphologie similaire. Cependant, les tourbillons de poussière martiens sont un ordre de grandeur plus grand que ceux terrestres, atteignant souvent quelques kilomètres d'altitude et des centaines de mètres de diamètre avec des bases étroites et des larges sommets.

Figure 4
Dust_devil_mars.png
Tourbillon de poussière sur Mars photographié par le rover Spirit.
Crédit : NASA
vortex_mars_hirise.jpg
Tourbillon de poussière de 140 m de diamètre et 20 km de hauteur vu depuis l'orbite par l'intrument HiRISE.
Crédit : NASA / JPL / University of Arizona / HiRISE

Instabilités

Auteurs: Thomas Navarro, Arianna Piccialli

Nombre de Richardson

definitionDéfinition

Pour caractériser les différents types des instabilités atmosphériques on utilise le nombre de Richardson, un nombre sans dimension défini par:

Ri=\frac{N^2}{S^2}

S=\left(\frac{\partial{u}}{\partial{z}}\right) est le cisaillement vertical du vent.

N est nommée fréquence de Brunt-Väisälä définie comme la différence entre le gradient vertical de température \left(\frac{dT}{dz}\right) et le gradient adiabatique \Gamma:

N^2=\frac{g}{T}\left[\left(\frac{dT}{dz}\right)-\Gamma\right]

N est la fréquence d'oscillation d'une particule soumise à un déplacement vertical. Pour N^2<0 l'atmosphère est instable et une particule déplacée de son état initial s'éloignera irréversiblement. Si N^2=0, la stabilité est "neutre", la particule déplacée demeura à sa nouvelle altitude. Enfin, pour N^2>0 se produit une oscillation de la particule autour de son état initial.

conclusionInterprétation


Ondes atmosphériques

Auteurs: Thomas Navarro, Arianna Piccialli

Caractéristiques des ondes

Les ondes atmosphériques sont des perturbations des champs atmosphériques qui se propagent dans l'espace et/ou le temps. C'est un mécanisme important dans la dynamique des atmosphères car les ondes permettent de transporter des perturbations, transporter de l'énergie et de la quantité de mouvement d'une région à une autre.

rappelPropriétés des ondes

On peut représenter de manière simplifiée une onde atmosphérique par une fonction sinusoïdale, en fonction d'une dimension spatiale de coordonnée x et d'une dimension temporelle de coordonnée t:

\psi(x,t)=\psi_a\cos(k x-\omega t + \phi)

\psi_a est l'amplitude de l'onde; k=\frac{2\pi}{\lambda} est le nombre d'onde; \lambda est la longueur d'onde (en mètres); \omega=\frac{2\pi}{T} est la pulsation; T est la période (en secondes). \phi est la phase de l'onde, c'est-à-dire la valeur de la perturbation lorsque x=0 et t=0. La longueur d'onde est définie comme étant la distance séparant deux crêtes consécutives d'une onde. Si c (en mètres par seconde) est la vitesse de propagation de l'onde, on définit la fréquence (en hertz) par : \nu=\frac{c}{\lambda}.

Le champ physique représenté par \psi(x,t) est une variable atmosphérique. Il peut s'agir de la température, pression, le vent, etc ... La dimension de l'amplitude \psi_a est donc la même que celle de la variable représentée par la perturbation \psi.

Caractéristique d'une onde
Example_Wave.png
Au bout d'une durée correspondant à une période T, l'onde aura aura la même allure.
Crédit : A. Piccialli

rappelNotation exponentielle

Une manière plus compacte et efficace pour représenter une onde est la notation exponentielle. On écrit la perturbation sous sa forme complexe de la manière suivante :

\Psi(x,t)=\Psi_ae^{i(kx-\omega t)}

Avec i le nombre imaginaire i^2=-1. La perturbation réelle est définie comme étant la partie réelle de sa forme complexe :

\psi=Re(\Psi)

En utilisant la relation trigonométrique bien connue e^{i\theta}=\cos\theta +i\sin\theta, on obtient que l'amplitude complexe \Psi_a vaut :

\Psi_a=\psi_a e^{i\phi}

L'amplitude complexe \Psi_a contient ainsi l'information à la fois sur l'amplitude \psi_a et la phase \phi de l'onde. Cette notation est très pratique car elle permet notamment de dériver ou d'intégrer une onde par rapport à l'espace ou au temps. Par exemple :

\frac{\partial\psi}{\partial x} = \frac{\partial Re(\Psi)}{\partial x} = Re\left(\frac{\partial \Psi}{\partial x}\right) = Re(ik\Psi)

Ainsi, dériver par rapport à la coordonnée spatiale x revient à multiplier l'onde complexe par ik. De même, une dérivation temporelle revient à multiplier par -i\omega.

De la même manière, on peut montrer que trouver une primitive de l'onde complexe revient à diviser par ik, donc à multiplier par -\frac{i}{k}. De même, multiplier par \frac{i}{\omega} permet de trouver une primitive par rapport à t.


Onde sonore

Méthode des perturbations

À partir des équations primitives, il est possible de trouver les ondes susceptibles de se propager dans l'atmopshère en utilisant la méthode des perturbations. Il s'agit d'écrire chaque champ (par exemple avec la pression p) comme étant la somme d'une valeur fixe p_0 solution des équations et d'une petite perturbation p': p=p_0+p'. Ceci permet de linéariser les équations primitives en obtenant une équation pour les petites pertubations. Ces pertubations correspondent à des ondes que l'on peut ainsi étudier au moyen d'un cadre formel.

Onde sonore

L'onde la plus évidente est l'onde sonore dont le calcul va être détaillé ci-dessous. On définit les petites perturbations comme étant des ondes se propageant horizontalement et verticalement :

\Psi = \Psi_a e^{i(kx+mz-\omega t)}

avec k et m les nombres d'ondes horizontaux et verticaux respectivement. On fait l'approximation que la rotation et la gravité sont négligeables dans le cas qui nous intéresse. De plus, on suppose un fluide au repos, où la dérivée lagrangienne est égale à la dérivée eulérienne. Ainsi dans les équations primitives la force de Coriolis s'annule, tout comme la force centrifuge. En posant p'=c_s^2\rho' avec c_s la vitesse du son, les équations du mouvement horizontal et de l'équation de continuité s'écrivent ainsi :

\rho_0\frac{\partial u'}{\partial t} = - \frac{\partial p'}{\partial x}

\rho_0\frac{\partial v'}{\partial t} = - \frac{\partial p'}{\partial y}

\rho_0\frac{\partial w'}{\partial t} = - \frac{\partial p'}{\partial z}

\frac{1}{c_s^2}\frac{\partial p'}{\partial t} = - \rho_0\left( \frac{\partial u'}{\partial x} + \frac{\partial v'}{\partial y} +\frac{\partial w'}{\partial z} \right)

Soit, en utilisant les propriétés de la notation exponentielle :

-i\omega \rho_0 U_a = -ikP_a

-i\omega \rho_0 V_a = 0

-i\omega \rho_0 W_a = -imP_a

-i\omega P_a= c_s^2\rho_0(ikU_a+imW_a)

Par identification, on obtient :

\omega^2=c_s^2(k^2+m^2)

qui nous donne la relation entre longueur d'onde et période d'une onde sonore.

Généralisation

Le traitement des ondes atmosphériques est un sujet complexe; dans la page qui suit, nous allons donner un aperçu général des principaux types d'ondes en comparant différentes planètes, mais sans entrer dans le détail.

Une analyse plus détaillée des phénomènes ondulatoires peut être trouvé dans la liste suivante des livres:


Exemples d'ondes atmosphériques

Les ondes atmosphériques peuvent se manifester de diverses manières: comme oscillations de la température, de la densité et de la vitesse du vent, ou à travers des structures régulières de nuages. Ils peuvent être classés sur la base de facteurs différents: (1) mécanismes de restauration; (2) échelles de temps et d'espace; (3) ondes stationnaires ou qui se déplacent.

demonstrationClassement des ondes

Figure 1
GW_V1.png
Crédit : A. Piccialli
Figure 2
Kelvin.jpg
Ondes de Kelvin-Helmholtz observés au-dessus de Rome.
Crédit : Angelo Zinzi

Se tester

Auteurs: Thomas Navarro, Arianna Piccialli

Les bases de la circulation atmosphérique

exerciceExercice

Question 1)

Dans la figure suivante, on voit que l'énergie absorbée dans le visible dépend de la latitude (courbe bleue). Sachant que la puissance émise par le Soleil et reçue par la Terre est de 1361 W/m2 au total, quelle est l'équation régissant la relation entre la puissance reçue sur Terre et la latitude ?

Quelle serait l'allure de cette figure pour une planète ne possédant pas d'atmosphère ?

Bilan d'énergie
rad_balance_ERBE_1987.jpg

Question 2)

Dans la figure suivante, on a fait figurer le vent à deux altitudes différentes (300 et 925 Pa). Comment interprétez-vous l'orientation et l'intensité des vents ? Quel lien faites-vous avec les zones où les nuages sont absents ou présents ? Les zones arides et boisées sur Terre ?

Vents et nuages terrestres
windsmap.png
Crédit : Thomas Navarro

Question 3)

Quel est le lien entre variation particulaire et la variation totale d'un grandeur ? Comment interpréter le cas où le fluide est au repos (vitesse du fluide nulle) ?

Question 4)

Un ami vous affirme que le sens de rotation d'un vortex créé par de l'eau s'écoulant d'un lavabo dépend de l'hémisphère dans lequel on se trouve. Il en veut pour preuve que ce sens est toujours le même dans sa salle de bains et que ses nombreuses expériences de voyage de par le monde ne permettent pas de mettre ce fait en doute. Qu'en pensez-vous ?


Force de Coriolis

exerciceExercices de démonstration et d'acquisition du cours

Question 1)

Vous vous trouvez sur un manège tournant et souhaitez lancer un balle à votre ami situé de l'autre côté du manège. Si le manège tourne dans le sens des aiguilles d'une montre, Devez-vous lancer la balle à droite, à gauche, ou dans la direction de votre ami pour qu'elle lui arrive directement dans les bras ?

Vue de haut : vous êtes un bonhomme bleu avec un ami orange sur un manège gris. manege/manege1.png

Question 2)

Contrairement à vous, votre ami a eu mal au coeur et est descendu du manège pour s'asseoir sur un banc. Vous souhaitez néanmoins toujours lui lancer une balle, ce que vous tentez au moment où vous êtes le plus proche de lui. Devez-vous lui lancer la balle à droite, à gauche ou dans sa direction.

Vue de haut : vous êtes toujours un bonhomme bleu sur un manège gris mais votre ami orange n'est plus sur le manège. manege/manege4.png.

Question 3)

Il est possible de recréer une gravité artificielle dans un vaisseau spatial en le mettant en rotation autour d'un axe central. Les astronautes peuvent ainsi profiter d'une gravité telle que ressentie à la surface de la Terre dans un anneau qui tourne autour de son centre. Afin qu'ils ne ressentent pas de gêne lorsqu'ils se déplacent dans l'anneau, quelle doit être le diamètre minimal de l'anneau ?

station.jpg
Une station orbitale avec deux anneaux en rotation autour du moyeu central.
Crédit : 2001, Odyssée de l'espace


Mini-projet

Auteurs: Thomas Navarro, Arianna Piccialli

Projet

Ce mini-projet propose de visualiser des données calculées par un GCM afin d'aborder différents points vus dans le cours sur la dynamique atmosphérique.

Il est préférable d'avoir lu le cours sur le GCM et effectué le mini-projet de ce même cours pour prendre en main l'outil de visualisation et avoir une compréhension des données à manipuler.

structure thermique

Afficher la structure zonale de la température pour une planète similaire à la Terre, en fonction de la latitude et de la longitude. Qu'observez-vous ? Comment interpréter cette structure ?

Faire de même en faisant varier la vitesse de rotation de la planète. Qu'observez vous ? Comment l'interpréter ?

Faire de même en affichant le vent méridien, la circulation méridienne, et la super-rotation. Conclure.

Faire le lien avec les planètes connues du système solaire: Vénus, la Terre, Mars, Jupiter et Saturne.

Ondes

Afficher et identifier diverses ondes grâce à la pression de surface, les vents, la température

Influence du rayon planétaire

On se propose de vérifier la relation suivante de Lewis et consorts sur le lien entre rotation et taille sur la circulation grande échelle, etc ...


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Les orbites planétaires

Auteur: Valérie Ciarletti, Lucie Maquet

Les orbites planétaires

Plus environ deux milliers d’exoplanètes en orbite autour d'étoiles autres que le Soleil a été détecté à ce jour. La plupart d'entre elles ont été découvertes en étudiant les variations de luminosité liées à leur passage devant leur étoile (méthode des transits) et grâce à l'observation du mouvement de l'étoile autour de laquelle les planètes sont en orbite (méthode des vitesses radiales). Ces deux méthodes reposent sur l'exploitation d'informations liées à l'interaction gravitationnelle entre la planète et son étoile. Ce cours est essentiellement un cours de mécanique. Il a pour objectif de modéliser le mouvement d'une planète autour de son étoile et d'en identifier les paramètres caractéristiques. La partie Décrire présente les phénomènes de façon aussi simple que possible et ne requiert pas de compétences en mathématique. La partie Comprendre s'attache à démontrer les résultats énoncés dans la partie précédente. Le problème à deux corps (interaction entre une planète et son étoile) est au coeur de ce module. Le problème à plus de deux corps, qui est mathématiquement nettement plus compliqué, sera uniquement évoqué et permettra d'introduire les points dits de Lagrange. La migration des planètes sera également évoquée. Les illustrations seront systématiquement empruntées au monde des exoplanètes.


Décrire

Auteur: Valérie Ciarletti et Lucie Maquet

Un très bref historique sur l'étude et la modélisation des orbites

Les exoplanètes, comme les planètes et autres corps de notre système solaire sont soumises à la loi de la gravitation ou attraction universelle. Cette loi a été historiquement formalisée par Isaac Newton en 1687. Elle permet de modéliser, de façon générale, l'attraction entre des corps ayant une masse et, par conséquent, le mouvement des corps célestes.

Copernic
copernic.jpg
Modèle héliocentrique de Copernic , Caelestial Orbes, 1576

Bien avant Newton, le mouvement des planètes dans le ciel a retenu l'attention de nombreux scientifiques (Aristote, Galilée, Copernic,...) qui ont proposé des modèles pour expliquer ou, au moins, modéliser leurs observations. Les travaux de Copernic font date avec sa proposition en 1543 d'un modèle héliocentrique qui présente, entre autres, le grand avantage de simplifier les calculs par rapport au modèle géocentrique. Cependant, la cause du mouvement n'est pas identifiée et les orbites des planètes restent des cercles.

Johannes Kepler établit, à partir des observations minutieuses du mouvement de Vénus, Mars, Jupiter et Saturne faites par Tycho Brahe, le fait que les orbites des planètes de notre système solaire ne sont pas des cercles mais des ellipses dont le Soleil est un foyer. Il publie, en 1609 et 1619, des lois empiriques qui prendront le nom de Lois de Kepler. Ces lois sont particulièrement intéressantes et utiles parce qu'elles établissent des relations entre les différents paramètres des orbites. En outre, il faut noter que Kepler a certainement ouvert la voie à Newton en affirmant que "deux corps voisins et hors de la sphère d'attraction d'un troisième corps s'attireraient en raison directe de leur masse."

Newton a finalement modélisé la gravitation est ainsi permis une explication des phénomènes observés ainsi que la possibilité de prédire le mouvement des planètes en orbite autour de leur soleil. Les lois de la gravitation de Newton permettront d'ailleurs d'expliquer les résultats empiriques énoncés dans les lois de Kepler. Notons que la mécanique classique issue des lois de Newton n'est elle-même qu'une approximation, qui ne rend plus bien compte des mouvements des corps aux vitesses très élevées ou au voisinage immédiat des masses. Ainsi c'est la relativité générale d'Einstein qui a permis d'expliquer le mouvement du périhélie de Mercure ce qui n'était pas possible à partir des lois de Newton.


Les lois de Kepler

Kepler
kepler.jpg
Portait de Johannes Kepler (1571-1630) réalisé en 1610 - Artiste inconnu
Brahe
brahe.jpg
Portait de Tycho Brahe (1546-1601) réalisé en 1596 - Artiste inconnu

Les trois lois de Kepler ont été établies à partir de l'observation du mouvement des planètes au sein de notre système solaire. Elles ne reposent sur aucune modélisation mécanique de l'interaction entre la planète et le soleil. Néanmoins, ces lois seront confirmées, a posteriori, par la théorie de la gravitation universelle. Dans cette partie, ces lois sont énoncées sans démonstration (les démonstrations seront faites plus loin) et illustrées.


La première loi de Kepler (1605)

Loi des orbites : Les planètes autour de leur soleil ont un mouvement périodique dans un plan. Plus précisément, ces orbites sont des ellipses dont le soleil est un foyer.

demigrandaxe.jpg
Haut : Effet de la valeur de l'excentricté e sur la forme de l'ellipse Bas : Effet de la valeur du demi-grand axe a sur la taille de l'ellipse

exerciceForme des orbites

Question 1)

Exprimer la distance étoile-planète lorsque la planète est à son apoastre. Même question lorsqu'elle est située à son périastre .

Question 2)

Calculer, en utilisant les données du catalogue des exoplanètes, la valeur munérique de ces deux distances pour l'exoplanète détectée à ce jour, ayant la valeur d'excentricité la plus élevée du catalogue.

Question 3)

Utiliser les données du catalogue des exoplanètes et l'outil histogrammes pour étudier la variabilité des excentricités des exoplanètes.

Estimez l'excentricité moyenne des exoplanètes détectées à ce jour

Auteur: Valérie Ciarletti

exerciceDimension des orbites

L'objectif de cet exercice est d'étudier les tailles des ellipses des exoplanètes qui ont été détectées à ce jour en utilisant les données du catalogue et les outils qui permettent de les visualiser.

Question 1)
  • Utilisez la boite à outil histogrammes pour étudier la taille des orbites des exoplanètes détectées à ce jour.

    Comparez ces valeurs à celle de l'orbite de la Terre.

Question 2)
  1. Utilisez la boite à outils diagrammes pour rechercher un lien entre taille et forme des ellipses.


La deuxième loi de Kepler (1604)

Loi des aires : En un temps donné, le segment qui joint le centre du soleil au centre de la planète en orbite balaie une surface (aire) égale quelle que soit la position de la planète sur l'orbite.

Illustration de la loi des aires
LOI2t.jpg
Pour chacun des graphes, le temps de parcours les secteurs colorés ont des aires égales

La troisième loi de Kepler (1618)

Loi des périodes : Le carré de la période de révolution T d'une planète sur son orbite est proportionnel au cube du demi-grand axe de l'ellipse. \frac{T^2}{a^3}=Cte

Pour un système planétaire donné, plus une planète est éloignée de son étoile, plus sa période est grande. Il est important de ne pas tirer de conclusions fausses sur les vitesses relatives de ces planètes. En effet, lorsque les orbites en question ne sont pas des cercles, la vitesse de déplacement de la planète n'est pas constante en accord avec la loi des aires.

Cette loi ayant été établie dans notre système solaire, il pouvait sembler à Kepler que la constante était universelle. Nous verrons par la suite que les lois de la mécanique permettent de calculer cette constante et que la valeur de la constante dépend de la masse de l'étoile. On montre que

\frac{T^2}{a^3}=\frac{4\pi^2}{GM}{\left(1+\frac{m}{M}\right)}^2

G est la constante de gravitation universelle et M la masse de l'étoile et m celle de la planète.

Dans le cas très fréquent où la masse de l'étoile M est très supérieure à celle de la planète m, la relation devient \frac{T^2}{a^3}=\frac{4\pi^2}{GM} et seule la masse de l'étoile intervient.

exerciceTroisième loi de Kepler

Question 1)

Utilisez la boite à outils diagrammes pour représenter pour l'ensemble des exoplanètes du catalogue leur période de révolution autour de son étoile en fonction de la valeur du demi-grand axe de leur ellipse.

Question 2)

En échelle logarithmique pour les deux axes montrez que les points sont tous sur des droites de même pente. Expliquez pourquoi, sur le diagramme obtenu, les points ne sont pas tous alignés sur la même droite.


Mouvement de deux corps sous l'effet de la gravitation

L'attraction gravitationnelle, dans le cas d'un système planète-étoile isolé, permet de démontrer les lois de Kepler et de calculer le mouvement des deux corps. (Ces calculs sont présentés dans la partie comprendre).

Les animations ci-dessous illustrent l'effet de cette force d'attraction en fonction du rapport des deux masses en jeu. La croix rouge imobile correspond au centre de gravité (barycentre) de l'ensemble.

mouvement de deux corps de même masse
orbitun.gif
mouvement de deux corps de masse très différente
orbitquatre.gif

La Migration des planètes

Au cours de la formation et de l'évolution d'un système planétaire, plusieurs types de migrations planétaires peuvent avoir lieu. On distingue trois types de migration de planètes. Les deux premiers types de migrations ont lieu lorsque la proto-étoile est toujours entourée d'un disque soit de gaz (migration de type I) soit de planétésimaux (migration de type II).

Après la dispersion du disque de gaz et de planétésimaux, les planètes peuvent toujours intéragir avec les petits corps rescapés de l'accrétion planétaire. Étant donnée la composition actuelle des planètes Uranus et Neptune (elles contiennent, toutes deux, un coeur solide : signe qu'elles ont du se former plus proche du Soleil), il y a de forts soupçons sur le fait que la migration tardive des planètes du Système solaire soit responsable de l'orbite actuelle d'Uranus et Neptune à, respectivement, 20 et 30 UA du Soleil.

Ces migrations planétaires sont notamment une explication plausible pour l'existence des " Jupiters chauds " : planètes trés massives et trés proches de leur étoile.

Pour en savoir plus sur les migrations planétaires : voir la page en suivant le lien.


Comprendre

Auteur: Valérie Ciarletti

Mouvement d'une planète autour de son étoile - Introduction

Les exoplanètes, comme les planètes et autres corps de notre système solaire sont soumises à loi de la gravitation ou attraction universelle. Cette loi a été historiquement formalisée par Isaac Newton en 1687. Elle permet de modéliser, de façon générale, l'attraction entre des corps ayant une masse et, par conséquent, décrire le mouvement des corps massiques soumis aux forces de gravitation. Dans les pages qui suivent, le principe fondamental de la dynamique est utilisé pour étudié le mouvement de deux corps massiques isolés et démontrer les lois de Kepler.


Le problème à deux corps

On cherche à étudier le mouvement de deux corps de masses M_1 et M_2 assimilés à deux points matériels localisés aux points P_1 et P_2 qui sont leur centre de gravité. Le système de ces deux corps étant isolé on fait l'étude dans un référenciel (R) supposé Galiléen d'origine arbitraire.

Les forces en présence

Lorsque deux corps massiques sont en présence l'un de l'autre, l'effet de la gravitation qui agit sur ces corps se traduit par une force d'attraction. Si ces deux corps sont assimilés à des points matériels localisés en leur centre de gravité, cette force est proportionnelle aux deux masses en jeu et inversement proportionnelle à la distance au carré entre les deux points.

Cette force explique aussi bien la chute des corps sur Terre que le mouvement d'une planète autour de son soleil ou d'une lune autour de sa planète.

L'attraction gravitationnelle
grav.jpg

On a la force exercée par M_1 sur M_2,  \overrightarrow{F_1_2}=-G \frac{M_1 M_2}{|\overrightarrow{P_2P_1}|^3}\overrightarrow{P_1P_2} et, par symétrie, la force exercée par M_2 sur M_1 ,  \overrightarrow{F_2_1}=-G \frac{M_2 M_1}{|\overrightarrow{P_1P_2}|^3}\overrightarrow{P_2P_1}

La constante de gravitation universelle est G=6,67 .10^-^1^1 \; \mathrm{N \cdot m^2 \cdot kg^{-2}}

On remarque que  \vec{F}_2_1=- \vec{F}_1_2 en accord avec la loi de l'action et de la réaction pour un système isolé.

Dans ce référentiel (R), le principe fondamental de la dynamique appliqué aux deux corps donne donc deux équations couplées

\left\{   \begin{array}{l l l}  {{M_1}\ddot{\overrightarrow{OP_1}}=-G {M_1}\frac{M_2}{|\overrightarrow{P_2P_1}|^3}\overrightarrow{P_1P_2}}\\  {{M_2}\ddot{\overrightarrow{OP_2}} = -G {M_2}\frac{M_1 }{|\overrightarrow{P_2P_1}|^3}\overrightarrow{P_2P_1}=-{{M_1}\ddot{\overrightarrow{OP_1}}\end{array}

L'objectif est de connaître la position des centres de gravité P_1 et de P_2 en fonction du temps.

Le choix du référentiel de travail - Réduction à un problème à un corps

Si on considère l'ensemble des deux corps, le centre de gravité (ou barycentre) C est défini de la façon suivante :

{(M_1+M_2)} \overrightarrow{OC}={M_1}{\overrightarrow{OP_1}}+{M_2}{\overrightarrow{OP_2}}

On dérive deux fois par rapport au temps et on utilise le fait que {M_1}{\ddot{\overrightarrow{OP_1}}}=-{M_2}{\ddot{\overrightarrow{OP_2}}} , on obtient alors

{(M_1+M_2)} \ddot{\overrightarrow{OC}}={M_1}{\ddot{\overrightarrow{OP_1}}}+{M_2}{\ddot{\overrightarrow{OP_2}}}=\overrightarrow{0}}

Ce qui traduit le fait que le barycentre C est en mouvement rectligne et uniforme dans le référentiel (R). Le repère barycentrique (R_C) dont l'origine est le centre de gravité des deux corps est donc lui aussi Galiléen.

On choisit de travailler dans le repère (R_C) ce qui permet de découpler le mouvement du barycentre des mouvements relatifs des deux corps.

Les équations du mouvement dans le repère barycentrique (R_C)

On note \vec{r}_1=\overrightarrow{CP_1} , \vec{r}_2=\overrightarrow{CP_2}

et on introduit \vec{r}=\overrightarrow{P_2P_1}=\overrightarrow{OP_1}-\overrightarrow{OP_2}=\overrightarrow{r_1}}-\overrightarrow{r_2}}

soit \left\{   \begin{array}{l l}  {\overrightarrow{r_1}}=\overrightarrow{CP_1}}=\overrightarrow{CO}}+\overrightarrow{OP_1}} \\  {\overrightarrow{r_2}}=\overrightarrow{CP_2}}=\overrightarrow{CO}}+\overrightarrow{OP_2}} \end{array}

Avec ces notations, les équations du mouvement dans le repère barycentrique deviennent :

\left\{   \begin{array}{l l l}  {M_{1}\ddot{\overrightarrow{{r_{1}}}}=\overrightarrow{F_{21}}}\\  {M_2\ddot{\overrightarrow{{r_2}}} = \overrightarrow{F_{12}}=- \overrightarrow{F_{21}}}\end{array}

L'expression des forces d'attraction gravitationnelle permet de réécrire ce système sous la forme :

\displaystyle \left\{   \begin{array}{l l}  {\ddot{\overrightarrow{r_{1}}}}=\frac{\overrightarrow{F_{21}}}{M_1}\\\\{\ddot{\overrightarrow{r_2}} = -\frac{\overrightarrow{F_{21}}}{M_2}\end{array} et d'obtenir par différence \ddot{\overrightarrow{r}}}=\ddot{\overrightarrow{r_{1}}}}-\ddot{\overrightarrow{r_{2}}}}=\frac{\overrightarrow{F_{21}}}{M_1}+\frac{\overrightarrow{F_{21}}}{M_2}=\overrightarrow{F_{21}}}(\frac{1}{M_1}+\frac{1}{M_2}})

\frac{M_1M_2}{M_2+M_1}}\ddot{\overrightarrow{r}}}=\overrightarrow{F_{21}}}

Cette équation peut être interprétée comme l'équation du mouvement d'un corps ponctuel fictif de masse \mu=\frac{M_1M_2}{M_2+M_1} (appeléee masse réduite du système) soumis à la force \overrightarrow{F_{21}}}, soit \mu\ddot{\overrightarrow{r}}}=\overrightarrow{F_{21}}}. Dans la suite, ce point fictif sera noté P .

Le problème à deux corps se réduit donc à un problème à un corps fictif unique. On aboutit à une équation unique pour le mouvement de P dans laquelle n'apparait que l'inconnue \vec{r}.Cette équation est valable dans le repère baycentrique (R_C).

              {\mu}\ddot{\overrightarrow{r}}}=\mu \frac{d^2\overrightarrow{r}}{dt^2}=-G M_2 M_1 \frac{\overrightarrow{r}}{|\overrightarrow{r}|^3}

L'expression de la force de gravité permet a priori de modéliser l'interaction entre plusieurs corps (étoiles, planètes, lunes, petits corps ...). Cependant, seul le problème à deux corps peut être mathématiquement résolu sans approximation.


Equation du mouvement lorsque l'étoile est beaucoup plus massive que la planète

On suppose ici que M_1 \gg M_2

Dans le repère barycentrique, le point P_1 qui correspond au corps le plus massif est immobile. En effet, la position du centre de gravité est confondue avec celle du corps le plus massif, comme le montre le calcul suivant.

{(M_1+M_2)} \overrightarrow{OC}={M_1}{\overrightarrow{OP_1}}+{M_2}{\overrightarrow{OP_2}} devient \overrightarrow{OC}={\overrightarrow{OP_1}}

La masse \mu du point P est très voisine de celle M_2 du corps le plus léger. En effet, \mu=\frac{M_1M_2}{M_2+M_1}}=\frac{M_2}{1+\frac{M_2}{M_1}}} \approx{M_2}

Le corps 2 est donc en orbite autour du corps 1 dont le mouvement est négligeable. Cette situation particulière se présente fréquemment dans le cas d'une planète en interaction avec son étoile qui est souvent nettement plus massive qu'elle.


Etude du mouvement

On part de l'équation obtenue précédemment {\mu}\ddot{\overrightarrow{r}}}=-G M_2 M_1\frac{\overrightarrow{r}}{|\overrightarrow{r}|^3} dans le repère barycentrique (R_C).

Le vecteur position \overrightarrow{r}=\overrightarrow{CP} est défini à partir du centre de gravité C qui l'origine du repère.

\overrightarrow{r} est l'inconnue dont il faut déterminer l'évolution en fonction du temps.

Démonstration de la planeité de la trajectoire - Première loi de Kepler

On démontre en utilisant le théorème du moment cinétique que la trajectoire du point P est plane. C'est la première loi de Kepler.

Le moment cinétique \overrightarrow{L} d'un point en mouvement est défini, pour un repère particulier et par rapport à l'origine du repère, de la façon suivante {\overrightarrow{L}}=\mu \overrightarrow{r}} \wedge\overrightarrow{v}} . Le théorème du moment cinétique (qui se déduit des lois de la mécanique) exprime le fait que la dérivée de ce moment cinétique \overrightarrow{L} est le produit vectoriel du rayon vecteur \overrightarrow{r} et de la force \overrightarrow{F}.

Pour le cas qui nous intéresse, dans le repère barycentrique (R_C) au point C, on a donc

\frac{d\overrightarrow{L}}{dt}=\overrightarrow{r}} \wedge\overrightarrow{F}}=-G \overrightarrow{r}} \wedge\frac{\overrightarrow{r}}{|\overrightarrow{r}|^3} puisque \overrightarrow{F}=-G \frac{\overrightarrow{r}}{|\overrightarrow{r}|^3}

Le produit vectoriel de deux vecteurs colinéaires étant nul, on obtient \frac{d\overrightarrow{L}}{dt}=\overrightarrow{0}. \overrightarrow{L} est donc un vecteur constant.

Or, du fait du produit vectoriel, le vecteur {\overrightarrow{L}}=\mu \overrightarrow{r}} \wedge\overrightarrow{v}} doit être orthogonal à chacun des vecteurs \overrightarrow{r} et \overrightarrow{v}. On montre ainsi que le plan défini en tout instant par les deux vecteurs \overrightarrow{r} et \overrightarrow{v} est invariant (orthogonal à l'axe défini par ce vecteur constant \overrightarrow{L} ). C'est le plan dans lequel le point évolue.

En conclusion, la trajectoire du point P est bien plane.


Etude du mouvement

Démonstration de la loi des aires - Deuxième loi de Kepler

A partir du moment cinétique, il est aussi possible de démontrer la loi des aires.

Nous avons démontré précédemment que la trajectoire du point P restait dans un plan fixe qui est perpendiculaire à la direction du moment cinétique constant. Dans ce plan, il est donc possible de décrire le mouvement en coordonnées polaires. l'angle polaire sera noté ν (il s'agit de l'anomalie vraie définie dans La première loi de Kepler )

Dans ce système de coordonnées, on a \overrightarrow{r}=r\overrightarrow{e{_r}} , \overrightarrow{v}=\dot\overright{r}\overrightarrow{e{_r}}+r\dot\overright{\nu}\overrightarrow{e{_\nu}} et \overrightarrow{a}=(\ddot\overright{r}-r\dot\overright{\nu}^2)\overrightarrow{e{_r}}+(2\dot\overright{r}\dot\overright{\nu}+r\ddot{\nu})\overrightarrow{e{_\nu}}

Il est possible dès à présent de simplifier l'experssion de l'accélération puisque la force n'a pas de composante que selon l'axe \overrightarrow{e{_\nu}}. On a \overrightarrow{a}=(\ddot\overright{r}-r\dot\overright{\nu}^2)\overrightarrow{e{_r}}

Avec ces notation, le moment cynétique constant s'écrit {\overrightarrow{L}}=\mu \overrightarrow{r}} \wedge\overrightarrow{v}}=\mu r\overrightarrow{e{_r}}\wedge(\(r\overrightarrow{e{_r}}+r\dot\overright{\nu}\overrightarrow{e{_\nu}})=\mu r^2\dot\overright{\nu}\overrightarrow{e{_z}} .

On démontre ainsi, puisque {\overrightarrow{L}} est un vecteur constant, que la quantité V_A=r^2\dot\overright{\nu} (appelée vitesse aréolaire) reste constante lors du mouvement du corps autour du point C.

Or \frac{r^2\dot\overright{\nu}}2 dt est l'aire balayée pendant la durée dt par le vecteur {\overrightarrow{CP}} .

Géométrie illustrant la loi des aires
loidesaires.jpg

On en déduit donc que la surface balayée (en rouge sur la figure) pendant un temps dt donné est constante le long de la trajectoire et égale à \frac{r^2\dot\overright{\nu}}2 dt. C'est la loi des aires de Kepler.

Remarque 1 : On peut également noter que si r^2\dot\overright{\nu} est une constante, alors le signe de \dot\overright{\nu} est constant, ce qui traduit le fait que la rotation s'effectue toujours dans le même sens.

Remarque 2 : On peut utiliser la relation V_A=r^2\dot\overright{\nu} pour exprimer les dérivées de r et de \nu par rapport au temps et réecrire l'accélération du point P en introduisant la fonction u(\nu)=1/r. \dot{r}=\frac{dr}{dt}=\frac{d(1/u)}{dt}=-\frac{du}{dt}\frac{1}{u^2}=\frac{du}{d\nu}\frac{d\nu}{dt}\frac{1}{u^2}=-u'\dot{\nu}\frac{1}{u^2}=-u'V_A en notant \frac{du}{d\nu}=u' \ddot{r}=\frac{d^2r}{dt^2}=\frac{d(1/u)}{dt}=-u''\dot{\nu}V_A=-u''u^2V_A^2 en notant \frac{d^2u}{d\nu^2}=u'' \dot\overright{\nu}=V_Au^2

L'accélération \overrightarrow{a} devient alors \overrightarrow{a}=(\ddot\overright{r}-r\dot\overright{\nu}^2)\overrightarrow{e{_r}}=-V_A^2u^2(u''+u)\overrightarrow{e{_r}} . Cette expression sera utilisée par la suite pour trouver l'équation de la trajectoire du point P.


Equation de la trajectoire

Les solutions de l'équation du mouvementpermettent de déterminer la façon dont la position du point P déterminée par les deux variables r(t) et \nu(t) évolue au cours du temps. Cependant, la résolution de cette équation différentielle, n'est pas possible analytiquement. Nous allons donc nous focaliser sur la relation entre la distance r et l'angle polaire \nu qui modélise la trajectoire du point P dans le plan de l'orbite.

Le résultat recherché est obtenu en utilisant la fonction u(\nu)=1/r introduite précédemment. Avec cette nouvelle variable, l'équation {\mu}\ddot{\overrightarrow{r}}}=-G M_2 M_1\frac{\overrightarrow{r}}{|\overrightarrow{r}|^3} devient {\mu}V_A^2u^2(u''+u)\overrightarrow{e{_r}}=G M_2 M_1u^2\overrightarrow{e{_r}}

soit après simplifications : u''+u=G \frac{(M_2+M_1)}{ V_A^2}

Remarque : Cette équation peut également être obtenue en utilisant la conservation de l'énergie mécanique (cinétique+potentielle) du point P

L'équation à résoudre est une équation différentielle du second ordre (présence de u'') à coefficients constants avec second membre constant G \frac{(M_2+M_1)}{ V_A^2}.

La solution de cette équation est la somme d'une solution particulière de l'équation complète avec second membre et de la solution générale de l'équation sans second membre. On choisit comme solution particulière la solution constante égale à G \frac{(M_2+M_1)}{ V_A^2}.

La solution générale de l'équation sans second membre u''+u=0 est une fonction sinusoïdale de phase à l'origine et d'amplitude qui dépendent des conditions initiales du problème.

Au final, on obtient donc une solution de la forme u(t)=a cos(\nu(t)-{\nu}_0)+G \frac{(M_2+M_1)}{ V_A^2}.

Il est maintenant possible de repasser à la fonction r(t) et on obtient l'équation en polaire d'une conique :

r(t)=\frac{1}{u_0 cos(\nu(t)-{\nu}_0)+G \frac{(M_2+M_1)}{ V_A^2}}=\frac{ {V_A}^2}{G(M_2+M_1)}\frac{1}{\frac{u_0 V_A^2}{G(M_2+M_1)} cos(\nu(t)-{\nu}_0)+1}

Par identification aux paramètres de l'équation classique de l'ellipse r=a \left( \frac{1-e^2}{1+e \cos(\nu)} \right), on a

e= \frac{u_0 V_A^2}{G(M_1+M_2)} et a= \frac{\frac{{V_A}^2}{G(M_1+M_2)}}{1-{{(\frac{u_0 V_A^2}{G(M_1+M_2)}})}^2}


Exercice sur la trajectoire circulaire

exerciceExercice

Difficulté : ☆☆  

Vous vous intéressez à la trajectoire du corps fictif (F) de masse \mu=\frac{M_1M_2}{M_2+M_1} qui est en orbite autour du centre de gravité (C) du système isolé planète-étoile, ceci dans le cas particulier d'une orbite circulaire.

Question 1)

Utilisez la relation \mu \frac{d^2\overrightarrow{r}}{dt^2}=-G M_2 M_1\frac{\overrightarrow{r}}{|\overrightarrow{r}|^3} pour montrer que, dans le cas d'une trajectoire circulaire, la vitesse est constante en module sur toute la trajectoire circulaire suivie par le point fictif (F) autour du centre de masse des deux corps. Exprimez cette vitesse en fonction du rayon R du cercle suivi par (F) .

Question 2)

Exprimer la période T de l'orbite (temps mis par le corps pour parcourir une fois le cercle).Vérifier, toujours dans le cas d'une trajectoire circulaire, la deuxième loi de Kepler.

Question 3)

Dans le cas particulier où ce point est confondu avec le centre de gravité de la planète (M_1 \gg M_2 ), simplifier les expressions obtenues précédemment.


Forme des trajectoires

Evolution de la distance planète-étoile et de la vitesse instantanée le long de l'orbite
vrbis.jpg
Mise en évidence de l'effet de l'excentricté e sur la vitesse instantanée de déplacement de la planète sur son orbite. Le cas particulier de l'orbite circulaire est représenté en rouge.

Les animations ci-dessous montrent l'effet de cette force d'attraction en fonction du rapport des deux masses en jeu. La croix rouge imobile correspond au centre de gravité (barycentre) de l'ensemble.

mouvement de deux corps de même masse
orbitun.gif
mouvement de deux corps de masse très différente
orbitquatre.gif

description des orbites

Pour faire les calculs du mouvement d'une planète et de son étoile nous nous avons choisi un repère approprié pour simplifier les calculs (centre du repère au centre de masse, deux axes dans le plan de l'ellipse, ...), il faut maintenant tenir compte du fait que cette ellipse possède une certaine orientation dans l'espace et compléter la liste de paramètres que nous avons pour l'instant. Une orbite elliptique est décrite au moyen de deux plans (le plan de l'orbite et le plan de référence) et de six paramètres

Description de l'ellipse et du mouvement du corps dans le plan orbital

Plan orbital et mouvement de la planète sur son orbite
planorbite.jpg

Description du plan orbital

L'orientation du plan orbital est donnée par rapport à un plan de référence.

Plan orbital et Plan de référence
planorbiteetreference.jpg

Orientation du plan orbital par rapport au plan de référence


Méthodes de détection des exoplanètes fondées sur le mouvement

Méthode des transits

le transit désigne le passage d'une planète entre son étoile et nous. L'observation consiste à mesurer la variation du flux stellaire lors de ce passage de façon à obtenir des informations sur la planète étudiée et son orbite. La première planète ainsi découverte est HD209458b en 2000 (Charbonneau et al. 2000). Le principe est illustré sur la figure ci-dessous. Cette méthode permet de détecter la présence d'une exoplanète en orbite autout de son étoile et d'avoir accès à certains paramètres de l'ellipse. Pour en savoir plus, voir cours sur la méthode de détection des exoplanètes par la méthode des transits.

Illustration du principe de la méthode des transits (crédit CNES)
CNEStransits.gif

Dans notre système solaire, on peut observer depuis la Terre le transit des planètes Mercure et Vénus qui sont sur des orbites plus proches du soleil que celle de la Terre. Johannes Kepler a été le premier à prédire et pouvoir observer le transit de Mercure en novembre 1631, ainsi que celui de Vénus un mois plus tard.

Méthode des vitesses radiales

Principe : On mesure par effet Doppler la vitesse d'éloignement ou de rapprochement de l'étoile, on peut détecter ainsi qu'il y a une planète en orbite et estimer la période de révolution. Pour en savoir plus,voir cours sur la méthode de détection des exoplanètes par la méthode des vitesses radiales.

Illustration du principe de la méthode des vitesses radiales (crédit CNES)
CNESvitessesradiales.gif

Problème à N corps

Le cas d'un problème à deux corps, qui a été traité précédemment et qui permet de démontrer les lois de Kepler, est une approximation valable lorsque l'on peut négliger les forces de gravitation dues aux autres corps.

Le problème à N (N>2) corps se pose lorsque N corps massifs interagissent sans que l'on puisse a priori négliger certaines de ces interactions. Dans ce cas, on a un système de N équations à N inconnues qui sont les positions \vec{r_i} des centres de gravité des N corps de masse M_{j} .

\forall j : 1- N, {M_{j}\ddot{\overrightarrow{{r_{j}}}}=\sum_{i=1}^{N}{\vec{F_j_i}}

\forall j : 1- N, {\ddot{\overrightarrow{{r_{j}}}}=-G  \sum_{i=1}^{N}{\left(\frac{ M_i}{{r_{ji}}^3}\right)\vec{r}_j_i} avec \vec{r}_j_i=\vec{r}_i-\vec{r}_j

Trouver analytiquement les solutions de ce système d'équations est impossible dans le cas général. Il faut recourir à des méthodes de résolutions approchées (perturbatives ou numériques).


Les points de Lagrange

Dans le cas particulier du problème à trois corps, on s'intéresse ici au mouvement d'un corps 'test' de masse négligeable L qui subit l'attraction de deux corps plus massifs\ P_1 et\ P_2. Le fait que la masse du corps L soit négligeable permet de considérer que les mouvements de\ P_1 et\ P_2 ne sont pas perturbés par la présence de L.

Pour simplifier la présentation du problème, nous allons nous restreindre au cas où\ P_1 est l'étoile et\ P_2 une planète, beaucoup moins massive, est en orbite circulaire autour de son étoile.

Le mathématicien Joseph-Louis Lagrange (1772) étudie ce problème. Il montre qu'il existe 5 points, dits de Lagrange (notés \L_1 à \L_5), pour lesquels les forces d'attraction de\ P_1 et\ P_2 se combinent de façon à ce que le corps "test" L de masse négligeable ait la même période de révolution que les deux autres corps et les suive donc dans leur mouvement autour du centre de gravité de\ P_1 et\ P_2.

En contradiction apparente avec les résultats obtenus dans le cadre du problème à deux corps, on peut trouver des corps de masse négligeable qui ont donc une période de révolution égale à celle de la planète mais qui ne sont pas sur la même orbite.

On montre que les points \L_1 , \L_2 et \L_3 (parfois appelés Points d'Euler) correspondent à des positions instables alors que les points \L_4 et \L_5 correspondent à des positions stables. Les positions de ces deux derniers points ne dépendent pas des masses des points\ P_1 et\ P_2. Dans le cas, du système Soleil/Jupiter, ce sont au voisinage de ces points que se trouvent les nombreux astéroïdes troyens qui suivent (ou précèdent) la révolution de la Terre autour du Soleil. D'autres planètes du système solaire sont suivies ou précédées également par des petits corps troyens (la liste des troyens détectés à ce jour dans notre système solaire est disponible sur le site du Minor Planet Center )

Visualisation des points de Lagrange
Lagrange.jpg
Positions des points de Lagrange pour le système étoile-planète (représentées en rouge). Les points de Lagrange stables sont représentés en vert, les points instables en bleu.

Appliquette Système Solaire application.png

exerciceEtude par simulation numérique des points de Lagrange

Vous allez utiliser l'appliquette pour visualiser les points de Lagrange (astéroïdes Troyens) stables et instables d'un système étoile-planète.

Attention : Cette appliquette utilise un système d'unités arbitraire pour les distances, vitesses, masses et temps de façon à ce que les valeurs numériques restent inférieures à un millier.

Question 1)

Choisissez pour commencer le système 'astéroïdes Troyens' proposé par l'appliquette

Laissez évoluer ce système, sans modifier les conditions initiales, jusqu'à 100 unités de temps pour vérifier que les deux petits corps positionnés aux points de Lagrange \L_4 et \L_5 ont bien la même période de révolution autour de l'étoile que la planète.

Vérifiez qu'initialement les trois corps ont des vitesses très voisines.

Modifiez la masse de l'un des astéroides (de 0.001 à 1 par exemple) et observer le changement qui apparait après un temps suffisamment long d'environ 50 unités. Expliquez ce qui se passe et proposez une explication.

Question 2)

Vous allez maintenant utiliser l'appliquette afin d'étudier les mouvements d'un corps de masse négligeable au voisinage des points de Lagrange instables L_1 et L_2 (situés de part et d'autre de la planète sur l'axe entre la planète et l'étoile).

Créez pour commencer un système à deux corps avec les valeurs numériques suivantes pour l'étoile et la planète : M_1=500, M_2=10, P_1P_2=120, V_1=0. Trouver (en tâtonnant) une valeur de la vitesse initiale qui permet d'avoir une orbite quasi-circulaire pour la planète. Vérifiez que l'orbite de P_2 autour de C est voisine d'une orbite circulaire.

Question 3)

Etude des points de Lagrange L_1 et L_2

Vous allez maintenant ajouter à ce système un troisième corps de masse très faible aux positions qui correspondent aux points de Lagrange L_1 et L_2.

On peut montrer par méthode perturbative que les positions de L_1 et L_2 par rapport au centre de masse C du système étoile-planète sont données par les développements limités suivants:

CL_1=CP_2 +P_1P_2(-\epsilon+\frac{1}{3}\epsilon^2+\frac{1}{9}\epsilon^3+...) et CL_2=CP_2 +P_1P_2(\epsilon+\frac{1}{3}\epsilon^2-\frac{1}{9}\epsilon^3+...)

avec \epsilon=({\frac{1}{3}\frac{M_2}{M_2+M_1}})^\frac{1}{3}

Calculer la valeur de CL_1 et CL_2 pour la configuration que vous allez simuler.

Question 4)

Ajoutez dans le système à deux corps, un point de masse négligeable sur l'axe étoile-planète à la position L_2 que vous avez précédemment calculée. Donnez à ce petit corps une vitesse initiale quelconque et observez ce que donne la simulation. Etudiez, en prenant quelques valeurs de vitesse différentes, l'impact sur la trajectoire du petit corps. Trouvez une valeur de vitesse initiale qui permet à ce petit corps d'avoir une vitesse angulaire proche de celle de la planète en révolution autour du soleil (au moins pendant une courte durée)

Question 5)

Reprennez les questions précédentes pour la position L_1 que vous avez calculée.


Se tester

Auteur: Valérie Ciarletti

Exercices

Pour vérifier que vous avez compris et retenu les notions de base de ce module

qcmQCM sur les lois de Kepler

1)  Le mouvement d'une planète autour de son étoile (en l'absence de tout autre corps) est contenue dans un plan.


2)  La trajectoire d'un corps soumis à l'attraction d'un second corps est toujours une ellipse


3)  Dans le cas d'un système à deux corps (planète-étoile), la trajectoire de la planète est une ellipse dont un foyer est le centre de l'étoile.


4)  Une planète qui suit une trajectoire elliptique, atteint sa vitesse maximale quand elle est au périastre.



Mini Projet

Auteur: Lucie Maquet

Mini Projet

exerciceMasse du trou noir central de la Voie Lactée

L’observation du centre de notre Galaxie a révélé la présence d’étoiles en orbite autour d’une masse invisible. L’observation de l’étoile S2 autour du centre galactique a été menée sur une dizaine d’années et a ainsi permis de mesurer la masse du corps central invisible. La concentration de masse associée à l’absence de rayonnements visible ou même infrarouge, laisse suspecter la présence d’un trou noir super massif. Dans cette première partie du mini projet, nous vous proposons d’étudier l’orbite de l’étoile S2 et de pouvoir ainsi déterminer la masse du trou noir central.

Appliquette pour le mini-projet application.png

Question 1)

Pourquoi l'approximation du système à 2 corps semble-t-elle convenable ?

Orbite de S2 autour du trou noir SgrA*
eso_trou_noir.png

Question 2)

À l'aide de l'appliquette représentant l’orbite projetée dans le plan du ciel de l’étoile ainsi que le trou noir central SgrA*, repérer géométriquement le centre de l’ellipse.

Question 3)

Tracer la projection du grand-axe de l’orbite de S2 et évaluer l’excentricité de l’orbite. (L’excentricité évaluée par le rapport de la distance centre/foyer sur le demi grand axe reste préservée par projection par application du théorème de Thalès)

Question 4)

Lorsque l'étoile S2 est au périastre, elle se situe à une distance angulaire de 0,015". Notre Système solaire étant situé à 8000pc du centre galactique, estimer la distance du périastre au trou noir en unités astronomiques. En déduire le demi-grand axe de l'orbite réelle de l'étoile autour du trou noir en unités astronomiques.

Question 5)

À partir de la figure, déterminer la période de révolution de l'étoile. Grâce aux lois de Kepler, en déduire la masse du trou noir central de notre galaxie (nous sommes dans les conditions ou l'astre central est beaucoup plus massif que l'étoile S2).

exerciceDétermination de la masse de Jupiter grâce aux orbites de ses satellites

De la même façon que pour estimer la masse du trou noir central de notre galaxie, il est possible d'estimer la masse de toutes les planètes possèdant un ou plusieurs satellites. Dans cet exercice, nous allons estimer la masse de Jupiter grâce aux orbites des satellites galiléens (Io, Europe, Ganymède et Callisto). Pour déterminer les positions des satellites par rapport à la planète, nous allons faire appel au serveur d'éphémérides de l'IMCCE.

Question 1)

Déterminez la distance Io-Jupiter pour 6 dates prises à 6h d'intervalle. Pour cela, grâce au serveur d'éphémérides, on se place dans un repére héliocentrique et en coordonnées rectangulaires. On peut ainsi obtenir la position de Io et de Jupiter. Que peut-on en conclure sur la forme de l'orbite du satellite autour de la planète.

Question 2)

Dans la suite de l'exercice, nous ferons l'approximation que l'orbite du satellite est circulaire. On se place à présent dans un repére géocentrique en coordonnées sphériques. Déterminez la distance apparente Jupiter-Io pour une vingtaine de date prise toute les 3h. (Vous pouvez vous servir d'un tableur afin de réaliser les calculs.) La distance Jupiter-Io est comptée positement vers l'ouest et négativement vers l'est.

Question 3)

Tracez cette distance apparente en fonction du temps et déterminer la période de révolution du satellite et le rayon de son orbite. En déduire la masse de Jupiter.

Question 4)

Recommencez l'étude avec les autres satellites galiléens (pensez à échantilloner différemment les dates car les périodes de révolution des satellites sont de plus en plus grandes).

Question 5)

Les masses déterminées avec chacun des satellites sont-elles toujours égales ? D'où viennent ces différences ?

Question 6)

Cet exercice peut aussi être réalisé en observant Jupiter et ses satellites avec un petit télescope ou une lunette et en prenant des clichés de la position du système à intervalle de temps régulier. Pour simuler ces observations, vous pouvez vous appuyer sur le logiciel libre stellarium et effectuer ces mesures à partir de capture d'écran à intervalle de temps régulier.


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Petits corps du système solaire

Auteur: Nicolas Fray

Petits corps du système solaire

Dans cette partie, nous verrons les caractéristiques essentielles des petits corps du Système Solaire principalement les astéroïdes, les objets transneptuniens et les comètes.

La partie Décrire présente ces caractéristiques de façon aussi simple que possible et peut être lue avec des connaissances de niveau de terminale scientifique. En revanche, la partie Comprendre a pour objectif de démontrer quelques uns des résultats présentés précédemment et requiert un bagage en physique générale d’un niveau de licence.


Décrire

Auteur: Nicolas Fray

Qu'est ce qu'un petit corps ?

En 2006, l’Union astronomique internationale (UAI) a défini les petits corps du système solaire comme étant tous les objets orbitant autour du Soleil qui ne sont ni une planète, ni une planète naine, ni un satellite. Les petits corps sont donc définis par opposition aux autres objets du système solaire. En pratique, les petits corps du système solaire sont les objets orbitant autour du Soleil mais n’ayant pas une masse suffisante pour avoir une forme presque sphérique et qui n’ont pas fait place nette dans leur voisinage.

La résolution de l'UAI définissant les différents objets du système solaire peut être trouvée ici : https://www.iau.org/static/resolutions/Resolution_GA26-5-6.pdf


Les différentes familles de petits corps

L’usage distingue différents types de petits corps et en particulier, les astéroïdes, les objets de Kuiper et les comètes. Néanmoins, l’UAI n’a pas défini ces différentes appellations. Nous appellerons « astéroïdes » les petits corps dont l’ensemble de l’orbite est contenue à l’intérieur de celle de Neptune et « objets de Kuiper » ceux dont au moins une partie de l’orbite est située au-delà de celle de Neptune. D’autre part, nous définirons par « comète » les petits corps qui présentent une activité, c’est-à-dire l’émission de gaz et de poussières, sur une partie de leur orbite.

La majorité des astéroïdes est située entre Mars et Jupiter. Cet ensemble forme la ceinture principale d’astéroïdes. Néanmoins, l’orbite de certains astéroïdes peut croiser celle de la Terre, ceux-ci sont parfois appelés les géo-croiseurs. D'autres astéroïdes, appelés les troyens, circulent sur les mêmes orbites que les planètes et ceux dont des orbites sont comprises entre celles des planètes géantes sont appélés centaures. Les objets de Kuiper sont quant à eux majoritairement situés entre 30 et 50 unités astronomiques et forment la ceinture de Kuiper. Les comètes peuvent provenir d'au moins deux réservoirs : la ceinture de Kuiper et le nuage de Oort qui pourrait s'étendre jusqu'à 100 000 unités astronomiques du Soleil.

D’autre part, les poussières micrométriques gravitant sur le plan de l’écliptique et formant la lumière zodiacale peuvent aussi être considérées comme des petits corps même si leurs dimensions sont extrêmement faibles.


Les astéroïdes : introduction et historique

Le premier astéroïde a été découvert par Giuseppe Piazzi dans la nuit du 1er janvier 1801. Il s’agit de Cérès. Les calculs orbitaux montrèrent rapidement que ce nouvel objet se situait entre les planètes Mars et Jupiter. Entre 1802 et 1807, trois autres astéroïdes : Pallas, Junon et Vesta furent découverts sur des orbites très similaires. La recherche des petits corps du système solaire ne présentant pas d’activité cométaire, commença donc au début du 19ème siècle.

L’étude des astéroïdes présente un intérêt notable car elle permet de mieux comprendre les origines et la formation du système solaire dans son ensemble (voir notamment la page sur la composition des astéroïdes).

Afin de pouvoir connaître le plus grand nombre possible d'astéroïdes, des programmes de recherche automatique d’astéroïdes ont été conçus. Il s’agit de caméras CCD couplées à des télescopes dont les images prises à intervalles réguliers sont comparées automatiquement. Ces programmes permettent de découvrir de nombreux astéroïdes tous les mois. La page d’accueil du Minor Planet Center (http://minorplanetcenter.net/) donnant le nombre de découvertes lors du mois et de l’année en cours est particulièrement éloquente.

Dès qu’un nouveau petit corps est observé, il reçoit une désignation provisoire codant la date de la 1ère observation. Une fois que l’orbite d’un petit corps est clairement établie chaque corps reçoit un numéro permanent. Au 10 Févier 2015, 680 035 petits corps avaient été observés dont 427 393 ont une orbite bien définie (http://www.minorplanetcenter.net/mpc/summary).


Les astéroïdes : orbites

La majorité des astéroïdes est située entre Mars et Jupiter et plus précisément entre 2.1 et 3.3 unités astronomiques du Soleil. D’autre part, l’inclinaison des orbites des astéroïdes et généralement très faible, inférieure à 4°, les astéroïdes gravitent donc autour du Soleil dans une zone proche du plan de l’écliptique. La distribution des astéroïdes en fonction du demi-grand axe de leurs orbites présente des discontinuités appelées « lacunes de Kirkwood » qui sont des zones de la ceinture d’astéroïdes peu peuplée. En effet, l’orbite des astéroïdes présents dans ces zones n’est pas stable sur de longues périodes à cause des effets de résonances orbitales avec Jupiter.

Sur la figure ci-contre, on remarquera une faible population d’astéroïdes dont le demi-grand axe est compris entre 0.8 et 1.8 unités astronomiques. Parmi ceux-ci, certains peuvent avoir une orbite croisant celle de la Terre, il s’agit des astéroïdes géo-croiseurs qui sont aussi appelés NEO (Near Earth Objects). Les astéroïdes ayant un demi-grand axe de 5.2 unités astronomiques ont une orbite stable et identique à celle de Jupiter et ils se répartissent aux alentours de certains points de Lagrange de Jupiter qui correspondent à des zones de stabilité https://media4.obspm.fr/public/FSU/pages_points-lagrange/impression.html.

La distribution spatiale des astéroïdes dans la ceinture principale
asteroide_distribution_2.gif
Distribution des astéroïdes en fonction du demi-grand axe de leurs orbites.
Crédit : MPC / http://www.minorplanetcenter.net/iau/plot/OrbEls01.gif

Les astéroïdes : tailles

Les astéroïdes ont des tailles extrêmement variables. Le plus gros et le plus massif, Cérès, présente un diamètre équatorial de 975 km. D’autre part, Cérès ayant une forme proche de la sphère il est aujourd’hui considéré comme une planète naine. Les grands astéroïdes, du type de Cérès, sont les plus rares, néanmoins ils représentent une fraction notable de la masse contenue dans la ceinture principale. Ainsi, avec une masse de 9.5 × 1020 kg, Cérès représente à lui seul environ un tiers de la masse totale de la ceinture principale. Mais, d’une manière générale, le nombre d’astéroïdes croît lorsque leur taille diminue. Aussi, la très grande majorité des astéroïdes ont des dimensions beaucoup plus petites et peuvent avoir des formes très éloignées d’une sphère. C’est en particulier les cas de l’astéroïde Eros qui a été survolé en 2000 par la sonde spatiale NEAR (Near Earth Asteroid Rendezvous) et qui possède une forme très allongée. Globalement, la distribution en taille des astéroïdes semble suivre une loi en puissance avec une surabondance d’astéroïdes présentant des diamètres d’environ 100 km et 5 km. Cette distribution fournit une contrainte forte sur les modèles concernant l’histoire collisionnelle de la ceinture principale d’astéroïdes.

L'astéroïde Eros
Asteroide_Eros.jpg
Série d'images de l'astéroïde Eros acquises par la sonde NEAR alors distante d'environ 1800 km. Les dimensions de cet astéroïde de forme ellipsoïdale sont de 34.4 x 11.2 x 11.2 km.
Crédit : NASA / JHUAPL : http://near.jhuapl.edu/iod/20000228/index.html
Distribution en taille des astéroïdes
Distrib_Taille_Asteroides.jpg
Distribution en taille des astéroïdes.

Les astéroïdes : composition

Les observations spectroscopiques permettent de distinguer de nombreuses classes classes d’astéroïdes. Les 3 principales classes sont les astéroïdes de type C (Carbonés), de type S (Silicatés) et de type M (Métalliques). Les astéroïdes carbonés sont les plus nombreux et représentent 75% des astéroïdes observés. La distribution de ces différents types d’astéroïdes en fonction de la distance au Soleil est différente et est représentée sur la partie basse de la figure ci-contre. En effet, les astéroïdes carbonés sont majoritairement présents dans les zones externes de la ceinture d’astéroïdes alors que les astéroïdes de type S et M se concentrent dans les zones plus internes (voir figure ci-contre). Ces différentes distributions spatiales reflètent à la fois les processus liés à la formation de ces différents petits corps et l'évolution dynamique de la ceinture d'astéroïdes qui a pu conduire au mélange partiel des différentes populations d'astéroïdes.

Néanmoins, il faut aussi garder à l’esprit qu’une grande partie de notre connaissance sur la composition des astéroïdes provient de l’étude des météorites. En effet, la très grande majorité des météorités récoltées sur Terre provient de la ceinture d'astéroïdes. L'étude en laboratoire des météorites permet en particulier de préciser l'abondance des différents métaux (principalement du fer et du nickel), la nature des minéraux ainsi que d'obtenir des informations structuales sur la phase organique complexe et l'identification chimique des certains molécules simples. D’autre part, à quelques exceptions près, les astéroïdes ne contiennent pas de glace et ne présentent donc pas d’activité cométaire.

La distribution spatiale des différents types d'astéroïdes
asteroide_distribution.jpg
Distribution des astéroïdes en fonction de leur demi-grand axe. Distribution en nombre (en haut) et distribution des différentes classes d'astéroïdes (en bas).
Crédit : Encyclopedia Britannica, http://www.britannica.com/media/full/3485

Les astéroïdes : exploration spatiale

Les premières sondes spatiales lancées dans les années 1970 et 1980 n’ont pas survolé d’astéroïdes. Le premier survol d’un astéroïde, 951 Gaspra, a été effectué le 29 Octobre 1991 par la sonde Galileo. Depuis, de nombreux astéroïdes ont été survolés par des sondes spatiales. Les images acquises par les télescopes situés à la surface de la Terre ou en orbite autour de la Terre ne révèlent que très peu de détails dela surface des astéroïdes même sur Cérès qui est pourtant l’astéroïde le plus grand. Les survols d’astéroïdes par des sondes spatiales sont donc importants pour révéler des détails de la surface des astéroïdes, mais aussi leur forme précise ainsi que d’autres paramètres physico-chimiques comme la composition et la minéralogie de la surface ou la distribution massique interne.

Les principales missions d’études des astéroïdes sont NEAR (Near Earth Asteroid Rendezvous) qui s’est placée en orbite autour de l’astéroïde Eros en 2000 et Hayabusa qui malgré quelques difficultés techniques a pu prélever, puis ramener sur Terre, quelques poussières à la surface de l’astéroïde Itokawa. D’autre part, la mission DAWN s’est placée en orbite autour de l’astéroïde Vesta en 2011 puis en orbite autour de Cérès à partir du 6 mars 2015.

L'exploration spatiale des astéroïdes
asteroide-explo-spatiale.jpg
Photographies de l'ensemble des astéroïdes qui avaient été survolés début 2015. Les tailles des différents astéroïdes sont à l'échelle.
Crédit : http://solarviews.com/raw/pia/PIA14316.jpg

Les objets trans-neptuniens : introduction et historique

On désigne par objet trans-neptunien tout objet du système solaire dont l’orbite est entièrement ou en majeure partie située au-delà de celle de Neptune. Le premier objet trans-neptunien connu est Pluton qui a été découvert en 1930. Il fut considéré comme la 9ème planète du système solaire, avant d’être classifiée comme planète naine en 2006. L’existence de nombreux objets au-delà de Neptune avait été postulée par K.E. Edgeworth en 1949 puis par G.P Kuiper en 1951. Jusqu’en 1992, Pluton et son plus gros satellite Charon étaient les seuls objets trans-neptuniens connus. La découverte d’un nouvel objet de Kuiper en 1992 marque le début d’une recherche systématique des objets trans-neptuniens. Début 2015, plus de 1300 objets trans-neptuniens avaient été détectés (http://www.minorplanetcenter.net/iau/lists/t_tnos.html). Les orbites de ces objets correspondent à plusieurs groupes dynamiques. Nous verrons dans la partie suivante qu'on distingue en particulier les objets appartenant à la ceinture de Kuiper de ceux appartenant au disque épars.

La découverte d'un nouvel objet trans-neptunien en 1992
Trans-neptuniens_1ere_decouverte.jpg
Séquence temporelle des images ayant permis la découverte d'un objet trans-neptunien le 30 août 1992. L'objet trans-neptunien est entouré d'un cercle blanc.
Crédit : http://www2.ess.ucla.edu/~jewitt/kb.html

Les objets trans-neptuniens : orbites

Environ la moitié des objets trans-neptuniens présente des orbites au-delà de Neptune ayant des faibles excentricités (e < 0.2) et des demi-grand axes généralement compris entre 37 and 48 unités astronomiques. Ces objets trans-neptuniens sont appelés les objets de Kuiper classiques et forment la ceinture de Kuiper. Cette ceinture a une structure similaire à la ceinture principale d’astéroïdes et est structurée par des résonances avec l’orbite de Neptune. Ainsi de nombreux objets de Kuiper, dont Pluton, sont en résonance 2:3 avec Neptune.

D’autre part, un nombre croissant d’objets trans-neptuniens présentent des orbites de forte excentricité (e > 0.2), des périhélies au-delà de l’orbite de Neptune et des demi-grand axes supérieurs à 48 unités astronomiques. Ces objets font partie du disque épars. L’objet le plus massif de ce disque épars est Eris. On peut noter que l’orbite de Sedna avec un périhélie de 76 UA et un aphélie d’environ 900 UA est tout à fait exceptionnelle. Aussi Sedna peut être considéré comme un objet du nuage de Oort interne. La strcuture du nuage est discuté dans la partie traitant de l'orbite des comètes.

Les objets se trouvant aujourd'hui dans la ceinture de Kuiper et le nuage de Oort se sont très vraisemblablement formés dans la zone actuelle des planètes géantes. Ils ont ensuite été repoussé à des distance héliocentriques plus élevés suite aux interactions gravitationnelles avec les planètes géantes.

La distribution spatiale des objets trans-neptuniens
Trans-neptuniens_orbites.png
Excentricité en fonction du demi-grand axe des objets trans-neptuniens et des centaures. Cette figure montre les différentes familles dynamiques d’objets et en particulier les objets de la ceinture de Kuiper classique et ceux du disque épars mais aussi les centaures dont le demi-grand axe est inférieur à celui de Neptune.
Crédit : https://nai.gl.ciw.edu/sites/nai.gl.ciw.edu/files/images/ghuntress/2011-02-15%2018:43/5.1.3fig1.png

Les objets trans-neptuniens : taille et masse

Les objets trans-neptuniens étant éloignés et de faible luminosité, il n’est pas aisé d’en déduire leurs caractéristiques physiques comme la taille ou la masse. Néanmoins, certains objets trans-neptuniens possèdent un ou plusieurs satellites. C’est, par exemple, le cas d'Eris qui possède un satellite, Dysnomie, et de Pluton autour duquel gravitent au moins 5 satellites. Si la période de révolution et le rayon de l’orbite des satellites sont mesurés, alors la masse du système peut être calculée grâce à la troisième loi de Kepler. Ainsi les masses d'Eris et de Pluton sont de 1.67 × 1022 kg et de 1.31 × 1022 kg. On remarquera que Eris est légèrement plus massif que Pluton.

Comme pour la masse, la mesure des diamètres des objets trans-neptuniens peut être délicate. Pour des objets dont l’orbite est bien connue, la méthode la plus précise pour mesurer la taille est l’occultation stellaire. Lors d’une occultation stellaire, l’objet étudié passe devant l’étoile et projette une ombre à la surface de la Terre. La mesure de la durée de l’occultation en différents points à la surface de la Terre permet alors de calculer le diamètre de l’objet occultant de manière relativement précise. Les rayons de Pluton et d'Eris sont actuellement estimés à 1153 ± 10 km et 1163 ± 6 km.

Connaissant la taille et la masse, la densité moyenne de ces objets est immédiatement déduite. La valeur de la densité moyenne renseigne sur la composition globale de ces objets. La densité volumique d'Eris étant d’environ 2.5 g.cm-3, celui-ci doit être composé majoritairement de roches. D’autre part, connaissant la taille et la magnitude, l’albédo peut aussi être estimé rapidement. Ainsi Eris possède un albédo de 0.96, ce qui fait d'Eris un des objets les plus réfléchissants du système solaire et qui indique la présence possible de glaces à la surface.

On notera que les occultations stellaires peuvent aussi révéler la présence d’atmosphère. Ainsi, Pluton est entouré d’une faible atmosphère dont la pression à la surface est estimée entre 6 et 24 microbars.


Les objets trans-neptuniens : composition

Malgré l’éloignement et la forte magnitude des objets trans-neptuniens, des observations photométriques et spectroscopiques dans le visible et le proche infrarouge permettent de contraindre la nature chimique des surfaces des objets de Kuiper. Sans surprise, l’objet dont la nature chimique de la surface est la mieux connue est le plus brillant, c’est-à-dire Pluton. En effet, les observations spectroscopiques dans le proche infrarouge ont montré que le composé principal est l’azote moléculaire (N2) avec des quantités plus faibles de méthane (CH4) et de monoxyde de carbone (CO). Dans le cas de Pluton, les observations actuelles permettent aussi de mettre en évidence des hétérogénéités à la surface. Le méthane a été détecté sur d’autres objets trans-neptuniens de grande taille, néanmoins l’azote et le monoxyde de carbone n’ont été détecté que sur Pluton (et Triton, le satellite principal de Neptune). En effet, même si le méthane n’est pas le composé le plus abondant, c'est le plus facile à détecter dans le proche infrarouge grâce à ces bandes d’absorption intenses. On notera que ces composés, l’azote, le méthane et le monoxyde de carbone, sont extrêmement volatiles et ne peuvent être présents en phase solide que sur des objets à la fois suffisamment froids pour les condenser et suffisamment massifs pour éviter l’échappement gravitationnel.

Néanmoins, tous les objets trans-neptuniens n’ont pas la même composition de surface. En effet, de la glace d’eau ainsi que des hydrates d’ammoniac ont été détectés à la surface de certains d’entre eux.

Spectre infrarouge et composition de surface de Pluton
objet-transneptuniens-compo-surf-pluton.gif
Spectre dans l’infrarouge proche de Pluton montrant la présence de glaces de N2, CH4 et CO en surface.
Crédit : http://pluto.jhuapl.edu/common/content/What-We-Know/images/6_PlutoSpectrum3_lg.gif

Les objets trans-neptuniens : exploration spatiale

A ce jour (Mai 2015), aucun objet trans-neptunien n’a été survolé par une sonde spatiale. Néanmoins, la sonde spatiale New Horizons lancée le 19 janvier 2006 doit survoler Pluton le 14 Juillet 2015 à une distance d’environ 10 000 km. Il s’agira donc du 1er survol d’un objet trans-neptunien par une sonde spatiale. Après le survol de Pluton, la sonde New Horizons continuera sa trajectoire dans la ceinture de Kuiper et devrait encore survoler un ou deux autres objets. Néanmoins, cette phase de la mission et les objets à survoler ne sont pas encore définis.

Les premières images de Pluton par la sonde New Horizons
trans-neptunien_photo-pluton-new-horizon.jpg
Premières images de Pluton et de son satellite Charon acquises par la sonde New Horizons en janvier 2015 à une distance d’environ 200 millions de kilomètres.
Crédit : Credit: NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute http://pluto.jhuapl.edu/Multimedia/Science-Photos/pics/lorri_opnav2_sqrt_BW_poslevBOTH.jpg

Les comètes : introduction et historique

Les comètes sont parfois visibles à l'œil nu, aussi sont-elles connues depuis l'Antiquité et ont parfois été représentées sur certaines œuvres d'art anciennes. Dans la croyance populaire, l'apparition d'une comète était associée à un bon ou à un mauvais présage suivant les cas. D'après Aristote, les comètes étaient un phénomène atmosphérique. La nature extraterrestre des comètes ne sera démontrée qu'en 1577 par Tycho Brahé qui effectua des mesures de parallaxes montrant que les comètes pouvaient être plus lointaines que la Lune. Certaines comètes ont eu une importance historique. En particulier, le retour de la comète 1P/Halley en 1758 avait été prédit par Edmond Halley. Cette prédiction permit alors de démontrer la théorie de la gravitation newtonienne. D'autre part, la comète 1P/Halley a été également la première comète survolée par des sondes spatiales en 1986.

Certaines comètes ont une orbite très elliptique, leur distance au Soleil peut varier de manière très significative au cours de l’orbite. Aussi lorsqu’elles se rapprochent, elles développent une activité : leur noyau est alors entouré d’une atmosphère constituée de gaz et de poussières. Bien que de faible densité, cette atmosphère peut être très étendue et brillante. C’est cette activité qui distingue les comètes des autres petits corps du système solaire.

De nos jours plus de 3800 comètes ont été observées (http://www.minorplanetcenter.net/). Durant les dernières décennies les comètes les plus remarquables ont été C/1996 B2 Hyakutake, C/1995 O1 Hale-Bopp, C/2006 P1 McNaught. D'autre part, depuis 1P/Halley, 6 autres comètes ont été survolées par des sondes spatiales : 26P/Grigg-Skjellerup, 19P/Borelly, 9P/Tempel, 81P/Wild 2, 103P/Hartley 2 et 67P/Churyumov-Gerasimenko qui est accompagnée par la sonde Rosetta depuis août 2014.

La comète Q/2001 NEAT
Comet_NEAT.jpg
Image de la comète C/2001 Q4 (NEAT) prise depuis l’observatoire de Kitt Peak en Arizona en 2004.
Crédit : https://solarsystem.nasa.gov/planets/profile.cfm?Object=Comets

Les comètes : orbites

Les comètes ont généralement des orbites très excentriques. Leur distance au Soleil varie donc de manière très significative durant leur orbite. Elles sont généralement classifiées en fonction de leur période de révolution : les comètes ayant une période inférieure à 200 ans sont appelées comètes à courtes périodes alors que celles ayant une période supérieure à 200 ans sont appelées comètes à longue période. L’inclinaison des orbites des comètes à courtes périodes est généralement proche du plan de l’écliptique alors que les comètes à longues périodes ont une inclinaison aléatoire. Il est possible que les comètes à longues périodes puissent évoluer en comètes à courtes périodes suite à des interactions gravitationnelles avec les planètes géantes. On distingue aussi la famille des comètes de Jupiter qui possédent des périodes orbitales inférieures à 20 ans. Ces comètes sont ainsi nommées car leurs orbites sont déterminées par influence gravitationnelle de Jupiter. De plus, étant qu'elles ont des inclinaisons faibles et un sens de révolution autour du Soleil identique à celui des planètes, ces comètes trouvent très vraisemblablement leur origine dans le cainture de Kuiper.

Les comètes dont les orbites présentent de très longues périodes et des inclinaisons aléatoires proviendraient d’un réservoir appelé « nuage de Oort ». Celui-ci se situerait entre 50 000 et 100 000 unités astronomiques et aurait la forme d'une coquille sphérique entourant l'ensemble du système solaire. Il faut noter qu'aucun corps n'a jamais été observé à de telles distances du Soleil ; aussi l'existence du nuage de Oort n’est déduite que des observations des comètes à longues périodes. La densité de matière étant très faible à de telles distances du Soleil, les comètes du nuage de Oort ne se sont pas formées in-situ. Elles se seraient agrégées dans la zone des planètes géantes et en auraient été éjectées suite à des interactions gravitationnelles.

Les comètes dont les orbites présentent des périodes inférieures à 200 ans et des inclinaisons proches du plan de l’écliptique proviendraient quant à elles du nuage de Kuiper.

Les réservoirs des comètes
comete_reservoirs.jpg
Illustration montrant les deux réservoirs principaux des comètes : la ceinture de Kuiper à 30-50 unités astronomique du Soleil et le nuage de Oort qui pourrait s’étendre jusqu’à 50 ou 100 000 unités astronomiques du Soleil.
Crédit : http://www.esa.int/spaceinimages/Images/2014/12/Kuiper_Belt_and_Oort_Cloud_in_context

Les comètes : activité et structure

L’activité cométaire, c’est-à-dire le développement d’une faible atmosphère entourant le noyau solide est la caractéristique qui distingue les comètes des autres petits corps du système solaire. Le développement de cette faible atmosphère est dû à la sublimation des glaces contenues dans le noyau. Cette sublimation est induite par le réchauffement du noyau lorque celui-ci se rapproche du Soleil. Aussi lorsque les comètes sont situées à quelques unités astronomiques du Soleil, différentes grandes structures sont observables :

Ces différentes structures, ainsi que la petite taille et le faible albédo des noyaux cométaires, rendent très difficile l’observation directe de ces noyaux cométaires depuis le sol ou l’orbite terrestre. Aussi notre connaissance sur la composition des noyaux cométaires provient majoritairement de l’étude de leurs atmosphères.

La comète C/1995 O1 (Hale-Bopp)
comete-hale-bopp-structures.jpg
Image de la comète C/1995 O1 Hale-Bopp prise en 1997 montrant les différentes structures qui se développent autour du noyau lorsque celui-ci se rapproche du Soleil.
Crédit : http://stardust.jpl.nasa.gov/science/hb.html

Les comètes : composition

La composition des comètes peut être déterminée par des observations depuis le sol et l’orbite terrestre dans tous les domaines de longueur d’onde. Ces observations ont permis de détecter dans la coma plus de 20 molécules gazeuses. L’eau est la molécule gazeuse la plus abondante ; le dioxyde de carbone (CO2) et le monoxyde de carbone (CO) présentent de fortes abondances de l’ordre de 10%. Ces molécules gazeuses présentent une grande diversité chimique et certaines sont relativement complexes comme le cyano-acétylène (HC3N) ou l’éthylène glycol (HO-CH2-CH2-OH). D’autre part, la nature de certains minéraux peut aussi être déterminée par des observations à distance. Ainsi les grains cométaires sont majoritairement constitués de silicates. Néanmoins, ces grains contiennent aussi une matière organique réfractaire. Cette composante organique présente en phase solide dans les grains cométaires est très difficile à observer depuis la Terre et n’a été mise en évidence de manière directe que par des mesures in-situ.

Notre connaissance sur la composition des noyaux cométaires provient donc majoritairement de l’étude de leurs atmosphères. Les observations de l’environnement cométaire permettent de déduire que les noyaux cométaires sont constitués d’un mélange de minéraux, de composés organiques réfractaires et de glaces de composés volatils.

Il faut noter qu’une partie des poussières extra-terrestres collectées dans la haute atmosphère terrestre ou au sol ont très vraisemblablement une origine cométaire. D’autre part, la sonde spatiale Stardust a collecté des grains dans l’environnement de la comète 81P/Wild2 puis les a ramenés sur Terre en janvier 2006. Ces échantillons disponibles au laboratoire permettent de déterminer de manière relativement précise la composition minéralogique des comètes.

Composition chimique des comètes
comete_compos.jpg
Composition chimique des comètes.
Crédit : Crédit : Astrophysique sur Mesure / Françoise Roques et Gilles Bessou http://media4.obspm.fr/public/AMC/pages_cometes/impression.html

Les comètes : exploration spatiale

La comète de 1P/Halley est la première à avoir été survolée par une sonde spatiale en 1986. A cette occasion, 5 sondes spatiales ont approché la comète 1P/Halley : Sakigake, Suisei, Vega-1, Vega-2 et Giotto. Le survol le plus proche a été réalisé par la sonde Giotto en mars 1986 à une distance de 596 km. Le noyau de la comète 1P/Halley a donc été le premier à avoir été photographié, ses dimensions ont alors été estimées à 16 × 8 × 7 km. La sonde Giotto a poursuivi sa course et a ensuite survolé la comète 26P/Grigg-Skjellerup en juillet 1992. Depuis 5 autres comètes ont été survolées :

Depuis août 2014, la sonde Rosetta accompagne la comète 67P/Churyumov-Gerasimenko durant une partie de son orbite autour du Soleil. Pour la première fois, il ne s’agit pas d’un survol du noyau, mais d’une mise en orbite autour du noyau ce qui permet de faire une étude plus détaillée de la comète mais aussi de suivre le développement de son activité lors de son approche du Soleil. D’autre part, un module nommé Philae a atterri sur la surface du noyau de 67P/Churyumov-Gerasimenko le 12 novembre 2014. Cette mission devait durer jusqu’en décembre 2015, mais a été prologée jusqu'en septembre 2016..

Le noyau de 67P/Churyumov-Gerasimenko photographié par la sonde Rosetta
comete-Chury-rosetta.png
Photographie acquise à une distance de 285 km grâce à la camera OSIRIS de la sonde Rosetta du noyau de la comète 67P/Churyumov-Gerasimenko. Les dimensions de la partie la plus importante sont d’environ 4.1 × 3.2 × 1.8 km alors que celles du plus petit lobe sont d’environ 2.6 × 2.3 × 1.8 km.
Crédit : ESA/Rosetta/MPS for OSIRIS Team MPS/UPD/LAM/IAA/SSO/INTA/UPM/DASP/IDA http://www.esa.int/spaceinimages/Images/2014/08/Comet_on_3_August_2014

Les météorites : définition

Les météorites sont des objets d’origine extra-terrestre retrouvés à la surface terrestre et donc disponibles en laboratoire pour des analyses physico-chimiques détaillées. Les météorites ne sont pas des petits corps du système solaire puisqu’elles n’orbitent plus autour du Soleil. Avant d’atteindre le sol terrestre, ces objets extra-terrestres traversent l’atmosphère terrestre. Lors de cette traversée atmosphérique, ils subissent un très fort échauffement produisant une traînée lumineuse appelée météore. Concernant les météorites, les chutes sont distinguées des trouvailles. Les chutes sont les météorites pour lesquelles la traversée atmosphérique a été observée alors que les trouvailles sont celles qui ont été retrouvées au sol sans que la date d’impact soit connue.

Les corps parents de la plupart des météorites sont des astéroïdes. L’étude des météorites en laboratoire permet d’obtenir des informations inaccessibles aux observations astronomiques classiques et de mieux comprendre l’évolution des astéroïdes mais révèlent aussi de précieuses informations concernant la formation du système solaire et les processus physico-chimiques présents dans le disque proto-planétaire. En particulier, certaines météorites contiennent une très grande diversité de composés organiques ou des inclusions qui constituent les tout premiers solides condensés dans la nébuleuse primodiale et qui permettent de dater l’origine du système solaire dans son ensemble.

On peut noter que le flux annuel de météorites à la surface de la Terre est estimé à 1010 – 1011 g/an et que ce flux est dominé par les micrométéorites ayant des dimensions de l’ordre de quelques micromètres.

La météorite de Orgueil
meteorite_orgueil.jpg
Fragment de la météorite d’Orgueil dont la chute a été observée en 1864.
Crédit : collection du MNHN-Paris http://www.futura-sciences.com/magazines/espace/infos/actu/d/astronomie-systeme-solaire-ne-little-bang-dixit-meteorite-orgueil-25248/

Les météorites : classification

L’étude des météorites a montré une très grande diversité de ces objets et elles sont subdivisées en deux grandes familles : les météorites différenciées et les météorites non-différenciées. Les météorites non-différenciées contiennent un matériau qui n’a pas été profondément altéré dans le corps parents et sont aussi appelées chondrites car elles contiennent généralement des chondrules qui sont des inclusions de forme sphérique ayant des tailles de l’ordre de quelques micromètres jusqu’au centimètre. Le matériau des météorites différenciées a subi de profondes modifications dans le corps parents.

Les météorites non différenciées, aussi appelées chondrites, sont elles même subdivisées en trois classes principales en fonction de leur composition : i.) les chondrites carbonées qui contiennent plusieurs pourcents en masse de carbone, ii.) les chondrites à enstatite qui sont riches en enstatite (minéral de formule MgSiO3) et iii.) les chondrites ordinaires qui sont les plus courantes. Bien que non-différenciées, les chondrites ont pu subir quelques processus d’altération depuis leur formation : métamorphisme thermique, altération aqueuse ou chocs. Néanmoins, certaines chondrites primitives possèdent une composition élémentaire très proche de celle du Soleil ce qui montre une formation très ancienne et quasi contemporaine de celle du Soleil. Ces météorites font partie des matériaux les plus primitifs que nous possédions sur Terre et peuvent alors fournir des contraintes concernant les conditions régnant dans le disque protoplanétaire ainsi qu’une datation du système solaire grâce à des méthodes de datation isotopique.

Les météorites différenciées sont elles aussi subdivisées en trois classes principales : i.) les achondrites qui sont principalement composées de minéraux, principalement des silicates ii.) les météorites métalliques constituées principalement de fer et de nickel et qui présentent des structures de cristallisation particulières appelées les figures de Widmanstätten et iii.) les lithosidérites constituées d’un mélange de minéraux et de métal. Celles-ci proviennent de corps parents suffisamment massifs pour avoir subi un processus de différentiation. Les météorites métalliques proviendraient du cœur métallique de ces corps parents alors que les achondrites proviendraient des régions externes de ces corps parents.

La météorite de Allende
meteorite-allende.jpg
Coupe de la météorite de Allende sur laquelle les chondres sont visibles.
Crédit : UPEC / N. Fray
La météorite de Gibeon
meteorite-gibeon.jpg
Coupe de la météorite métallique de Gibeon sur laquelle les figures de cristallisation de Widmanstätten sont visibles.
Crédit : UPEC / N. Fray

Les météorites : datation

Certaines chondrites carbonées possèdent une composition élémentaire très proche de celle du Soleil malgré un appauvrissement pour les éléments les plus volatils (H, He, C, N,...). Ces météCes météorites se sont donc formées en même temps que le système solaire et n'ont pas subi de changement de composition important depuis. D’autre part, des études par spectrométrie de masse en laboratoire permettent de mesurer l’abondance d’éléments à l’état de traces. Il est donc possible de mesurer l’abondance d’éléments radioactifs à très longue durée de vie ainsi que l’abondance des éléments produits par ces processus radioactifs. Ces méthodes de datation radiométrique ont permis de déterminer l’âge de formation des météorites les plus primitives : 4.56 milliards d’années. Cette date correspond à la condensation des premiers solides dans le système solaire. On pourra retenir que sans l’étude en laboratoire des météorites, l’âge de notre système solaire ne serait pas connu avec autant de précision.


Comprendre

Auteur: Nicolas Fray

La datation des météorites

La datation absolue de roches anciennes est généralement réalisée grâce à la mesure de l'abondance d'éléments naturellement radioactifs. En effet, au cours du temps, l'abondance des noyaux parents décroît alors que celle des noyaux fils augmente. A un instant t, l'abondance des noyaux parents N_P (t) dépend de son abondance initiale N_P (t_0) et de son temps caractéristique de décroissance \tau : N_P (t)=N_P (t_0)  e ^{-(t-t_0)/\tau}. Il faut noter que le temps de demi-vie \tau_{1/2}, qui correspond au temps nécessaire pour que l’abondance initiale soit divisée par deux, est souvent utilisé à la place du temps caractéristique de décroissance. Ces deux temps sont liés par la relation \tau_{1/2}=\tau ln2.

A l’instant t, l'abondance des noyaux fils N_F (t) est égale à N_F (t) = N_F (t_0) + N_P (t_0) (1 - e ^{-(t-t_0)/\tau}) si tous les noyaux parents se désintègrent pour donner le même noyau fils. En combinant, les deux équations précédentes, N_F (t) peut être exprimée en fonction de N_P (t) qui sont les deux quantités mesurables. Néanmoins,l'abondance initiale de noyaux fils N_F (t_0) est généralement inconnue. La roche ayant pu subir une différentiation chimique lors de sa formation, elle peut être inhomogène. Les différentes mesures réalisées sur la même roche seront donc normalisées à l'abondance d'un isotope non radioactif de l'élément fils. En mesurant plusieurs échantillons de la même roche, l’âge de celle-ci ainsi que l'abondance initiale de l'élément fils radioactif pourront être déterminés (voir exercice dans la partie "Se Tester".).

Un des couples d'éléments couramment utilisé est le couple 87Rb (élément parent) et 87Sr (élément fils), les abondances de ces deux éléments sont normalisées à l'abondance de 86Sr. Ces abondances sont mesurées par spectrométrie de masse en laboratoire. Les différentes mesures seront représentées dans un diagramme 87Sr / 86Sr en fonction de 87Rb / 86Sr. La pente de la droite obtenue (e ^{(t-t_0)/\tau}-1) est liée à l’âge de formation de la roche alors que l’ordonnée à l’origine donne la rapport initial 87Sr / 86Sr. En normalisant à un isotope stable et en effectuant différentes mesures sur une roche hétérogène, les deux inconnues précédentes peuvent donc être déterminées et en particulier l’âge de la roche. Cette méthode n’est valable que si le système étudié, la roche ou la météorité, est clos, c’est-à-dire si aucun des éléments étudiés n’a pu diffuser à l’extérieur du système.

La datation absolue des météorites, et en particulier des inclusions les plus anciennes qu’elles contiennent, nous permet de dater la formation du système à 4.56 milliards d'années. Sans l'étude des météorites et des méthodes de datations liées aux isotopes naturellement radioactifs, l'obtention d'un chiffre aussi précis ne serait pas possible. L’étude des météorites et de l’ensemble des échantillons d’origine extra-terrestre disponibles au laboratoire permet donc de dater de manière absolue la formation du système solaire dans son ensemble.


La distribution spatiales des espèces gazeuses dans l'environnement cométaire

L’atmosphère des comètes est appelée coma. La principale source des espèces gazeuses présentes autour des noyaux cométaires est la sublimation des glaces contenues dans celui-ci. Les molécules gazeuses produites directement depuis la surface ou la sous-surface du noyau sont appelées « molécules mères ». Une fois dans l’environnement cométaire ces molécules gazeuses sont soumises au flux ultraviolet du Soleil et peuvent se photo-dissocier en de nouvelles espèces gazeuses plus petites appelée « molécules filles ». Par exemple, la molécule d’eau peut se photo-dissocier en radicaux hydroxyle (OH) et en atomes d’hydrogène. La distribution spatiale autour du noyau est l'élément essentiel pour comprendre l’origine des espèces gazeuses. Afin de déterminer les mécanismes de production des différentes espèces gazeuses présentes dans la coma puis remonter aux abondances des molécules présentes dans le noyau ; les distributions spatiales mesurées grâce aux observations astronomiques doivent être comparées à un modèle. Le modèle le plus simple pour décrire la distribution spatiale des molécules est le modèle de Haser.

Dans le cadre du modèle de Haser, la densité des molécules mères dans la coma n’est régi que par l’expansion générale de la coma et par leur photolyse sous l’effet du rayonnement UV solaire. La densité volumique n_M (r) (en molécules.m-3) en fonction de la distance r au noyau, vérifie donc l’équation de conservation de la masse : dn_F/dt+div(n_F *v)=-n_M/tau_M\tau_M est la durée de vie de la molécule mère étudiée dans l’environnement cométaire et v la vitesse d’expansion des gaz dans la coma.

En supposant un état stationnaire, une vitesse constante dans la coma et une symétrie sphérique, l’équation précédente se simplifie : fraction(d;dt)(n_M*r^2)=-fraction(n_M*r^2;v*tau_M)=-fraction(n_M*r^2;l_M)l_M est appelée « longueur d’échelle parent », elle correspond à la longueur caractéristique de photolyse de la molécule mère.

La condition initiale permettant d’intégrer l’équation différentielle précédente est donnée par le taux de production Q (en molécules.s-1) qui correspond au nombre de molécules mère émises depuis la surface du noyau en 1 seconde. L’intégration de l’équation précédente conduit à : n_M(r)=fraction(Q;4*pi*v*r^2)*exp(-r/l_M).

Pour les molécules filles, la densité volumique dans la coma est régi par les mêmes processus auxquels il faut rajouter la production directement dans la coma par photolyse de la molécule mère. Dans ce cas, l’équation de conservation de la masse s’écrit avec deux termes dans le membre de droite ; i.) un terme de production qui correspond à la photodissociation de la molécule mère et ii.) un second terme de destruction correspond à la photodissociation de l’espèce fille considérée. Soit n_M (r) et n_F (r) les densités volumiques des espèces mère et fille, ainsi que tau_M et tau_F leurs temps de vie respectifs dans l’environnement cométaire. L’équation de conservation de la masse pour une espèce fille s’écrit alors : dn_F/dt+div(n_F *v)=n_M/tau_M-n_F/tau_F En utilisant les mêmes hypothèses géométriques et dynamiques que précédemment et en imposant la condition initiale n_F (0)=0, on trouve : n_F(r)=fraction(Q;4*pi*v*r^2)*fraction(l_F;l_P-l_F)*exp(-r/l_M). Dans cette dernière équation, Q est le taux de production de la molécule mère dont est issue la molécule fille, l_P la longueur d’échelle parent et l_F la longueur d’échelle fille qui correspondent respectivement aux longueurs caractéristiques de destruction par photolyse des espèces mère et fille.

Ce modèle est très simple, voir simpliste au regard de nos connaissances actuelles sur les comètes. En particulier, la production de gaz à la surface du noyau est inhomogène et les environnements cométaire n’ont pas une symétrie sphérique. Néanmoins, ce modèle permet d’obtenir des ordres de grandeurs pertinents en particulier pour les longueurs d’échelles et des versions modifiées de ce modèle continuent à être utilisées pour calculer les taux de production des espèces gazeuses à partir des observations.


Se tester

Auteur: Nicolas Fray

Détermination de la masse et de la densité de Eris

Auteur: Nicolas Fray

exerciceDétermination de la masse et de la densité de Eris

Après la découverte de Dysnomie, l’unique satellite de Eris, son orbite a pu être déterminée (Brown et al., 2007, Science, 316, 1585). Son demi-grand axe et sa période sont 37400 ± 180 km et 15.773 ± 0.002 jours, respectivement.

Question 1)

A partir de la 3ème loi de Kepler, calculer la masse du système Eris-Dysnomie.

Question 2)

Le rayon de Eris a été déterminé à 1163 ± 6 km par occultation stellaire (Sicardy et al., 2011, Nature, 478, 493). Calculer la densité de Eris. Que peut-on en conclure ?


Exercice : flux des micrométéorites

Auteur: Nicolas Fray

exerciceFlux de micrométéorites

Difficulté :   

Question 1)

Le flux de micrométéorites à la surface de la Terre est estimé à (40 ± 20) × 106 kg.an-1 pour des grains ayant des masses comprises entre 10-9 et 10-4 grammes.

  • En supposant une densité de ρ = 3000 kg.m-3, quel est le rayon équivalent d’un corps sphérique ayant un masse équivalente au flux annuel de micrométéorites ?
  • En supposant que la Terre est parfaitement sphérique avec un rayon de 6367 km, quelle est l’épaisseur de la couche de micro-météorite tombant sur Terre en 1 million d’années ?


Ordres de grandeur de la taille d'une coma cométaire

Auteur: Nicolas Fray

exerciceOrdre de grandeur de la taille d'une coma

Question 1)

Les glaces cométaires sont majoritairement constituées de glace d’eau. Dans la coma, la vitesse d’expansion des molécules d’eau est d’environ 0.5 km.s-1 et la photodissociation de l’eau conduit à la formation de radicaux hydroxyles (OH) et d’atomes d’hydrogène. Les temps de vie typiques de l’eau, du radical hydroxyle et de l’atome d’hydrogène sont de 6 × 104 s, 2 x 105 s et de 106 s, respectivement. En supposant une vitesse d’expansion des radicaux hydroxyles égale à celle des molécules d’eau et de 12 km.s-1 pour l’atome d’hydrogène, calculer les dimensions caractéristiques des coma de H2O, OH et H.


Exercice : datation d'une météorite

Auteur: Nicolas Fray

exerciceDatation d'une météorite

Difficulté : ☆☆   Temps : 15 min

Question 1)

Sachant que le temps de demi-vie du Rubidium 87 est de 48.8 milliards d'années et connaissant les abondances suivantes, calculer l'âge de la météorite dans laquelle ces abondances ont été mesurées.

Abondances
{^{87}Rb}/ {^{86}Sr}{^{87}Sr}/ {^{86}Sr}
0.7580.74864
0.72550.7465
1.520.79891
1.490.79692
1.5550.80152
1.6850.80952
0.15420.7091
0.15330.70895


Q.C.M.

Auteur: Nicolas Fray

qcmQ.C.M. : Question 1

1)  La plupart des astéroïdes résident dans la ceinture principale ; où est située cette ceinture principale ?




Auteur: Nicolas Fray

qcmQ.C.M. : Question 2

1)  Pourquoi les comètes brillent-elles ?



Auteur: Nicolas Fray

qcmQ.C.M. : Question 3

1)  Les noyaux cométaires sont constitués de glaces et de poussières. Cette glace est-elle comestible ?



Auteur: Nicolas Fray

qcmQ.C.M. : Question 4

1)  Le plus gros des astéroïdes se nomme :




Auteur: Nicolas Fray

qcmQ.C.M. : Question 5

1)  Pluton est :




Auteur: Nicolas Fray

qcmQ.C.M. : Question 6

1)  La majorité des objets trans-neptuniens est située :




Auteur: Nicolas Fray

qcmQ.C.M. : Question 7

1)  Les comètes sont des objets :



Auteur: Nicolas Fray

qcmQ.C.M. : Question 8

1)  En moyenne, les comètes sont-elles plus grandes que les astéroïdes ?


Auteur: Nicolas Fray

qcmQ.C.M. : Question 9

1)  Y a-t-il plus de comètes répertoriées que d'astéroïdes ?



Projet

Auteur: Nicolas Fray

Structure dynamique de la ceinture principale d'atéroïdes et de la ceinture de Kuiper

Le but de ce projet est de retrouver les principales caractéristiques dynamiques des astéroïdes et des objets trans-neptuniens à partir des données orbitales compilées par le « Minor Planet Center » ou le « Jet Propulsion Laboratory ».

Auteur: Nicolas Fray

exerciceLa ceinture principale d’astéroïdes, les lacunes de Kirkwood et les différentes familles dynamiques d’astéroïdes

Question 1)

Les lacunes de Kirkwood correspondent à des minimas de la distribution des astéroïdes en fonction de leur demi-grand axe (ou en fonction de leur période orbitale). Ces lacunes sont dues à des résonances avec Jupiter.

A partir des éléments orbitaux des astéroïdes numérotés, dont l’orbite est connue, qui sont disponibles sur la base de données du JPL (http://ssd.jpl.nasa.gov/?sb_elem), tracer l’histogramme montrant la distribution des astéroïdes en fonction de leur demi-grand axe. Pour construire cet histogramme, on utilisera préférentiellement un pas de 0.01 UA. Afin de mettre en évidence le lien entre la position des lacunes et les résonances avec Jupiter, on représentera sur cet histogramme, la localisation des résonances 4:1, 3:1, 5:2 7:3 et 2:1. On rappelle que le demi-grand axe de Jupiter est de 5.2 UA.

Afin de mettre en évidence, les différentes familles dynamiques d’astéroïdes, on pourra aussi représenter l’ensemble des astéroïdes dans un graphique montrant l’inclinaison en fonction du demi-grand axe.

Auteur: Nicolas Fray

exerciceLa ceinture de Kuiper classique et le disque épars

Question 1)

Les objets trans-neptuniens sont contenus dans deux grands réservoirs : la ceinture de Kuiper classique et le disque épars. Le principal critère permettant de distinguer ces deux réservoirs est l’excentricité de l'orbite des objets qu’ils contiennent. De plus, la ceinture de Kuiper est structurée par des résonances avec Neptune, dont le demi-grand axe est de 30.1 UA.

A partir des éléments orbitaux des objets de la ceinture de Kuiper classique (http://www.minorplanetcenter.net/iau/lists/TNOs.html) et de ceux du disque épars (1) (http://www.minorplanetcenter.net/iau/lists/Centaurs.html) on pourra représenter l’ensemble de ces objets dans deux graphiques montrant l’excentricité et l’inclinaison en fonction du demi-grand axe de ces objets. Afin de mettre en évidence la structuration de la ceinture de Kuiper classique par Neptune, on pourra indiquer sur ces graphiques la positon des résonances 4:3, 3:2, 5:3, 7:4 et 2:1. De plus, sur le graphique de l’excentricité en fonction du demi-grand axe, on pourra aussi tracer les courbes représentant un périhélie constant. Afin de bien distinguer la ceinture de Kuiper classique du disque épars, on pourra pour chacun des deux graphiques proposés utiliser deux axes des abscisses ; un premier en échelle linéaire allant de 28 à 60 UA puis un second en échelle logarithmique s’étendant de 25 à 1 000 UA.

(1) Ce fichier issu du Minor Planet Center contient à la fois les éléments orbitaux des centaures et des objets du disque épars.


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Observables


Observables

Ces chapitres décrivent les différentes informations auxquelles nous avons accès pour étudier les planètes et les exoplanètes.

Flux et spectres : L'essentiel de ces informations vient du rayonnement électromagnétique. On peut collecter tout le flux venant de l'objet qu'on étudie, ou bien disperser ce flux en fonction de la longueur d'onde pour obtenir un spectre.

Chaque domaine de longueur d'onde, visible, infrarouge, UV, radio, demande des détecteurs spécifiques et explore des régions de l'univers définies par les conditions physiques qui gouvernent les émissions de ces rayonnements. La polarisation de la lumière est aussi une riche source d'information sur les environnements planétaires.

Dans les environnements planétaires, les plasmas sont un état de matière auquel on peut accéder directement grace à des missions d'exloration spatiale.


Flux et spectre

Auteurs: Emmanuel Marcq, Loic Rossi

Rayonnement électromagnétique : Flux et spectre

objectifsObjectifs

Ce chapitre a pour but de présenter ce que peut nous apprendre l'observation du flux émis ou réfléchi par l'atmosphère ou la surface d'une planète (ou d'une exoplanète).

prerequisPrérequis

Pour ce chapitre il est préférable d'avoir une connaissance préalable des concepts suivants :


Décrire

Auteurs: Loïc Rossi, Emmanuel Marcq

Les composantes du flux

Le flux radiatif reçu de la part d'une planète peut être analysé comme la somme de deux composantes :

Séparation des composantes

Ces deux composantes seront traitées séparément dans la suite de ce chapitre. En général, les planètes sont largement plus froides que la photosphère de leur étoile, si bien que le flux réfléchi et le flux thermique s'observent de façon disjointe dans le spectre de la planète (voir figure). Cependant, ce n'est pas le cas pour les exoplanètes très chaudes, pour lesquelles le recouvrement des deux composantes n'est pas négligeable si bien que la séparation entre ces deux catégories perd de sa pertinence.

Composantes réfléchie et thermique
figure_corps_noirs_v6.png
Irradiances spectrales émises ou réfléchies en provenance de quelques atmosphères planétaires. On distingue les deux composantes : la composante thermique du corps et la composante correspondant au flux solaire ou stellaire réfléchi par la planète. Cette distinction perd de son sens physique pour une planète très chaude comme 51PegB.
Crédit : Loïc Rossi CC-BY-SA

Dans le cas du système solaire, il est usuel de traiter le flux à des longueurs d'onde plus courtes que 5 µm (incluant donc l'UV, le visible et l'IR proche) comme provenant quasi-exclusivement du Soleil, et les longueurs d'onde plus grandes comme provenant de l'émission thermique du corps observé (incluant donc l'IR moyen et lointain, ainsi les domaines sub-millimétrique et radio). La relation mathématique entre température d'un corps noir et la longueur d'onde du maximum spectral s'appelle la loi de Wien : pour une étoile de température de surface voisine de quelques milliers de Kelvins, il se situe dans le domaine visible voire UV, tandis que pour une planète de température effective voisine de quelques dizaines à quelques centaines de Kelvins, il se situe dans le domaine IR.


Flux stellaire


Corps telluriques

Les planètes du système solaire constituent un cas particulier intéressant puisque l'on peut résoudre leur disque et même effectuer des observations en orbite. Il est même possible pour les planètes telluriques de distinguer le flux diffusé au sein de l'atmosphère de celui réfléchi ou diffusé par leur surface solide (voire liquide dans le cas de la Terre et de Titan).

Observations atmosphériques

Dans le cas de Mars et Vénus, les spectres dans l'infrarouge proche de ces planètes sont dominés par l'absorption due au dioxyde de carbone (CO2), composant majoritaire de leurs atmosphères. Dans l'ultraviolet, le spectre de Vénus est dominé par l'absorption due au dioxyde de soufre (SO2) ainsi que par un absorbant dont la composition n'est pas encore connue. Dans le cas de la Terre, ce même domaine spectral est dominé par l'absorption due à la vapeur d'eau et au CO2 (ainsi qu'au méthane dans une moindre mesure), tandis que le spectre visible et UV révèle la présence d'ozone O3 et de dioxygène O2. Le spectre réfléchi de Titan est quant à lui largement dominé par l'absorption du méthane CH4 et des aérosols présents dans son atmosphère.

Spectre de la Terre vu par Galileo
spectre_terre_galileo.png
Luminance spectrale en provenance de la Terre et observée par la sonde Galileo alors en route vers Jupiter. Les spectres révèlent de grandes quantités d'eau, d'oxygène ainsi que du méthane. Les quantiés mesurées par Galileo témoignent d'une activité biologique intense.
Crédit : Adapté de Sagan et al. (1993).

La nature physique des objets diffuseurs varient selon le corps observé. Au sein de l'atmosphère terrestre, la diffusion est principalement le fait des molécules d'air (régime de Rayleigh), ainsi que des nuages d'eau (recouvrant à tout moment environ 50% de notre planète). Pour Vénus, les nuages épais et omniprésents empêchent toute observation de la surface en lumière solaire. Dans le cas de Mars, l'atmosphère peu dense ne crée pas beaucoup de diffusion Rayleigh, en revanche les poussières soulevées dans l'atmosphère par les tempêtes ainsi que les nuages de glace contribuent à la diffusion de la lumière solaire vers l'observateur de façon significative.

Nuages de Vénus en UV
venus2uv.jpg
Photographie en UV proche (365 nm) des nuages supérieurs de Vénus côté jour. La nature physique des contrastes observés est encore en partie mystérieuse à ce jour.
Crédit : ESA (mission Venus Express)

Observations des surfaces

L'observations des surfaces de Mars et de la Terre depuis l'espace permettent de déterminer partiellement leurs compositions : la surface de Mars comporte ainsi des oxydes de fer en quantité significative qui lui donnent cette teinte "rouillée". La présence de silicates et de phyllosilicates (dont des argiles) est également décelable, ainsi que celle de sulfates.

Surface martienne
curiosity.jpg
Panorama martien observé par le rover Curiosity de la NASA. La couleur caractéristique de la surface martienne apparaît clairement, ainsi que la diffusion de la lumière par les poussières en suspension dans l'atmosphère.
Crédit : NASA

Sur Terre, en plus des silicates et autres roches nues visibles dans les déserts, la végétation (chlorophylle) présente une absorption caractéristique en infrarouge proche. De plus, les étendues liquides (mers, océans) sont nettement reprérables également, via le phénomène de réflexion spéculaire (miroitante) typique des surfaces lisses.

Chlorophylle vue en IR proche
chloro_IR.jpg
Photographie en IR proche de la rivière Neckar en Allemagne. La réflectance très élevée de la chlorophylle des arbres est particulièrement frappante.
Crédit : Cyrill Harnischmacher

Dans le cas de Titan, les observations de surface sont limitées à quelques fenêtres spectrales dans l'IR proche. Ces dernières révèlent des zones claires et sombes indiquant une présence variable de composés organiques sombres (par rapport à la glace environnante) à la surface. Le phénomène de réflexion spéculaire est également observé près des régions polaires, indiquant par là la présence de lacs d'hydrocarbures liquides.

Réflexion spéculaire sur les lacs de Titan
Titan_specular.jpg
Réflexion en IR proche de la lumière solaire à la surface d'un lac de Titan situé près du pôle Nord.
Crédit : NASA (mission Cassini)

Les planètes géantes

Dans le cas des planètes géantes, il n'y a pas de surface à observer, seule l'atmosphère contribue au flux réfléchi. Il est difficile de sonder très profondément dans ces atmosphères, l'opacité (par absorption et diffusion) au sein de ces atmosphères croissant rapidement avec la profondeur en dessous des nuages visibles (constitués de NH3 ou NH3SH pour Jupiter et Saturne, de CH4 pour Uranus et Neptune).

L'absorption de certaines longueurs d'onde dans le visible nous renseigne aussi sur la composition gazeuse et/ou particulaire. Uranus et Neptune apparaissent ainsi bleu-vert en lumière visible à cause de l'importante épaisseur travsersée de méthane gazeux qui absorbe davantage dans le rouge. À l'inverse, sur Jupiter et Saturne, les brumes photochimiques situées en altitude comportent des chromophores de composition encore inconnue et absorbant l'UV et le bleu, ce qui donne à ces planètes une teinte globalement jaune-orangée.

Spectres des planètes géantes dans le domaine visible
sp_geantes.png
Spectres d'Uranus, Neptune, Saturne et Jupiter dans le domaine visible. On notera le faible albédo de Jupiter et Saturne dans le bleu ainsi que les fortes absorptions d'Uranus et Neptune dans le rouge (liées au méthane).
Crédit : Adapté de Karkoschka (1994).
Apparence visuelle des planètes géantes du système solaire
PlanetesGeantes.jpg

Le flux thermique

Auteurs: Loïc Rossi, Emmanuel Marcq

Analyse de composition atmosphérique

L'analyse du spectre thermique permet d'identifier divers composés (surtout atmosphériques) de par la présence de bandes ou de raies spectrales caractéristiques d'une espèce chimique.

Système solaire

Les spectres thermiques en provenance des planètes du système solaire nous renseignement notamment sur :

Notons que ces mêmes techniques sont également utilisées depuis l'orbite terrestre pour des mesures satellitaires de composition atmosphérique, notamment pour des mesures météorologiques (nuages, vapeur d'eau) ou climatologiques (CO2).

Spectres thermiques telluriques
Thermal_IR_Venus_Earth_Mars.png
Spectres des trois principales planètes telluriques connues dans l'infrarouge thermique. Les composés gazeux responsables des structures observées sont indiqués.
Crédit : NASA GSFC (Hanel et al.)
Images IR thermiques de la Terre
earth_IRmerge.png
À gauche : image Météosat dans le canal 10,5-12,5 µm (fenêtre de transparence atmosphérique). À droite : image Météosat dans le canal 5,7-7,1 µm (zone d'opacité de H2O)

Exoplanètes

Les spectres thermiques d'exoplanètes que nous sommes en mesure d'observer sont évidemment de bien moins bonne qualité que pour les objets du système solaire. Ils ne sont pas résolus spatialement (aspect ponctuel des exoplanètes), et sont en général de résolution spectrale assez faible (car on ne peut se permettre de trop disperser spectralement un flux reçu qui est en général très faible). Nous disposons néanmoins à ce jour des connaissances suivantes :


Analyse du profil thermique

Lorsque la composition de l'atmosphère est connue, la forme exacte des raies spectrales vues dans le spectre thermique peut donner à l'observateur des renseignements sur la température du milieu responsable de l'émission thermique (que ce soit la surface ou l'atmosphère). Ainsi, une atmosphère où le profil thermique décroît avec l'altitude présentera des raies en absorption, tandis qu'une atmosphère où la température croît avec l'altitude (une stratosphère, donc) présentera des raies d'émission. Une explication plus détaillée est disponible ici.

L'utilisation de ces spectres pour la mesure du profil thermique n'est possible que dans une plage limitée d'altitude selon la raie observée. Elle nécessite également un gaz dont le profil vertical d'abondance est bien connu dans l'atmosphère : c'est le cas de CO2 sur Mars et la Terre par exemple. Il est hélas impossible de se livrer à la fois à des mesures de profils de composition et de température simultanément...

Spectre thermique de Mars
mariner_mars.jpg
Spectres thermiques enregistrés par la sonde Mariner 9 en orbite autour de Mars. Le profil thermique est décroissant avec l'altitude dans les moyennes latitudes, mais croissant au pôle sud comme le montre la bande de CO2 tantôt en absorption ou en émission.
Crédit : Tiré de Hanel et al. (1972)

Exoplanètes

L'observation indirecte (par différence avec le spectre stellaire pur observable lors d'un transit secondaire) du flux thermique émis par des exoplanètes géantes permet, moyennant des hypothèses raisonnables sur leur composition, d'estimer la température des couches atmosphériques émettrices. Cependant, la faiblesse du signal impose une résolution spectale très faible, hélas insuffisante pour dériver un véritable profil vertical de température.


Méthodes

Auteurs: Loïc Rossi, Emmanuel Marcq

Observations nadir et limbe

definitionGéométrie d'une observation planétaire

Pour décrire la géométrie d'une observation planétaire, il faut au moins trois angles, que l'on choisit conventionnellement de la façon suivante :

Géométrie d'une observation spatiale
figure_geometrie_simple.png
Géométrie d'observation : en bleu \theta_0 est l'angle solaire zénithal (SZA) ; en vert \theta est l'angle d'émission (EMI) ; et en rouge l'angle α est l'angle de phase.
Crédit : Loïc Rossi CC-BY-SA

Observation nadir

L'observation en nadir consiste à observer la planète en pointant l'instrument vers son centre. On observe donc l'atmosphère ou la surface qui se trouve directement sous la sonde. Cela correspond à un angle d'émission nul. Cependant, cette condition n'est jamais rigoureusement respectée, et on considère qu'une observation est en nadir tant que l'on peut négliger la courbure planétaire, ce qui donne une limite pour l'angle d'émission de l'ordre de 30° pour des observations depuis l'orbite basse.

Observations au limbe

Pour les observations au limbe, on observe la planète selon une incidence rasante ; en d'autres termes l'angle d'émission est proche de 90°. Dans cette configuration la courbure planétaire n'est pas négligeable : on ne peut plus considérer l'atmosphère comme constituée de couches planes parallèles. Le principal avantage de l'observation au limbe est que la résolution spatiale se traduit directement en résolution verticale, tandis que les observations nadir sont en général peu précises selon cette direction (mais plus adaptées à une cartographie horizontale). Un autre avantage des observations au limbe est la démultiplication des épaisseurs optiques traversées par les rayons lumineux au sein des différentes couches, ce qui se traduit par des gains substantiels de sensibilité pour la détection et la mesure d'espèces à l'état de traces.

Observations au limbe et au nadir
nadir_limb.png
Géométries d'observations au limbe (bleu) et au nadir (rouge).
Crédit : Emmanuel Marcq CC-BY-SA

Transits et occultations

definitionTransits primaires

Un transit primaire désigne le phénomène d'éclipse partielle d'une étoile par une planète et son atmosphère. L'occultant présente alors un diamètre apparent petit devant l'occulté. Un exemple connu dans le système solaire est celui du transit de Vénus, mais l'étude de ce phénomène a connu un regain d'intérêt avec son application à la détection et à la caractérisation d'exoplanètes.

Si la planète dispose d'une atmosphère, une partie de la lumière stellaire va traverser cette atmosphère pendant le transit primaire. L'observation du spectre transmis permet alors de mesurer quelle extinction supplémentaire est causée par l'atmosphère de la planète à différentes longueurs d'onde, permettant ainsi de contraindre la nature physico-chimique de ses constituants.

definitionTransits secondaires

Un transit secondaire désigne le phénomène réciproque : c'est à présent l'étoile qui masque la planète, le plus souvent totalement étant donné que les étoiles sont bien plus grandes que les planètes.

Immédiatement avant et après un transit secondaire, on peut observer, en plus du spectre de l'étoile seule telle qu'elle apparaît en l'absence de transit, une contribution supplémentaire due au spectre émis ou réfléchi par la planète. Il est alors possible, par soustraction entre le spectre composite observé et celui de l'étoile seule (spectroscopie différentielle), d'analyser le spectre émis ou réfléchi par la planète seule. Une telle méthode exige toutefois une grande sensibilité, car la contribution d'origine planétaire est beaucoup moins intense que celle en provenance de l'étoile.

definitionOccultations

Une occultation (solaire ou stellaire) désigne un phénomène physiquement analogue à un transit primaire (l'occulté est une étoile, l'occultant une planète), mais où cette fois l'occulté est de diamètre apparent très petit devant l'occultant. L'observabilité des occultations s'accroît avec la proximité de l'observateur à l'occultant (à sa surface ou en orbite basse). Un coucher de Soleil est un exemple d'occultation d'observation quotidienne aisée. Il est toutefois possible d'observer des occultations loin de l'occultant, notamment depuis la Terre, entre un corps du système solaire et une étoile lointaine. Un autre type d'occultation aussi utilisé consiste en l'utilisation comme source de l'émetteur radio d'une sonde spatiale. L'occultant est alors l'atmosphère autour de laquelle orbite la sonde, et l'observation se fait à partir de radiotélescopes sur Terre.

L'extinction progressive (à mesure que l'occultant se place devant l'occulté) du rayonnement en provenance de la source permet alors de déduire les propriétés optiques des différentes couches atmosphériques traversées.

transit_occ.png
Illustration des transits primaire (en haut à gauche), secondaire (en bas à gauche) et d'une occultation stellaire (à droite).
Crédit : Gauche : CNES ; Droite : ESA

Comprendre

Auteurs: Loïc Rossi, Emmanuel Marcq

Transfert radiatif

Auteurs: Loïc Rossi, Emmanuel Marcq

Processus radiatifs

L'interaction entre le rayonnement (ondes du champ électromagnétique) et la matière (chargée au niveau microscopique : électrons, noyaux atomiques) se caractérise par trois types de processus radiatifs : l'absorption, l'émission et la diffusion.

Émission

Un processus d'émission intervient lorsque la matière cède localement de l'énergie au champ électromagnétique (création d'un photon). Cette émission est qualifiée de thermique lorsque le champ et la matière sont à l'équilibre thermodynamique à une même température T (on peut voir alors leur interaction comme celle d'un gaz de photons perpétuellement absorbés et émis par la matière environnante, et se mettant en équilibre de la sorte). Il existe également des phénomènes d'émission non thermiques (ex: fluorescence, émission laser), mais ils sortent du cadre de ce cours ; certains de ces processus sont vus dans ce chapitre.

Illustration d'un processus d'émission spontanée
EmissionSpontanee.png
Émission spontanée d'un photon par un système matériel possédant au moins deux niveaux d'énergie. L'énergie totale est conservée dans ce processus.

Absorption

Un processus d'absorption a lieu lorsqu'inversement, le champ électromagnétique cède de l'énergie à la matière environnante (destruction d'un photon).

Illustration d'un processus d'absorption
Absorption.png
Absorption d'un photon par un système matériel possédant au moins deux niveaux d'énergie. L'énergie totale est conservée dans ce processus.

Diffusion

Lorsque la présence de matière interagit avec l'onde électromagnétique en absorbant et réémettant un photon dans un temps très court, donc sans lui soutirer d'énergie. La réémission s'effectuant dans tout l'espace, il en résulte une déviation des ondes électromagnétiques hors de la direction d'incidence. On appelle ce phénomène diffusion.

Illustration d'un processus de diffusion
circle10_z.gif
Illustration de la diffusion d'une onde électromagnétique par une sphère diélectrique de rayon comparable à la longueur d'onde et d'indice de réfraction relatif n_r = 1,78. Le champ électrique total figure à gauche, et la composante diffusée à droite.
Crédit : R. Hogan (Univ. of Reading)

On regroupe les phénomènes d'absorption et de diffusion sous le nom d'extinction : ces deux phénomènes ont comme point commun de diminuer l'intensité d'un faisceau lumineux dans la direction d'incidence, soit en l'absorbant, soit en en déviant tout ou partie.


Épaisseur optique / Loi de Beer-Lambert

Profondeur optique

On définit alors la transmittance t comme le rapport entre l'intensité lumineuse I après traversée et celle I_0 avant la traversée du milieu : t(\lambda) = \frac{I(\lambda)}{I_0(\lambda)}. Cette transmittance vaut 1 si le milieu traversé est transparent, 0 si le milieu est parfaitement opaque, et prend une valeur intermédiaire si le milieu est partiellement opaque. Elle dépend a priori de la longueur d'onde comme la formule l'indique.

La transmittance a l'avantage d'être une grandeur aisément mesurable, mais son interprétation physique directe est malcommode. Il est préférable pour cela d'introduire la grandeur appelée profondeur optique \tau(\lambda) qui se déduit de la transmittance comme suit : \tau(\lambda) = - \ln \left[ t(\lambda) \right], soit I(\lambda) = I_0(\lambda) e^{-\tau(\lambda)}. Il est alors facile de déduire des propriétés mathématiques du logarithme que \tau(\lambda) est une grandeur additive le long d'un même rayon (voir figure ci-contre), et qu'elle offre donc un paramétrage naturel de l'abscisse curviligne le long de ce rayon. Il est en outre possible de relier physiquement la variation locale de \tau(\lambda) le long d'un rayon à la présence de matière traversée : c'est la loi de Beer-Lambert .

Additivité de la profondeur optique
tau_add.png
Crédit : Emmanuel Marcq CC-BY-SA

definitionLoi de Beer-Lambert

Elle s'exprime comme suit le long d'un rayon lumineux : d\tau(\lambda) = n(s) \sigma_{\mathrm{ext}}(\lambda) \, dss désigne l'abscisse curviligne le long du rayon (croissant dans le sens de propagation), n(s) la densité volumique de diffusants et/ou absorbants et \sigma_{\mathrm{ext}}(\lambda) la section efficace d'extinction des diffusants et/ou absorbants. En présence de plusieurs types de diffuseurs et/ou d'absorbeurs, il suffit d'ajouter leurs contributions individuelles. L'évolution de la profondeur optique totale \tau(\lambda) = \int_{s=-\infty}^{+\infty} d\tau(\lambda) selon la longueur d'onde au cours d'une occultation ou d'un transit offre donc la possibilité à l'observateur de déduire les propriétés matérielles du milieu traversé (densité volumique et nature physique des particules responsables de l'extinction).


Diffusions Rayleigh et Mie

Régimes de Rayleigh et de Mie

Le régime de diffusion Rayleigh concerne la diffusion de la lumière par des particules petites devant la longueur d'onde (rayon r \ll \lambda), ce quelque soit le type d'aérosol (sphérique ou non) : molécules isolées de gaz, micro gouttes, etc.

La théorie de Mie est quant à elle valable pour toutes les valeurs de r, mais uniquement pour des particules sphériques (gouttes liquides par exemple). Elle tend vers le cas Rayleigh lorsque r \ll \lambda. Pour des particules non sphériques (cristaux, aérosols de Titan, poussières), cette théorie n'est valable qu'en première approximation, et les méthodes utilisées pour aller plus loin sont hors-programme.

Section efficace de diffusion

Cette section efficace évolue de façon très différente selon le régime. Dans le régime Rayleigh, la section efficace est une fonction rapidement croissante de la longueur d'onde (une illustration courante étant la diffusion bien plus importante du bleu que de rouge dans l'atmosphère terrestre, donnant sa couleur à notre ciel). En régime de Mie, cette dépendance est bien plus faible, si bien que les diffuseurs apparaissent peu colorés en l'absence d'absorption (sur Terre, les nuages d'eau liquide sont un bon exemple).

Section efficace de diffusion
Qext_log_log_v3.png
Représentation log-log de la section efficace de diffusion en fonction de la longueur d'onde pour des particules sphériques d'un rayon r \approx 1\,\mathrm{\mu m}. Aux grandes longueurs d'onde, r \ll \lambda et on se trouve dans le régime Rayleigh (\sigma_{\mathrm{ext}} \propto \lambda^{-4}, apparaissant comme une asymptote de pente -4). Pour r \sim \lambda et r > \lambda, on se trouve dans le régime de Mie, où la section efficace est presque indépendante de \lambda et voisine de la section géométrique des particules.
Crédit : Loïc Rossi CC-BY-SA

Fonction de phase

La fonction de phase définit la répartition angulaire du rayonnement diffusé. C'est en quelque sorte la probabilité pour un rayon incident d'être diffusé dans une direction donnée.

Fonctions de phase de Rayleigh et de Mie
mie_scattering_Sharayanan_ccbysa.png
Figure montrant les indicatrices des différents processus de diffusion. La lumière incidente est supposée aller de gauche à droite. Plus la flèche est longue, plus la diffusion sera importante dans cette direction. À gauche, le régime de Rayleigh avec une diffusion relativement isotrope. Au centre, la diffusion de Mie, qui diffuse fortement vers l'avant. À droite, la diffusion de Mie pour des particules encore plus grandes.
Crédit : Sharayanan CC-BY-SA

Albédo de simple diffusion

Quand un rayonnement est diffusé et absorbé, on définit l'albédo de simple diffusion \varpi_0 comme la proportion du rayonnement qui est diffusée. Si \varpi_0 = 1, toute la lumière est diffusée, il n'y a pas d'absorption. En revanche si \varpi_0 = 0, tout la lumière est absorbée, il n'y a plus de diffusion. En général, \varpi_0 dépend de la longueur d'onde : \varpi_0(\lambda).


Surfaces

Types de réflexion

Quand du rayonnement parvient à une surface, il peut être réfléchi de plusieurs façons :

Réflexion diffuse et spéculaire
earth_specular.jpg
Photographie de la Terre prise depuis la station spatiale internationale. On distingue nettement la réflexion spéculaire sur la surface de l'océan et celle diffuse due aux nuages ou à la surface des continents.

Spectroscopie

Selon la longueur d'onde, le rayonnement incident sur une surface peut-être réfléchi mais aussi absorbé. On pourra alors étudier la réflectance d'une surface en fonction de la longueur d'onde (la réflectance valant 1 si tout la lumière est réfléchie ; 0 si tout est absorbé.).

L'étude de la réflectance d'une surface en fonction de la longueur d'onde peut être utile pour caractériser celle-ci. Ainsi certains minéraux ont un spectre avec des bandes d'absoption caractéristiques. C'est ce qui permet de caractériser des surfaces comme celles de Mars (pour détecter des minéraux hydratés par exemple), de la Lune ou bien celle d'astéroïdes et de comètes.


Température de brillance

definitionDéfinition

La température de brillance T_B(\lambda) d'un objet est la température du corps noir qui émettrait la même intensité que celle émise par l'objet à la longueur d'onde \lambda : I(\lambda) = B\left[\lambda, T_B(\lambda) \right]B\left[\lambda, T \right] désigne la fonction de Planck à la longueur d'onde \lambda pour un corps noir de température T. Comme les courbes représentant les fonctions de Planck ne se croisent jamais, il y a correspondance unique entre I(\lambda) et T_B(\lambda) : la température de brillance n'est qu'une autre façon de décrire un spectre. En particulier, elle ne représente pas forcément la température d'un objet physique.

La formule de Planck permet d'exprimer analytiquement T_B(\lambda) selon la formule T_B(\lambda) = \frac{hc}{k\lambda} \ln^{-1} \left( 1 + \frac{2hc^2}{\lambda^5 I(\lambda)} \right).

Lecture graphique de la température de brillance
nimbus-earth.png
Spectre thermique terrestre observé par l'instrument NIMBUS. Les courbes en pointillé représentent les spectres des corps noits aux températures indiquées en Kelvin. Ceci permet une lecture directe de ce spectre en température de brillance : un minimum situé autour de 215 K vers 15 µm, et un maximum un peu en dessous de 300 K entre 10 et 12 µm.
Crédit : Adapté de Hanel et al. (1970)

Intérêt

Son intérêt principal réside dans l'interprétation des spectres thermiques issus d'un objet (ici une planète et son atmosphère). En effet, sous réserve de certaines hypothèses :

La température de brillance correspond alors à la température du milieu situé à une profondeur optique égale à 1 : T_B(\lambda) \approx T\left[\tau(\lambda) = 1\right] avec \tau comptée depuis l'observateur et le long du rayon. Intuitivement, cela résulte d'un compromis dans l'intensité intégrée le long du rayon et reçue par l'observateur :


Méthodes

Auteurs: Loïc Rossi, Emmanuel Marcq

Nadir

Auteurs: Loïc Rossi, Emmanuel Marcq

Sondages thermiques

Raies en absorption vs. émission

Nous sommes à présent en mesure d'interpréter pourquoi les raies caractéristiques de certains gaz apparaissent tantôt en absorption, tantôt en émission dans les spectres thermiques observés. En effet, le centre d'une raie spectrale présente une absorption massique plus grande que les ailes de cette même raie. En conséquence, du point de vue d'un observateur extérieur à l'atmosphère, la profondeur optique unité est atteinte à des altitudes plus élevées aux centres des raies que sur leurs ailes. À partir de là, on a les cas de figure suivants :

Raies en absorption ou en émission
emis_abs.png
Profils d'une raie spectrale vue en émission (haut) ou en absorption (bas). L'altitude \tau(\lambda)=1 est atteinte plus haut au coeur de la raie (longueur d'onde \lambda_c) que dans les ailes lointaines de la raie (longueur d'onde \lambda_a) : z_c < z_a avec \tau(\lambda_c,z_c) = 1 et \tau(\lambda_a,z_a)=1.
Crédit : Emmanuel Marcq CC-BY-SA

Application

Lorsque le composé responsable d'une raie d'absorption est bien connu spectroscopiquement (son absorption en fonction de la longueur d'onde notamment) et que son profil d'abondance vertical est supposé connu au sein de l'atmosphère étudiée, il est possible de savoir à quelles altitudes sont atteintes les profondeurs optiques unité pour les différentes longueurs d'onde (ainsi, comme expliqué ci-dessus, le coeur des raies va sonder plus haut que les ailes lointaines des raies, où les rayons pourront même provenir de la surface si l'atmosphère est transparente par ailleurs). L'analyse du flux spectral reçu par l'observateur selon la longueur d'onde va alors lui permettre de reconstituer le profil thermique dans les plages d'altitudes associées aux différentes raies spectrales.

De façon semi-quantitative, lorsque la section efficace \sigma_{\mathrm{abs}}(\lambda) et le profil vertical en densité de l'absorbant n(z) sont connus, il est alors possible de trouver à quelle altitude z(\lambda) on a \tau \left[ z(\lambda) \right] = \int_{z(\lambda)}^{+\infty} \sigma_{\mathrm{abs}}(\lambda) n(z')\,dz' = 1. On sait alors qu'il règne une température T\left[ z(\lambda) \right] \approx T_B(\lambda) à cette altitude. On a supposé dans ce calcul que la visée de l'observateur pointe verticalement vers le centre de la planète (visée nadir).


Sondages de composition

Principe

Lorsque le profil vertical de température est supposé connu dans une atmosphère planétaire (par exemple au moyen de la méthode décrite précédemment), il est possible d'utiliser les raies spectrales de composés identifiés (et bien connus spectroscopiquement) pour en déduire leur profil vertical d'abondance sur une plage d'altitudes donnée.

De façon semi-quantitative et en visée nadir, on peut procéder comme suit : la connaissance du profil thermique T(z) permet, pour chaque longueur d'onde \lambda, de retrouver l'altitude z(\lambda) correspondant à la température de brillance observée — en d'autres termes telle que T_B(\lambda) = T\left[z(\lambda)\right]. Or, on sait que cette altitude correspond à la profondeur optique unité à la longueur d'onde considérée, si bien que l'on a \tau \left[ z(\lambda) \right] = \sigma_{\mathrm{abs}}(\lambda) \times N\left[z(\lambda) \right] = 1\sigma_{\mathrm{abs}}(\lambda) désigne la section efficace d'absorption du composé mesuré (supposée ici indépendante de la pression et de la température) et N(z) la densité de colonne du composé recherché au-dessus de l'altitude z, c'est-à-dire N(z) = \int_{z}^{\infty} n(z')\,dz' avec n(z') la densité volumique de l'absorbant à l'altitude z'. On peut alors en déduire par différentiation sur les altitudes sondées le profil de densité volumique n(z) du composé mesuré sur l'intervalle sondé.

Cependant, afin de moins dépendre des diverses approximations déjà évoquées, il est préférable d'utiliser un modèle de transfert de rayonnement afin de modéliser les spectres thermiques attendus et de les comparer ensuite aux observations en ajustant les différents paramètres (opération appelée fit en anglais de laboratoire). Notons que la procédure décrite ci-dessus ne fonctionne en pratique que lorsque les raies spectrales sont résolues, c'est-à-dire à une très haute résolution spectrale.

Il n'est en revanche pas possible d'inverser simultanément le profil thermique et le profil d'abondance du composé par la seule observation de ses raies d'absorption. On parle de problème dégénéré.

Absorption de quelques gaz dans l'IR thermique
GEISA2011.png
Absorption de la vapeur d'eau (rouge), du dioxyde de carbone (vert), de l'ozone (bleu) et du méthane (violet) dans les conditions standard de température et de pression. L'échelle verticale est logarithmique.
Crédit : Emmanuel Marcq (à partir de la base de données GEISA 2011) CC-BY-SA

Spectre réfléchis

Réflectance

La lumière stellaire réfléchie et reçue par un observateur extérieur a subi au moins un événement de diffusion, soit au sein de l'atmosphère (molécules de gaz, aérosols), soit par la surface pour une atmosphère peu opaque autour d'une planète tellurique. Ces propriétés de réflexion sont résumées par la fonction R(\theta_0,\varphi_0,\theta_1,\varphi_1) appelée réflectance bidirectionnelle. C'est une fonction à quatre variables, deux pour caractériser la direction du rayon incident (d'angle zénital d'incidence \theta_0 et d'azimuth \varphi_0) et deux pour celle du rayon émergent (d'angle d'émergence zénital \theta_1 et d'azimuth \varphi_1) . C'est une fonction positive, dont la valeur minimale est nulle dans les directions où l'intensité réfléchie est nulle. Elle ne se déduit pas simplement des fonctions de phase calculables en régime de Rayleigh et de Mie, notamment à cause des phénomènes de diffusion multiple et de la possible contibution de la surface.

Transmission atmosphérique

Dans le cas d'une couche réfléchissante (surface, sommet des nuages) surmontée d'une atmosphère purement absorbante (non diffusante en elle-même), on a alors une relation anayltique entre l'intensité réfléchie I(\theta_1,\varphi_1) et celle de la source I(\theta_0,\varphi_0) : I(\theta_1,\varphi_1) = I(\theta_0,\varphi_0) R(\theta_0,\varphi_0,\theta_1,\varphi_1) \exp \left[ - \tau \left(\frac{1}{\cos \theta_0} + \frac{1}{\cos \theta_1} \right) \right]\tau désigne l'épaisseur optique de l'atmosphère au-dessus de la couche réfléchissante (comptée selon la verticale). Le terme en exponentielle provient de la loi de Beer-Lambert pour le rayon incident et le rayon émergent, en tenant compte de leur inclinaison éventuelle qui les amène à traverser des épaisseurs atmosphériques plus importantes que des rayons purement verticaux.

Hormis l'étude la couche réfléchissante dans des longueurs d'onde où \tau est négligeable, cette méthode permet de mesurer le spectre de l'absorption atmosphérique décrite par \tau(\lambda) : on a ainsi accès à la densité de colonne intégrée au-dessus de la couche réfléchissante en examinant la profondeur des raies d'absorption des composés atmosphériques. Notons qu'au contraire de l'émission thermique, la présence de composés absorbants se traduit toujours par des raies en absorption et non plus en émission.

Illustration de l'intensité réfléchie
refl.png
Crédit : Emmanuel Marcq CC-BY-SA

Occultations et transits

Auteurs: Loïc Rossi, Emmanuel Marcq

Occultations

definitionLa méthode des pelures d'oignon

L'observation d'une occultation au cours du lever (ou du coucher) de la source à travers l'atmosphère d'une planète permet d'inverser le profil vertical d'extinction k_{\mathrm{ext}}(z;\lambda) = n(z) \sigma_{\mathrm{ext}}(\lambda) à la longueur d'onde \lambda à partir de l'observation des transmissions t(z_i,\lambda) selon différentes altitudes tangentesz_i (altitude minimale du rayon lors de sa traversée de l'atmosphère). Un des algorithmes permettant cette inversion est appelé méthode des pelures d'oignon : on découpe l'atmosphère en coquilles sphériques concentriques homogènes à la manière d'un oignon. L'altitude tangente z_0 la plus élevée pour laquelle on mesure \tau(z_0,\lambda) > 0 permet de déduire l'extinction locale k_{\mathrm{ext}}(z_0,\lambda) au sein de cette couche la plus extérieure. La profondeur optique observée juste en-dessous, à l'altitude tangente z_1 < z_0, est alors un peu plus grande. Comme on connaît déjà k_{\mathrm{ext}}(z_0,\lambda), on en déduit k_{\mathrm{ext}}(z_1,\lambda) pour la couche immédiatement intérieure. Et ainsi de suite jusqu'au rayon le plus bas pour lequel on puisse mesurer une transmission t(z_N,\lambda) > 0.

La mesure des profils d'extinction k_{\mathrrm{ext}}(z,\lambda) dans l'atmosphère permet alors d'en déduire plusieurs paramètres importants :

Ces occultations sont donc une méthode précieuse de sondage atmosphérique, mais assez délicate à mettre en oeuvre. Il faut en effet pouvoir mesurer de nombreuses transmissions précisément, tout en connaissant parfaitement chacune des altitudes tangentes. Ceci n'est en général possible que pour un satellite en orbite autour de la planète, et nous restreint donc au système solaire.

Méthode dite "par pelure d'oignon"
onion.png
Visualisation géométrique de la méthode d'inversion surnommée "par pelure d'oignon" : la transmission observée t(z_1) permet, connaissant l'épaisseur traversée, de remonter à k_{\mathrm{ext}}(z_1). À partir de là, la transmission t(z_2) permet, connaissant k_{\mathrm{ext}}(z_1), d'en déduire k_{\mathrm{ext}}(z_2) et ainsi de suite.
Crédit : Emmanuel Marcq CC-BY-SA

Transits primaires

Transits primaires

L'observation d'un transit primaire se traduit par une baisse relative de luminosité en provenance de la source partiellement occultée, appelée profondeur du transit, notée \delta et habituellement mesurée en ppm (parties par million). Pour une planète sans atmosphère, la profondeur est indépendante de la longueur d'onde (la réciproque n'est pas vraie : ainsi un plafond nuageux élevé peut conduire à la même observation, par exemple). En revanche, si l'atmosphère présente une extinction variable selon la longueur d'onde (que ce soit par absorption ou par diffusion Rayleigh par exemple), alors le rayon apparent de la planète (et donc la profondeur du transit) sembleront légèrement plus grands dans les longueurs d'onde où l'atmosphère cause davantage d'extinction.

On peut ainsi montrer, sous certaines hypothèses simplificatrices, que la variation relative de la profondeur du transit selon la longueur d'onde est liée à celle de la section efficace d'extinction (moyennée verticalement) au sein de l'atmosphère, selon la loi : \frac{d \delta / d\lambda}{\delta} = \frac{2H}{R} \frac{d\sigma_{\mathrm{ext}} / d \lambda}{\sigma_{\mathrm{ext}}}H désigne l'échelle de hauteur de l'atmosphère et R le rayon de la planète. Ces variations sont donc d'autant plus notables que l'échelle de hauteur est grande, ce qui favorise donc les atmosphères très dilatées. C'est par exemple le cas pour les Jupiter chauds (atmosphère légère constituée principalement de H2 et à température élevée).

Spectroscopie d'un transit primaire
transit_prim.png
Visualisation de la profondeur d'un transit primaire en fonction de la longueur d'onde. Ici, l'atmosphère est transparente aux grandes longueurs d'onde, et de plus en plus opaque aux courtes longueurs d'onde, ce qui augmente la profondeur du transit.
Crédit : Emmanuel Marcq CC-BY-SA

Transits secondaires

L'intérêt d'un transit secondaire réside dans la possibilité d'effectuer une spectroscopie différentielle de la planète : si l'on mesure un spectre S_{\mathrm{star + planet}}(\lambda) juste avant ou juste après ce transit secondaire, ainsi qu'un spectre S_{\mathrm{star}}(\lambda) de l'étoile seule pendant ce transit secondaire, on peut en déduire le spectre S_{\mathrm{planet}}(\lambda) = S_{\mathrm{star + planet}}(\lambda) - S_{\mathrm{star}}(\lambda) émis ou réfléchi par la planète seule vue à angle de phase nul.

Le spectre S_{\mathrm{planet}}(\lambda) peut alors être analysé comme le serait n'importe quel spectre (par exemple en termes de température ou de composition pour un spectre thermique, ou bien de propriétés des diffuseurs pour un spectre réfléchi). C'est du moins le cas en théorie, car en pratique le faible rapport signal à bruit de tels spectres interdit à ce jour toute analyse trop poussée de ces spectres, de résolution spectrale souvent médiocre.

Courbe de lumière
stevenson.png
Courbe de lumière lors du transit secondaire de WASP-43b. Le flux en provenance de l'étoile est normalisé à 1. Le surcroît autour du transit secondaire est causé par l'émission thermique de la planète, ce qui a permis de reconstituer son profil thermique. L'insert en haut à droite représente le transit primaire.
Crédit : Figure tirée de Stevenson et al. (2014)

Se Tester

Auteurs: Emmanuel Marcq, Loïc Rossi

QCM de cours

Auteur: Loïc Rossi

qcmQuelques questions de cours

Difficulté :    Temps : 10 min

1)  Un rayon lumineux traverse deux milieux de composition et dimensions identiques. Le second possède une densité volumique double du premier. Quelle sera l'épaisseur optique totale si \tau_1 désigne l'épaisseur optique du milieu 1 ?



2)  Dans quel cas les composantes thermiques et réfléchies d'une planète seront-elles indistinctes ?



3)  Pourquoi est-il difficile d'observer les couches profondes de certaines atmosphères ?



4)  La température de brillance est toujours la température physique d'un corps.


5)  On observe un transit (primaire) d'une exoplanète à plusieurs longueurs d'onde. La profondeur du transit est globalement constante. Que peut-on en conclure ?




Transit primaire

Auteur: EM

exerciceÉtude spectroscopique d'un transit primaire

Difficulté : ☆☆☆   Temps : 30 min

On considère la variation avec la longueur d'onde \lambda de la profondeur \delta d'un transit primaire autour d'une étoile de rayon R_{\star} = 7\cdot 10^5\;\mathrm{km}. Le meilleur ajustement par un modèle simple est représenté ci-dessous (l'axe des abscisses des gradué de façon logarithmique). L'échelle de hauteur de l'atmosphère de l'exoplanète sera supposée constante.

Profondeur optique vs. longueur d'onde
transit_simu.png
Simulation d'un transit primaire
Crédit : EM
Question 1)

Estimer la profondeur du transit en l'absence d'atmosphère.

Question 2)

En déduire le rayon R de la planète.

Question 3)

Interpréter l'allure générale du spectre de \delta :

  • Quel phénomène peut causer les pics isolés vers 600 et 800 nm ?
  • Quel phénomène est responsable de l'augmentation constatée vers les courtes longueurs d'onde

Question 4)

Mesurer la pente K observée pour les courtes longueurs d'onde.

Question 5)

En déduire l'échelle de hauteur atmosphérique H, puis la température sachant que l'on a aussi H = \frac{R T}{M g}. On prendra M = 2.4\;\mathrm{g/mol}, R = 8,31\;\mathrm{J/K/kg} et g = 15.7\;\mathrm{m/s^2}.


Sondage thermique

Auteur: EM

exerciceSpectres d'émission thermique

Difficulté : ☆☆☆   Temps : 30 min

Interpréter les spectres d'émission thermiques suivants à l'aide du cours. On répondra notamment aux questions suivantes :

Pour l'interprétation du spectre 2, voici une formule semi-numérique pour convertir les radiances spectrales en température de brillance : T_B(\lambda) = \frac{14388\;\mathrm{K}}{\lambda} \times \frac{1}{\ln \left( 1 + \frac{11910.4}{\lambda^3 I} \right)} où la longueur d'onde \lambda est en µm et la radiance I en \mathrm{W/m^2/sr/cm^{-1}}

Spectre 1
spectre.png
Spectre 2
TitanEmission.jpg
Question 1)

Identifier les espèces gazeuses présentes dans la planète du spectre 1.

Question 2)

Estimer la température de surface pour le spectre 1, et la structure thermique des deux atmosphères.

Question 3)

Interpréter les pics centraux au coeur des bandes d'absorption vers 9,6 µm et 15 µm sur le spectre 1.

Question 4)

Identifier les deux objets du système solaire en question.


Mini-projet

Auteurs: Loïc Rossi, Emmanuel Marcq

Occultation stellaire à travers l'atmosphère de Vénus

introductionContexte

En 2011, l'équipe de Franck Montmessin (LATMOS, France) a découvert l'existence d'une couche d'ozone (O3) dans la haute atmosphère de Vénus côté nuit. Cette couche est très ténue et d'extension verticale restreinte. Elle présente également d'importantes variations horizontales, pouvant passer sous le seuil de détection. Les données utilisées provenaient de l'instrument SPICAV à bord de la sonde Venus Express (2006-2014) de l'ESA, et utilisaient la méthode des occultations stellaires en ultraviolet, domaine spectral où l'ozone présente une absorption caractéristique.

Ce mini-projet se propose d'appliquer la même méthode à des occultations stellaires simulées, comparables à celle mesurées par SPICAV mais plus faciles à traiter.

complementDescription des occultations simulées

Les occultations simulées prennent en compte l'extinction de la lumière de l'étoile causée par la traversée d'une partie de l'atmosphère de Vénus. Cette atmosphère simulée est constituée de dioxyde de carbone (CO2 à 96,5%) suivant une distribution hydrostatique, et d'une couche d'ozone (O3) d'altitude fixe et d'épaisseur caractéristique assez mince. Le dioxyde de carbone absorbe majoritairement aux courtes longueurs d'onde, tandis que l'ozone présente une bande d'absorption centrée sur une longueur d'onde d'environ 250 nm (bande de Hartley) . Ce modèle, par souci de simplicité pédagogique, ne prend pas en compte les phénomènes suivants :

Ces occultations ont été simulées pour diverses altitudes tangentes du rayon lumineux. Ces altitudes représentent l'altitude minimale atteinte par le rayon lorsqu'il passe au plus près de Vénus. Un bruit synthétique a été également été ajouté.

activiteConsignes

  1. Pour chaque observation, ajuster la densité de colonne d'ozone donnant le meilleur accord entre transmission théorique et observée. Copier chaque couple de valeurs vers le tableur.
  2. Pourquoi la transmission théorique ne réussit-elle pas à ajuster les observations aux courtes longueurs d'onde ? Interpréter le désaccord constaté, notamment vis-à-vis l'altitude tangente.
  3. Interpréter la courbe donnant la densité de colonne d'ozone traversée en fonction de l'altitude tangente : vérifier notamment qu'elle est compatible avec une couche mince d'ozone située à une altitude z_0 que l'on précisera.
  4. Représenter schématiquement trois occultations d'altitudes tangentes z telles que : z>z_0, z=z_0, z<z_0. Vérifiez la cohérence avec les variations de la densité de colonne d'ozone observées le long de ces rayons.
  5. Estimer à partir du profil vertical de densité de colonne d'ozone l'épaisseur caractéristique h de la couche d'ozone.
  6. En considérant un modèle simplifié où l'ozone est uniformément réparti entre les altitudes z_0 et z_0 + h, montrer que la longueur L parcourue par le rayon d'altitude tangente z_0 est donnée par L = 2 \sqrt{2 R h}R = 6051\;\mathrm{km} désigne le rayon de Vénus. On se placera dans l'hypothèse, vérifiée ici, où R \gg z_0 \gg h .
  7. En déduire alors une estimation de la densité particulaire (en molécules/m3) d'ozone au sein de cette couche dans le cadre de ce modèle simplifié.

Simulation d'une occultation stellaire à travers l'atmosphère de Vénus

activiteMode d'emploi

Simulation application.png


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Flux UV

Auteur: Jean-Yves Chaufray

Flux UV

Ce chapitre présente les principales émissions UV observées dans les hautes atmosphères des planètes. On décrit non seulement les émissions aurorales que l'on peut observer dans le visible depuis la surface de la Terre, mais aussi d'autres émissions plus ténues qui nous donnent des informations sur la composition, la dynamique et la variabilité des hautes atmosphères planétaires. Les différents processus à l'origine de ces émissions : interaction du rayonnement solaire avec l'atmosphère, précipitation de particules énergétiques, réactions chimiques, etc... sont décrits et illustrés par différents exemples dans le système solaire.

prerequisPrérequis

Vous pouvez commencer le cours ici


Décrire

Auteur: Jean-Yves Chaufray

Introduction

Les luminescences atmosphériques sont des émissions lumineuses émises par les atmosphères planétaires. Elles sont produites par les espèces atomiques et moléculaires de l'atmosphère de la planète se trouvant dans des états de haute énergie (états excités) qui en redescendant vers un état de basse énergie émettent des photons.

Pour produire ce type d’émission il est donc nécessaire d’exciter les espèces atmosphériques le plus souvent par interaction avec un photon ou un électron. Les luminescences atmosphériques (appelées airglow) produites dans les hautes atmosphères planétaires (thermosphère/exosphère) peuvent généralement être classées en trois catégories :

Les émissions appelées « dayglow ». Le « dayglow » est l’émission de l’atmosphère de jour qui résulte de l’interaction du rayonnement solaire avec les gaz atmosphériques. Par définition, le « dayglow » inclus aussi les émissions produites par interactions entre les gaz atmosphériques et les photoélectrons, c’est à dire les électrons produits par la photoionisation de l’atmosphère de la planète.

Les émissions appelées « nightglow » qui sont les émissions luminescentes produites du côté nuit. Les réactions chimiluminescentes telles que les réactions de recombinaison entre deux atomes produisent des molécules dans des états excités à l'origine des émissions de type « nightglow » dans les hautes atmosphères planétaires.

Les émissions aurorales qui peuvent être définies comme les émissions résultant de l’impact de particules énergétiques autres que les photoélectrons, comme par exemple lors de précipitations d’électrons énergétiques de la magnétosphère terrestre dans les régions polaires.

L’énergie perdue par l’atmosphère sous forme de luminescences atmosphériques ne représente qu’une fraction minime de l’énergie absorbée par l’atmosphère. Une partie de l’énergie absorbée est aussi transformée en énergie thermique (chauffage) et énergie cinétique (dynamique).


Emission Lyman-alpha de l'hydrogène atomique

Avant de voir en détails les principaux mécanismes d ’émissions, voici quelques exemples d’émissions observées dans l’UV et le visible sur différents objets du système solaire

definitionEmission Lyman-alpha de l'hydrogène atomique

A cause de la gravité, les espèces légères, comme l’hydrogène atomique deviennent les principaux composants des très hautes atmosphères (exosphère) des planètes. L’hydrogène atomique peut diffuser de façon efficace le rayonnement solaire et former une couronne lumineuse en UV autour de la planète. Cette émission a été observée pour la première fois autour de la Terre à la fin des années 50. Elle avait d’abord été interprétée comme la diffusion du rayonnement solaire par les atomes d’hydrogène du milieu interplanétaire avant d’être interprétée comme l’émission d’atomes d’hydrogène liée gravitationnellement à la Terre et formant autour d’elle une « géocouronne ». Des couronnes similaires ont été mises en évidence autour de toutes les planètes du système solaire (Mercure, Vénus, Mars, Jupiter, Saturne, Uranus, Neptune) , de certains satellites (Titan, ...)et des comètes. Des tentatives d’observations par la sonde Rosetta n’ont pas permis de mettre en évidence une « couronne » d’hydrogène autour des astéroïdes Lutetia et Steins. La couronne d’une planète pouvant s’étendre sur plusieurs rayons planétaires, cette émission peut être observée côté jour et côté nuit. D’autres espèces comme l’hélium ou l’oxygène atomique conduisent à des émissions exosphériques observables en UV.

Le milieu interplanétaire composé essentiellement d’hydrogène atomique produit lui aussi une émission par diffusion du rayonnement solaire et la première carte complète de l’émission de l’hydrogène interplanétaire vue depuis la Terre a été effectuée par le satellite OGO-5.


Dayglow et Nightglow

Emissions dayglow des planètes telluriques

L’atmosphère de la Terre est composée essentiellement de N2 et de O2. Les principales émissions UV observées dans la thermosphère de la Terre côté jour sont des émissions produites par O, O+, N+, N2 et NO. Sur Mars et Vénus, l’atmosphère est essentiellement composée de CO2 et les principales émissions observées en UV côté jour sont les mêmes et sont produites par CO, CO2+ et O. Ces émissions résultent de différent processus induit par le rayonnement solaire qui seront décrites en détails dans la partie Comprendre.

Emissions nightglow des planètes telluriques

Sur Mars et Vénus et la Terre, des bandes d’émissions UV de NO sont visibles du côté nuit, à ces bande d’émissions, s’ajoutent des bandes d’émissions de O2 sur la Terre. Ces émissions sont produites par des réactions chimiques de recombinaison (chimiluminescence) entre des atomes d’azote et des atomes d’oxygène. Ces atomes sont produits par la photodissociation de CO2 et N2 du côté et transporté par les vents vers la nuit où ils peuvent se recombiner.


Emissions aurorales

Généralités

Les émissions aurorales sont des émissions produites par interaction entre des particules très énergétiques (le plus souvent des électrons) provenant de l’environnement spatial voisin de la planète (magnétosphère par exemple) et les composés de l’atmosphère de la planète. Les émissions aurorales peuvent être observées dans toutes les gammes spectrales du spectre électromagnétique : des rayons gammas au émissions radios. Dans ce cours on se limitera aux émissions UV-visible. L’excitation peut être directement produite par la particule énergétique incidente ou produite par une cascade de collisions dans l’atmosphère. Des émissions aurorales ont été observées sur la Terre et les quatre planètes géantes du système solaire. Des émissions aurorales ont aussi été observées sur Vénus, Mars et sur certains satellites galiléens (Ganymède, Io, Europe).

Emissions aurorales terrestres

Les principales émissions aurorales visibles observées sur Terre sont les raies vertes et rouges de l’oxygène atomique. Les observations des émissions aurorales en UV montrent un spectre riche en raies principalement associées à N, O, N+, O+, N2. Ces émissions sont observées aux hautes latitudes, au voisinage des pôles magnétiques, où les électrons accélérés dans la magnétosphère de la Terre peuvent précipiter dans l’atmosphère le long des lignes de champs magnétique.

Emissions aurorales des planètes géantes

Les émissions aurorales observées sur les planètes géantes sont aussi principalement produites par des précipitations d’électrons magnétosphériques près des pôles magnétiques. Les émissions UV sont dominées par les émissions de H et H2. La morphologie des émissions aurorales sur Jupiter montrent différentes structures : L’ovale principal, des points brillants au niveau des lignes de champs magnétiques connectant Jupiter aux satellites galiléens (Io, Ganymède, Europe) et des émissions polaires aux lalitudes supérieures à l’ovale principal. Sur Saturne, la présence d’un ovale principal a aussi été identifié aux voisinages des pôles.mais son origine reste sujet à débat. Les émissions aurorales UV de Neptune et Uranus ont été observées pour la première fois par la sonde Voyager 2.


Comprendre

Auteur: Jean-Yves Chaufray

Structure Atomique de l'hydrogène

L'atome est le constituant de base de la matière; il est formé d'un noyau chargé positivement et d'un nuage d'électrons chargé négativement. Le noyau contient A nucléons, dont Z protons chargé positivement et (A-Z) neutrons de charge nulle. Un atome est électriquement neutre et contient donc Z protons et Z électrons. Des atomes ayant un nombre Z identique mais un nombre A différent sont appelés isotopes. Par exemple, l'atome de deutérium composé de 1 proton, 1 neutron et 1 électron (Z=1, A=2) est un isotope de l'hydrogène composé de 1 proton et 1 électron (Z=1, A=1). La science qui étudie la structure interne des atomes s'appelle l'atomistique.

La dispersion de la lumière par un gaz atomique présente une structure sous forme de raies. Chaque élément a un spectre de raies caractéristiques, par exemple l'hydrogène et le deutérium possèdent plusieurs séries de raies portant le nom des scientifiques qui les ont observées pour la première fois. La série des raies de Lyman dans l'ultraviolet a été observée pour la première fois par Théodore Lyman en 1906. Johann Balmer a découvert quatre raies de la série de Balmer en 1885 dans le visible. Johannes Rydberg et Walter Ritz montrèrent que les longueurs d'onde des différentes séries pouvaient être décrites par la formule de Rydberg-Ritz: 1/lambda_mn=R(1/n^2-1/m^2) R est la constante de Rydberg, m et n sont deux nombres entiers. La structure en raies des spectres d'émission des atomes et la présence de nombre entiers dans l'équation de Rydberg suggère une quantification de l'énergie des électrons dans le nuage atomique, on parle de niveaux d'énergie. Les valeurs de l'énergie sont quantifiées par un nombre entier n et données par