mise à jour : 1 février 2022


Sciences pour les Exoplanètes et les Systèmes planétaires

Un système planétaire est composé d'une (ou plusieurs) étoile(s) et d'un cortège de planètes. Il y a le nôtre, le Système Solaire, et les milliers d'autres dont nous découvrons la diversité depuis vingt ans après des siècles de spéculations sur leur existence.

Ce site présente les systèmes planétaires au travers des outils scientifiques, de la physique, de la chimie, des mathématiques... qui sont les vaisseaux à bord desquels nous partons à leur découverte.

Le site se décline en modules autonomes. Les connaissances nécessaires pour suivre un module dépendent du sujet traité et couvrent les niveaux d'une Licence scientifique. Chaque module correspond à peu près à une dizaine d’heures de lecture/de travail, et est structuré en 4 parties :

Découvrir : texte de présentation du sujet. Il n’y a pas/peu d’équation. durée approximative : 2 heures.

Comprendre : la science nécessaire à la compréhension du sujet (mathématiques, physique, chimie…). durée approximative : 3 heures.

Se tester : des questions, QCM, exercices.. avec aide et solution, pour vérifier l'acquisition des connaissances. durée approximative : 2 heures.

Mini-projet : un travail de recherche sur de vraies données observationnelles ou théoriques.

Le plan des chapitres est accessible ici.

Ces modules peuvent être utilisés en autoformation, ou intégrés dans un cours en présentiel ou à distance. Les droits d'utilisation sont précisés ci-dessous.

Cet ensemble de modules s'accompagne du site Les exoplanètes qui contient un catalogue exhaustif des exoplanètes connues et de leurs caractéristiques, des outils de visualisation et de traitement statistique, de cartes du ciel, des TP guidés, quelques pages d'informations générales sur les exoplanètes.

Ce projet a été réalisé dans le cadre du Labex ESEP.

Veuillez nous signaler tout problème rencontré sur ces pages à l'adresse contact.sesp at obspm.fr

Les auteurs du site, les crédits et les conditions d'utilisation sont décrits ici.

bandeau_esep_obsp_psln_ia_uvsq_upec_unisciel.png

Auteurs- Crédits- Droits d'utilisation

Ce projet a été réalisé entre 2013 et 2017 dans le cadre du Labex ESEP. Il a bénéficié d'un soutien de l'Université Numérique Thématique UNISCIEL. Il a été soutenu par les établissements suivants :

Responsable : Françoise Roques (francoise.roques at obspm.fr)

Il est maintenu par le service informatique du LESIA et les contenus sont mis à jour régulièrement.

Le comité éditorial est constitué de : Christian Balança (LERMA), Yves Bénilan (LISA), Jean-Mathias Griessmeier (LPC2E), Emmanuel Marcq (LATMOS), Thomas Navarro (LMD), Stefan Renner (IMCCE), Francoise Roques (LESIA), Jean Schneider (LUTh).

Les auteurs sont : Jean-Loup Baudino, Bastien Brugger, Cecilia Caccarelli, Jean-Yves Chaufray, Valérie Ciarletti, Thierry Dudok de Wit, Sylvain Fouquet, François Forget, Nicolas Fray, Jean-Mathias Griessmeier, Nathan Hara, Quentin Kral, Jacques Laskar, Alice Le Gall, Emmanuel Lellouch, Emmanuel Marcq, Sophie Masson, Ronan Modolo, Yaël Nazé, Gary Quinsac, Thomas Navarro, Arianna Piccialli, Gary Quinsac, Loïc Rossi, Jean Schneider, Antoine Strugarek, Philippe Thébault, Martin Turbet.

Merci aux relecteurs : Alain Doressoundiram, Stéphane Erard, Thierry Fouchet, Anaëlle Halle, Sébastien Lebonnois, Emmanuel Lellouch, Benoit Mosser, Filippo Pantellini, Didier Pelat, François Raulin, Patricia Schippers, Bruno Sicardy, Philippe Thebault.

Equipe technique :

Les contenus ont été créés sous Licence Creative Commons 5: Paternité + Pas d’Utilisation Commerciale + Partage à l’Identique (BY NC SA). Le titulaire des droits autorise l’exploitation de l’œuvre originale à des fins non commerciales, ainsi que la création d’œuvres dérivées, à condition qu’elles soient distribuées sous une licence identique à celle qui régit l’œuvre originale, en particulier à condition de l’attribuer à son l’auteur en citant son nom.

logo_cc_gnugpl.png

Les outils et les appliquettes sont distribués sous Licence libre GNU GPL.

Crédit : nom de l'auteur - SESP


Plan du livre

  1. Introduction
  2. Structures planétaires
  3. Observations
  4. Techniques et méthodes
  5. Lieu de vie

Introduction

Auteur: Françoise Roques

Planètes

Nous savons maintenant que toute étoile du ciel possède deux planètes en moyenne, et nous sommes à la veille de savoir si ces innombrables systèmes planétaires sont les soeurs, en beauté et en diversité, des planètes du Soleil.

Pour introduire ce voyage parmi les planètes, le premier chapitre nous présente, entre religion, philosophie et sciences, les grandes étapes de la recherche de vie dans l'Univers. Le deuxième chapitre décrit le scénario "standard" de la formation des planètes, "standard" parce que basé sur notre connaissance des seules planètes du Soleil. Un scénario "revisité" sera peut-être à ajouter dans quelques années.


Recherche des mondes extraterrestres

Auteur: Yaèl Nazé, Jean Schneider

Planètes et exoplanètes : Histoire et définitions

1888
Universum.jpg
Jusqu'à 1995, les planètes étaient, pour l'Humanité, le propre d'une seule étoile, le Soleil.
Crédit : C. Flammarion, 1888
2011 : Des exoplanètes gazeuses mais aussi telluriques
lissaueretal2011-17.jpg
En ce début de 21ième siècle, on détecte des planètes dont les propriétés sont proches de celles de la Terre: Sur cette figure, la couleur traduit la température (échelle à droite de la figure). On voit que Kepler-11 b et Corot-7 b, respectivement les croix rouge et orange, sont plus massives et plus chaudes que la Terre mais elles ont des densités semblables à celle de la Terre.
Crédit : d'aprés J. Lissauer, 2011

Ce module présente :

Ce module ne nécessite aucune connaissance préalable.


Histoire de la pluralité des mondes

Auteur: Yaël Nazé

Débats antiques et religieux

Auteur: Yaël Nazé

L'Autre

Une des plus grandes questions philosophiques tourmentant l’homme depuis des siècles est celle de l’« autre ». Sommes-nous uniques, création esseulée dans l’Univers, ou faisons-nous partie d’une grande communauté cosmique aux mondes innombrables ? La recherche de vie « ailleurs » s’est d’abord limitée à notre planète, les grandes expéditions rapportant la présence de nombreuses « races » aux traits étranges. Toutefois, la problématique ne se limite pas à la seule Terre ; les hommes se sont très tôt interrogés sur la présence de vie au-delà de notre atmosphère... et ce avec des fortunes diverses.

L’idée de pluralité des mondes est aussi ancienne que l’humanité. Elle faisait partie intégrante des mythes et cosmogonies anciens car toutes les tribus primitives peuplèrent le ciel... Il ne s’agit toutefois pas d’un peuple céleste de nature humaine, mais plutôt d’une cohorte divine : le firmament est donc habité, quelle que soit la culture – l’idée actuelle de vie extraterrestre s’éloigne toutefois beaucoup de ces conceptions initiales.


Débats antiques:les atomistes

epicure.jpg
Epicure
Crédit : S. Cnudde

La Grèce antique

Comme toujours, c’est la Grèce qui accueille les premiers débats « modernes » sur la pluralité des mondes. La problématique n’est alors pas discutée pour elle-même, mais s’insère dans le contexte plus global d’un courant philosophique complet.

Ainsi, les atomistes considéraient la matière composée d’éléments indivisibles, les « atomes ». Pour eux, c’était bien sûr le cas de la Terre, mais aussi du reste de l’Univers. De plus, notre monde a été créé par la collision fortuite d’atomes – un processus naturel qui peut évidemment se reproduire ailleurs : les mondes sont donc en nombre infini, à l’instar des atomes. Plusieurs philosophes antiques approuvent ces idées pluralistes. Pour Xénophane de Colophon (570-480 av. J.-C.), la Lune est sans doute habitée et il doit exister d’autres terres ; Démocrite (465-365 av. J.-C.) enseigne que la Lune présente des montagnes et des vallées, tout comme la Terre, et qu’il existe d’autres mondes créés par des agglomérats d’atomes ; Épicure (341-270 av. J.-C.) approuve ses prédécesseurs atomistes en assurant : « Il y a une infinité de mondes similaires ou différents du nôtre... Nous devons croire que dans tous ces mondes, il existe des créatures vivantes, des plantes et toutes choses que nous trouvons en ce monde. » Son disciple Métrodore le soutient en déclarant qu’« il est aussi absurde de concevoir un champ de blé avec une seule tige qu’un monde unique dans le vaste Univers. ».

Même Lucrèce (98-55 av. J.- C.) rejoint les adeptes de la pluralité en des termes très modernes : « Dès lors, on ne saurait soutenir pour nullement vraisemblable, quand de toutes parts s’ouvre l’espace libre et sans limites, quand des semences innombrables en nombre, infinies au total, voltigent de mille manières, animées d’un mouvement éternel, que seuls notre Terre et notre ciel aient été créés, et qu’au delà restent inactifs tous ces innombrables corps premiers. Et ce d’autant plus que ce monde est l’œuvre de la nature. [...] Aussi, je le répète encore, il te faut avouer qu’il existe ailleurs d’autres groupes de matière analogues à ce qu’est notre monde que, dans un étreinte jalouse, l’éther tient enlacé. Du reste, quand la matière est prête en abondance, quand le lieu est à portée, que nulle chose, nulle raison ne s’y oppose, il est évident que les choses doivent prendre forme et arriver à leur terme. Et si maintenant les éléments sont en telle quantité que toute la vie des êtres vivants ne suffirait pas pour les dénombrer ; si la même force, la même nature subsistent pour pouvoir rassembler en tous lieux ces éléments dans le même ordre qu’ils ont été rassemblés sur notre monde, il te faut avouer qu’il y a dans d’autres régions de l’espace d’autres terres que la nôtre et des races d’hommes différentes et d’autres espèces sauvages. »


Débats antiques : les opposants

aristote.jpg
Aristote
Crédit : S. Cnudde

La philosophie atomiste n’est cependant pas le seul courant philosophique de l’Antiquité, et certains sont bien plus sceptiques sur la question. Parmi les chefs de file des opposants, on compte Aristote (384-322 av. J.-C.). Dans ses théories, il considère quatre éléments, qui ont chacun leur place naturelle : la terre, plus lourde, se trouve au centre, suivie de l’eau, l’air et le feu, par ordre d’éloignement. Si l’un d’eux est écarté de sa position, il tend à y revenir : ainsi, les rochers coulent et les flammes montent. Imaginons qu’il existe une seconde Terre, un autre monde : les éléments seraient perturbés et ne sauraient vers quoi se diriger – il n’y aurait plus de « place naturelle » mais bien deux centres attractifs ! Il ne peut donc y avoir qu’un monde. De plus, Aristote pense que les quatre éléments sont confinés sur la Terre corruptible, car les cieux, parfaits, sont eux composés d’un mystérieux cinquième élément... Il semble donc absurde d’imaginer les astres habités.


Questionnement chrétien

Thomas d'Aquin
thomas-aquinas.jpg
Crédit : C. Crivelli

Au début de notre ère, la philosophie d’Aristote domine les réflexions savantes, et il faut attendre la fin du Moyen-Âge pour voir apparaître de nouveaux débats. Le problème principal est que le monde occidental, désormais chrétien, assure l’existence d’un Dieu omnipotent, incompatible avec certaines idées du philosophe grec. En effet, si Dieu avait envie de créer un deuxième monde, ce ne sont certes pas les théories d’Aristote qui l’en empêcheraient... ou alors les pouvoirs divins sont limités – une hérésie ! D’aucuns tentent de pallier cette contradiction. Ainsi, Thomas d’Aquin (1225-1274) assure qu’il n’y a aucun problème d’omnipotence dans cette question de pluralité des mondes, car la perfection peut justement se trouver dans l’Unicité de la création ! Roger Bacon (1214-1294) et d’autres assurent que, pour avoir plusieurs mondes et aucun problème de « place naturelle », il faudrait qu’un vide existe entre ces mondes, ce qui est impossible dans la philosophie d’Aristote : notre monde est donc bien unique.

Pourtant, les critiques se font de plus en plus nombreuses, avec comme antienne « Dieu n’est pas soumis aux lois d’Aristote ». En 1277, Etienne Tempier (?-1279), évêque de Paris, condamne ainsi 219 exécrables erreurs à caractère scientifique, en y incluant notamment le fait que la Cause Première ne peut créer plusieurs mondes. Jean Buridan (1300- 1358) assure quant à lui que Dieu est capable de créer un deuxième monde et de s’arranger pour que les éléments respectent les lois d’Aristote dans ce monde-là aussi ! Pour Guillaume d’Ockham (1280-1347), celui du fameux rasoir, la pluralité des mondes est une évidence, voire une nécessité – dans chaque monde, les éléments retournent à leur place, sans même le besoin d’une intervention divine. Nicole Oresme (1325-1382), évêque de Lisieux, poursuit en affirmant que, si les corps lourds restent au milieu des légers, il n’y a aucun problème. Le cardinal Nicolas de Cuse (1401-1464) va même plus loin : pour lui, l’Univers est ouvert, et la Terre n’y occupe aucune place privilégiée ; de plus, la création divine peut s’exprimer partout – tout corps étant formé des mêmes éléments. Les adeptes de la pluralité restent cependant minoritaires, et la plupart des penseurs de l’époque résolvent le problème à la manière de Thomas d’Aquin : oui, Dieu pourrait créer un autre monde mais en pratique, il n’en a fait qu’un.


Questions philosophiques et scientifiques

Auteur: Yaël Nazé

Révolution héliocentrique

Héliocentrisme
Heliocentric.jpg
Crédit : Harmonia Macrocosmica (Andreas Cellarius 1708).

Le véritable changement de mentalité doit attendre la révolution héliocentrique. Dans ce modèle, la Terre n’est qu’une planète parmi d’autres. Copernic lui-même ne tire pas les conséquences de cette idée fondamentale, mais d’aucuns s’en chargent pour lui : si la Terre n’est pas centrale, l’homme non plus ! Un des porte-drapeaux de cette nouvelle génération est Giordano Bruno (1548-1600) : « Dans le cosmos, il doit y avoir une infinité de soleils avec des planètes et la vie autour d’ elles. » ou encore « Il y a d’ innombrables soleils et d’innombrables terres, toutes tournant autour de leur soleil comme le font les sept planètes (Rappelons qu’à l’époque, Uranus et Neptune n’avaient pas encore été découvertes.) de notre système. Nous n’en voyons que les soleils parce qu’ils sont les plus grands et les plus lumineux, mais leurs planètes nous restent invisibles parce qu’elles sont petites et peu lumineuses. Les innombrables mondes de l’univers ne sont pas pires et moins habités que notre Terre. ».

Hélas, Bruno ne s’arrête pas à la pluralité et commence à remettre en cause certains fondements de la foi catholique (transsubstantiation, virginité de Marie, nature divine du Christ, etc.) en poussant les théories atomistes à l’extrême. Pour ces réflexions par trop audacieuses, il est condamné comme hérétique, puis brûlé au Campo dei Fiori de Rome le 17 février 1600. Cependant, cette exécution ne peut arrêter la marche des idées pluralistes, qui se voient même renforcées par les premières observations au télescope. Outre une confirmation de l’héliocentrisme, celles-ci montrent les astres semblables à la Terre : taches solaires et montagnes lunaires ont tôt fait d’abattre les théories de perfection céleste...


Une évidence universelle

Johannes Kepler
kepler.png
Crédit : Wikipedia

La vie ailleurs passe alors du statut d’impossibilité naturelle à celui d’évidence universelle. On imagine alors tous les corps peuplés, y compris le Soleil ! Par extension, les étoiles, soleils lointains, doivent également posséder des planètes et ces autres systèmes solaires ne peuvent qu’accueillir la vie. On y voit même la preuve de la toute-puissance de Dieu, qui n’aurait certainement pas laissé les étoiles seules, sans raison d’être.

Les plus grands scientifiques apportent alors leur soutien à l’idée. Kepler (1571-1630) pense la Lune habitée (une cavité lunaire observée par Galilée serait selon lui une digue dans laquelle les Sélènes creusent des grottes-maisons). L’illustre Allemand publie même un roman de science-fiction en 1634 dans lequel un explorateur découvre la faune et la flore de notre satellite, protégé évidemment par une atmosphère, gage de vie. Il assure toutefois que la Terre abrite les plus merveilleuses des créatures... mais il a un doute « S’il y a des globes dans les cieux semblables à notre Terre, nous battrons-nous avec eux pour savoir qui occupe la meilleure partie de l’Univers ? Car si leurs globes sont plus nobles, nous ne sommes pas les plus nobles des créatures. Alors comment est-il possible que les choses soient faites pour l’homme ? Comment pouvons-nous être les maîtres de l’œuvre de Dieu ? »


Révolution cartésienne

Les vortex de Descartes
vortex.jpg
Figure 1 : Théorie des tourbillons : "Si nous supposons par exemple que le premier ciel AYBM au centre duquel est le Soleil tourne sur ses pôles dont l'un marqué A est l'austral et B le septentrional, et que les quatre tourbillons KOLC qui sont autour de lui tournent sur leurs essieux TT, YY, ZZ, MM et qu'il touche les deux marqués O et C vers leurs pôles et les deux autres K et L vers les endroits qui en sont fort éloignés" (Descartes, 1647).
Crédit : Principia Philosophia, R. Descartes(1596-1650),
Entretiens sur la pluralité des mondes
Fontenelle_Entretiens.jpg
Figure 2 : La Marquise et le Philosophe, frontispice des Entretiens sur la pluralité des mondes.
Crédit : Bernard le Bouvier de Fontenelle

Alors que Descartes (1596-1650) reprend les idées atomistes et multiplie les « tourbillons », chacun centré sur un système solaire (figure 1), son protégé Christiaan Huygens (1629- 1695) écrit le Cosmotheoros (qui sera publié en 1698) dans lequel les planètes, mais pas la Lune, sont habitées par des êtres paisibles et savants, en majorité... astronomes. La pluralité devient alors à la mode en littérature : Pascal (1623-1662) penche pour une infinité d’univers, dont plusieurs « terres » habitées, Cyrano de Bergerac (1619-1655) envoie lui aussi ses personnages dans la Lune, tandis que Voltaire (1694-1778) met en scène un habitant de Sirius dans Micromegas...

Les idées de l’époque sont rassemblées et vulgarisées par Bernard le Bouvier de Fontenelle (1657-1757) dans son célèbre Entretiens sur la Pluralité des Mondes publié en 1686 (figure 2) . Dans cet ouvrage, on retrouve une infinité d’étoiles, toutes des soleils possédant des planètes – selon l’auteur, cette pluralité rend l’Univers encore plus magnifique qu’on ne le pensait auparavant. Fontenelle raconte même que les extraterrestres se baladent non loin et pêchent peut-être des humains comme nous les poissons (les enlèvements par des « aliens », avec trois siècles d’avance !). Les arguments en faveur de la vie extraterrestre sont énumérés : similitude de la Terre et des planètes quant aux conditions de vie, impossibilité d’imaginer d’autres usages à ces objets célestes, fécondité de la Nature et nécessité de peupler les autres planètes... Le livre connaît un succès sans égal, et se répand dans toute l’Europe.


Rédemption et preuves

Toute opposition n’est toutefois pas morte, et les thèses religieuses ont parfois bien du mal à s’accorder avec la pluralité généralisée. Thomas Paine (1737-1809) écrit ainsi en 1793 que « croire que Dieu a créé une pluralité de mondes au moins aussi nombreux que ce que nous appelons étoiles rend le système de foi chrétien à la fois petit et ridicule. » et « celui qui croit aux deux [pluralité et chrétienté] n’a que peu réfléchi à l’un comme à l’autre. » S’il existe des millions de mondes, alors comment croire que le Messie soit venu précisément sur la Terre pour sauver tous les êtres pensants de la Galaxie ? Ou alors, il passe d’un monde à l’autre « souffrant sans fin une succession de morts entrecoupées de rares intervalles de vie » de manière à sauver chaque peuple de l’Univers à son tour... Cela semble si ridicule qu’une seule conclusion doit s’imposer : la doctrine chrétienne est à abandonner. Ces idées sont peu suivies par les contemporains de Paine, qui prennent toutefois la peine de lui répondre. Timothy Dwight (1752-1817), Thomas Chalmers (1780-1847) et Thomas Dick (1774-1857) réaffirment alors que la pluralité constitue une des bases de la chrétienté, une confirmation de la Gloire de Dieu (on est loin des juges de Bruno !) – on retrouverait d’ailleurs la notion de vie extraterrestre à divers endroits des Ecritures !

Certains nouveaux groupes religieux incorporent même la pluralité directement dans leur foi : mormons, adventistes du 7e jour, swedenborghiens. Mais la question de la portée de l’incarnation christique et de la rédemption associée reste sans réponse, même aujourd’hui, et les débats continuent dans les milieux théologiques, quoique sur un ton moins passionné et surtout plus ouvert qu’au Moyen-Âge.


Anthropocentrisme

Robert Dicke
Robert_Dicke.jpg
Crédit : NAS Biographical Memoirs

Le courant majoritaire n’empêche pas plusieurs philosophes allemands du 19e siècle de renoncer également à la pluralité, en faveur de l’anthropocentrisme : G.W.F. Hegel (1770-1831) affirme ainsi que la Terre est la plus excellente des planètes ; L. Feuerbach (1804-1872) assure que la Terre est l’âme et la raison d’être du cosmos ; A. Schopenhauer (1788-1860) accepte la présence d’extraterrestres mais considère l’humanité au pinacle de la création ; G.W. von Leibniz (1646-1716) et d’autres soutiennent ces idées...

Certains rapprochent également les tenants du « principe anthropique » de ce courant centré sur l’homme. Ce principe fut introduit dès 1961 par Robert Dicke (1916-1997), qui assurait que l’âge de l’Univers n’est pas quelconque mais «limité par des critères liés à l’existence de physiciens. » En 1973, l’idée est reprise par Brandon Carter (1942-), qui sépare la chose en deux versions : la faible et la forte. La première peut s’exprimer comme suit : « ce que l’on peut s’attendre à observer doit être restreint par les conditions nécessaires à notre présence en tant qu’observateurs ». Exemple : l’Univers ne peut être trop vieux car il faut que le carbone, brique indispensable à la vie, ait eu le temps d’être formé dans les étoiles et distribué un peu partout ; il ne peut être trop grand sinon il ne resterait plus que des cadavres stellaires inhospitaliers. La seconde version va plus loin encore et affirme que « l’Univers, et donc les paramètres fondamentaux dont il dépend, doivent être tels qu’ils admettent la création d’observateurs en son sein à un certain stade » – en résumé, la vie est donc essentielle au cosmos. Exemple : la constante de gravitation ne peut être ni plus petite, sinon il n’y aurait que des étoiles rouges et froides, ni plus grande, sinon les étoiles bleues et chaudes, tout aussi hostiles à la vie, domineraient le ciel.

Un lien esprit-matière est invoqué et selon John A. Wheeler (1911-2008), l’Univers s’adapte pour rencontrer les besoins de la vie et de l’esprit. Si les « observateurs » ne doivent pas en principe être nécessairement humains, c’est bien dans le cadre de l’humanité que ce principe a été formulé : certains adhérents au principe ne croient d’ailleurs pas en la vie extraterrestre. On peut d’ailleurs rapprocher ces idées de la pensée du biologiste Alfred R. Wallace (1823-1913) qui déclarait au début du 20e siècle « L’objectif final et la raison de ce vaste univers était la production et le développement de l’âme vivante dans le corps périssable de l’Homme. ».

Le principe anthropique, surtout dans sa version forte, est loin de faire l’unanimité. Le grinçant Fred Hoyle (1915-2001) ironise sur le sujet : « ce n’est pas tant l’Univers qui doit être compatible avec nous, que nous qui devons être compatibles avec l’Univers. Le principe anthropique a inversé la donne. » Certains dénoncent un problème important de ce principe : l’impossibilité de le tester, d’en obtenir des prédictions – il ne s’agirait donc peut-être pas d’une théorie, mais d’une profession de foi... D’aucuns insistent dans cette voie et assurent n’y voir qu’une version plus scientifique et sophistiquée de l’argument de « design » en faveur de l’existence d’un dieu...


Habitable n'est pas habitée

Camille Flammarion
Flammarion_Juvisy_observatory.jpg
Camille Flammarion, farouche défenseur de la pluralité.
Crédit : Wikipedia

Certains penseurs préfèrent attaquer la pluralité dans ses postulats de base. Un bon exemple est William Whewell (1794-1866), pluraliste en 1827 devenu anti en 1850. Il s’interroge sur les preuves dont on dispose pour affirmer la pluralité des mondes, et n’en trouve aucune de bien tangible. L’Univers est grand, soit, mais il n’y a à l’époque aucune preuve que les étoiles possèdent des planètes, ni que les étoiles sont véritablement semblables au Soleil (au niveau de la stabilité, des propriétés physiques, etc.). Il réfute l’idée selon laquelle la variabilité d’Algol est due au passage d’un corps opaque (une planète ?) devant l’astre. Même dans notre Système solaire, on n’est pas sûr que les autres planètes soient habitables, ni alors, ni aujourd’hui ! Enfin, Whewell s’oppose également à la doctrine du « Tout doit servir » : on sait alors que la Terre est restée longtemps inhabitée... notre civilisation ne représente donc qu’un « atome de temps », alors pourquoi la Terre ne serait pas qu’un « atome d’espace » dans l’Univers ? Whewell récuse donc l’utilisation de l’analogie à tout va : il exige des preuves concrètes avant de discuter de ce problème – qui selon lui dépend donc plus de la science que de la religion. Précisons aussi que Whewell est le premier à décrire le concept de « zone d’habitabilité » et à reconnaître que la présence de vie n’implique pas nécessairement la présence de vie intelligente. Ses écrits font beaucoup de bruit et sont ardemment débattus, mais ils diminuent finalement peu le soutien général en faveur de la pluralité. On retrouve ainsi tout au long du 19e siècle des déclarations comme « Il faudrait avoir retiré bien peu de fruits de l’étude de l’astronomie pour pouvoir supposer que l’homme soit le seul objet des soins de son Créateur, et pour ne pas voir, dans le vaste et étonnant appareil qui nous entoure, des séjours destinés à d’autres races d’êtres vivants. » (François Arago, 1786-1853) ou « La vie se développe sans fin dans l’espace et dans le temps. Elle est universelle et éternelle. Elle remplit l’infini de ses accords, et elle règnera à travers les siècles, durant l’interminable éternité » (Camille Flammarion, 1842-1925).


Observations et recherches

Auteur: Yaël Nazé

Universalité de la matière

Une nouvelle technique va changer un peu la donne : la spectroscopie, un moyen d’étudier à distance la composition chimique et les propriétés chimiques des astres – on possède enfin un moyen de tester les hypothèses à la base de la pluralité. Cette science va permettre de prouver que la matière est, essentiellement, partout la même dans l’Univers, ajoutant de l’eau au moulin des pluralistes. Elle va toutefois ruiner leurs espoirs dans d’autres domaines : non-détection de l’atmosphère lunaire (les Sélènes font leurs bagages...) ; ailleurs, présence de gaz toxiques ou conditions de pression et de température très défavorables à la vie. Le débat sur la vie extraterrestre va se mettre à osciller entre pessimisme (surtout première moitié du 20e siècle) et optimisme (surtout seconde moitié du 20e siècle) : formation des planètes, théories biologiques, observations martiennes apportent alors chacune leur lot de (dés)illusions.


Formation planétaire

kant2.jpg
figure 1 : Immanuel Kant
Crédit : S. Cnudde
laplace2.jpg
figure 2 : Pierre-Simon de Laplace
Crédit : S. Cnudde

La question de la formation des systèmes planétaires pimente le débat. Une première théorie, élaborée par Immanuel Kant (1724-1804, fgure 1) et Pierre-Simon de Laplace (1749-1827, figure 2), part de la « nébuleuse primitive » : l’ensemble du Système solaire naît d’un nuage qui se contracte; sa rotation accélérant, le nuage donne naissance à un disque plat; en se refroidissant, ce disque devient instable et se divise en anneaux qui donnent naissance aux planètes.

Rapidement, on met en évidence un sérieux problème dans ce modèle. En effet, les planètes de notre Système solaire tournent rapidement alors que le Soleil, qui possède la majorité de la masse du système, tourne très lentement sur lui-même. À l’époque, on ne connaît aucun moyen pour une étoile de se débarrasser du moment cinétique et cette observation indiscutable conduit alors à l’abandon de la théorie.

Entre 1897 et 1901, Thomas C. Chamberlin (1872-1952) et F.R. Moulton (1872-1952) relèvent les difficultés de la théorie nébulaire et envisagent une alternative, déjà imaginée par Buffon au 18e siècle. Le Système solaire se serait formé suite à une collision : un astre serait passé près du Soleil, et en aurait arraché un peu de matière par effet de marée; celle-ci prend la forme d’un jet spiralé, dont les petits noyaux denses forment les planètes par accrétion de planétésimaux. Comme les astres sont séparés par des distances importantes, les collisions sont rares dans notre Galaxie... donc les systèmes planétaires aussi ! Chamberlin propose d’identifier les « nébuleuses spirales » à des systèmes planétaires en formation. Cette dernière partie sera vite oubliée, pour ne retenir que l’essentiel de la théorie : la collision. En 1916, James Jeans (1877-1946) reprend le travail de ses prédécesseurs et tente de modéliser le phénomène. Il arrive finalement à un filament de gaz chaud, qui se condense en planètes directement, et calcule que dans notre Galaxie, une rencontre entre étoiles se produit tous les trente milliards d’années, soit le double de l’âge de l’Univers : les systèmes planétaires sont donc bien rares. De plus, les astronomes connaissent alors de nombreux systèmes binaires : notre Soleil vivant seul, cela prouve bien que le Système solaire est loin d’être une norme universelle !

Relevons une contradiction dans les théories de Chamberlin : les collisions sont rares, donc les systèmes planétaires aussi ; toutefois, si les nébuleuses spirales sont bien de jeunes systèmes planétaires, alors ils sont assez courants puisqu’on en connaît alors des centaines. De plus, comme le remarquera T.J.J. See, s’il s’agissait vraiment de cela, on devrait observer plus de spirales là où les étoiles sont plus nombreuses, ce qui est juste le contraire des observations... Plus tard, on démontrera que ces « spirales » sont en fait d’autres galaxies.

Une vingtaine d’années plus tard, on démontre qu’il est impossible de former avec ce modèle des planètes dont la composition et les orbites sont celles que l’on observe, que de telles collisions ne peuvent arracher suffisamment de matière pour former le Système solaire dans son ensemble, et que le filament obtenu est de toute façon instable. La théorie nébulaire, et avec elle les cortèges de planètes, resurgit alors dans les années 1940. Des modifications permettent d’éliminer le vieux problème : une grande partie de la nébuleuse primitive est évacuée dans l’espace, emportant la majorité du moment angulaire – on ajoutera ensuite l’action du vent solaire dans le ralentissement du Soleil. Avec le retour de ce modèle, les systèmes planétaires sont alors de nouveau nombreux dans l’imaginaire astronomique...


La biologie entre en jeu

Exprience de Miller
Miller-Urey.png
Figure 1 : Schéma de l’expérience de Miller. On produit des décharges électriques dans un ballon contenant les gaz primitifs, et des composés organiques se forment alors.
Crédit : Wikipedia
ALH84001
ALH84001_structures.jpg
Figure 2 : Structure étrange dans la météorite martienne ALH84001.
Crédit : Wikipedia

Alors qu’il s’agit de discuter la présence de vie, la biologie est curieusement absente des débats jusqu’à l’aube du 20e siècle, laissant les astronomes et les philosophes occuper le premier plan. À la fin du 19e siècle, les choses commencent à changer.

Louis Pasteur (1822-1895) mettant à mal les théories de génération spontanée, certains proposent alors que la vie terrestre vient d’ailleurs (théorie dite de panspermie)... Lord Kelvin (1824-1907) décrit ainsi les météorites comme des fragments de planètes verdoyantes venues féconder la Terre. Se disant que la descente dans l’atmosphère et la collision brutale avec le sol doit détruire la vie dans ces objets, Svante Arrhénius (1859-1927) propose plutôt que les spores présents dans l’atmosphère soient gentiment poussés par la pression de radiation pour finir par ensemencer, sinon l’Univers, tout au moins le Système solaire. Il calcule que des spores terrestres atteignent ainsi l’orbite de Mars en vingt jours, et l’étoile la plus proche en neuf mille ans. Il suppose que les températures glaciales de l’espace interstellaire suspendent le pouvoir de germination de ces « graines » – certains expérimentent et constatent que c’est bien le cas ; toutefois, le rayonnement ultraviolet a tendance à détruire les cellules vivantes...

Cependant, lors de la mission d’Apollo 12, les astronautes récupérèrent des morceaux d’une sonde, Surveyor 3, qui avait atterri deux ans plus tôt. Après une analyse détaillée, on trouva sur la caméra de la sonde une centaine de bactéries Streptococcus mitis qui avaient survécu, sans eau ni nourriture, au vide de l’espace, à ses radiations dangereuses et à ses températures extrêmes (20K) ! Depuis peu, on pense toutefois que la caméra aurait pu être contaminée à son retour. Toutefois, en parallèle, diverses expériences ont été menées et ont montré que certains petits organismes pouvaient résister aux conditions extrêmes de l'espace.

Plus récemment, Fred Hoyle et Chandra Wickramasinghe (1939 -)reprennent l’hypothèse de panspermie, en assurant que l’absorption ultraviolette du milieu interstellaire est due à des virus ou des algues (leur arrivée dans l’atmosphère provoquant des épidémies sur Terre), que la poussière interstellaire est peut-être de la cellulose, ou encore que les explosions récurrentes du nombre de nouvelles espèces correspondent à l’arrivée massive de « semences » spatiales. Allant plus loin encore, Francis Crick (1916-2004) et Leslie Orgel (1927-) proposent une panspermie dirigée – des vaisseaux spatiaux extraterrestres envoyés délibérément pour féconder les planètes... Tout cela ne règle évidemment pas le problème de l’apparition de la vie, reportant le problème de la Terre à une autre planète.

Dans les années 1950, Melvin Calvin (1930-2007) et Stanley Miller (1911-1997) arrivent à produire des substances organiques (acide formique pour le premier, acides aminés pour le second) à partir d’un mélange de gaz « primitifs » (figure 1).

Très vite, ces résultats font l’effet d’une bombe : si l’on arrive à produire ces composés aussi facilement, cela implique que la vie est possible ailleurs ! Les astronomes découvrent d’ailleurs des composés organiques dans le milieu interstellaire voire des acides aminés dans des météorites... Certains assurent même y avoir trouvé des « algues » (Nagy & Claus en 1961 et Mc Kay en 1996 pour ALH84001, figure 2), mais ces résultats sont encore loin d’être confirmés. Tout cela, combiné à la découverte de vie dans les conditions les plus extrêmes de la Terre, pousse certains à l’optimisme : « Il y a aujourd’hui toute raison de penser que l’origine de la vie n’est pas un ‘heureux accident’ mais un phénomène complètement régulier. » (A.I. Oparin en 1975).

Côté théorique, la fin du 19e siècle a vu Charles Darwin (1809-1882) et Alfred R. Wallace introduire l’idée de sélection naturelle. Cette théorie permet d’envisager l’évolution dans d’autres conditions – comme celles régnant sur d’autres planètes, par exemple. Elle pousse au départ à l’optimisme mais il apparaît rapidement que l’évolution de la vie sur Terre ne s’est pas faite de façon très linéaire... Wallace affirme ainsi qu’il a fallu des millions de petites modifications pour arriver à l’Homme – obtenir la même chose ailleurs est donc impossible ; de plus, l’humanité est la seule race intelligente sur Terre – la possibilité d’une intelligence extraterrestre est donc encore plus faible. Beaucoup reprennent ces idées : « L’homme sait enfin qu’il est seul dans l’immensité indifférente de l’Univers d’où il a émergé par hasard. Non plus que son destin, son devoir n’est écrit nulle part. À lui de choisir entre le Royaume et les ténèbres.» (J. Monod en 1970), «La pleine réalisation de la quasi-impossibilité de l’origine de la vie nous rappelle combien cet événement était improbable. » (E. Mayr en 1982). Sans preuves observationnelles, le débat reste actuellement ouvert. Les scientifiques les plus optimistes s’accordent toutefois à dire que « vie extraterrestre » ne rime pas avec « humains » : le chemin évolutif ayant probablement été différent ailleurs, les formes de vie le seront aussi.


Mars la fertile

Une des cartes de de Mars de Percival Lowell
carte_lowell.jpg
Crédit : P. Lowell

Mars la fertile

La planète rouge, proche voisine de la Terre, est un lieu d’expérimentation idéal pour les théories pluralistes. Peuplée dès le 16e siècle, comme les autres planètes, Mars va occuper le devant de la scène aux 19e et 20e siècles.

C’est le moment où l’on commence à cartographier la planète en détails. En 1858, le père Angelo Secchi (1818-1878) observe la planète rouge et en décrit les structures. Pour certaines, il utilise le terme de canali. Il baptise par exemple la région de Syrtis Major « canal de l’Atlantique ». Pour Secchi, il s’agit là de structures tout à fait naturelles, tout comme l’Atlantique sur Terre n’a pas été construit par la main de l’homme. Quelques années plus tard, William Rutter Dawes (1799-1868) décrit lui aussi des « mers » martiennes, larges taches sombres, se terminant par de longs bras noirâtres.

Il faut préciser que les astronomes n’observent pas Mars n’importe quand. Tous les deux ans environ, Mars se trouve à l’opposé du Soleil, vu depuis la Terre. À cet instant, il est près de la Terre et donc observable dans les meilleures conditions : il s’agit d’une opposition. C’est le moment rêvé pour envoyer des sondes vers la planète rouge. Cependant, les orbites de la Terre et de Mars sont elliptiques : les oppositions peuvent avoir lieu n’importe où, mais certaines sont plus favorables que d’autres (le diamètre apparent lors des oppositions varie entre 14 et 25 secondes d’arc, contre 4 arcsecondes lorsque Mars est très éloigné). Lorsque la distance entre les deux planètes est minimale, on parle de grande opposition. Celles-ci se produisent environ tous les 18 ans, et celle de 1877 marqua l’histoire.

Cette année-là, Asaph Hall (1829-1907) découvre les deux satellites de Mars, et Giovanni Schiaparelli (1835-1910) décide de cartographier la planète. Il utilise une nomenclature similaire à celle utilisée pour la Lune : mers, continents, etc. Mais il reprend également la notation de Secchi, canali, pour désigner de petites structures longilignes noires. Ce terme sera parfois utilisé dans le sens de « canal », ce qui a une signification totalement différente du « bras de mer » de Secchi : il s’agit d’une structure artificielle, ce qui suppose donc l’existence de constructeurs ! Et ce terme possède une résonance bien particulière dans l’Europe du 19e siècle. En effet, à l’époque, on vient de terminer péniblement les titanesques travaux du canal de Suez : si l’on ne doutait pas de l’existence de petits martiens, une civilisation capable de construire ainsi des canaux sur toute la planète s’annonce bien plus avancée que la nôtre !

Schiaparelli continue ses observations lors de l’opposition suivante. Ce n’est plus une grande opposition, et Mars est donc moins bien visible. Malgré cela, ses canaux s’affinent et certains se dédoublent même: c’est le phénomène de gémination. Diverses campagnes d’observation sont entreprises, et beaucoup d’astronomes commencent à apercevoir ces structures géantes. On disserte sans fin sur leur raison d’être : Schiaparelli y voit un grand système hydrique, mais pas forcément artificiel, certains sont encore plus modérés, mais d’autres au contraire plus enthousiastes. Une partie des astronomes conclut ainsi que les « mers » sont en fait de simples forêts, car certains canaux les traversent. Une végétation que l’on voit d’ailleurs grandir et mourir au fil des saisons : il n’y a pas de doute, Mars est bien une planète vivante.

C’est ici qu’entre en scène un astronome peu commun : Percival Lowell (1855-1916). De famille fortunée, le jeune Percival s’intéresse très tôt à l’astronomie, mais il la délaisse bientôt pour les affaires et la diplomatie. La quarantaine venue, le milliardaire revient à ses premières amours. Sur ses fonds propres, il construit à Flagstaff un observatoire tout entier dédié à l’observation de la planète rouge. Dès le départ, il annonce qu’il va étudier les canaux, et ses cartes deviennent rapidement une référence dans le monde. Avec 400 canaux environ, c’est un vaste système d’irrigation qui semble sillonner la planète. Lowell en est convaincu : les Martiens sont des jardiniers (d’où leur couleur verte ?) luttant pour leur survie sur une planète désertique, avec de l’eau qu’il faut péniblement acheminer depuis les lointaines calottes polaires nord et sud. D’ailleurs, lorsque deux canaux se croisent, ne voit-on pas une large tache sombre, indiquant la présence d’une oasis ? Toutefois, des contradictions se font jour : certaines photos montrent bien des canaux mais ceux observés dans un petit télescope ne se dévoilent parfois pas dans les instruments plus grands; sur un même télescope, durant une même nuit, les observations rapportées changent selon l’observateur ; une même personne ne voit pas toujours ces canaux de la même façon,...


Mars, les observations

Schiaparelli/Antoniadi
Antoniadi_Mars1.gif
Une des cartes que Schiaparelli dressa de Mars (en haut), à comparer à une des cartes d’Antoniadi (en bas)
Crédit : Antoniadi (La planète Mars)
Le visage sur Mars
visagemars.png
"The face", une signature en forme de visage humain laissée par une civilisation décadente... une image de basse résolution prise par Viking et une image à haute résolution de la même région.
Crédit : NASA/ESA

Vu le peu de certitudes, il existe donc quelques opposants à la théorie des canaux artificiels, par exemple le français Eugène Antoniadi (1870-1944). Ce dernier était pourtant au départ convaincu de l’existence des canaux. Mais après de longues heures d’observation, il doit cependant revenir sur ses convictions, et analyse les canaux comme de simples alignements fortuits. Pour convaincre le monde scientifique, son collègue Edward Maunder (1851-1928) tente même une expérience dans une classe. Dessinant sur une feuille de papier une carte de Mars « naturelle » (quelques points au hasard), il demande aux élèves de reproduire ce qu’ils voient : si les élèves du premier rang copient fidèlement les points disposés au hasard, les potaches du dernier rang dessinent consciencieusement des lignes droites... imaginaires. L’esprit humain, assurent Antoniadi et Maunder, a tendance à (sur)interpréter les choses naturelles, et à dessiner des lignes là où il n’y a rien de particulier en réalité. De plus, la mauvaise qualité des instruments de l’époque n’arrange rien.

Mais le courant opposé a tôt fait de balayer les objections d’Antoniadi et des autres opposants : ils ne sont jamais que de piètres observateurs, prévient-on ! Et d’ailleurs, Antoniadi, basé à Meudon, ne pourrait pas distinguer de fins détails sur la planète rouge à travers les cieux parisiens si pollués !

À la fin du 19e siècle, quatre interprétations circulent : une illusion (Maunder, Newcomb, Antoniadi), des structures réelles et continues dues à des craquelures dans la surface martienne (Pickering, Eddington), de fines lignes naturelles (Schiaparelli), de fines lignes artificielles (Lowell, Flammarion, Lockyer, Russell). Beaucoup d’astronomes modérés sont persuadés de l’existence de la vie sur Mars – tous ne vont pas jusqu’à soutenir l’image des Martiens bâtisseurs, mais Lowell a la presse pour lui et son modèle devient extrêmement populaire. Les médias diffusent l’affaire, et certains vont jusqu’à affirmer que les canaux forment le nom de Dieu en hébreu ou que les habitants nous envoient parfois des signaux ! Des romans mettant en scène les hypothétiques Martiens fleurissent, le plus connu étant certainement « La Guerre des Mondes » d’Herbert Georges Wells (dont la lecture radiodiffusée par Orson Welles le 30 octobre 1938 provoqua une panique sans précédent).

Le passage au 20e siècle ne clôt pas les débats. Certains astronomes affirment en 1909 avoir détecté de l’eau et de l’oxygène dans l’atmosphère martienne, voire en 1956 des molécules organiques... observations infirmées par la suite (elles étaient dues à une contamination par l’atmosphère terrestre).

Finalement, en juillet 1965, Mariner 4, première sonde lancée à l’assaut de la planète rouge, envoie ses premières images : Mars est une planète désolée, glacée et pratiquement sans air. Il n’y a nulle trace des fameux canaux, comme le confirmeront d’ailleurs les successeurs de Mariner.

Après l’observation de loin vient le temps des tests sur place. En 1976, les sondes Viking emportent avec elles quatre expériences destinées à tester la présence de vie sur Mars : Gas Chromatograph-Mass spectrometer (analyse des composés du sol martien), Gas exchange (si un organisme vivant se trouve dans l’échantillon de sol martien, il rejettera du gaz lorsqu’il recevra de de l’eau et/ou des nutriments), Labelled release (solution aqueuse avec 7 composés organiques marqués, expérience destinée à chercher de la vie qui les décompose en méthane ou gaz carbonique), Pyrolitic release (sans changer les conditions, on ajoute du gaz carbonique marqué et 120 heures plus tard, une pyrolyse décompose le résultat). Les deux premières ont des résultats clairement négatifs, les deux dernières des résultats positifs, mais attribués généralement à des réactions non biologiques : l'enthousiasme pour la vie martienne prend alors du plomb dans l’aile.

D’un autre côté, les responsables de la sonde Mars Express ont affirment avoir trouvé du méthane, un gaz qui se décompose rapidement sur Mars, distribué de façon non-uniforme à la surface tout comme la vapeur d’eau : l’origine en est encore incertaine (volcans, bactéries méthanogènes ?). D’autres expériences biologiques seront donc tentées à l’avenir, notamment avec la sonde européenne Exomars, pour obtenir des résultats définitifs tout en essayant d’éviter les ambiguïtés des mini-labos des Viking.

Les Martiens, héritiers des canaux du 19e siècle, n’ont cependant jamais vraiment déserté notre imagination. En 1976, ils ressurgissent de plus belle avec la découverte de « The Face ». Un étrange monticule en forme de tête humaine – c’est bien connu, les Martiens nous ressemblent. Sous la pression du public, la NASA a dû refaire récemment des images de la région à haute résolution... qui montrent une simple colline érodée! Cela n’empêche pas certains de parcourir les images de la planète rouge et d’y trouver des soucoupes volantes abandonnés, des pyramides-dortoirs, des forteresses abandonnées, et autres joyeusetés.


Les compagnons invisibles

Méthode des transits
transit.png
Figure 1 : Méthode du transit : en passant devant son étoile, la planète cache une partie du disque stellaire, provoquant une baisse de luminosité.
Crédit : OCA
Méthode astrométrique
wobble.png
Figure 2 : Méthode astrométrique : le mouvement de l’étoile est détecté par le changement de position de l’astre par rapport aux objets lointains. Déplacement du Soleil sous l'effet des mouvements planétaires (Jupiter et Saturne principalement), vu à une distance de 10 pc. L'amplitude de ce déplacement est de 500 microsecondes d'arc
Crédit : NASA
Méthode des vitesses radiales
exoplanet_spectro.gif
Figure 3 : L'étoile tourne autour du centre de gravité étoile-planète. La mesure du décalage des raies sombres visibles dans son spectre (l'effet Doppler) permet de calculer sa vitesse radiale. L'amplitude de cette variation informe sur la masse de la planète.
Crédit : Observatoire de Paris, ASM, E. Pécontal
vandekamp2.jpg
Figure 4 : P. Van de Kamp
Crédit : S. Cnudde

Puisque la théorie nébulaire prédit la présence de nombreux systèmes planétaires, les astronomes ont commencé à les chercher. Les fausses alarmes se multiplient, jusqu’à la dernière décennie du 20e siècle... La quête débuta par la découverte de compagnons invisibles. En 1782, des transits (figure 1) de tels objets sont proposés pour expliquer la variabilité d’Algol. (En réalité, les changements de luminosité de cette étoile résultent des éclipses de l’astre par un compagnon stellaire plus froid).

Cette idée fera son chemin, et en 1858 D. Lardner propose de chercher des objets planétaires par transits. Moins d'un siècle plus tard, D. Belorizky calcule que le transit d'un Jupiter fait une diminution de flux de 1%, ce qui est alors détectable, tandis qu'Otto Struve redécouvre la méthode et la promeut ! Dans les annees 1980, des astronomes proposent des missions spatiales permettant de chercher des transits d'exoplanètes, qui seront mises en oeuvre 20 ans plus tard avec CoROT et Kepler.

En 1844, F.W. Bessell (1784- 1846) en découvre pour Sirius et Procyon par la méthode astrométrique (figure 2).

En 1889, Edward Pickering (1846-1919) découvre des astres inconnus par la méthode des vitesses radiales (figure 3). Bien sûr, compagnon invisible, car noyé dans la lumière de l’astre principal, ne veut pas nécessairement dire compagnon planétaire – mais certains s’enthousiasment déjà, tels Simon Newcomb (1835-1909) qui déclare : « L’histoire de la Science n’offre pas de plus grande merveille que les découvertes de planètes invisibles qui sont en train de se produire. ».

En 1855, le capitaine W.S. Jacobs, féru d’astronomie, rapporte les «anomalies orbitales » de l’étoile binaire 70 Oph, détectées par la méthode astrométrique et probablement associées à une planète. Thomas Jefferson Jackson See (1866-1962), astronome fantasque, reprend l’idée en 1896 et assure que ces anomalies prouvent absolument l’existence d’une planète, de période égale à 36 ans. Un de ses confrères, F.R. Moulton, calcule néanmoins qu’un tel système à 3 corps serait instable, et donc qu’il ne peut exister de planète dans ce système. En 1905, W.W. Campbell et Hebert D. Curtis (1872-1942) calculent que le Soleil se déplace de seulement 0,03 km/s à cause des planètes : les instruments de l’époque ne permettent pas de détecter une amplitude aussi faible, et la recherche par la méthode des vitesses radiales est donc vouée à l’échec. Robert G. Aitken (1864-1951) insiste en 1938 : les planètes ont une masse trop faible par rapport au Soleil pour avoir un effet détectable par les instruments contemporains – il faut attendre.

Cependant, les astronomes sont impatients, et continuent malgré tout leurs recherches planétaires. La rotation des étoiles leur donne un argument supplémentaire. En effet, les étoiles chaudes et massives tournent rapidement (période de l’ordre d’heures ou de jours), alors que les plus froides ont une rotation bien plus lente (période de l’ordre du mois). Certains astronomes, dont Otto Struve (1897-1963), affirment que cette dichotomie est due à la présence de planètes autour des étoiles froides – planètes qui emportent une partie du moment cinétique (On prouvera plus tard que ce phénomène n’a rien à voir avec la presence de planètes) .

Galvanisés par ces premiers résultats, les scientifiques reprennent les recherches. Ainsi, en 1936, une première perturbation astrométrique avait été détectée pour l’étoile Ross 614 par Dirk Reuyl (1906-1972) : le compagnon était de nature stellaire, mais ce résultat ouvrait la porte à la détection de compagnons planétaires. En 1938, Erik Bertil Holmberg (1908-2000) rapporte un possible compagnon planétaire pour Procyon, mais le résultat fut rapidement infirmé – il y avait trop peu de mesures pour en tirer quelque chose de vraiment concluant. En 1943, les découvertes se multiplient: Kaj Strand rapporte la découverte de planètes pour 61 Cyg (confirmée par lui en 1957 et par des collègues en 1960), Reuyl et Holmberg font pareil pour 70 Oph (infirmé par Strand en 1952).

L’année suivante, c’est l’astronome Peter van de Kamp (1901-1995, figure 4), cousin de Reuyl, qui reprend le flambeau avec des compagnons pour l’étoile de Barnard et Lalande 21185 – comme il a un doute sur leur nature planétaire, il continue ses observations les années suivantes.

Au final, il examine plus de deux mille plaques photographiques, prises entre 1916 et 1919 ainsi qu’entre 1938 et 1962, de l’étoile de Barnard. Il trouve que cette étoile à grand mouvement propre n’a pas une trajectoire parfaitement rectiligne, mais qu’elle oscille plutôt autour d’une ligne droite, un mouvement perturbé selon lui par deux « Jupiter » qui gravitent autour de l’étoile. Dès 1973, George Gatewood et Heinrich Eichhorn mènent de nouvelles campagnes d’observations de l’objet mais ne remarquent rien de particulier ; un autre astronome, John Herschey, examine douze étoiles des plaques qui ont servi à van de Kamp et trouve que toutes présentent un étrange mouvement : le problème vient en fait du télescope, et plus particulièrement d’un changement de lentille ! Les astronomes persistent pourtant : en 1983, Robert S. Harrington (1942-1993) et V.V. Kallaraka rapportent que les étoiles van Biesbroeck 8 et 10 présentent des changements dans leurs mouvements propres dus à des compagnons très peu massifs... le résultat sera confirmé deux ans plus tard par interférométrie des tavelures mais en l’absence d’autres confirmations, la conclusion générale fut négative : une fausse alerte, encore une !


Recherches actives d'exoplanètes

Fomalhaut
fomalhaut_hst_lab800-1.jpg
Figure 1 : Le disque de Fomalhaut et la planète Fomalhaut b qui orbite sur le bord intérieur du disque.
Crédit : NASA

L’optimisme revient pourtant la même année avec la découverte de nuages de particules solides autour de Véga, β Pictoris et d’autres: il doit s’agir de disques protoplanétaires... une première étape est franchie, reste à trouver les planètes déjà formées. Il ne faudra plus attendre longtemps. En 1988, Bruce Campbell et deux collègues rapportent les résultats de six ans d’observations : 7 étoiles (sur les 16 étudiées) présentent des variations des vitesse peut-être dues à des compagnons de 1 à 9 masses de Jupiter et l’une d’entre elles possède un compagnon stellaire. Les auteurs proposent l’existence d’une planète pour γ Cep, leur meilleur candidat, mais ils restent prudents, vu les limitations de leur instrument et le fait qu’il pourrait s’agir non d’une planète mais bien d’une naine brune. Après des doutes sur cette découverte début des années 1992, elle fut confirmée en 2003... Rétrospectivement, il s’agit donc de la première observation d’exoplanète.

Peu apres, Latham et ses collègues proposent eux aussi une planète pour l'etoile HD114762. Après des doutes sur ces découvertes, elles furent confirmées... Rétrospectivement, il s’agit donc des premières détections d’exoplanètes.


les premières découvertes

51-Pegase
vr.gif
Figure 1 : La courbe des vitesses radiales de l'étoile 51-Peg.
Crédit : M. Mayor
Imagerie directe
imagerie.png
Figure 2 : J.J. See avait déjà affirmé en 1897 avoir détecté une demi-douzaine de planètes, et ce en imagerie directe ( !), autour de plusieurs étoiles proches (il ne précisera jamais lesquelles et l’on ne put dès lors ni infirmer ni confirmer ses allégations). En mai 1998, des utilisateurs du télescope spatial Hubble affirment avoir détecté directement, pour la première fois, une exoplanète. La « planète », de plusieurs fois la masse de Jupiter, serait située à 1500 UA de son étoile, une binaire qui l’aurait éjectée... irréfutable, disent ses découvreurs, car elle est encore reliée à son étoile par un « jet » (image de gauche). En 2000, on démontre qu’il s’agit en fait d’une étoile lointaine, très rougie. C’est finalement le VLT qui produira la première image, en 2004 (image de droite).
Crédit : NASA/ESO

51 Pegase

La première réussite reconnue de la méthode des vitesses radiales fut la découverte d’une planète autour de 51 Peg (figure 1) par les astronomes suisses Michel Mayor (1942-) et Didier Queloz (1966-), effectuée en 1995 avec un télescope français de... 1,93m de diamètre ! La méthode astrométrique a connu son premier succès plus récemment, en 2002, lorsque le télescope spatial Hubble a confirmé par cette méthode la présence d’une planète autour de l’étoile Gliese 876. Le premier transit exoplanétaire a quant à lui été repéré en 2000 pour l’étoile HD209458, dont le compagnon planétaire avait été découvert par la méthode des vitesses radiales.

Planètes autour d'un pulsar

Des planètes ont aussi été découvertes avec une méthode non imaginée au début du 20e siècle : le délai temporel des pulsars. La position d’un pulsar avec compagnon planétaire oscille autour de leur centre de masse commun : les signaux envoyés par le pulsar lorsqu’il est plus près de l’observateur parviendront plus rapidement à la Terre que ceux envoyés lorsque le pulsar est sur la partie éloignée de son orbite. Les temps d’arrivée des pulsations émises par l’astre oscillent donc également : leur analyse permet de déterminer les propriétés du compagnon. Utilisée par M. Bailes et ses collègues en 1991, cette mthode leur permet de trouver une exoplanète orbitant le pulsar PSR1829-10 – mais ils se rétractent six mois plus tard : ils n’avaient pas tenu compte de l’excentricité de l’orbite terrestre dans leurs calculs. L’année suivante, Aleksander Wolszcan (1946-) et Dale A. Frail repèrent plusieurs exoplanètes autour du pulsar PSR1257+12, ce qui sera confirmé en 1994. La découverte de planètes autour de pulsars peut sembler a priori sans intérêt pour le débat sur la vie extraterrestre (supernova et astre mort ne forment pas une combinaison très accueillante pour la vie), elle permet néanmoins un argument supplémentaire en faveur de l’universalité des systèmes planétaires : si des planètes peuvent se former dans des conditions aussi hostiles, alors elles le font sûrement partout !

Imagerie directe

Aujourd’hui, la technologie permet d’étudier les atmosphères d’exoplanètes, et l’on se prend à rêver de la détection de « biosignatures »... En attendant, l’imagerie directe fait ses premiers pas (figure 2) . En effet, la première image d’exoplanète fut obtenue avec le Very Large Telescope (8m ESO) en juillet 2004, une découverte confirmée en décembre 2005: il s’agit d’une planète de 4 à 6 la masse de Jupiter, de période 2450 ans, se trouvant à 55 UA d’une étoile naine de type M8 (0,025 la masse du Soleil) située à 220 années-lumière. Avec les projets de télescopes super-géants, d’aucuns espèrent pouvoir cartographier ces exoplanètes... La quête d’une seconde terre continue donc.


Vies et intelligences?

Auteur: Yaël Nazé

Search for Extraterrestrial Intelligence (SETI)

Avec la découverte du rayonnement radio et le développement des télécommunications qui s’ensuivit, la recherche de vie extraterrestre prit un autre tournant : et si on « écoutait » le ciel, à la recherche non de la simple vie, mais bien d’autres civilisations ?

L’idée est loin d’être neuve. Au tournant du siècle passé, Nikola Tesla (1856-1943), inventeur génial, pense utiliser l’induction pour amener l’énergie dans les maisons. Pour vérifier la faisabilité de son concept, il tente plusieurs expériences. Notamment, il construit un gigantesque transmetteur (une tour de 50 m de haut entourée de fil électrique). Une nuit de 1899, il enregistre des perturbations – son transmetteur était aussi un récepteur ! Il les prend pour une communication interplanétaire et il affirme en 1901 être le premier à établir une communication entre deux mondes différents – la réalité est plus prosaïque : selon toute vraisemblance, il s’agissait de l’émission radio d’éclairs lointains. Dans le même ordre d’idées, Guigliemo Marconi (1874-1937), responsable de la première émission transatlantique, imagine dès 1919 des communications basées sur le langage mathématique pour entrer en contact avec d’autres intelligences – il affirme même avoir reçu un signal inexpliqué et lointain en 1920 (il est le seul à l’avoir enregistré, ce qui suggère un problème quelconque). Avec ses collègues, il encourage les gens à écouter nos voisins martiens avec leur récepteur TSF lors de l’opposition Terre-Mars de 1924. On arrive même à mobiliser l’armée, qui diminuera ses émissions radio pour faciliter la détection de signaux martiens – un signal étrange est rapporté, sans confirmation extérieure. Hélas, tous ignoraient qu’à ces basses fréquences, les ondes radio sont arrêtées par l’ionosphère: aucune émission extraterrestre ne pouvait leur parvenir.

Dans un article pionnier paru en 1959, Giuseppe Cocconi (1914-) et Philip Morrisson (1915-2005) montrent que les communications interstellaires sont possibles. Les radiotélescopes ont alors atteint une sensibilité suffisante pour ce faire. Ils proposent de se focaliser sur des signaux à bande étroite et centrés sur 1420MHz, fréquence d’une raie d’hydrogène, élément le plus abondant dans l’Univers8 : en envoyant un message à cette fréquence, on est en effet certain qu’au moins un groupe de personnes écoute... les astronomes ! Ils reconnaissent toutefois que « La probabilité de succès est difficile à estimer, mais si l’on ne cherche jamais, les chances de réussir sont nulles. ». Aujourd’hui, on se focalise sur le point d’eau (water hole), une bande située entre les longueurs d’onde de 21,1 cm (H) et 17,6 cm (OH), car les deux composés associés forment l’eau, base de la vie...8 Aujourd’hui, on se focalise sur le point d’eau (water hole), une bande située entre les longueurs d’onde de 21,1 cm (H) et 17,6 cm (OH), car les deux composés associés forment l’eau, base de la vie...

Au même moment, un certain Frank Drake (1930-) entre en jeu. Il avait été frappé par un cours sur les exoplanètes donné par Struve et par la réception d’un signal (en fait, un parasite terrestre) alors qu’il observait les Pléiades: les signaux extraterrestres deviennent une passion chez lui. Indépendamment de Morrisson et Cocconi, il arrive à la même conclusion sur le choix de la fréquence et décide de tenter l’expérience en positionnant l’antenne de 26m de Green Bank vers deux étoiles proches (12 années-lumière) et de type solaire : τ Ceti et ε Eridani. Ce projet, baptisé Ozma, utilise l’antenne 6 heures par jour d’avril à juillet 1960, au total 200h d’observation, sans succès. Il en faut plus pour décourager Drake et ses collègues, qui fondent SETI (Search for Extraterrestrial Intelligence) et obtiennent des fonds de la NASA en 1992 – un an plus tard, le budget est annulé et ils doivent recourir au mécénat privé. Depuis, il y a eu le projet Phoenix (durant neuf ans, jusque mars 2004, il utilisa le radiotélescope d’Arecibo pendant 5% du temps disponible) ainsi que les projets SERENDIP et southern SERENDIP (utilisant la technique du piggyback - soit utiliser un instrument "collé" à un autre pour travailler en parallèle des projets « normaux » , cela permet d'obtenir un accès au ciel, mais sans pouvoir choisir la zone observée ni la durée d'observation).

Ces projets ont généré des milliards de données : comme les exobiologistes ne possédaient pas la puissance informatique pour les analyser, ils ont lancé en mai 1999 SETI@home, un économiseur d’écran utilisé par au moins 3 millions de personnes dans le monde. Cette idée a aujourd’hui été reprise par d’autres grands projets scientifiques.

En se focalisant sur le domaine radio, on avait oublié que d’autres communications sont possibles. Dans le domaine visible, il existe un signal typiquement artificiel : des impulsions laser. Depuis quelques années, certains scrutent le ciel à la recherche de ce type de signal. D’autres proposent de rechercher les émissions infrarouges associées à des sphères de Dyson (une sphère entourant une étoile-mère, permettant d’utiliser toute son énergie).

Jusqu’ici, aucun résultat probant n’a été obtenu. Dans les années 1960, deux sources radio variant avec une période de cent jours parurent suspectes... mais elles correspondaient en fait à un nouveau type de sources, les quasars. Peu après, des impulsions radio très régulières firent aussi penser à un signal LGM (Little Green Man) : hélas, il ne s’agissait « que » de la découverte des pulsars...

En 1977, un signal baptisé « Wow » avait bien focalisé l’attention, mais il ne s’est jamais reproduit: on pense aujourd’hui qu’il s’agissait probablement d’une interférence terrestre.

En y réfléchissant, les hypothétiques réceptions peuvent se séparer en trois grands types : on pourrait surprendre un signal local (ex : notre TV, les études radar d’objets du Système solaire, etc), un signal échangé entre deux civilisations ou entre une civilisation et sa colonie ou une de ses sondes spatiales (civilisations qui ignorent tout de nous), ou encore un signal délibérément envoyé pour se signaler aux autres mondes. Le seul problème, c’est la distance : plus la distance est grande, plus le signal est faible (loi en 1/d2 !) : avec notre technologie, nous pourrions capter un signal TV émis à une distance maximale d’une année- lumière ou un signal militaire puissant et à bande étroite dans les dix années-lumière environnantes (à cette distance, il y a déjà quelques étoiles) ; la situation est similaire pour les signaux de la deuxième catégorie (en imaginant que les extraterrestres soient capables d’émettre autant que nous).


Envoi de messages

Signal envoyé vers M13
signal-m13.png
Figure 1 : Signal envoyé vers M13
Crédit : Arecibo
plaque envoyée sur les sondes Pioneer
plaque-pioneer.gif
Figure 2 : Plaque gravée envoyée sur les condes Pioneer
Crédit : NASA
Disque envoyé sur les sondes Voyager
disque-voyager.jpg
Figure 3 : Disque gravé envoyé sur les sondes Voyager
Crédit : NASA

Écouter, c’est bien, mais cela suppose que quelqu’un émet. Le faisons-nous ? Pas vraiment... Nous émettons continuellement des signaux des deux premières catégories ci- dessus, mais les signaux délibérés ne sont pas encore monnaie courante. Au 19e siècle, Karl Gauss (1777-1855) aurait pourtant déjà proposé d’utiliser une centaine de miroirs d’un mètre de diamètre pour envoyer un signal lumineux dans l’espace. À la même époque, de nombreuses propositions ont été émises pour se signaler à nos collègues sélènes, vénusiens ou martiens: il suffirait de construire (à l’aide d’arbres, par exemple) des structures géométriques remarquables, par exemple un triangle rectangle flanqué de trois carrés signalerait notre connaissance du théorème de Pythagore.

En 1974, un signal radio a quand même été envoyé depuis Arecibo vers l’amas globulaire M13, situé à 21 000 années-lumière (figure 1) . Il s’agit d’un message de 1679 bits (0 et 1 étant classiquement représentés par deux fréquences différentes), soit 73 lignes et 23 colonnes (73 et 23 sont deux nombres premiers, une caractéristique mathématique que les intelligences extraterrestres apprécieront...). Répété durant trois minutes, il explique notamment d’où le message est venu – un coucou interstellaire qui parviendra dans 21000 ans à leurs destinataires. Précisons que l’envoi de ce message ne fit pas l’unanimité : l’astronome royal britannique, Martin Ryle (1918-1984), tenta d’en empêcher la diffusion par peur de «conséquences hostiles»... Son intervention relança le débat sur la gentillesse ou la méchanceté possibles des civilisations extraterrestres, mais les adhérents à la cause SETI tablent clairement sur la sagesse d’une civilisation avancée, qui a pu survivre aux développements technologiques.

Toujours au niveau pratique, certaines sondes spatiales ont été munies de messages. Les sondes Pioneer (1972/1973) recèlent une plaque gravée (figure 2) : elles ont mis 21 mois pour rejoindre Jupiter, et si elles étaient lancées vers l’étoile la plus proche, elles l’atteindraient en 115 000 ans – Pioneer 10 s’approchera en fait d’Aldébaran dans deux millions d’années... Les messages des sondes Voyager (1977) sont plus élaborés (figure 3): ces vaisseaux renferment un disque comportant des images et des sons (des vœux multilingues, de la musique, des bruits naturels, etc.). Actuellement, ces sondes se trouvent à 15 milliards de kilomètres du Soleil ; leurs signaux, lancés par un émetteur de seulement 320W, mettent 16h à nous parvenir. Une chose est sûre : s’ils arrivent à déchiffrer ces messages, les extraterrestres sont effectivement intelligents !


Equation de Drake

En 1961, l’astronome Frank Drake propose à dix collègues de participer à la première conférence SETI. Au moment de fixer l’agenda, il élabore une équation devenue célèbre : N=T_e*p_pl*n_e*p_v*p_i*p_c*L Les différents termes sont :

Le résultat est que N vaut alors 12 à 50 (Drake était plus optimiste, et simplifiait son équation en N=L). Les plus pessimistes proposent plutôt N=1 (le seul exemple, c’est nous). Parfois surnommée la paramétrisation de l’ignorance, l’équation de Drake possède néanmoins un avantage réel : poser correctement le problème, même si l’on est actuellement incapable de le résoudre, et le découper en ses constituantes, plus « faciles » à envisager.

Calcul de l'équation de Drake


Paradoxe de Fermi

Enrico Fermi (1901-1954) résuma la situation en 1950, durant un dîner à Los Alamos: «L’Univers contient des milliards d’étoiles. Beaucoup de ces étoiles ont des planètes, où se trouvent de l’eau liquide et une atmosphère. Des composés organiques y sont synthétisés ; ils s’assemblent pour former des systèmes autoreproducteurs. L’être vivant le plus simple évolue par sélection naturelle, se complexifie jusqu’à donner des créatures pensantes. La civilisation, la science et la technologie suivent. Ces individus voyagent vers d’autres planètes et d’autres étoiles, et finissent par coloniser toute la Galaxie. Des gens aussi merveilleusement évolués sont évidemment attirés par un endroit aussi beau que la Terre. Alors, si cela s’est bien produit ainsi, ils ont dû débarquer sur Terre. Where is everybody ? »

S’il existe une civilisation galactique, elle devrait avoir colonisé toute la galaxie, soit via des robots, soit personnellement. Comme on ne voit rien, c’est qu’il n’y a personne... Nous sommes donc seuls. C’est l’hypothèse de la Terre rare. En effet, nous serions issus d’une successions de hasards : sans un Jupiter pour dévier les mortels astéroïdes, sans un satellite gros comme la Lune pour stabiliser l’axe de rotation (or on sait aujourd’hui que cette Lune provient d’un gros impact), sans un impact important qui a éliminé les dinosaures et permis aux mammifères, donc finalement nous, de proliférer (or les impacts se font au hasard), nous ne serions pas là... Ces considérations rejoignent celles de certains biologistes, évoquées plus haut.

Le paradoxe de Fermi, comme on le surnomme, peut toutefois se résoudre de deux autres manières. Tout d’abord, il existe peut-être d’autres civilisations, mais elles n’ont pas colonisé la Galaxie : le voyage interstellaire est peut-être difficile voire impossible (pour des raisons techniques ou sociologiques – on a mieux à faire, c’est trop cher ou trop dangereux) ; le caractère d’explorateur des humains est peut-être une exception dans l’Univers ; ou une civilisation avancée ne peut éviter l’auto-destruction. Il est également possible, tout simplement, que ces civilisations n’ont pas eu le temps de s’étendre car certains estiment à une dizaine de milliards d’années le temps nécessaire pour coloniser l’ensemble de la Galaxie – les ETs ne sont pas là, mais ils sont en chemin. Cependant, on peut également imaginer qu’il existe une civilisation galactique colonisatrice, mais que nous ne nous en rendons pas compte : nous avons peut-être peu d’intérêt pour eux (s’intéresse-t-on à une fourmi ?) ; ou nous sommes peut-être surveillés sans interférence (hypothèse du « zoo » galactique).


Imagination populaire

OVNIS
Kenneth_Arnold.gif
Figure 1 : Les OVNIs sont souvent associés aux « soucoupes volantes ». Ce terme provient d’une interview avec l’homme d’affaires Kenneth Arnold qui en 1947 rapporta avoir vu neuf objets alors qu’il pilotait son avion privé. Il les décrivit comme des « disques volant comme une soucoupe si vous la lancez de l’autre côté de l’eau » – le terme de soucoupe s’appliquait donc à décrire le mouvement des objets, et non leur forme, mais le journal titra le lendemain en première page « flying saucers ».. l’ère des soucoupes volantes venait de commencer.
Crédit : K.A.

Cela fait plus d’un siècle que les extraterrestres ont fait leur apparition dans la prose et la poésie : en fait, depuis Fontenelle, les idées extraterrestres percolent toutes les couches de la société et y implantent l’idée d’une vie ailleurs. Ainsi, la science-fiction, outre ses aspects divertissants, joue également un rôle plus fondamental : elle permet au public de s’habituer à l’idée extraterrestre – certains assurent même que la découverte de vie ailleurs, sur Mars par exemple, ou la réception d’un signal étranger auraient certes un grand retentissement le jour même, mais seraient vite oubliées dans la société hyper-médiatisée actuelle. Du point de vue sociologique, espoirs et craintes entourent l’idée extraterrestre : conduira-t-elle à une plus grande unité (front commun contre les aliens ou pour la préservation de la Terre si nous sommes uniques) ou à une destruction de la société si la civilisation de l’autre est très avancée (scientifiques dépassés, lien de dépendance) ? La question est en tout cas posée, et les maîtres de SETI ont jugé nécessaire de publier un protocole détaillé sur la manière d’agir en cas de réception avérée de signal extraterrestre.

Bien sûr, d’aucuns assurent que le contact s’est déjà produit. Des « preuves » de leur ancien passage peuvent être trouvées dans les lignes de Nazca au Pérou (des pistes d’atterrissage pour extraterrestres), les représentations d’astronautes extraterrestres trouvés dans les peintures de Bosch ou les gravures des tombes de Palenque (Mexique), le déplacement des moai de l’Île de Pâques entre leur carrière (où ils auraient été découpés au laser) et leur emplacement actuel, la vision d’objets cylindriques dans le ciel de Nuremberg le 14 avril 1561, le grand complexe astronomique de Stonehenge, etc. Toutes ces considérations assez folkloriques ont pu être écartées sans grand problème.

Depuis la seconde guerre mondiale, les extraterrestres reviennent en force, et pas seulement au cinéma ou en littérature : cette fois, il s’agit d’OVNIs. En pleine guerre froide, les Américains ont craint qu’il ne s’agisse d’engins soviétiques... Ils ont mis sur pied plusieurs commissions de manière à évaluer la menace pour la sécurité nationale (projet Sign fin 1948, projet Grudge en 1949, projet Blue Book en 1956, rapport Condon fin des années 1960). Leurs conclusions sont rassurantes : il n’existe aucune preuve qu’il s’agisse d’un ennemi (sous-entendu à l’époque, l’URSS), d’une manifestation interplanétaire ou d’un danger quelconque pour le pays ; d’ailleurs, 90% des OVNIs s’expliquent de manière tout à fait naturelle. Après tout, on ne compte plus les phénomènes célestes : débris spatiaux qui se désintègrent dans l’atmosphère, foudre en boule, vols d’oiseaux, voire tests d’engins « secrets » – même le lever de Vénus ou de la Lune effraie parfois les Terriens ayant perdu le contact avec le ciel ! Il faut toutefois avouer que l’évaluation des grandeurs de phénomènes célestes n’est pas évidente : bien peu d’entre nous ont conscience que la Lune a la même taille au zénith et à l’horizon. Les erreurs sont donc fréquentes tant sur la taille et la distance que le mouvement d’un objet et sa direction : la plupart des témoignages ne sont donc pas fiables – même s’ils proviennent d’un pandore assermenté. De plus, nombre de citoyens modernes ont perdu le contact avec la nature, et ne connaissent plus les phénomènes célestes, même les plus courants.

Ceci dit, 90% n’est pas 100% : il reste une partie de phénomènes inexpliqués... par la science actuelle : est-elle la meilleure possible ? On peut raisonnablement en douter (dans le cas contraire, il faudrait arrêter de financer la recherche !). Il reste donc encore à prouver que ces cas inexpliqués sont l’œuvre d’extraterrestres : par analogie, si la police de New York réussit à résoudre 90% des crimes de la ville (ce sont des humains ayant attaqué d’autres humains), cela ne veut pas dire que les 10% restants sont forcément commis par des aliens désœuvrés...


Définitions :planètes et exoplanètes

Auteurs: Jean Schneider, Francoise Roques

Qu'est-ce-qu'une planète, une exoplanète?

Les découvertes successives de planètes dans le système solaire, puis autour d'autres étoiles s'accompagnent, à chaque fois, de la remise en cause de ce qui définit une planète, et donc du nombre de planètes. Pour ce qui concerne les exoplanètes, la question n'est pas réglée.

Planets.jpg
Crédit : MegaHDWall

Le nombre de planètes

Le nombre de planètes a évolué dans l'histoire au fur et à mesure des connaissances.

En 2006, l'Union Astronomique Internationale va intégrer toutes ces découvertes pour donner une définition des planètes et créer la population des planètes naines avec, entre autres, Pluton et Ceres.

Ce texte est inspiré de la vidéo "1, 2, 3, Planète!"


Définition des planètes du système solaire

Gaspra
Gaspra.jpg
Figure 1 : L'astéroide Gaspra n'est pas une planète parce qu'il est trop petit: sa gravité n'est pas suffisante pour qu'il prenne une forme sphérique.
Crédit : NASA
Pluton
pluto.jpg
Figure 2 : Pluton n'est pas une planète mais une "planète naine", qui appartient au disque de Kuiper.
Crédit : NASA

En 2006, l'Union Astronomique Internationale (UAI) a défini les planètes du Système Solaire ainsi :

Les "petits corps", typiquement plus petit qu'une centaine de kilomètres, gardent leur forme primordiale (figure 1), alors que les corps plus massifs se déforment jusqu'à atteindre la forme d'équilibre qu'est la sphère, éventuellement applatie si le corps tourne rapidement sur lui-meme.

Une « planète naine » ne satisfait pas à la troisième condition. Pluton (figure 2) a ainsi perdu son statut de planète quand des centaines d'objets ont été découverts dans son environnement, faisant de lui un des membres de la "ceinture de Kuiper". De même, Céres est une planète naine qui appartient à la ceinture des astéroïdes.


Définition des exoplanètes

Parcequ'on n'a pas accès aux informations qui définissent une planète, on ne peut transposer cette distinction et ces définitions aux planètes en dehors du système solaire. La Commission de l'UAI dédiée aux exoplanètes est en train de réfléchir à une définition des exoplanètes et rendra publiques ses conclusions le moment venu.

Il est d'ailleurs utile de rèfléchir à la pertinence et à l'utilité d'une définition. La phrase « ceci est (ou n'est pas) une exoplanète » peut donner l'illusion qu'on a saisi son essence.

Par exemple, il serait simple de dire qu'une exoplanète est un corps qui tourne autour d'une autre étoile que le Soleil. Mais on sait maintenant que certaines planètes ont été éjectées de leur système. Seraient-elles encore des exoplanètes?

On sait que les planètes du système solaire se sont formées dans un disque circumsolaire selon un mécanisme bien particulier, contrairement aux étoiles qui se sont formées par effondrement d'un nuage de matière interstellaire. On pourrait donc définir les exoplanètes comme les corps qui se sont formés selon ce même processus.

Les planètes formées dans un disque ont la particularité de posséder un noyau solide. Elles ont aussi une densité supérieure aux objets formés par effondrement d'un nuage de gaz interstellaire. Mais il est très difficile, pour ne pas dire impossible, de savoir si une exoplanète a un noyau solide.

D'autre part, entre 13 et 74 masses de Jupiter, les naines brunes ont une brève période durant laquelle ils émettent de la lumière avant de redevenir aussi inerte et invisible qu'une planète.


Deux logiques

histo2.png
Figure 1 : Histogramme des masses de compagnons d'étoiles. Le creux entre les étoiles binaires et les exoplanètes à gauche est le désert des naines brunes. Les objets dans l'intervalle orange peuvent etre de l'une ou l'autre population.

Il y a donc au moins deux logiques pour définir une exoplanète : à partir de ses caractéristiques physiques ou à partir de son mode de formation. Ces deux méthodes n'aboutissent pas à la meme définition.

On ne voit pas pourquoi privilégier une définition par rapport à l'autre, mais il y a toutefois un problème pragmatique. Quels objets mettre dans les catalogues d'exoplanètes ? Le problème est en plein débat. L'UAI n'a pas pris position sur ce sujet. Actuellement, la communauté des astronomes suit de fait la solution choisie par le catalogue de l'Encyclopédie des Planètes Extrasolaires qui s'appuie sur l'argumentation suivante.


Une question délicate

Des discussions sont en cours pour savoir si, en plus du critère de masse, on pourra utiliser le spectre des objets pour distinguer une planète d'une naine brune. (développer un peu)

Quelle que soit au final la solution choisie, il y aura toujours des cas limites où on ne pourra pas décider s'il s'agit d'une planète ou d'une naine brune, ce qui relativise toute définition trop stricte.

Références :


Se tester

Auteur: Francoise Roques

Questions : Histoire

exerciceAntiquité

Les philosophes Epicure et Lucrece étaient convaincus de l'existence des mondes extraterrestres.

Question 1)

Sur quelle idée reposait leur conviction?

exerciceDécouverte

Une étape importante a été de réaliser que les "planètes", astres errants au milieu des astres fixes, étaient de même nature que la Terre, des corps sphériques avec, éventuellement, des satellites.

Question 1)

Quelle invention a permis de comprendre la nature des planètes?

exercicePlanètes

Le nombre de planètes du système solaire a fluctué au cours de l'histoire.

Question 1)

Combien y avait-il de planètes dans le système solaire en 1655? et en 1780?

Question 2)

Qu'est-ce-qui différencie Uranus et Neptune des 6 autres planétes?

Question 3)

Qu'est-ce-qu'a de particulier la découverte de Neptune?


Questions : Définitions

exerciceDéfinitions

La définition des planètes comporte 3 conditions.

Question 1)

La première condition est qu'une planète tourne autour du Soleil. Quels objets cette condition exclut-elle?

Question 2)

La deuxième condition est qu'une planète a une masse suffisante pour être de forme sphérique. Quels objets ne sont pas des planètes à cause de cette condition ?

Question 3)

La troisiéme condition est qu'une planéte a éjecté tous les objets présents sur les orbites proches. Quels objets sont exclus par cette condition?

Question 4)

Comment appelle-t-on les objets qui obéissent aux deux premières conditions et pas à la troisiéme?

Question 5)

Une exoplanète doit-elle forcément tourner autour d'une étoile?


Exercices : Exoplanètes

Utilisez le catalogue Les exoplanètes, pour regarder la distribution des paramètres (histogrammes) et leurs relations (diagrammes).

exerciceHistogrammes

Notez qu'il est possible de choisir l'échelle et le nombre de bins.

Question 1)

Etude de l'histogramme des masses des exoplanètes:

A quoi sont dues les limites inférieures et supérieures de la distribution des masses?

La distribution est-elle régulière? Comment cela peut-il s'expliquer?

exerciceDiagrammes

Utilisez l'outil Diagrammes. On peut modifier les intervalles de valeur et choisir des échelles logarithmiques.

Question 1)

Suivre l'évolution de la masse des exoplanètes en fonction des années de découverte.

Question 2)

Que montre le diagramme des masses en fonction des rayons des exoplanètes?

Question 3)

Autres questions:

  • Que montre l'histogramme des années de découverte des planètes.
  • Où se trouve l'exoplanète la plus lointaine?
  • Quelle est l'exoplanète la moins massive?


Mini-projet

Auteur: Francoise Roques

Mini projet: Evolution

Lire et faire un commentaire de l'article "Defining and cataloging exoplanets: The exoplanet.eu database" .


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Formation et évolution des systèmes planétaires

Auteur: Philippe Thébault

Formation et évolution des systèmes planétaires

Une des questions clef quant à la compréhension de nos origines est celle de la formation de la Terre et, plus généralement, de toutes les planètes. Pendant plusieurs siècles, étudier cette formation planétaire équivalait implicitement à expliquer la formation des seules planètes que nous connaissions : celles de notre système solaire. La situation a radicalement changé en 1995, avec la découverte de la première « exoplanète » autour d’une autre étoile. A ce jour, plus de 1000 planètes extrasolaires ont été détectées, et, du moins d’un point de vue numérique, les 8 planètes du système solaire ne représentent plus aujourd’hui qu’une infime fraction du total.

Malgré cela, les modèles de formation planétaires sont encore affectés par un fort tropisme « système solaire », car ils sont, dans leurs grandes lignes, les héritiers de théories développées dans les années 70, 80 et 90 pour expliquer la formation des 8 planètes telluriques et géantes autour du soleil. Ce tropisme s’explique bien entendu également par le fait que ces 8 planètes sont encore, de très loin, celles que nous connaissons le mieux. Ceci n’empêche pas que l’existence de systèmes extrasolaires, dont certains ont des caractéristiques très éloignées de celles du système solaire, est de plus en plus prise en compte dans les études les plus récentes. L’un des défis principaux de ces études est aujourd’hui d’expliquer la grande diversité de systèmes planétaires révélée par les observations.

Dans les pages qui suivent, nous présenterons en détail le modèle « standard » de formation planétaire, sur les grandes lignes duquel la plupart des chercheurs s’accordent aujourd’hui. Comme nous le verrons cependant, rien n’est gravé dans le marbre et il existe encore (et heureusement !) bien des questions en suspens dans ce scenario « standard ».

Par ailleurs, le modèle standard étant, pour l’essentiel, adapté aux caractéristiques de notre système solaire, nous axerons notre présentation sur les planètes de ce système. Mais nous verrons également comment ce scenario, ou du moins certaines de ses étapes, est affecté par les contraintes déduites des centaines de systèmes extrasolaires connus à ce jour.


Découvrir

Auteur: Philippe Thébault

Historique et contraintes observationnelles

Auteur: Philippe Thébault

Quelques repères historiques: modèles evolutionnistes et modèles catastrophistes

Les premières tentatives pour expliquer scientifiquement la formation des planètes remontent au 17ème siècle. En schématisant quelque peu, on peut dire que, durant près de 3 siècles, vont s’opposer les partisans de deux scénarios radicalement différents.

Cours-1-Descartes.gif
Les tourbillons de Descartes
Crédit : Bibliothèque de l’Observatoire de Paris

Historiquement les plus anciens, les modèles dits « évolutionnistes» postulent que les planètes naissent de façon « naturelle » lors de la formation du soleil et des autres étoiles. Le premier de ces modèles est celui de Descartes (1633), pour qui l’univers est rempli de tourbillons, au centre desquels les éléments les plus lourds se condensent pour former les étoiles tandis que les plus légers restent en périphéries pour former les planètes. Un siècle plus tard, Kant (1755) et Laplace (1796) proposent que les étoiles se forment par effondrement d’un nuage de matière (une « nébuleuse ») en rotation sur lui même : pour conserver le moment cinétique lors de la contraction, la force centrifuge crée un disque dans le plan de rotation, disque dans lequel se forment des anneaux concentriques dans lesquels vont finalement se condenser les planètes.

Les modèles « catastrophistes » postulent au contraire que les planètes se forment lors d’évènements isolés, rares et/ou violents. Pour le naturaliste Buffon (1741), c’est la collision d’une comète avec le soleil qui produit un nuage de débris à partir duquel se condensent et se refroidissent les planètes. L’âge d’or des modèles catastrophistes est cependant le début du XX siècle, au moment où le scénario de la nébuleuse semble irréaliste en raison de son incapacité à expliquer que les planètes possèdent 100 fois plus de moment cinétique que le soleil (voir ici). A cette époque, c’est la rencontre proche entre le soleil et une autre étoile qui est privilégiée, rencontre qui arracherait de la matière au soleil et/ou à l’étoile, matière à partir de laquelle se condensent ensuite les planètes (scénario de Moulon-Chamberlain,1904 et Jeans, 1917).

Ce n’est que dans la 2ème moitié du XX siècle que le débat sera (définitivement?) tranché en faveur des modèles évolutionnistes, quand tous les scenarios catastrophistes auront été rejetés, notamment quand Spitzer (1939) aura montré que la matière chaude arrachée au soleil va se disperser bien plus rapidement qu’elle ne peut se condenser.

Il est important de souligner qu’au delà de leurs détails techniques, ces 2 types de scénarios aboutissaient à deux visions totalement différentes quant à notre place dans l’univers. Pour les « catastrophistes », les planètes telles que la nôtre sont dues à un événement exceptionnel, et sont donc sans doute très rares, tandis que les thèses évolutionnistes prédisent que les planètes sont un « produit dérivé » banal de la formation stellaire et doivent donc être très abondantes dans notre galaxie. On peut remarquer que cette opposition de visions s’est aujourd’hui en partie reportée sur le débat sur la vie dans l’Univers, avec d’un côté ceux qui pensent quenous sommes sans doute seuls dans l’Univers, car l’apparition de la vie nécessite un concours de circonstances hautement improbable, et ceux qui au contraire pensent que la vie apparaît « naturellement » lorsque les conditions physiques sont réunies.


Structure du système solaire

images/Cours-2-JSS.png
98% du moment cinétique du système solaire est contenu dans les planètes.
Crédit : Philippe Thebault
images/Cours-2-MasseSS-.png
99,8% de la masse du système solaire est contenue dans le Soleil.
Crédit : Philippe Thebault

Avant de présenter la théorie des modèles de formation planétaire, il est essentiel de les replacer dans leur contexte. Il faut pour cela bien comprendre quelles sont les caractéristiques fondamentales du système solaire qui vont contraindre tout modèle de formation. Certaines de ces caractéristiques sont du niveau de l’évidence, et d’autres un peu plus techniques, mais toutes nous apprennent des choses essentielles sur l’origine des planètes.

Un premier fait essentiel est que les 8 planètes orbitent toutes à peu près dans le même plan, et de plus dans le même sens. Par ailleurs, ce plan et ce sens correspondent aussi à l’axe et au sens de rotation du soleil sur lui même. Ce simple fait plaide très fort en faveur d’une origine commune pour toutes les planètes, origine sans doute également liée à l’origine du soleil lui même. Car si, par exemple, le soleil avait capturé les planètes les unes après les autres, alors il n’y aurait aucune raison pour qu’elles soient toutes dans le même plan.

Autre point fondamental : plus de 99,9% de la masse MSS du système solaire se trouve dans le soleil lui même, les planètes ne représentant qu’une toute petite fraction de celle-ci. Mais par ailleurs, l’essentiel du moment cinétique JSS du système solaire (pour schématiser, son énergie de rotation) est, lui, contenu dans les planètes, le soleil ne contenant que 1% du moment total. Ce paradoxe est, on le verra plus loin, l’un des faits les plus contraignants pour les modèles de formation planétaire.


Composition des planètes

images/Cours-3-tableau-planetes.png
Composition des 4 planètes géantes du système solaire, en unité de masse terrestre
Crédit : Philippe Thebault

Un premier regard, même superficiel, sur les planètes du système solaire montre que celles-ci peuvent se repartir en 2 groupes bien distincts: les 4 planètes telluriques, petites et proches du soleil, et les 4 planètes géantes, beaucoup plus massives et situées dans les régions externes et froides. Les planètes telluriques ont des masses comprises entre 0.06 et 1M_earth, sont essentiellement rocheuses et sont très pauvres en Hydrogène et Helium, les 2 éléments de loin les plus abondants dans l’Univers. A l’inverse, les planètes géantes ont des masses comprises entre 15M_earth (Uranus) et 300M_earth (Jupiter). Parmi ces géantes il faut tout d’abord distinguer les 2 géantes « gazeuses » que sont Jupiter et Saturne, dont l’essentiel de la masse est contenue sous forme d’H2 et He gazeux, mais qui contiennent cependant de 10 à 50 M_earth de solides sous formes de roches et de glace (probablement concentrée dans un coeur solide). Viennent ensuite les géantes « glacées » que sont Uranus et Neptune, dont l’essentiel de la masse est sous forme de glace (d’eau, d’ammoniaque et de méthane), mais qui possèdent cependant une atmosphère contenant de 1 à 5M_earth de H2 et He.

On peut remarquer que la composition de toutes ces planètes diffère très fortement de la composition globale de l’Univers, qui est lui constitué à 98% d’hydrogène et d’Helium. Même les géantes gazeuses contiennent une proportion très importante d’éléments lourds si on les compare à la composition du soleil, qui est, elle, très proche de celle de l’univers dans son ensemble. Ce point est fondamental quand il s’agira de remonter à la « Nébuleuse solaire de masse minimale » initiale (cf. lien).


L'âge du système solaire

Toutes les planètes du système solaire ont été très fortement remodelées dans les premiers temps de leur histoire, et la surface de nombreuses d’entre elles a également été irréversiblement altérée par l’évolution au cours des milliards d’années qui ont suivi. De ce fait, il ne reste aucun matériel planétaire primordial qui puisse nous permettre de remonter aux premiers instants du système solaire. De tels matériaux primordiaux et en particulier une certaine catégorie de météorites appelée « chondrites » constituent les corps les plus primitifs du système solaire, et l’on pense que leur intérieur n’a quasiment pas été altéré depuis les premiers instants de celui-ci. On peut mesurer l’âge de ces chondrites à l’aide de la décomposition radioactive de certains éléments qu’elles contiennent (cf. lien). De manière assez remarquable, ces méthodes de datation ont permis d’estimer l’âge du système solaire à une précision extraordinaire : 4,568 milliards d’années ! L’âge des plus vieilles roches terrestres, de petites inclusions cristallines de zircon, est, quant à lui, estimé à 4.404 milliards d’années. Ce qui laisserait donc environ 150 millions d’années au maximum pour former la planète Terre. L’âge des plus vieilles roches lunaires est, lui, d’environ 4.5 milliards d’années.

AllendeMeteorite
images/Cours-4-AllendeMeteorite-WIKI.jpg
La météorite « Allende », la plus célèbres des « chondrites carbonnées ».
Crédit : Wikipedia

Le scénario standard: formation d'un disque protoplanetaire

Auteur: Philippe Thébault

Le scénario standard de formation planètaire

Il existe aujourd’hui un scenario « standard » de formation planétaire, dont les grandes lignes sont acceptées par l’essentiel des scientifiques, du moins en ce qui concerne les planètes telluriques. Pour l’essentiel, ce scenario a été développé au cours des années 60 et 70, notamment à partir des travaux pionniers du savant russe Victor Safronov. Ce modèle est l’héritier direct des anciens modèles évolutionnistes (cf. lien), avec lesquels il partage l’idée essentielle que les planètes se forment « naturellement » et conjointement avec les étoiles, à partir de la contraction d’une « nébuleuse » en rotation.

images/Cours-5-plan_form-NEW.png
Description schématique des principales étapes du scénario « standard » de formation planétaire
Crédit : Observatoire de Paris

Dans ce scénario standard, les planètes se forment progressivement, étape par étape, à la suite d’une succession de processus distincts. Ceux-ci peuvent schématiquement se résumer ainsi (cf. Figure) : Tout commence avec un grand nuage de gaz moléculaire froid, dont certaines régions peuvent s’effondrer sous l’effet de leur propre gravité, formant des cœurs denses et chauds qui vont devenir une proto-étoile. Autour de ces cœurs, la contraction du nuage (ou plutôt d’un fragment de celui-ci) va finir par former un disque sous l’effet de la force centrifuge. On arrive alors à une étape où proto-étoile, disque et enveloppe (le reste du fragment de nuage initial) coexistent, la matière étant accrétée de l’enveloppe sur le disque, puis du disque sur l’étoile. Le disque d’accrétion est initialement très chaud, mais il va se refroidir avec le temps. Ceci va permettre la condensation de grains solides : roches, mais aussi glaces dans les régions externes. Ces grains vont ensuite croitre par collisions mutuelle pour former des corps kilométriques appelés « planétésimaux ». L’accrétion mutuelle de ces planétésimaux va alors former des embryons planètaires, puis les planètes elles-mêmes, tandis que le disque de gaz primordial va se disperser.

Nous allons maintenant examiner plus en détail chaque étape de ce processus. Comme nous le verrons, malgré un consensus global sur les grandes lignes, certaines étapes du modèle standard sont encore mal comprises et les débats sont loin d’être clos.


Au commencement: un nuage moléculaire

Toutes les étoiles, et par la même occasion les planètes qui leurs sont liées, naissent dans de gigantesques nuages moléculaires. Ces nuages sont essentiellement composés d’Hydrogène et d’Helium, à savoir les 2 éléments les plus abondants dans l’Univers, et sont extrêmement froids, avec des températures de l’ordre de 10K. Ils ont des tailles pouvant aller d’une fraction de parsec (pc) à plus de 20pc, et peuvent contenir de quelques dizaines à plusieurs milliers de masses solaires (M_sun), voire plusieurs millions de masses solaires pour les nuages dits "géants". Bien que ces nuages soient bien plus compacts que la matière inter-galactique alentour, leur densité est tout de même extrêmement faible comparée à notre environnement quotidien, de l’ordre de seulement 100 à 10 000 atomes d’Hydrogène par cm3. Ceci est à comparer aux quelques 1015 molécules/cm3 de l’atmosphère terrestre ! (En fait, un nuage moléculaire « dense » est bien plus vide que le « vide » à l’intérieur d’une chambre à vide dans un laboratoire !).

images/Cours-6-Cone_Nebula_NGC_2264_HST.jpg
La nébuleuse du « Cône », une pépinière de jeunes étoiles.
Crédit : Hubble Space Telescope (NASA)

Ces « nurseries » stellaires sont observées par milliers dans notre galaxie, soit comme des « poches sombres » bloquant la lumière des étoiles situées derrière elles, soit comme de magnifiques nuages éclairées de l’intérieur par les premières étoiles qui s’y sont formées (cf. Image).


Effondrement du nuage, formation d'une Proto-Etoile

Un nuage moléculaire est a priori à l’équilibre hydrostatique, c’est à dire que sa gravité est compensée par la pression thermique des molécules qui le composent (cf. Théorème de Viriel). Cependant, dans certains de ces nuages, cet équilibre va être rompu et ils vont commencer à s’effondrer sur eux-mêmes, et ce pour des raisons encore mal comprises. Est ce parce-que certains nuages deviennent trop massifs pour que la pression thermique puisse lutter ? Ou bien cet effondrement est il déclenché de l’extérieur, par exemple lorsque 2 nuages se collisionnent ou bien lorsqu’une supernova explose à proximité ? Quoi qu’il en soit, une fois cet effondrement commencé, les choses s’emballent assez rapidement. Au bout de quelques milliers d’années, la turbulence crée des structures en filaments en même temps que le nuage initial commence à se fragmenter en morceaux de plus en en plus petits (cf. Image), chacun de ces fragments pouvant potentiellement être un site de formation stellaire : les étoiles naissent donc en groupe !

A l’intérieur de chaque fragment, une forte condensation de matière se produit au centre, jusqu’à ce que celui-ci devienne opaque à la lumière infra-rouge. A partir de ce moment, une sorte d’ « effet de serre » se produit et la température augmente fortement dans ce cœur dense. A un certain point, la pression thermique stoppe l’effondrement du cœur et cette concentration de matière dense et chaude forme le premier stade d’une proto-étoile. Cette proto-étoile est initialement peu massive (1% de sa masse finale), mais elle augmente progressivement, car la matière du reste du nuage continue à s’effondrer et s’accumuler sur elle.

Cours-7-Starformation-Bates.png
Effondrement d’un nuage moléculaire et formation d’un groupe de jeunes étoiles dans une simulation numérique.
Crédit : Matthew Bate (Université d’Exeter)

Etoile T-TAURI et formationd'un disque d’accrétion

images/Cours-8-Infall.png
Schéma de l’accrétion de l’enveloppe gazeuse vers le disque et la proto-étoile.
Crédit : Observatoire de Paris
images/Cours-8-HLTAU-ALMA2.jpg
Une région de formation d’étoiles dans la constellation du Taureau. Avec en particulier l’étoile HL Tau (en haut à droite) et son magnifique disque proto-planétaire (image en encart, réalisée avec le télescope européen ALMA), ainsi que l’étoile HH Tau (en bas à droite) et ses jets de matière aux pôles de l’étoile.
Crédit : Hubble Space Telescope, NASA (grande image), et télescope ALMA, ESO (disque de HL Tau).

En parallèle au processus de formation stellaire, l’effondrement du nuage va également créer un disque en rotation autour de la proto-étoile. Ce disque se forme sous l’effet de la force centrifuge, dont l’intensité augmente à mesure que le nuage se contracte (à cause de la conservation du moment cinétique). On atteint donc un état où coexistent 3 composantes : 1) La proto étoile au centre, 2) le disque circumstellaire, et 3) le reste du nuage qui continue à s’effondrer. Il est important de noter que pendant cette étape de coexistence, le transfert de matière se fait du nuage vers le disque, et ensuite du disque vers l’étoile. D’où le nom de disque d’accrétion.

Au cours de cette phase d’accrétion, la température de la proto-étoile continue d’augmenter. Lorsque celle-ci dépasse plusieurs millions de degrés au centre de la proto-étoile, des réactions thermonucléaires vont se déclencher: une étoile est née ! Un très puissant jet de matière va alors se développer le long de l’axe de rotation stellaire. Une telle étoile, entourée d’un disque d’accrétion et produisant un jet bipolaire est dans ce qu’on appelle sa phase « T Tauri », du nom d’une étoile de la constellation du taureau. Cette phase T Tauri n’est pas qu’un simple concept théorique, car l’on dispose aujourd’hui de très nombreuses observations de ce type d’étoile jeune, révélant souvent à la fois un disque circumstellaire, un jet bipolaire et des restes de matière du nuage initial (voir image).


Accrétion visqueuse du disque

Le disque qui entoure la jeune étoile après environ un million d’années est appelé disque « d’accrétion », car la matière qu’il contient spirale lentement vers l’intérieur pour finalement tomber sur l’étoile. Ces mouvements de matière sont dus à la viscosité du disque, viscosité elle-même due à la turbulence du gaz. L’effet global de cette viscosité turbulente est de transférer l’essentiel de la matière vers l’intérieur du disque, tandis qu’une petite fraction de cette matière part vers l’extérieur en emportant l’essentiel du moment cinétique J du disque.

images/Cours-9-moment-disque-NEW.png
Transfer de matière de l’enveloppe vers le disque en rotation képlérienne, et mouvement radial de la matière dans le disque dû à la viscosité de celui-ci.
Crédit : Observatoire de Paris

On pense que ce double transfert (masse vers l’intérieur, J vers l’extérieur), est ce qui résout, du moins en partie, le paradoxe d’un système solaire où 99.9% de la masse est dans le soleil, mais 99% du moment cinétique est dans les planètes (voir lien).


Le disque « PROTO-PLANETAIRE »

Le disque d’accrétion est initialement extrêmement chaud, et ce en raison du rayonnement intense de la jeune étoile, mais aussi à cause de la chaleur dégagée par la viscosité dans le disque. L’analyse des météorites montre que se produisent peut-être également des « flashs » thermiques brefs mais intenses dus sans doute à des ondes des chocs. Dans les régions les plus internes, les températures peuvent dépasser les 1500K, vaporisant même les particules rocheuses (silicates et composés ferreux). Au cours du temps, cependant, le disque va progressivement se refroidir. Dans les régions internes, les températures sont alors suffisamment basses pour permettre la condensation des roches, mais pas des composés volatils et des glaces (eau, méthane, CO, etc.). Dans les régions externes, en revanche, les températures descendent suffisamment pour permettre la condensation des glaces, et notamment de la glace d’eau (T<160 K). La frontière entre disque interne rocheux et disque externe roches+glaces est appelée « limite des glaces » (« snowline » en anglais). Elle se situe à environ 3 UA dans notre système solaire, et correspond donc peu ou prou à la limite entre planètes telluriques et planètes géantes. On pense que cela n’est pas un hasard, car, au delà de la limite des glaces, la matière solide est 3 à 4 plus abondante et permet donc l’accrétion de corps plus gros, pouvant de plus retenir une épaisse enveloppe de gaz (voir lien).

images/Cours-10-disque-PP-NEW.png
Structure du disque proto-planétaire autour du jeune soleil.
Crédit : Observatoire de Paris

La nébuleuse solaire de masse minimale

Dans les années 1970 et 80, plusieurs scientifiques ont réalisé que, à partir de la structure actuelle du système solaire, il est possible d’avoir une idée de la distribution de matière dans le disque proto-planétaire initial. Il faut pour cela faire 2 hypothèses : 1) que la position actuelle des planètes correspond, approximativement, à celle où elles se sont formées, et 2) que le disque proto-planétaire avait une composition proche de ce qu’elle est aujourd’hui dans le soleil.

La procédure pour remonter au disque initial est alors assez simple : On considère tout d’abord la masse de matière solide (roches et glaces) contenue dans les planètes et on la distribue de manière continue entre l’orbite me Mercure et celle de Neptune (voir LIEN vers page d’exercice). Ceci nous donne alors la distribution radiale des solides dans le disque proto-planétaire. Si on fait ensuite l’hypothèse que le rapport solides/volatiles (H et He) est le même que dans le soleil, alors on peut remonter à la masse « manquante » de volatiles qui était présente au départ et qui a disparu en cours de route. Cette masse initiale est bien supérieure à la masse actuelle de gaz dans les planètes, même pour les géantes « gazeuses » Jupiter et Saturne. On a alors reconstitué un disque proto-planétaire « minimal », c’est à dire contenant la masse minimale de matière (de composition solaire) nécessaire à former les planètes actuelles. On appelle ce disque théorique la « Nébuleuse Solaire de Masse Minimale » (NSMM ou plus communément MMSN en anglais).

images/Cours-11-MMSN.png
Profil de densité radiale de la Nébuleuse Solaire de Masse Minimale (MMSN).
Crédit : Observatoire de Paris

On voit sur la Figure ci-dessus que, de manière remarquable, la distribution radiale de matière dans cette nébuleuse suit une loi de puissance en r-1.5 sur tout l’extension du disque. On remarque certes un saut de densité d’un facteur 3 vers 3AU, mais ce saut s’explique par la « ligne des glaces », au delà de laquelle la matière solide devient plus abondante en raison de la condensation de la glace d’eau.

Le profil d’une telle MMSN ne doit cependant être considéré qu’à titre indicatif, en particulier dans le système solaire externe, car on sait aujourd’hui que les planètes géantes ne se sont sans doute pas formées à leur position actuelle et ont sans doute migré dans le disque initial (cf. lien).


Le scénario standard: accretion des planètes telluriques

Auteur: Philippe Thébault

Condensation et accrétion des premiers grains

Le disque proto-planétaire se refroidit progressivement au cours du temps. A mesure que la température baisse, de plus en plus d’éléments peuvent se condenser. A moins de 1600K, ce sont des oxydes métalliques, à 1400K c’est le Fer, et, enfin, à 1300K, les silicates. La condensation forme initialement des grains très petits, de l’ordre de quelques microns. La croissance de ces grains se fait ensuite lors de collisions mutuelles, quand la vitesse d’impact est suffisamment faible pour qu’ils restent soudés. Pour des particules de si petites tailles, ce qui les fait « coller » les unes aux autres lors de collisions, ce sont les forces de surface moléculaire (forces de Van der Waals). Les vitesses et la fréquence des rencontres entre grains sont déterminées par le fait qu’ils sont couplés au gaz et que celui-ci a des mouvements turbulents. On pense que, pour une MMSN typique, les vitesses de collisions entre petits grains sont de l’ordre de 10cm/s à 10m/s (la vitesse d’un cycliste). Des expériences en laboratoire ont montré que ces vitesses sont effectivement suffisamment faibles pour permettre à 2 grains de s’accréter lors d’une collision. Ce processus d’accrétion grain à grain va former des particules filamenteuses de type fractal (cf. image), dont la taille peut atteindre quelques cm.

images/Cours-12-fractal-growth-seizinger.png
Structure fractale résultant de l’accrétion mutuelle de grains micrométriques
Crédit : simulations numériques de A. Seizinger, Université de Tübingen.

La barrière du mètre

La suite de l’histoire est beaucoup plus problématique. Quand les corps solides ont atteint quelques centimètres ou décimètres, les modèles de croissance par collisions mutuelles rencontrent un problème majeur, qu’on appelle pour simplifier « la barrière du mètre ». En effet, ces corps sont devenus suffisamment gros pour commencer à se découpler du gaz, et ce gaz va alors commencer à exercer une forte friction sur eux. Ceci a deux conséquences : 1) Les vitesses relatives de collisions impliquant ces objets deviennent élevées, et le bilan de ces collisions n’est plus l’accrétion mais l’érosion des corps, et 2) La friction du gaz fait perdre du moment cinétique au corps solides, et ceux ci vont se mette à spiraler vers le centre du disque et l’étoile. Pour des corps de 1m, on calcule que le temps de migration vers le centre est de seulement quelques centaines d’années dans une MMSN « standard ».

La barriere du métre
images/Cours-13-metre-barrier.png
Bilan des collisions mutuelles entre corps solides dans la nébuleuse solaire de masse minimale, déduites de diverses simulations numériques effectuées dans la dernière décennie. En abscisses : taille de l’impacteur. En ordonnées : taille de la cible. On voit très clairement que dès que l’un des corps dépasse le mètre, l’accrétion est quasiment impossible
Crédit : Observatoire de Paris

Passer la barrière du métre

Plusieurs théories ont été avancées pour expliquer comment surmonter la barrière du mètre. Certaines font appel à l’action de la turbulence du gaz et au fait que celle-ci crée des vortex au centre desquels les particules solides peuvent s’accumuler. Dans ces vortex, l’accrétion peut se remettre en marche pour 2 raisons: 1) les vitesses relatives sont suffisamment faibles pour que les particules « collent » à nouveau lors de collisions, et 2) La densité de grains solides au centre des vortex peut par ailleurs devenir telle qu’une instabilité gravitationnelle se déclenche, formant directement et rapidement des corps de plusieurs kilomètres. Dans le même ordre d’idée, d’autres scénarios envisagent que les grains sont piégés au niveau de singularités dans le disque de gaz, là où existe un très fort gradient de pression. Ces singularités peuvent se situer au bord de ce qu’on appelle des « Dead Zones » (sans activité magnétique), ou bien au niveau de la ligne des glaces, ou bien encore au niveau de surdensités créées par des Instabilités Magnéto-Hydrodynamiques (« MRI »). Dans ces zones de piégeage, l’accrétion peut se poursuivre pour les mêmes raisons que dans le scénario des « Vortex ».

images/Cours-14-zonalflow.png
Instabilité de « courant » dans un disque proto-planétaire (MMSN).

D’autres scénarios proposent une solution alternative, fournie par la physique des collisions elle-même. Si il existe une très large dispersion de la taille des corps solides, alors les plus gros de ces corps seraient capable d’accréter les plus petits, même en cas de vitesses relativement élevées. Dans le même ordre d’idée, même en cas de collisions érosives, les fragments érodés pourraient former une poussière facilement ré-accrétable par les plus gros corps.

Il faut cependant rester prudent, car aucun de ces scénarios ne propose pour l’instant une explication 100% satisfaisante. Ce problème est l’un des sujets majeurs de la recherche actuelle sur la formation planétaire.


L’accrétion « boule de neige » des planétésimaux

Malgré un enfantement qui pose pour l’instant beaucoup de problèmes aux théoriciens (voir page précédente), il est probable que des « planétésimaux », c’est à dire des corps solides de l’ordre du kilomètre, vont finir par se former dans le disque. Ces planétésimaux vont ensuite eux aussi croître par collisions mutuelles, mais le processus d’accrétion est radicalement différent de ce qu’il était pour les petits grains, car c’est maintenant la force de gravité qui va faire « coller » les corps les uns aux autres. Le critère pour qu’il y ait accrétion est que la vitesse de collision vcoll doit être inférieure à la vitesse de libération vlib des 2 corps impactant. Pour des corps de l’ordre du kilomètre, vlib est de l’ordre de quelques m/s, soit la vitesse d’un piéton (pressé).

Si tous les planétésimaux avaient la même taille et croissaient ensemble, alors il faudrait environ 1 million d’années pour former un corps de 1000km aux alentours de 1 UA. On pense cependant que le processus d’accrétion est en fait beaucoup plus rapide, et ce du fait de la dispersion en taille des planétésimaux. Si en effet certains planétésimaux sont initialement plus gros que les autres, alors leur vitesse de libération sera supérieure et ils auront tendance à dévier les autres corps vers eux. Ceci les fera grossir plus rapidement, donc acquérir une vlib encore plus élevée, et donc dévier encore plus les petits planétésimaux vers eux, et ainsi de suite. Le processus s’emballe donc de lui même, dans une sorte d’effet « boule de neige » (voir lien1 et lien2), qui va se maintenir tant que les vitesses de collisions restent petites, de l’ordre de ce qu’elles étaient initialement (c’est à dire quelques m/s). L’accrétion boule de neige est capable de former de gros corps en seulement quelques 104 ans, sachant qu’à ce moment une grande partie de la masse de solides est encore sous forme de planétésimaux kilométriques.

Cours-15-belt-dust-plan.jpg
Un disque de planétésimaux (Vue d’artiste).
Crédit : http://www.spitzer.caltech.edu

Accrétion «oligarchique»

Le processus d’accrétion « boule de neige » ne peut pas continuer éternellement. Il va s’arrêter quand les quelques corps en croissance rapide deviennent suffisamment gros pour commencer à exciter gravitationnellement leur environnement. A ce moment là, la croissance ne s’emballe plus, tout en se poursuivant cependant à un rythme élevé. On entre alors dans la phase dite « oligarchique » du processus d’accrétion, car seuls les quelques heureux embryons formés par effet de boule de neige sont en croissance. On pense que la transition entre accrétions « boule de neige » et « oligarchique » a lieu lorsque la taille des embryons est de l’ordre de quelques centaines de kilomètres. La phase oligarchique va alors durer de l’ordre de 105 ans, pour former des « embryons » planétaires de la taille de la Lune.


Epuisement des ressources: fin de l'accrétion oligarchique

Au cours des phases d’accrétion « boule de neige » puis oligarchique chaque embryon fait progressivement le « vide » autour de lui. Le disque est alors structuré en régions concentriques à l’intérieur desquelles un seul gros corps dominant a émergé. Chaque embryon peut accréter les planétésimaux se situant à l’intérieur de sa « zone d’alimentation », correspondant à tous corps dont l’orbite peut être déviée sur l’embryon par focalisation gravitationnelle (cf. lien). Schématiquement, cette zone d’alimentation correspond à un anneau circulaire centré sur l’embryon, dont la largeur augmente à mesure que l’embryon grossit. Cependant, comme la masse disponible à l’intérieur de la zone d’alimentation croît moins vite que le taux auquel cette masse est accrétée par l’embryon, on aboutit in fine à une situation où la zone d’alimentation est vide. A ce moment, la phase de croissance par accrétion de petits planétésimaux s’arrête. Dans la région des planètes telluriques, on peut calculer qu’à ce stade, des corps d’environ 1000km se sont formés (cf. page d’exercice)

images/Cours-17-Feeding-zone.png
Vidage de la zone d’alimentation autour d’un embryon planétaire en croissance.
Crédit : Philippe Thebault

Interaction entre embryos, phase finale de l'accrétion

Comme nous l’avons vu à la page précédente, l’accrétion boule de neige et oligarchique ne permet sans doute pas de former directement des planètes, mais s’arrête, par épuisement de la matière (planétésimaux, poussière, etc …) à accréter, lorsque des embryons planétaires de la taille de la Lune ont été formés. Heureusement (si, du moins, on considère l’apparition de planètes comme un bien), ces embryons sont alors devenus suffisamment massifs pour se perturber mutuellement à distance. Ces perturbations vont rendre leurs orbites excentriques, et celles-ci vont pouvoir se croiser. Ces collisions entre embryons vont se faire à vitesses élevées, mais les embryons sont maintenant suffisamment massifs pour que l’accrétion mutuelle soit possible même lors d’impacts assez violents.

Ce « jeu de quilles » entre embryons va durer quelques millions, voire quelques dizaines de millions d’années. A la fin de cette période extrêmement violente, la plupart des milliers d’embryons formés par l’accrétion oligarchique ont disparu. Ils ont été soit éjectés du système solaire, soit (pour la plupart) accrétés par les quelques heureux gagnants qui vont devenir les planètes que nous connaissons aujourd’hui.

Notons que, dans les régions internes du système solaire, ces planètes ne vont jamais devenir suffisamment massives pour pouvoir accréter le gaz qui est encore présent dans le disque. On verra qu’il en va tout autrement dans la région des planètes géantes (cf. lien).

Cours-18-Embryo-Collision.jpg
Vue d’artiste d’une collision entre 2 embryons massifs.
Crédit : http://www.spitzer.caltech.edu

formation de la lune

Les datations isotopiques indiquent que la Lune s’est formée entre 30 et 200 millions d’années après la Terre. Ceci place la formation de la Lune vers la fin de la phase agitée de collisions entre embryons planétaires (cf. page précédente). Les modèles récents postulent d’ailleurs que la formation de la Lune est due à un impact géant entre la proto-Terre et une autre proto-planète, appelée « Theïa », peut-être de la taille de Mars. Dans le modèle « standard » de Robin Canup (cf. image), Theïa impacte la Terre à vitesse élevée et est détruite ; un nuage de débris extrêmement chauds, essentiellement formé du manteau de Theïa se forme en orbite autour de la proto-Terre (qui est partiellement détruite par l’impact mais survit cependant), la Lune s’accrète ensuite à partir de cet anneau de débris en refroidissement. Un tel impact expliquerait plusieurs des caractéristiques peu banales de la Lune : 1) La Lune est très pauvre en fer comparée à la Terre. 2) Elle est également très pauvre en éléments volatiles (H20, Azote, CO2, etc…), 3) le timing pour la formation, 4) le moment angulaire très élevé du couple Terre-Lune.

images/Cours-19-earthmoon-Canupmodel.jpg
Simulation numérique de l’impact Terre-Theia ayant donné naissance à la Lune.
Crédit : Robin Canup (Southwest Research Institute)

Des analyses récentes d’échantillons lunaires ont cependant mis en évidence un problème majeur avec cette théorie : le fait que la surface de la Lune ait la même composition isotopique que la Terre pour les éléments O, Ti, Cr, W et K. Ceci n’est pas possible si la Lune est pour l’essentiel constituée de matière « theïenne », dont la composition isotopique a a priori peu de chances de ressembler à celle de la Terre, car étant probablement formée ailleurs dans le système solaire. Pour tenter de résoudre ce paradoxe, plusieurs modèles récents ont exploré différentes théories. Il est possible par exemple que le disque de débris post-impact ait été tellement chaud et dense qu’un équilibre isotopique avec la composition terrestre s’est fait. Il est possible également que la Terre et Theïa aient une origine commune. Alternativement, un impact plus énergétique (appelée « hit and run ») pourrait également arracher plus de matière à la Terre et faire que le disque de débris pré-lunaire soit dominé par de la matière terrestre. Enfin, si la rotation sur elle-même de la proto-Terre était initialement extrêmement rapide, alors l’impact avec Theïa aurait pu arracher énormément de matière du manteau terrestre pour former le disque pré-lunaire. Toutes ces théories ont leurs avantages et leurs défauts, mais on peut remarquer qu’aucune d’entre elles ne remet en cause le fait que la Lune se soit formée à partir d’un impact Terre-Theïa.


Et le gaz dans tout ça? Dispersion du disque primordial

Toutes les étapes de formation dont nous venons de parler se font dans un disque protoplanétaire dont l’essentiel de la masse est encore sous forme de gaz primordial (surtout de l’hydrogène). Les grains et les planétésimaux en croissance interagissent très fortement avec ce gaz et nous avons vu que ce gaz est sans doute essentiel pour que l’accrétion des plus petits grains puisse se faire.

Ce disque de gaz primordial n’est cependant pas éternel. L’observation des jeunes étoiles montre en effet que les disques proto-planétaires primordiaux se dispersent sur des échelles de temps comprises entre 1 et 10 millions d’années, la durée de vie moyenne étant sans doute de l’ordre de 3 millions d’années pour une étoile de type solaire. Ceci place la dispersion du disque sans doute au cours de la phase finale d’interactions mutuelles entre gros embryons (cf. lien).

Reste à expliquer pourquoi et comment le disque se disperse. Il existe pour cela plusieurs mécanismes possibles, comme par exemple le vent stellaire de l’étoile en phase T-Tauri, ou l’accrétion visqueuse du disque sur l’étoile. La cause la plus probable semble cependant être l’effet de « photo-évaporation » dû au rayonnement ultra-violet de la jeune étoile, qui, couplé à la viscosité du disque, est capable de disperser très rapidement le disque de gaz hydrogène après l’avoir « coupé » en deux (voir PHOTO-EVAPORATION).

images/Cours-20-discfraction-roccatagliata.png
Proportions d’étoiles étant entourées de disques proto-planétaires massifs, dans différents amas stellaires ayant des âges différents.
Crédit : Roccatagliata et al., 2011, (the Astrophysical Journal).

Le scénario standard: formation des planètes géantes

Auteur: Philippe Thébault

Formation des planètes géantes ... Une toute autre histoire?

Le scénario présenté dans les pages précédentes se rapportait à la formation des planètes telluriques. La formation des planètes géantes est un problème en partie différent, avec quelques contraintes spécifiques. Les plus évidentes étant qu’il faut arriver à accréter beaucoup plus de matière sur chaque planète, entre 15 et 300M_earth, et qu’en plus, pour Jupiter et Saturne du moins, il faut arriver à accréter une énorme quantité de gaz (cf. lien). Cette accrétion du gaz pose de plus une contrainte très forte sur le timing de la formation de ces planètes, qui doit être achevée avant la dispersion du disque de gaz primordial, c’est à dire avant 10 millions d’années maximum (cf. lien). Enfin, il faut trouver un scénario de formation qui explique pourquoi Jupiter et Saturne sont très riches en gaz alors qu’Uranus et Neptune ne le sont pas.

Il reste que, comme on va le voir, le scénario « standard » de formation des géantes est, pour l’essentiel, une adaptation du scénario standard pour la formation des telluriques, en y rajoutant une étape finale d’accrétion d’une enveloppe de gaz massive. Cependant, comme nous le verrons également, ce scénario rencontre des difficultés, principalement le timing très strict pour l’accrétion du gaz, qui ont conduit plusieurs chercheurs à envisager un mode alternatif (et spécifique) de formation pour les planètes géantes, basé sur un effondrement gravitationnel direct dans le disque.


Le Modèle «standard» de formation des géantes: le «coeur solide»

Dans ce scénario auquel adhère une majorité de chercheurs (mais attention, majorité n’est pas vérité !), la formation des géantes suit un processus par étapes qui ressemble fortement à ce qu’il est pour les planètes telluriques. Il commence notamment par la condensation de particules solides qui vont ensuite se coller entre elles par collisions et former des planétésimaux, planétésimaux qui vont ensuite former, par accrétion gravitationnelle, des embryons planétaires massifs.

La différence essentielle est que nous sommes ici au delà de la limite des glaces, et que donc les particules solides qui vont constituer les briques de la formation planétaire sont composées de roches et de glaces. On estime que ceci multiplie par 4 la quantité de matière solide disponible (voir MMSN). Les planétésimaux vont donc être plus gros et pouvoir former des embryons planétaires plus massifs. Ceci va également permettre d’accélérer le processus d’accrétion, et compenser le fait que les vitesses orbitales (et donc les rencontres proches) sont plus faibles dans les régions externes.

images/Cours-22-coeursolide-gaz.png
Principales étapes de la formation d’une planète géante dans le scénario du « cœur solide » : a) Accrétion « boule de neige » sur un embryon solde ‘roche + glace) qui se détache des planétésimaux environnants 
Crédit : Observatoire de Paris
images/Cours-22-b.png
Principales étapes de la formation d’une planète géante dans le scénario du « cœur solide » :b) Quand l’embryon atteint environ 10 M_Terre, il commence à accréter le gaz alentour ;
Crédit : Observatoire de Paris
images/Cours-22-c.png
Principales étapes de la formation d’une planète géante dans le scénario du « cœur solide » : c) Quand la masse de gaz accrétée est comparable à celle du cœur solide, l’accrétion du gaz s’emballe
Crédit : Observatoire de Paris

Modèle du coeur solide (2): accrétion du gaz sur jupiter et saturne

La présence de glace d’eau permet à la phase d’accrétion boule de neige et oligarchique de former des embryons planétaires bien plus massifs que dans les régions internes. Si cette masse dépasse environ 10 MTerre, alors la force d’attraction de la proto-planète est suffisante pour commencer à accréter le gaz qui l’entoure. Cette accrétion du gaz est tout d’abord progressive: il se forme une atmosphère dense dont la masse augmente linéairement avec le temps. Mais quand la masse de gaz devient comparable à celle du cœur solide au centre, cette atmosphère devient instable et s’effondre. L’accrétion du gaz s’emballe alors extrêmement vite, et permet d’accumuler plusieurs dizaines de masses terrestres en quelques milliers d’années (voir Figure) .Les 3 étapes de ce processus ont des durées très différentes : la phase initiale d’accrétion oligarchique de cœur solide dure 105 ans, l’accrétion progressive de l’enveloppe de gaz se fait sur plusieurs millions d’années, alors que la phase finale d’effondrement et d’accrétion brutale du gaz se fait en quelques milliers d’années seulement.

images/Cours-23-Accretion-Pollack-NEW.png
Evolution de la masse du cœur solide (MZ) , de gaz (MZ), et de la masse totale de Jupiter dans les simulations numériques de Pollack et al., 1996 (Astrophysical Journal)
Crédit : Observatoire de Paris

Les limitations du modèle coeur solide

Comme nous l’avons déjà évoqué, la présence du gaz dans Jupiter et Saturne impose que la formation de ces planètes doit être achevée avant la dispersion du disque gazeux primordial, c’est à dire avant 10 millions d’années dans les hypothèses les plus optimistes (cf. lien) .

Il se trouve que beaucoup de modèles théoriques buttent sur cette contrainte temporelle. L’étape la plus problématique est la formation d’un cœur solide de masse 10 MTerre en moins de 1 millions d’années (sachant qu’ensuite l’étape d’accrétion progressive du gaz va durer plusieurs millions d’années supplémentaires). Avec la nébuleuse solaire de masse minimale, les simulations les plus optimistes arrivent à former un tel cœur solide au niveau de Jupiter, mais en aucun cas au niveau de Saturne, sans parler d’Uranus ou de Neptune. Le problème de Saturne peut certes se résoudre avec un disque massif de 10xMMSN, ce qui n’est pas l’hypothèse la plus générique mais reste une possibilité au vu des observations de disque. En revanche, la formation in-situ d’Uranus et Neptune ne semble pas possible dans le scénario de « cœur solide », même en tirant les paramètres à leurs limites.

Cours-24-Thommes2003.jpg
Simulation numérique montrant l’évolution dans le temps de la masse (en masses terrestres) du plus gros corps formé (ligne en trait plein) à différents endroits de la nébuleuse proto-planétaire solaire (MMSN).
Crédit : E. Thommes, (Astrophysical Journal).

Migration des proto-planètes et planètes

On sait depuis les années 70 qu’une planète immergée dans un disque de gaz interagit dynamiquement avec lui, et que cette interaction peut être suffisante pour significativement faire migrer la planète. Curieusement, ce mécanisme a, dans un premier temps, été largement ignoré dans les modèles de formation planétaire, sans doute parce-que les premières versions de ces modèles n’avaient pas vraiment besoin de migration. La situation a radicalement changé avec la découverte des premières exoplanètes, et en particulier des « Jupiter chauds » très massifs et très près de leur étoile, strictement impossibles à former avec le modèle standard (cf. lien). Par ailleurs, les problèmes rencontrés par le scenario de cœur solide pour former Uranus et Neptune in-situ, ont eux aussi rendu attractive la possibilité d’une migration (cf. page précédente). Aujourd’hui, tous les modèles de formation planétaire prennent en compte la migration, qui est un mécanisme essentiel pour expliquer certaines caractéristiques du système solaire ainsi que nombre d’exoplanètes

Il faut cependant distinguer 2 mécanismes de migration bien distincts : la migration des proto-planètes par interaction avec le disque gazeux primordial, et celle, plus tardive, des planètes avec le disque résiduel de planétésimaux.


Migration dans le disque de gaz primordial

Migration de Type I

Quand une proto-planète atteint une masse comparable à celle de la Terre alors que le disque de gaz est encore présent, elle se met à interagir dynamiquement avec celui-ci. Plus spécifiquement, la planète interagit avec les ondes de densité qu’elle crée dans le disque de gaz. Pour des profils de densité « standard », le bilan de ces interactions est une perte de moment cinétique de la planète, et donc une migration de celle-ci vers l’intérieur. La migration peut alors être très rapide, et faire tomber la planète sur l’étoile en quelques 104 ans seulement ! Ce mécanisme a un seul problème : il est trop efficace ! Comment expliquer que les planètes telluriques de notre système solaire n’aient pas été avalées par le soleil ? Il existe plusieurs solutions à ce paradoxe. La première est que le soleil a bien avalé quantité de proto-planètes telluriques, et que celles que nous voyons aujourd’hui proviennent de plus loin dans le disque et ont migré pour prendre la place laissée vide. Le corollaire est alors bien sur qu’il y avait au départ bien plus de matière solide dans le disque que ce que nous voyons aujourd’hui. Une autre solution est que l’accrétion des proto-planètes telluriques ne s‘achève qu’après la dispersion du disque de gaz. Dans ce cas, pas (ou peu) de migration, car seuls des embryons oligarchiques << M_earth étaient formés quand le disque primordial est encore présent.

Cours-26-typeImig.gif
Migration de Type I pour planète de masse terrestre dans un disque proto-planétaire. On voit que la planète créé des sillons (des ondes de densité) dans le disque, mais n’est pas capable de vider la région autour d’elle.
Crédit : Simulations numériques de Frédéric Masset (CEA).

Migration de Type II

Pour des proto-planètes géantes de plus de 10M_earth, la situation change. Ces objets vont en effet creuser un sillon dans le disque de gaz et vider la région autour d’eux. Une fois ce « trou » créé, l’évolution radiale de la planète est couplée à celle du disque. Or, comme celui-ci spirale lentement vers l’étoile en raison de sa viscosité, la planète va elle-aussi migrer au même rythme. Cette migration régulière est a priori plus lente que celle de type I, et se fait sur une échelle de temps comparable à l’échelle de temps visqueuse du disque. Elle semble cependant inévitable pour toute planète géante en croissance. Et là encore se pose la question : quid des géantes du système solaire ainsi que de toutes les exoplanètes géantes observées à plusieurs UA de leur étoile ? Comment ont elles pu échapper à ce destin fatal ? La réponse pourrait être ici que l’union fait la force. En effet, si une planète migre toujours vers l’intérieur, deux planètes ensembles peuvent elles stopper cette migration, voir même l’inverser à condition que les ouvertures creusées par les 2 planètes se chevauchent et que la planète interne soit 2-4 fois plus grosse que l’autre. C’est ce qui s’est peut-être produit pour le couple Jupiter/Saturne, lors d’un processus migratoire complexe appelé le « Grand Tack » (cf. lien).

Cours-26-typeIImigb.gif
Migration de Type II pour planète de masse 15 M_earth. LA planète est à présent capable de creuser un large vide autour d’elle. Elle « figée » dans le disque et va migrer lentement vers l’intérieur à mesure que le disque spirale vers l’étoile par accrétion visqueuse.
Crédit : Simulations numériques de Frédéric Masset (CEA).

Migration tardive après la dispersion du disque

Les migrations de Type I et II cessent après la dispersion du disque de gaz. Mais les planètes peuvent tout de même continuer à bouger, mais c’est cette fois ci en interagissant avec les planétésimaux résiduels non utilisés dans l’accrétion planétaire. En effet, à la fin de la phase oligarchique, une grande partie de la masse de solides est sans doute toujours sous forme de planétésimaux kilométriques. Les interactions des planètes avec ce disque de planétésimaux peuvent être complexes, car, à la différence du gaz, ceux ci peuvent être perturbés sur des orbites très excentriques, « rebondir » d’une planète à l’autre, voire éjectés du système. On pense que c’est un tel processus d’interaction planétésimaux/planètes qui est à l’origine de la structure actuelle du système solaire externe. C’est en particulier ce jeu de billard planétaire qui aurait placé Uranus et Neptune à leur position actuelle à 20 et 30 UA du soleil, alors que ces planètes se sont sans doute formés beaucoup plus près du soleil. Ceci pourrait résoudre les problèmes rencontrés par le scénario de cœur-solide pour former des planètes géantes loin de leur étoile (cf. lien).

images/Cours-27-Nicemodel.png
Le « modèle de Nice ». Les 4 planètes géantes se forment dans une région compacte en deçà de 15 UA du soleil. Après la dispersion du disque de gaz, elles interagissent avec les petits planétésimaux restant et migrent vers l’intérieur (Jupiter) ou vers l’extérieur (Saturne, Uranus et Neptune). Au bout d’environ 500 millions d’années, les planètes géantes passent par une phase dynamiquement chaotique qui disperse et éjecte quantité de planétésimaux dans le jeune système solaire. C’est cette phase chaotique qui serait à l’origine du Bombardement Massif Tardif (« Late Heavy Bombardment ») de météorites dont la Lune a gardé trace, ainsi que de la formation de la Ceinture de Kuiper au delà de l’orbite de Neptune.
Crédit : Observatoire de Paris

Un scénario alternatif: formation des géantes par instabilité gravitationnelle

Même si, on l’a vu, des pistes existent pour résoudre les problèmes rencontrés par le scénario « cœur solide » pour former Saturne « à temps » ou pour former Uranus et Neptune tout court, certains chercheurs envisagent des solutions plus radicales : abandonner le modèle standard et le remplacer par un scénario alternatif. Ce scénario est celui d’une formation par instabilité gravitationnelle dans le disque protoplanétaire gazeux. Ce disque n’est en effet pas homogène, et, inévitablement, des surdensités (des « grumeaux ») locales peuvent exister. En principe la pression thermique du gaz empêche l’effondrement gravitationnel de ces surdensités, et, de plus, la rotation képlérienne différentielle a tendance à les disperser rapidement. Cependant, si le disque est suffisamment dense et froid, alors ces grumeaux pourraient devenir gravitationnellement instables.

Ce scénario avait tout d’abord été proposé dans les années 70 pour expliquer la formation de toutes les planètes, mais avait rapidement été abandonné pour les planètes telluriques ,car il est très difficile de développer des instabilités dans le disque interne du fait de la forte chaleur et du fort cisaillement képlérien. Dans le disque externe, cependant, les conditions sont plus favorables, car la pression thermique et le cisaillement képlérien y sont moins forts. Des simulations numériques (cf. Image) ont ainsi montré qu’un disque protoplanétaire peut effectivement développer des instabilités locales. L’avantage de la formation par instabilité est qu’elle est en principe extrêmement rapide, de l’ordre de quelques centaines d’années seulement au niveau de l’orbite de Jupiter. Cependant, une grande inconnue subsiste : pour que ces instabilités initiales aillent jusqu’au bout et forment des planètes il faut qu’elles soient capable de se refroidir rapidement à mesure qu’elles se contractent. Or aucune simulation n’a encore prouvé à ce jour que cela était possible. Le scenario par instabilité a cependant connu un très fort regain d’intérêt avec la découverte récente de planètes extrasolaires géantes orbitant très loin, parfois à plus de 100UA, de leur étoile. De telles planètes sont en effet a priori strictement impossibles à former avec le scenario de « cœur solide », alors que le modèle par instabilité devient, lui, plus efficace dans ces régions externes. L’autre alternative étant, bien sur, que ces planètes se soient formées par cœur solide plus à l’intérieur et aient ensuite migrées vers l’extérieur (cf. page précédente).

Cours-28-Rice-DiscinstabilMNRAS.gif
Formation de condensations de matière dans un disque proto-planétairepar instabilité gravitationnelle.
Crédit : Simulations numériques de Ken Rice (University of California)

La formation de la ceinture d’astéroides

Le système solaire ne se résume pas, loin s’en faut, aux planètes. Il est également peuplé d’une quantité innombrable de petits corps, la plupart d’entre eux regroupés dans 2 vastes structures. La plus célèbre est sans aucun doute la ceinture d’astéroïdes située entre Mars et Jupiter. On sait aujourd’hui que cette ceinture n’est probablement pas constituée des débris d’une ancienne planète qui aurait été détruite. On a plutôt affaire à une région où une planète n’a jamais pu se former, très probablement en raison des perturbations de Jupiter. Un point très important est que la masse totale de cette ceinture est très faible par rapport à ce à quoi on pourrait s’attendre dans un disque proto-planétaire ayant formé les planètes telluriques et géantes. Si on prend par exemple la nébuleuse solaire de masse minimale (MMSN), alors on estime qu’il devait y avoir initialement 1000 fois plus de matière solide dans la région des astéroïdes qu’il n’y en a aujourd’hui. Le grand défi de tout modèle de formation est donc d’expliquer comment 99.9% de la masse de la ceinture d’astéroïdes a pu disparaître.

Il n’existe aujourd’hui pas encore de consensus sur comment la ceinture s’est formée. Ce qui est sur est qu’il est impossible que les perturbations dynamiques de Jupiter (du moins, du Jupiter actuel) puissent à elles-seules éjecter autant de matière entre 2 et 4UA. Une solution pourrait être que les perturbations de Jupiter aient agi de manière indirecte, en excitant de gros embryons planétaires formés dans la ceinture, et que ces embryons, une fois placés sur des orbites excentriques, aient perturbés et éjectés l’essentiel des astéroïdes primitifs. Un autre scénario, qui a actuellement le vent en poupe, est celui dit du « Grand Tack ». Ce modèle suppose que les 4 planètes géantes se sont formées plus près du Soleil que leurs positions actuelles, et aient ensuite migré dans le disque. Jupiter aurait tout d’abord migré vers l’intérieur jusqu’à 1.5UA du Soleil (migration type II, voir lien) et éjecté l’essentiel de tous les corps présents dans la région astéroïdale actuelle. Mais une fois que Saturne l’a quasiment rejoint, les interactions entre les 2 planètes géantes vont les refaire migrer vers l’extérieur, destin que vont aussi partager Uranus et Neptune. Dans le chaos dynamique qui s’ensuit alors, des planétésimaux issus des régions externes vont être injectés dans la région <4UA (cf. image). La ceinture d’astéroïde est alors au final peuplée d’un mélange de corps provenant de différentes régions du système solaire, mais sa masse totale reste très faible.

images/Cours-29-GrandTack.png
Formation de la ceinture d’astéroides dans le modèle du « Grand Tack ».
Crédit : Sean Raymond (Université de Bordeaux).

Formation planètaire dans les étoiles binaires

Le scénario de formation planétaire présenté aux pages précédentes suppose implicitement que le disque proto-planétaire et les planètes orbitent autour d’une étoile seule et isolée. Cette configuration pourrait a priori nous sembler la plus « naturelle », mais nous sommes ici fortement biaisés par le cas particulier qui est le nôtre : le système solaire. En réalité, la majorité des étoiles se trouvent dans des systèmes stellaires multiples, le plus souvent des binaires. On connaît aujourd’hui près d’une centaine d’exoplanètes habitant de tels systèmes (cf. Figure), et ce chiffre est sans doute sous-estimé, car les programmes de détection de planètes extrasolaires ont longtemps sciemment évité les systèmes binaires. La question qui se pose ici est, bien entendu, de savoir si la binarité influe sur le processus de formation planétaire, et si oui, comment ?

Pour de nombreuses binaires avec exoplanètes, la séparation entre les 2 étoiles est très grande, parfois plusieurs centaines, voire plusieurs milliers d’UA. Il est probable que, dans ce cas, la présence d’un compagnon stellaire ait eu une influence assez limitée sur l’accrétion de planètes autour de chaque étoile. Mais il existe des exoplanètes dans des binaires ayant des séparations de moins de 100UA, et on recense même 4 planètes dans des binaires séparées d’environ 20UA (cf. Figure). Pour mettre les choses en perspective, c’est comme si, dans le système solaire, on remplaçait Uranus par une étoile plus de 1000 fois plus massive ! Il paraît évident que les perturbations d’une étoile si proche vont fortement affecter la formation planétaire. Et c’est ce qu’ont effectivement montré de nombreuses études théoriques au cours de la dernière décennie. Ces études arrivent même à un résultat assez déconcertant, à savoir qu’il semble impossible de former les exoplanètes des binaires Gamma Cephei, HD196885 et HD40004 avec le modèle standard. Comment expliquer alors l’existence paradoxale de telles planètes ? Est ce que la formation planétaire se fait par un processus différent dans les binaires ? Ou bien est ce que c’est le modèle « standard » lui même qui doit être révisé pour expliquer ces cas « extrêmes »? Ou bien, solution moins radicale, est ce que ces binaires serrées étaient beaucoup plus séparées dans leur jeunesse, permettant alors à la formation planétaire de se faire dans un environnement beaucoup moins perturbé ? Ces questions sont encore loin d’être tranchées et les prochaines années devraient nous apprendre beaucoup sur cette problématique encore relativement recente.

images/Cours-30-PlanBin-graph.png
Structure de tous les systèmes binaires contenant au moins une exoplanète détectée (au 1/1/2014). Le cercle bleu indique la distance de la planète par rapport à l’étoile centrale, et le cercle jaune celle du compagnon stellaire. La taille du cercle bleu est proportionnelle à la masse de la planète. Les petits segments horizontaux traversant les petits cercles indiquent les excursions radiales des planètes et étoiles compagnons dues à l’excentricité de leurs orbites. Le segment vertical noir indique la limite externe de stabilité orbitale autour de l’étoile primaire (toute orbite au delà de cette limite est instable en raison des perturnations de l’étoile secondaire).
Crédit : Philippe Thebault.

Comprendre

Auteur: Philippe Thébault

Datation Radio-Isotopique


Datation radio-isotopique: Principe

Certains noyaux atomiques, appelés radioisotopes, sont naturellement instables et peuvent spontanément se désintégrer en noyaux moins massifs et stables, libérant de l’énergie sous forme de rayonnement. La décroissance du nombre N d’un type de radioisotopes {}^{p}A en un élément {}^{q}B suit une décroissance exponentielle d*N/dt prop-lambda*N . Où la quantité t_{1/2} = ln(2)/\lambda est le temps de demi-vie caractéristique de l’élément. Dans le cas le plus simple où aucun élément B n’est présent initialement le temps t peut être trouvé directement par le rapport B/A. Mais en réalité les choses ne sont jamais aussi simples, et ce pour au moins 2 raisons :

1) Il y a a priori toujours du {}^{q}B présent à t=0 ou, du moins, il est impossible d’exclure cette présence. Et on ne connait pas a priori cette quantité initiale de {}^{q}B

2) l’isotope {}^{q}B n’est souvent pas le seul possible pour l’élément B, qui peut également exister sous la forme {}^{q'}B, ce qui peut fortement compliquer les choses. En effet, dans un matériau à l'état gazeux ou liquide, les isotopes {}^{q}B et {}^{q'}B vont naturellement s'équilibrer entre eux à une valeur d'équilibre. En conséquence, dès qu'un matériau fond ou fusionne, toute information sur la quantité d'isotope {}^{q}B produite par désintégration de {}^{p}A va être perdue par cette mise à l'équilibre isotopique (autrement dit, toute fusion est un "reset" des isotopes de B).

Ceci va rendre la datation plus compliquée, mais elle reste néanmoins possible, du moins pour remonter jusqu'au moment de la dernière condensation du matériau. On peut grosso-modo distinguer 2 types de datation : datation absolue et datation relative.


Datation absolue

La désintégration de {}^{238}U en {}^{206}Pb a un temps de ½ vie de 4.47 109 ans, idéal pour mesurer l’âge des plus anciens corps du système solaire. Mais {}^{206}Pb n’est pas l’isotope naturel du Pb, qui est {}^{204}Pb. On obtient alors la relation suivante, liant les abondances de {}^{238}U, {}^{206}Pb et {}^{204}Pb:

\left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_P = \left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_I + \left (\frac{{}^{238}U}{{}^{204}Pb} \right )_I  \left ( 1- e^{-\lambda_{238}t}  \right )

= \left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_I + \left (\frac{{}^{238}U}{{}^{204}Pb} \right )_{P}  \left ( e^{\lambda_{238}t} -1  \right )

où les indices P et I se réfèrent aux abondances actuelles et initiales, respectivement. Le moment "initial" correspond à l'instant où l'objet en question s'est solidifié pour la dernière fois. En effet, dès que le corps fond ou se sublime en gaz, les proportions des 2 isotopes {}^{206}Pb et {}^{204}Pb s'équilibrent rapidement à leur proportion "naturelle" et toute information sur la désintégration de {}^{238}U est perdue (voir page précédente ). A cet instant initial le rapport {}^{206}Pb/{}^{204}Pb est donc égal à la valeur d'équilibre. En revanche, une fois le corps solidifié, un excès de l'isotope {}^{206}P va petit à petit se créer à mesure que {}^{238}U se désintègre. La variable inconnue est ici la quantité initiale absolue de {}^{206}Pb (ou de {}^{204}Pb), que l'on ne connaît pas a priori. Heureusement, il existe un deuxième type de désintégration d’U en Pb, la réaction {}^{235}U \Rightarrow {}^{207}Pb , dont le temps de vie est de 704 106 ans, et qui va nous permettre de contraindre les abondances initiales. Les équations sont alors:

\left (\frac{{}^{207}Pb}{{}^{204}Pb} \right )_P = \left (\frac{{}^{207}Pb}{{}^{204}Pb} \right )_I + \left (\frac{{}^{235}U}{{}^{204}Pb} \right )_P  \left (e^{\lambda_{235}t} -1 \right )

\left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_P = \left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_I + \left (\frac{{}^{238}U}{{}^{204}Pb} \right )_P  \left (e^{\lambda_{238}t} -1 \right )

Et donc: F = \left [\frac{\left (\frac{{}^{207}Pb}{{}^{204}Pb} \right )_P -\left (\frac{{}^{207}Pb}{{}^{204}Pb} \right )_I }{ \left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_P - \left (\frac{{}^{206}Pb}{{}^{204}Pb} \right )_I} \right ]=\left ( \frac{1}{137.88} \right )\left ( \frac{e^{\lambda {}_{235}t} -1}{e^{\lambda {}_{238}t} -1} \right )

où 137.88 est la valeur présente de \frac{{}^{238}U}{{}^{235}U}, qui est une constante globale du système solaire actuel, et \lambda_{235}= \ln(2) / \tau_{235}, \lambda_{238}= \ln(2) / \tau_{238}. Cette relation est directement exploitable pour toute météorite non-homogène initialement, mais dont tous les composants se sont formés à la même époque. En effet, dans ce cas, les rapports initiaux {}^{206}Pb/{}^{204}Pb et ^{207}Pb/{}^{204}Pb sont les mêmes partout dans la météorite et sont égaux à leurs valeurs d'équilibre (indiquées par a0 et b0 sur la figure). Par conséquent, dans un graphe {}^{206}Pb/{}^{204}Pb vs. ^{207}Pb/{}^{204}Pb , toutes les mesures du rapport F doivent se situer une même droite, appelée isochrone, dont la pente va directement donner l’âge de la météorite (cf. Figure).

images/Approfondissement-1-Pb-Pb.png
Isochrone isotopique construite à partir des abondances actuelles relatives de 207Pb, 206Pb et 204Pb en différents endroits d’une même météorite
Crédit : Observatoire de Paris

Datation relative

La désintégration radioactive permet également de dater des corps même bien après la disparition des radionucléotides concernés (c'est à dire bien au delà du temps de 1/2-vie de la désintégration concernée). C’est le cas par exemple de la désintégration {}^{26}Al \Rightarrow{}^{26}Mg, dont le temps de ½ vie est de « seulement » 720 000ans. Notons que ni {}^{26}Al, ni {}^{24}Mg ne sont des isotopes naturels de leurs éléments, qui sont, respectivement, {}^{27}Al et {}^{24}Mg. A la différence de la désintégration d’{}^{238}U, il n’existe aujourd’hui plus de {}^{26}Al que l’on puisse mesurer. En principe, on a donc :

({}^{26}Mg)_P=({}^{26}Mg)_I+({}^{26}Al)_I

Cette équation n’est pas d’une grande aide en elle-même, mais, comme pour la datation absolue, on peut tirer parti de la non-homogénéité d’une météorite donnée. Si en effet deux endroits de cette météorite avaient initialement des teneurs totales en Al (tous isotopes confondus) différentes, mais que la proportion de \frac{{}^{26}Al}{{}^{27}Al} était, elle, la même, alors l’excès de {}^{26}Mg ne sera aujourd’hui pas partout le même, et cet excès sera relié à l’abondance actuelle locale de \frac{{}^{27}Al}{{}^{24}Mg} par la relation :

\left ( \frac{{}^{26}Mg}{{}^{24}Mg} \right)_P = \left ( \frac{{}^{26}Mg}{{}^{24}Mg} \right)_I + \left ( \frac{{}^{26}Al}{{}^{27}Al} \right)_I + \left ( \frac{{}^{27}Al}{{}^{24}Mg} \right)_P

Les mesures de \frac{{}^{26}Mg}{{}^{24}Mg} et \frac{{}^{27}Al}{{}^{24}Mg} en différents endroits de la météorite vont alors tracer une isochrone dont la pente donnera la teneur initiale en \frac{{}^{26}Al}{{}^{27}Al} (voir Figure).

Maintenant, si on compare les teneurs initiales de \frac{{}^{26}Al}{{}^{27}Al} obtenus pour différentes météorites, on peut obtenir une datation relative des temps de formation de ces météorites. En effet, étant donné le temps de vie très court de {}^{26}Al, sa teneur par rapport à {}^{27}Al pourra être très différente suivant l’instant où la météorite s’est formée. Si on compare les valeurs \left (\frac{{}^{26}Al}{{}^{27}Al} \right )_Idans 2 météorites différentes, on obtient ainsi la datation relative de leur formation par la formule:

\left (\frac{{}^{26}Al}{{}^{27}Al} \right)_I^1 = \left (\frac{{}^{26}Al}{{}^{27}Al} \right)_I^2 e^{-\lambda(t_1- t_2)}

t_1 et t_2 sont les instants de formation des 2 météorites, et \lambda est le taux de désintégration de la réaction {}^{26}Al \Rightarrow {}^{26}Mg

Il faut cependant ici bien faire attention à deux points très importants :

  1. ces mesures relatives ne sont possibles que si {}^{26}Al était uniformément distribué dans la nébuleuse initiale. Les dernières recherches semblent cependant montrer que tel était bien le cas. 
  2. la fraction de \left (\frac{{}^{26}Al}{{}^{27}Al} \right )_{0} estimée correspond à ce qu’elle était au moment de la dernière condensation de l’objet. En effet, quand le corps est dans un état fluide (gaz, liquide), les abondances de {}^{26}Mg et {}^{24}Mg se ré-équilibrent automatiquement à leurs proportions « naturelles » et tout excès antérieur de {}^{26}Mg est effacé. Autrement dit, le chronomètre isotopique se « reset » lors de tout épisode de très forte température.
images/Approfondissement-1-Al-Mg-Alliende.png
Isochrone obtenue à partir des abondances actuelles des différents isotopes de Mg et Al dans la météorite carbonée « Alliende »
Crédit : Observatoire de Paris

La barrière du mètre

Comme nous l’avons vu (cf. lien), une des étapes les plus délicates du scénario standard de formation planétaire est celle qui fait passer des premières poussières condensées dans la nébuleuse aux planétésimaux kilométriques. La principale difficulté étant atteinte pour des corps de 10cm-1m, pour lesquels les vitesses de collision deviennent trop élevées pour permettre l’accrétion, et qui vont de plus avoir un mouvement de dérive très rapide vers l’étoile centrale. Ces deux problèmes sont tous deux liés à l’action du gaz sur les corps solides. En effet, toute particule solide plongée dans un milieu gazeux subit la friction de ce gaz, qui va être proportionnelle à la surface de contact entre le gaz et l’objet. Cette friction peut ainsi s’exprimer sous la forme

F \propto K\sigma\Delta_V

\Sigma est la section efficace du corps ( \pi r^2) et \Delta_V la différence de vitesse entre le gaz et la particule. Si maintenant on applique le principe fondamental de la dynamique, on obtient que l’accélération a due au gaz vaut:

a=\frac{1}{M}K\sigma\Delta_V \propto \frac{1}{r}\Delta_V(r)

On pourrait a priori se dire que, dans le cas présent, \Delta_V est nul car aussi bien le gaz que les corps solides orbitent autour de l’étoile suivant les mêmes lois de Kepler, et donc en principe à la même vitesse orbitale v_{kep}=(GM/R)^{1/2}. Mais il y a en fait une différence, car le gaz est lui, en plus, soumis à une force de pression due au gradient de température et de densité dans la nébuleuse. Dans un disque proto-planétaire de type MMSN, cette force de pression s’exerce de l’intérieur vers l’extérieur et tend donc à contrebalancer la gravitation de l’étoile. Tout se passe donc comme si le gaz « percevait » une étoile de masse \beta M_* < M_* et aura donc une vitesse Képlérienne v_{kep'} inférieure au v_{kep} d’un corps solide orbitant dans la vide. On dit alors que le disque de gaz est « sub-Képlérien ».

Le comportement de corps solides plongés dans ce disque de gaz est alors compris entre 2 extrêmes : les particules les plus petites (<mm) sont piégées dans le gaz et bougent avec lui, et on a dans ce cas \Delta_V= 0 et donc a=0. A l’autre extrême, les planétésimaux très massifs sont, eux, découplés du gaz et subissent de la friction, mais ne vont pas beaucoup en pâtir car le rapport \frac{1}{r} est tout petit et ils vont donc être très difficile à bouger par le gaz. Donc la aussi a=0. Entre ces 2 extrêmes, il existe un régime intermédiaire avec des corps suffisamment gros pour être découplés du gaz ( \Delta_V > 0) mais pas suffisamment massifs pour être insensibles à la friction. Ce régime de taille intermédiaire se situe autour de 10cm-1m. Pour des corps de cette taille l’effet de la friction gazeuse est maximal (cf. image). Et comme v_{kep}(gaz) < V_{kep}, cette friction aura tendance à ralentir les corps solides et à les faire dériver vers l’étoile. Cette vitesse de dérive peut atteindre plus de 50m/s, ce qui correspond à 1UA en moins de 100ans !

images/Approfondissement-2-meter.png
Vitesse de dérive radiale (en cm/s) vers l’étoile centrale, en fonction de taille des corps solides présents dans la nébuleuse protoplanétaire de type MMSN. On voit très clairement qu’un pic est atteint pour des corps proches de la taille du mètre.
Crédit : Observatoire de Paris

Dynamique d'un disque de planétésimaux

Une population de planétésimaux orbitant le soleil ne pourra former des corps plus massifs que si les vitesses de rencontres mutuelles \Delta V_{coll} sont, pour une fraction importante de ces rencontres, inférieures à \beta V_{lib} ; où V_{lib} est la vitesse de libération à la surface de 2 planétésimaux en collision et \beta<1 un paramètre prenant en compte la dispersion d’énergie lors de l’impact. Toute la question est alors de savoir si, effectivement, ce critère \Delta V_{coll} < \beta V_{lib} va être rempli dans un disque de planétésimaux kilométriques laissé à lui même.

L’état dynamique d’un tel disque va dépendre de l’équilibre entre plusieurs mécanismes: la gravité mutuelle des planétésimaux, la force de friction du gaz primordial toujours présent à ce stade, la dissipation d’énergie lors des collisions physiques, et, bien sur, la gravité de l’étoile autour de laquelle tous les corps orbitent. Si on fait l’hypothèse simplificatrice que tous les planétésimaux ont la même taille r, alors on peut montrer que le disque va tendre vers un état stationnaire où les vitesses de rencontres vont en moyenne être de l’ordre de V_{lib}(r). Si en effet \Delta V_{coll} \ll V_{lib}, alors les déflections gravitationnelles lors de rencontres proches vont automatiquement augmenter \Delta V_{coll}. Et si, à l’inverse, \Delta V_{coll} \gg V_{eva}, alors la dissipation d’énergie cinétique lors des collisions va être très forte et fera diminuer \Delta V_{coll} . Cet équilibre autour de \Delta V_{coll} = V_{lib} est plutôt une bonne nouvelle, car il entraine qu’une fraction des collisions vont effectivement permettre l’accrétion des corps (sachant qu’il y aura toujours une dispersion des vitesses de collision autour leur valeur moyenne).

Sachant que tous ces corps sont en orbite autour d’une étoile, par exemple le Soleil, les vitesses relatives de collisions vont être directement liées à l’excentricité (et à leur inclinaison si on est en 3D) de leurs orbites : plus les orbites sont excentriques, plus \Delta V_{coll} augmente, plus elles sont circulaires, plus \Delta V_{coll} tend vers zero. Pour de petites excentricités, à l’ordre zero on peut écrire que

\Delta V_{coll} \sim eV_{kep}

Il faut réaliser que, pour des planétésimaux kilométriques, on a affaire à des vitesses très faibles, car les V_{lib} de tels corps sont de l’ordre de quelques mètres par seconde seulement. Ceci se traduit par des excentricités orbitales très faibles, de l’ordre de 0.0001 ! (cf. exercice).


Accrétion «Boule de neige»

Si tous les planétésimaux du disque avaient exactement la même taille r et grandissaient tous à la même vitesse, alors leur taux de croissance serait égal à \frac{dm}{dt} = \pi (r+r)^2 \sigma   \frac{V}{h} dt\sigma est la densité surfacique de planétésimaux, V leur vitesse relative de collision et h l’épaisseur du disque. Si on fait l’approximation raisonnable que V \sim e V_{kep} (cf. page précédente) et que h = i a (a, distance à l’étoile et e excentricité moyenne de l’orbite des planétésimaux), alors on obtient \frac{dm}{dt} = 4 \pi r^2 \sigma \frac{e}{i} \Omega_k avec \Omega_k = \frac{V_{kep}}{a}, vitesse angulaire Keplerienne. On trouve alors que \frac{dr}{dt} = cste, et que la croissance en taille est linéaire avec le temps. Pour une MMSN à 1UA on trouve qu’il faut alors quelques 106 ans pour former un corps de 1000km (cf. EXERCICE)

Mais il semble qu’en réalité l’accrétion suive un chemin beaucoup plus rapide et efficace, mais très sélectif, appelé accrétion « boule de neige ». Il est en effet plus que probable que, dans tout disque réel, toutes les tailles ne sont pas identiques et que, localement, certains planétésimaux soient, par hasard, légèrement plus grands (de taille r_1>r) que ceux qui les entourent. De ce fait, ils ont une vitesse de libération V_{lib}(r_1) supérieure à celle des corps environnants. En conséquence, ils vont légèrement infléchir la trajectoire des autres corps vers eux. On peut paramétriser cette déflection en considérant que le corps r_1 a une section efficace « effective » \sigma_{grav} plus grande que sa simple section efficace géométrique \pi r_1^2. On a alors

\Sigma = \pi (r_1+r)^2 \left [ 1+ \left (\frac{V_{lib}(r_1,r)}{\Delta V} \right )^ 2\right ]

\left (1+ \left (\frac{V_{lib}(r_1,r)}{\Delta V} \right )^ 2 \right ) est appelé le terme de « focalisation gravitationnelle ». Du fait de cette surface efficace« dilatée », le corps r_1 va croître plus vite que les autres. Le rapport \frac{r_1}{r} va donc augmenter, ce qui a pour effet d’encore augmenter la focalisation gravitationnelle, et donc le taux de croissance de r_1, et ainsi de suite. La croissance de ce corps initialement légèrement privilégié va donc rapidement s’emballer.

images/Approfondissement-4-Runaway.png
Accrétion boule de neige : un corps initialement plus gros que les planétésimaux qui l‘entourent va légèrement infléchir la trajectoire de ceux-ci vers lui (Figure A). De ce fait, il va croître plus rapidement que les corps qui l’entourent, ce qui va encore accentuer sa tendance à infléchir vers lui l’orbite de ceux-ci (Figure B). Le processus s’auto-amplifie de lui même et conduit à la formation rapide d’un embryon planétaire alors que la majorité des autres planétésimaux n’a pas accrété de matière (Figure C).
Crédit : Philippe Thebault

Photo-évaporation et dispersion du gaz

L’un des moyens les plus efficaces pour disperser le disque de gaz en moins de 10 millions d’années (voir la page de cours) est le couplage entre (l'accrétion visqueuse du disque) et la photo-évaporation du gaz. Ce dernier mécanisme est la conséquence de l’effet du rayonnement ultra-violet (UV) de l’étoile sur les molécules de gaz, essentiellement H et He. L’interaction des photons UV va en effet chauffer le gaz, c’est à dire lui donner une plus grande agitation thermique, et si cette vitesse d’agitation thermique dépasse la vitesse Képlerienne locale, alors le gaz est éjecté. Comme V_{kep} est \propto a^{-0.5} mais que l’énergie transportée par un photon UV ne diminue pas avec la distance à l’étoile, ce sont les molécules des régions extérieures qui seront le plus facilement éjectées lors d’interaction photon-gaz (mais le flux de photon, et donc le taux d’interaction avec le gaz, va, lui, diminuer avec a). On peut ainsi calculer qu’il existe un rayon critique, appelée r_g, au delà duquel l’énergie déposée par photo-évaporation dépasse l’énergie orbitale :

r_g = \frac{(\gamma -1)}{2\gamma} \frac{GM \mu}{K_B T} \approx 1.4 \frac{M/M_{\odot}}{T/10^4 K} AU

T est la température du gaz par suite de l’interaction avec un photon, \mu est le poids atomique moyen du gaz,K_B la constante de Boltzman, \gamma le ratio des chaleurs spécifiques (5/3 pour un gaz mono-atomique), G la constante gravitationnelle et M la masse de l’étoile. Dans les faits, à cause de la rotation du gaz, le rayon critique de dispersion est plutôt égal à r_{cr} \sim 0.2 r_g. Pour un rayonnement UV typique, on a T \sim 10^4 K. Pour une étoile de type solaire et un disque de type MMSN , on obtient alors r_{cr} = 2 \verb?UA?.

Cependant, tant que le disque est très dense, à la distance r_{cr} le flux de matière  \dot{M_{acc}} vers l’intérieur du disque dû à la viscosité est supérieur au flux de matière M_w éjecté par photo-évaporation (cf. IMAGE, CASE 1). Mais à mesure que la masse du disque diminue par accrétion sur l’étoile, \dot{M_{acc}} va décroître, jusqu’à ce qu’on atteigne le point où \dot{M_{acc}}(r_{cr}) = M_w(r). A partir de ce moment, la matière gazeuse au-delà de r_{cr} est éjectée du système avant de pouvoir franchir la frontière r_{cr} pour se mettre « à l’abri ». Une ouverture est alors créée dans le disque, qui se retrouve coupé en deux. La partie interne du disque est protégée de la photo-évaporation, mais est tellement petite (<2UA) qu’elle va très rapidement être accrétée sur l’étoile (alors qu’auparavant le flux de matière spirallant sur l’étoile était compensé par de la matière venant de plus loin dans le disque). La partie externe du disque va elle se disperser progressivement de l’intérieur (r_{cr}) vers l’extérieur. Les modèles numériques indiquent que la troncature du disque se fait au niveau de r_{cr} sur une échelle de quelques millions d’années, tandis que la dispersion qui s’en suit est beaucoup plus rapide, quelques 105 ans peut-être.

images/Approfondissement-5-PHOTOEVAP.png
Différentes étapes du processus de dispersion d’un disque proto-planétaire gazeux par photoevaporation et accrétion visqueuse du disque.
Crédit : Observatoire de Paris

Se tester

Auteur: Philippe Thébault

Datation de la météorite «Allende»

exerciceDatation de la météorite «Allende»

La météorite dite « Allende », tombée en 1969 au Mexique, est probablement la météorite la plus étudiée de toute l’histoire. Elle est le représentant archétypal des chondrites carbonées, qui sont parmi les corps les plus primitifs du système solaire (cf. lien). Elle a de ce fait fortement contribué à faire connaître l’âge de notre système solaire à une très grande précision. La méthode utilisée pour cette datation se base sur la désintégration U-Pb et sur la mesure des abondances relatives des différents isotopes du plomb.

Question 1)

La Figure présente les différentes mesures isotopiques effectuées en différents endroits de la météorite. En vous basant sur ce graphe, essayez d’estimer l’âge « d’Allende » en utilisant les formules présentées au chapitre «Comprendre ». Attention: Les fractions isotopiques reportées sur le graphe ne sont pas forcément celles de la formule présentée dans le cours.

exo1-datation-allende.png


Reconstruire la nébuleuse solaire de masse minimale (MMSN)

exerciceReconstruire la nébuleuse solaire de masse minimale (MMSN)

La MMSN est une entité théorique qui permet d’avoir une idée de la structure initiale du disque proto-planétaire qui a formé les planètes du système solaire, en faisant l’hypothèse que celles-ci se sont, en gros, formées à leur emplacement actuel (cf. cours).

Question 1)

A partir de la masse et de la composition actuelle des 8 planètes du système solaire, donner une estimation de la distribution radiale de la matière solide (roches+ glaces) dans la MMSN. Pour cela on peut supposer que la masse solide de toutes les planètes était initialement repartie dans un disque continu s’étendant de l’orbite de Mercure à celle de Neptune. L'information que l'on cherche est alors quelle est la densité surfacique de matière (par exemple en kg/m2) dans ce disque en fonction de la distance radiale r au soleil. Il peut ensuite être intéressant de tracer un graphe représentant (r).

Attention: si pour les planètes telluriques la masse solide de ces planètes peut-être considérée comme étant égale à leur masse totale, il n'en va pas de même pour les planètes géantes (qui contiennent également beaucoup de gaz). La masse totale de matière solide (roche+glaces) contenue dans les planètes géantes n'est pas connue avec une grande précision, mais on pourra prendre les fourchettes suivantes:

Jupiter: entre 10 et 45 MTerre de matière solide

Saturne: entre 20 et 30MTerre de matière solide

Uranus: entre 9 et 13 MTerre de matière solide

Jupiter: entre 12 et 16 MTerre de matière solide


Estimation de la vitesse de libération d'un planétésimal

exerciceEstimation de la vitesse de libération d'un planétésimal

Question 1)

Donner la vitesse de libération vlib à la surface d’un planétésimal de taille R et de densité ρ, en supposant, pour simplifier, que celui-ci a une forme sphérique.

Application numérique : donner vlib pour un corps de 1km, pour un corps de 100km, pour la Terre, et pour Jupiter.


Croissance «ordonnée» d'une population de planétésimaux

exerciceCroissance «ordonnée» d'une population de planétésimaux

Comme nous l’avons vu (cf. lien1 et lien2 ), l’étape intermédiaire dans le scénario de formation planétaire est celle qui fait passer de planétésimaux kilométriques à des « embryons » planétaires de 500-1000km. Lors de cette étape, le processus fondamental est l’attraction gravitationelle mutuelle des planétésimaux lors de leurs rencontres. Dans sa version initiale, le modèle d’accrétion des planétésimaux supposait que ceux-ci croissent de manière « ordonnée », c’est à dire tous ensemble et à la même vitesse. Même si on sait qu’aujourd’hui ce scénario ne correspond pas à la réalité (l’accrétion se faisant par effet « boule de neige » bien plus rapide), il est quand même intéressant d’avoir une idée du rythme de croissance pour cette croissance « ordonnée ».

Question 1)

Pouvez vous ainsi estimer le temps qu’il faut pour former des corps de 1000km à partir d’une population de corps de 1km ? On supposera que :

  1. On se situe à 1UA dans une Nébuleuse Solaire de Masse Minimale (cf. cours et Exercice 2).
  2. Le disque de planétésimaux est toujours à l’équilibre dynamique, à savoir que les vitesses de rencontres V_{col} sont de l’ordre des vitesses de libération V_{lib} (attention : V_{lib} va donc évoluer au cours du temps, car cette vitesse est directement proportionnelle à la taille des planétésimaux)
  3. Les orbites des planétésimaux sont orientées de manière totalement aléatoire. V_{col} peut alors facilement s’exprimer en fonction de l’excentricité des orbites (voir cours).
  4. Il y a « équipartition » entre les composantes planes et verticales des orbites des planétésimaux, c’est à dire concrètement que leur inclinaison i = ½ e.
  5. Chaque rencontre entre planétésimaux se traduit par l’accrétion de ces corps l’un sur l’autre
  6. Tous les planétésimaux grandissent ensemble et au même rythme, c’est à dire qu’à tout instant ils ont tous la même taille
  7. Dans la MMSN, la densité surfacique de matière solide à 1UA est σ 10g/cm2
  8. La densité massique d'un planétésimal est comparable à celle d'un astéoïde, soit environ 3g/cm3


Vidage de la zone d'alimentation des embryons

exerciceVidage de la zone d'alimentation des embryons

Les phases d’accrétion boule-de-neige puis oligarchique produisent in fine un seul corps dominant (un « embryon ») à chaque distance radiale de l’étoile centrale (cf. cours « Accretion boule de neige », « Oligarchique » et « épuisement des ressources »). Un tel corps grossit en accrétant des petits planétésimaux et débris contenus dans sa « zone d’alimentation », c’est à dire un anneau radial à l’intérieur duquel tout corps aura une orbite croisant celle du corps dominant en raison de la focalisation gravitationnelle vers celui-ci (cf. lien). Pour un corps massif, la largeur de cette zone d’alimentation est environ égale à 3R_{Hill} de chaque côté de l'orbite de la planète, où R_(Hill)=R*(M_(emb)/(3*M_soleil))^(1/3) est le rayon de Hill correspondant à la « sphère d’influence » gravitationnelle du corps.

Question 1)

A) Montrer que la croissance par accrétion sur l’embryon va forcément finir par s’arrêter, car l’élargissement de la zone d’alimentation est plus lent que la croissance de l’embryon.

B) Estimer, pour une MMSN à 1UA du soleil, quelle est approximativement la masse atteinte par un embryon au moment où sa zone d’alimentation est vidée.


Projet

Auteur: Philippe Thébault

Projet

Auteur: Philippe Thébault

Caractéristiques des exoplanètes dans les systèmes binaires

Contexte

Plus de 80 exoplanètes ont été découvertes dans des systèmes binaires, et ce chiffre est sans doute sous estimé car de nombreux programmes d’observations excluent les binaires de leur échantillon d’étoiles. Le processus de formation de planètes dans un tel environnement, forcément très perturbé, est une question encore non-résolue à ce jour (voir lien). On peut cependant essayer d’avoir une idée de l’effet que peut avoir la binarité en regardant de plus près à quoi ressemblent les exoplanètes découvertes à ce jour dans de tels systèmes. Ressemblent elles aux autres exoplanètes ou bien ont elles des caractéristiques propres? Ce petit projet se propose d’étudier cette question en utilisant la base de données du site « Exoplanètes » pour regarder si la distribution des masses et des orbites des exoplanètes dans les binaires diffère de celles des autres exoplanètes.

Outils

Travail à effectuer

Nous nous intéresserons ici aux planètes orbitant l’une des 2 étoiles d’un système binaire, et non pas celles orbitant autour des 2 étoiles (planètes « circumbinaires »). Nous éliminerons par ailleurs les binaires trop « séparées », pour lesquelles la distance d entre les 2 étoiles est supérieure à 300 UA (valeur arbitraire mais au delà de laquelle on peut raisonnablement penser que le compagnon stellaire a peu d’effet sur la formation d’une planète autour de l’étoile primaire). Le travail se fera alors en 5 étapes :

  1. Aller dans la partie « Base de données : Diagrammes » du site « Exoplanètes ». Par défaut, le site va alors afficher la distribution (m, a), où m est la masse de la planète et a le demi-grand de son orbite, de toutes les exoplanètes connues à ce jour. Sauver et/ou imprimer ce graphe, qui va nous servir de référence.
  2. Etablir ensuite à la main, sur le site « Binary catalogue of exoplanets », la liste des système binaires avec d<300UA
  3. Aller maintenant dans le catalogue de la Base de données du site « Exoplanètes » et sélectionner dans ce catalogue toutes les exoplanètes répertoriées à l’étape 2. Pour cela, il suffit de cocher le petit « carré » au début de la ligne correspondant à la planète désirée. Pour sauvegarder cette liste, cliquer ensuite sur « Cocher la Liste Sélectionnée ».
  4. Maintenant, retourner sur la page « Diagrammes » et produire le graphe (m, a) pour ce sous-groupe des exoplanètes dans les binaires. Pour cela, cliquer dans la case « Echantillons » (tout en bas) et y insérer la sélection effectuée à l’étape 3 en faisant simplement CTRL-V (ou CMD-V sur Mac) dans la case.
  5. Comparer maintenant ce graphe à celui correspondant à l’ensemble de la population exoplanétaire. Pouvez vous y discerner certaines tendances, et si oui, lesquelles ?

Structures planétaires


Structures et environnement des planètes

Ces chapitres présentent la structure des planètes et autres objets des systèmes planétaire,


Surfaces planétaires

Auteur: Alice Le Gall

Découvrir

Auteur: Alice Le Gall

Surfaces planétaires

Plusieurs processus sont à l'oeuvre à la surface des planètes et petits corps du Système Solaire. Leur nature, intensité et conséquence varient principalement en fonction de la composition de la surface (silicatée/glacée), de sa distance à l’étoile et la présence ou non d’une atmosphère. Si le corps planétaire est actif, il peut régulièrement faire « peau neuve » (par volcanisme notamment) alors qu’un corps mort est condamné à voir sa surface se dégrader, parfois lentement mais toujours sûrement.

Dans ce qui suit, nous décrirons les principaux processus qui façonnent les surfaces planétaires, à savoir :


Cratérisation des surfaces

Les cratères d’impact sont des dépressions de surface, généralement circulaires, résultant de l’impact de fragments solides d’origine météoritique ou cométaire. Ils sont présents sur quasiment toutes les surfaces planétaires solides du système solaire et la cratérisation représente la principale cause d’altération des surfaces des corps dépourvus d’atmosphère (excepté pour Io et Europe). Les impacts sont aussi le principal mécanisme d’apport et d’excavation de matériel planétaire ; certaines planètes ou satellites se sont formés par agrégation après collision (la Lune, par exemple) ; les volatiles, océans et atmosphères, présents sur certains corps ont sans doute été apportés par des objects impacteurs (en l’occurrence des comètes).

L’étude des cratères est intéressante à plus d’un titre. Leur forme et leur taille renseignent sur la nature (composition, résistance, stratifications, porosité) des surfaces planétaires cibles, de leurs impacteurs et les propriétés d’une éventuelle atmosphère. Leur distribution informe sur l’âge des surfaces planétaires et apporte des clés dans la compréhension de leur histoire d’autant que les impacts peuvent être à l’origine d’évènements importants voire catastrophiques (formation de la Lune, extinction des dinosaures sur Terre il y a 65 millions d’années…), les plus larges ayant même pu modifier les paramètres orbitaux de certains corps. Les études statistiques des cratères fournissent aussi des informations sur la population des corps impacteurs du système solaire qui sont ce qui reste des planétésimaux de l’accrétion planétaire et donc, à ce titre, des objets très primitifs, témoins privilégiés de la jeunesse du système solaire.

Zoom: Bestiaire de cratères

Bestiaire de cratères
Crater1.png
Crédit : ALG

Ce bestiaire de cratères illustre la variété en termes de forme et d’échelle des cratères planétaires. La morphologie des cratères dépend avant tout de leur taille. Les plus petits d’entre eux, les cratères simples, présentent une forme en bol, avec des bords surélevés. La majorité des cratères lunaires ayant un diamètre inférieur à 15 km sont de ce type. Au delà de ce diamètre, ils présentent un pic central avec éventuellement des terrasses et des dépôts et sont dits complexes. Les cratères complexes sont moins profonds que les cratères simples. Le diamètre de transition entre ces deux types de cratères varie de façon inversement proportionnelle à la gravité de la planète : un pic central apparaît dans les cratères martiens dont la taille est supérieure à 10 km alors que sur Terre, les pics apparaissent dès que les cratères ont un diamètre supérieur à 2-3 km. Dans les cas d’impacts plus gros, le pic central est remplacé par un anneau montagneux voire par des anneaux multiples si le diamètre augmente encore. Une partie des matériaux excavés par l’impact peut, après avoir parcouru une trajectoire balistique, retomber et provoquer la création de cratères secondaires, à proximité du cratère principal. Enfin, si l’impact est suffisamment puissant pour percer la croûte et provoquer des épanchements, on parle de bassins d'impact. Le bassin d'Hellas sur Mars (plus de 2000 km de diamètre) est sans doute le plus grand bassin d'impact du système solaire. Avec le temps, l’érosion ou encore les mouvements du sol altèrent les cratères dont nous n’observons finalement qu’une forme dégradée.


Altération des surfaces sans atmosphère

Les corps qui ne sont pas protégés par une atmosphère (Mercure, Lune, astéroïdes, satellites glacés du système extérieur…) sont directement et constamment exposés aux rayons d’origine solaire et galactique ainsi qu’au bombardement micro-météoritique. Ils subissent, de plus, de grandes variations de température. Ces différents phénomènes dégradent progressivement leur surface, généralement caractérisée par une couche superficielle très poreuse appelée régolithe.

Zoom: Les régolithes planétaires

Régolithes planétaires
regolithes.png
Crédit : ALG

La notion de régolithe est large ; elle désigne « tout matériel d’origine continentale, quel qu’en soit l’âge, recouvrant les roches saines et dures ». Cependant, en planétologie, on l’utilise généralement pour évoquer la couche de poussière, rocheuse ou glacée, recouvrant la surface de corps solides dépourvu d’atmosphère protectrice (Mercure, la Lune, les satellites de Mars, tous les satellites du système extérieur sauf Titan, les astéroïdes et, dans une moindre mesure, Mars et les comètes).

Les régolithes planétaires sont d’abord créés par impacts météoritiques (voir chapitre Cratérisation des surfaces) puis évoluent sous l’effet de l’érosion spatiale (ou « space weathering » en anglais) c’est-à-dire des effets combinés du bombardement micro-météoritique, de la collision des rayons cosmiques d’origine solaire ou galactique ou encore de l’irradiation et de la pulvérisation cathodique (« sputtering ») par les particules du vent solaire. Les chocs thermiques, auxquels sont particulièrement soumis les surfaces sans atmosphère, contribuent également à la désagrégation physique (ou thermoclastie) des roches et donc au développement du régolithe.

Les propriétés et le degré de maturité d’un régolithe varient en fonction de la composition et de la position dans le Système Solaire de l’objet planétaire. Le régolithe lunaire est de loin le mieux connu. Il recouvre l'ensemble de la surface du satellite sur une profondeur de 2 à 8 mètres dans les mers et pouvant même excéder 15 m dans les terres les plus anciennes (4.4 Ga). Il repose sur plusieurs mètres d’un méga-régolithe constitué de gros blocs rocheux, éjectas d’anciens grands impacts. Le régolithe de Mercure est probablement très semblable à celui de la Lune quoique peut être légèrement plus développé car le flux micro-météoritique y est plus important et le contraste thermique entre le jour et la nuit accru. Le développement d'un régolite mature est, en revanche, nettement plus lent sur les astéroïdes en raison de leur faible gravité. Sur Mars, qui possède une atmosphère tenue, l’érosion spatiale s’est combinée à d’autres formes d’érosion (hydrique, éolienne… voir chapitre Erosion et sédimendation des surfaces avec atmosphère) pour former un épais manteau de poussière et de débris. Io est aussi un cas à part car le volcanisme qui y sévit efface immédiatement les traces d’impact. Enfin, la volatilité de la glace d’eau, ainsi que des glaces de CO2 (dioxyde de carbone) ou de CH4 (méthane), rend les surfaces glacées du système solaire particulièrement vulnérables à l’érosion spatiale.


Erosion et sédimentation des surfaces avec atmosphère

Les surfaces des corps dotés d’une atmosphère (Vénus, Terre, Mars, Titan, éventuellement Pluton) sont protégées de l’érosion spatiale et subissent modérément le bombardement météoritique et les effets thermiques. En conséquence, elles n’ont pas ou peu de régolithe. En revanche, elles sont soumises à l’action conjuguée de l’air et de solvants liquides lorsqu’ils existent. Partout où il y a une atmosphère, même extrêmement dense (Vénus) ou, au contraire, tenue (Mars), l'activité éolienne transporte les sédiments les organisant notamment en champs de dunes. Sur Pluton de telles formations n'ont pas encore été observées sans doute pour des raisons de résolution. Sur Terre, aujourd’hui ou sur Mars, hier, le cycle de l’eau a, en outre, façonné la surface via l’érosion pluviale, fluviatile ou glaciaire créant, transformant et distribuant la matière sédimentaire. Sur Titan, c’est le méthane et l’éthane qui modifient les paysages.

Zoom: La planétologie comparée

Dunes dans le Système Solaire
Dunes.png
Crédit : ALG

Les corps solides du système solaire présentent des visages multiples et en même temps étrangement familiers. C’est que des processus semblables à ceux que l’on observe sur Terre y sont à l’œuvre. La planétologie comparée consiste à s’appuyer sur la connaissance de notre planète pour comprendre comment ont évolué d’autres mondes. Au passage, nous observons des processus a priori connus se développer dans des environnements radicalement différents et du même coup enrichissant la compréhension que nous en avons.

Ce principe s’applique particulièrement bien lorsqu’on compare les paysages terrestres à ceux des trois autres corps du système solaire possédant une atmosphère : Vénus, Mars et Titan. Tous présentent à leur surface des dunes, preuves de l’activité éolienne qui y sévit (voir figure ci-contre). Cependant la taille, la forme de ces dunes varient d’une planète à l’autre. La connaissance des dunes terrestres permet de comprendre l’origine de ces divergences et donne des clefs pour déduire de l’observation des dunes extraterrestres les régimes de vents qui les ont sculptées. On reconnait également la signature de l’érosion fluviale à la surface de Mars, pourtant sèche aujourd’hui. L’étude des paléo-réseaux fluviaux ou des vallées de débâcle permet de reconstituer une partie de l’histoire géologique de la planète rouge. Sur Titan, par analogie avec le cycle de l’eau sur Terre, les phénomènes météorologiques liés au cycle du méthane et de l’éthane peuvent aussi être mieux compris et prédits. Enfin, même Pluton, récemment observé par la sonde américaine New Horizons, présente des paysages connus, en particulier des sols polygonaux typiques des régions glaciaires et périglaciaires des hautes latitudes sur la Terre et sur Mars (voir figure ci-contre).

Sols polygonaux sur Pluton et Mars
FigErosionAtm6.png

Renouvellement des surfaces

Sur les corps les plus actifs tels que la Terre, Io ou Europe, le renouvellement de la surface s’opère principalement par l’activité volcanique et tectonique. Il s’agit de processus endogènes c’est-à-dire ayant une cause interne, par opposition aux processus exogènes décrits précédemment.

Le volcanisme est lié au transfert de matière (magma, éléments volatiles et matériaux cristallisés) de l’intérieur vers la surface. Il est l’une des expressions les plus spectaculaires de l’activité interne d’un corps. Il participe au renouvellement des surfaces en recouvrant de ses épanchements (laves) les cicatrices du passé et peut aussi contribuer à la création ou à l’enrichissement d’une atmosphère. De nombreuses planètes ou satellites du système solaire portent sur leur surface les traces d’une activité volcanique passée (Mars, Lune), récente (Vénus) et même présente (Terre, Io, Europe, Encelade).

L’activité tectonique est l’ensemble des mécanismes de mouvements de surface responsables de déformations à grande échelle de la croûte d’une planète. Beaucoup de corps présentent à leur surface des failles, des chaînes dorsales et escarpements témoignant d’une activité tectonique passée. Cependant, à ce jour, le mouvement de plaques tectoniques n’a été observé que sur la Terre.

Des mondes actifs
figvolcan1.png
Crédit : ALG

Comprendre

Auteur: Alice Le Gall

Processus de cratérisation des surfaces

Auteur: Alice Le Gall

Processus d'impact

Le processus d’impact et ses conséquences varient avec la vitesse du corps impacteur et la nature du sol impacté et de son impacteur. Si la planète possède une atmosphère, le projectile est freiné et chauffé ce qui peut entrainer sa vaporisation partielle voire totale ou sa fragmentation. Les météorites de moins de 10 m de diamètre parviennent rarement jusqu’au sol terrestre. Les modèles d’ablation atmosphérique prédisent un nombre réduit de cratère de moins de 20 km de diamètre sur Titan (seul satellite du système solaire possédant une atmosphère substantielle, voir chapitre Erosion et sédimendation des surfaces avec atmosphère), ce que semble confirmer les observations de la sonde Cassini.

Lorsque le projectile, ou ce qu’il en reste, atteint la surface, le processus d’impact commence ; on le décompose classiquement en trois phases qui, en réalité, se chevauchent dans le temps : la phase de contact et compression, la phase d'excavation et la phase de modification et relaxation. C'est ce qu'illustre la figure ci-contre.

Mécanisme de formation d'un cratère simple (gauche) et complexe (droite)
figcraterisation2.png
Crédit : Lunar and Planetary Institute, modifié par P. Thomas (ENS Lyon-Laboratoire de Géologie de Lyon)

Contact et compression

Excavation

Modification et relaxation

L'appliquette "Cratérisation" permet d'appréhender les effets d’un impact météoritique sur Mercure, la Terre (avec ou sans atmosphère), la Lune et Mars en fonction des caractéristiques de l’impacteur (vitesse, angle d’arrivée, taille, densité) et de la surface impactée (densité).


Datation des surfaces planétaires par comptage de cratères

Age relatif

En l’absence d’échantillon du sol, la datation par comptage de cratères est la seule méthode pour estimer l’âge relatif des surfaces planétaires. Celle-ci s’appuie sur deux règles simples:

  1. Plus une surface est cratérisée, plus elle est ancienne.
  2. Plus les cratères sont grands, plus ils sont vieux.

Ces règles reposent sur l’idée que la population des impacteurs a évolué au cours du temps ; la taille des projectiles et le taux de cratérisation étaient nettement plus importants dans la jeunesse du système solaire, à une époque où les débris étaient abondants. Ces derniers ont progressivement été mobilisés pour former les planètes, les plus gros planétésimaux disparaissant en premier jusqu’à ce que les impacteurs moyens puis petits se fassent rares aussi. Si le bombardement météoritique a affecté de façon uniforme la surface d’une planète donnée, certaines régions en ont gardé toutes les cicatrices alors que d’autres ont connu depuis des épisodes de rajeunissement (par volcanisme par exemple).

L’échelle ci-contre renseigne sur le niveau de cratérisation des principales surfaces solides du système solaire, les surfaces les plus jeunes étant les moins cratérisées.

Age absolu

Ainsi, l’étude de la distribution des cratères (nombre de cratères en fonction de leur taille) permet-elle de donner un âge relatif à différentes unités de surface. Pour déterminer leur âge absolu il faudrait connaître précisément l’histoire de l’évolution du flux d’impacteurs dans le système solaire. Une partie de cette histoire a pu être retracée grâce à la datation radiogéniques d’échantillons lunaires collectés lors des missions Apollo. Ces datations précises, comparées à la distribution des cratères lunaires, ont permis de dresser des courbes d’évolution dans le temps de la densité et de la taille des impacteurs, révélant notamment un pic d’impacts il y a environ 4 milliard d’années lors d’une phase appelée le Grand Bombardement Tardif (ou Late Heavy Bombardement, LHB). Les surfaces du système solaire ayant atteint le niveau de saturation sont sans doute vieilles de 4 milliards d’années.

En tenant compte du fait que le flux des impacteurs devait varier avec la distance au Soleil et, lorsque cela est nécessaire, de la présence d’une atmosphère, les enseignements du cas lunaire peuvent être extrapolés afin de dater les autres surfaces planétaires. Cependant il est important de garder à l’esprit que cette extrapolation est sujette à caution ; la position des planètes et la densité des atmosphères ont pu, en effet, varier au cours de l’histoire du système solaire.

Degré de cratérisation des principales surfaces solides du Système Solaire
figcraterisation3.png
Crédit : ALG

Processus d’altération des surfaces sans atmosphère

Auteur: Alice Le Gall

L'érosion spatiale sur les surfaces sans atmosphère

Les surfaces des corps sans atmosphère sont de véritables champs de bataille subissant en permanence:

Tous ces processus sont exogènes, c’est-à-dire ayant une cause externe à l’objet qu’ils affectent. Lentement mais sûrement ils érodent les surfaces mais sont aussi à l’origine de la formation des atmosphères extrêmement tenues, appelées exosphères, que l’on trouve autour de Mercure, de la Lune, de la plupart des satellites glacés et même des anneaux de Saturne.

L'érosion spatiale
figalteration2.png
Crédit : CC BY-SA 3.0, modifié par ALG

Bombardement micro-météoritique

Les surfaces sans atmosphère sont constamment bombardées par des grains météoritique de diamètre <1 mm. Ce bombardement micro-météoritique ne contribue pas à augmenter le volume de régolithe (le régolithe lunaire ne grandit que de 1 mm/106 ans et, en raison de leur faible gravité, les astéroïdes perdent même constamment une partie de leur régolithe) mais il en modifie durablement les propriétés et la distribution.

Fragmentation, agglutination, vaporisation

Les impacts micro-météoritiques pulvérisent progressivement les premiers millimètres du sol, réduisant la taille des particules à la surface. Ce phénomène de fragmentation (ou «comminution» en anglais) est, en partie, compensé par un phénomène d’agglutination: lorsque les impacts sont suffisamment rapides, certains matériaux du sol fondent et, en refroidissant, se soudent (formant des sphérules de verre sur la Lune par exemple) ou soudent entre eux des fragments de roches et de minéraux donnant naissance à des particules plus grosses. Certains matériaux sont même vaporisés sous l’effet des micro-impacts avant d’être redéposés à la surface. Le régolithe lunaire est constitué d’environ 30% d'agglutinates, agrégats dont la taille varie de quelques micromètres à quelques millimètres et présentant à leur surface des nanoparticules de fer intégrées lors de la vaporisation puis re-condensation de minéraux ferrifères (olivine et pyroxène notamment). L’érosion spatiale sur la Lune est donc synonyme d’un obscurcissement (l’albédo diminue) et d’un rougissement de la surface avec le temps. Le régolithe lunaire est dit mature lorsque les processus de fragmentation et d’agglutination se compensent ; la taille des grains est alors ~60 μm. Un régolithe immature est constitué de grains plus gros et d’une proportion réduite d’agglutinates.

Dans le même ordre d'idée, sur les surfaces glacées, le bombardement micro-météoritique participe à la recristallisation de la glace lorsqu’elle est amorphe (c’est-à-dire sans arrangement précis, par opposition à la glace cristalline qui présente une structure héxagonale) à la surface par un processus de recuit (« annealing » en anglais) et lutte donc contre le travail d’amorphisation mené par les rayons solaires UV et les particules ionisées énergétiques (voir Radiations d’origine solaire et cosmique).

Enfin, sur les astéroïdes où la vitesse d’échappement est faible, le bombardement micro-météoritique, aidé par d’autres processus tels que le « sputtering» (voir Radiations d’origine solaire et cosmique), contribue à l’éjection et à la perte des particules les plus petites. Ainsi s’attend-on à trouver un sol plus grossier à la surface des plus petits astéroïdes.

Mélange

Le bombardement micro-météoritique modifie également la distribution des composés des régolithes. Les premiers millimètres du sol lunaire sont en permanence « labourés » par des micro-impacts ce qui a pour effet d’homogénéiser la composition verticale (en profondeur) du régolite. On parle d’"impact gardening" (de l’anglais « garden », jardiner). Ce processus est néanmoins très lent – il faut au moins 100 000 ans pour entièrement retourner et mélanger le premier centimètre du sol lunaire. Les couches plus profondes du régolithe ne sont retournées qu’à l’occasion d’impacts plus importants donc plus rarement.

La distribution horizontale des composés du régolite est, quant à elle, contrôlée par les lois de retombée balistique des éjectas autour du cratère principal (voir Processus de cratérisation des surfaces) et varie peu sous l’effet du bombardement micro-météoritique. Les micro-impacts peuvent néanmoins, localement, apporter de nouveaux éléments à la composition de surface.

Différents niveaux de dégradation des cratères sur Ganymède sous l’effet de l’érosion spatiale et notamment des pluies micro-météoritiques.
figalteration3.png
Crédit : Figure extraite et modifiée de Moore et al. (2000).

Radiations d’origine solaire et cosmique

Sources

Les surfaces sans atmosphère sont également soumises à un bombardement permanent par des particules plus ou moins énergétiques en premier lieu desquelles des photons X et ultra-violet (UV) solaires, des ions issus du vent solaire et des rayons cosmiques provenant de notre Galaxie ou d’au-delà. Ces radiations modifient chimiquement, physiquement et structurellement les surfaces sur une profondeur allant de quelques micromètres à quelques mètres, en fonction de l’énergie des particules.

Le vent solaire est un flux de plasma essentiellement composé de particules d’hydrogène et d’hélium ionisées dont l’énergie est modérée (0.3-3 keV/nucléon). Ce flux varie, en température et en vitesse, avec l’activité du Soleil. Lors d’éruptions solaires et d’éjection de masse coronale, des rafales de particules solaires particulièrement énergétiques (1-100 MeV/nucléon) balayent notre système stellaire.

Les corps pourvus d’un champ magnétique propre (Mercure, Terre, Ganymède) sont protégés en grande partie des radiations, leur magnétosphère déviant les particules chargées le long des lignes de champ et agissant ainsi comme un bouclier. A l’inverse, les magnétosphères des géantes gazeuses, en piégeant et accélérant les particules chargées, produisent d'intenses ceintures de rayonnement et soumettent les satellites qui leur sont les plus proches à de grandes doses de radiations. En particulier, Io et Europe, autour de Jupiter, reçoivent des doses 100 à 1000 fois plus élevées que la Lune.

Effets

Les principaux effets du bombardement par les particules solaires et cosmiques sur les surfaces sont les suivants :

Sur ce dernier point, notons que les surfaces glacées sont particulièrement sensibles aux radiations car elles sont trois fois moins résistantes que les surfaces silicatées et plus volatiles (c’est-à-dire susceptibles de changer de phase). Rappelons que la glace d’eau peut exister sous plusieurs formes: différents états cristallins (en fonction essentiellement de la température) ou amorphes. A basses températures, le bombardement par les particules UV et les ions peut modifier la structure cristalline de la glace en surface, voire même entrainer son amorphisation. Europe, qui baigne dans magnétosphère jovienne et est, par conséquent, soumise à des taux de radiation particulièrement élevés, présente une surface jeune mais largement amorphisée alors que la phase cristalline est stable à la surface de Callisto, satellite près de 3 fois plus éloignée de Jupiter. Ganymède, qui se trouve entre Europe et Callisto et est, de surcroît, protégé par un champ magnétique propre, présente de la glace amorphe aux pôles (là où les lignes de champs sont ouvertes) et cristalline ailleurs.

Ceintures de radiation de Jupiter
figalteration5.png
Crédit : NASA/JPL

Effets thermiques

Les corps sans atmosphère peuvent connaitre des variations de températures considérables au cours d’une journée. Plus l’inertie de la surface (c’est-à-dire sa capacité à stocker la chaleur) est faible et plus la rotation du corps est lente, plus le contraste jour/huit est important. Mercure, en particulier, subit les chocs thermiques les plus violents du système solaire : la température à sa surface peut varier de -170°C à 430°C.

Dilatation/contraction

Sur les surfaces silicatés du Système Solaire, la différence de réponse (dilatation/contraction) des minéraux des roches à l’alternance jour/nuit induit des contraintes mécaniques (surpression) pouvant déboucher sur la fissuration progressive voire l’éclatement de certaines roches. Plus les changements de température sont prononcés et rapides, plus ce processus de désagrégation, appelé thermoclastie, est efficace. En outre, les roches dont la taille excède la profondeur de peau diurne (la profondeur du sol qui subit les fluctuations diurnes du flux solaire - en général quelques centimètres) sont soumises à un fort gradient de température qui peut les fragiliser à long terme.

Migration/ségrégation

Sur les surfaces glacées du système solaire, en raison de la grande volatilité de la glace d’eau (c’est-à-dire de sa capacité à changer de phase), le cycle jour/nuit peut s’accompagner d’un phénomène de migration/ségrégation thermique.

Les surfaces des satellites glacés sont généralement constituées d’un mélange, aux proportions variables, de glace et d’un composé optiquement sombre (matière organique, soufrée ou silicatée). Les régions les plus riches en glace étant aussi les plus brillantes, elles sont moins efficacement chauffées par le Soleil (elles réfléchissent une grande partie du flux solaire) et le taux de sublimation de la glace y est bas. Inversement, dans les régions les plus sombres, le taux de sublimation de la glace peut être élevé. Ce déséquilibre permet un transfert de la glace des régions sombres et chaudes vers régions brillantes et froides. Ce transfert prend fin quand toute la glace du sol des régions sombres a disparu (laissant un sol encore plus sombre) et s’est redéposé dans les régions plus claires (accentuant alors leur brillance). Au passage, il est fréquent qu’une partie des volatiles se perde dans l’espace ou vienne enrichir une exosphère.

Le phénomène de migration/ségrégation thermique a pour effet de renforcer les contrastes d’albédo à la surface et, en séparant la glace de la matière sombre, va à l’encontre des processus de bombardements (météoritiques ou par des particules de haute énergie) qui tendent à homogénéiser le régolithe. Ce phénomène peut être local (exemple de Callisto) ou global (exemple de Japet). Sur Japet, même si l’origine de la matière sombre est vraisemblablement exogénique (en provenance de Phoebe), il est fort probable que le phénomène de migration/ségrégation participe à accentuer le contraste entre les basses et moyennes latitudes, très sombres, de la face avant du satellite et les pôles, particulièrement brillants : le jour, la glace des régions équatoriales se sublime et migre vers les pôles, plus froids, ou elle se re-condense. Sur Callisto, les crêtes des cratères des régions équatoriales sont recouvertes d’un manteau blanc résultant sans doute de la migration de la glace du fond des dépressions, généralement plus chaudes car doublement chauffées, à la fois par le flux solaire direct et par le flux solaire réfléchi sur les parois. Ce processus de modification du paysage par sublimation est aussi à l’œuvre sur Mars où ni l’eau ni le CO2 ne sont stables à la surface.

L’appliquette "Migration" vise à évaluer l’efficacité du phénomène de migration/ségrégation par rapport à d’autres processus d’érosion spatiale sur les principaux satellites glacés du Système Solaire.

L'appliquette Migration application.png

Ségrégation thermique sur Callisto et Japet
figalteration4.png
Crédit : ALG

Erosion et sédimentation des surfaces avec atmosphère

Auteur: Alice Le Gall

L'érosion liée à l'activité atmosphèrique

Les surfaces des corps avec atmosphère sont certes protégées de l’érosion spatiale mais elles subissent d’autres formes d’érosion, souvent plus efficaces, liées à l’activité atmosphérique. Ces formes d’érosion se traduisent généralement par une perte graduelle de substance et notamment de relief. Elles sont aussi parfois à l’origine de paysages spectaculaires.

Il existe plusieurs agents et types d’érosion. Dans ce qui suit nous aborderons :

Et nous mentionnons seulement ici:

Quelque soit son moteur, l’érosion comporte trois phases étroitement liées :

Les gaz (par le biais du vent), l’eau, le méthane, l’éthane liquides sont des fluides. Avant de décrire leur action sur les surfaces planétaires, quelques rappels sur l’écoulement des fluides s’imposent.

FigErosion1.png

Rappels : L’écoulement des fluides

Notion de fluide

Un fluide est un milieu matériel déformable (il change de forme sous l'action d'une force extérieure). Il est constitué de particules libres de se mouvoir les unes par rapport aux autres. Les liquides sont des fluides peu compressibles ; ils conservent le même volume quelque soit leur forme et présentent une surface propre. Les gaz, en revanche, sont des fluides compressibles ; ils tendent à occuper tout l'espace disponible et n'ont pas de surface propre.

Qu’ils soient gazeux ou liquides, les fluides sont caractérisés par leur densité ρ et viscosité η. La densité ou masse volumique est la masse du fluide par unité de volume (en kg/m3). Elle est une mesure du nombre de molécules par unité de volume. La viscosité est une mesure de la résistance d’un fluide au changement de forme (en kg/(m⋅s) ou Pa.s); elle détermine la vitesse de mouvement du fluide. Lorsque la viscosité augmente, la capacité du fluide à s'écouler diminue. Les liquides ont une densité et une viscosité supérieures à celles des gaz: les molécules sont plus rapprochées, des liaisons (forces de van der Waals, interactions dipolaires) s'établissent entre elles qui augmentent la cohésion de l'ensemble. Le tableau ci-dessous donne les caratéristiques des atmosphères et agents liquides des planètes solides du Système Solaire.

Densité, viscosité et vitesse typique de fluides
Fluide Densité ρ (kg/m^3)Viscosité η (10^{-6} Pa s)Vitesse typique (m/s)
Eau liquide 10001540 5
Méthane liquide 450 184
Atmosphère terrestre 1.27 17.1 40
Atmosphère martienne 0.027 10.8
Atmosphère de Vénus71.92 33.0
Atmosphère de Titan 5.3 6.3 0.5-1
Glace 992 10^{14}-10^{21}10^{-6}

Pour un fluide s'écoulant sur une paroi (le vent ou un agent liquide au dessus d’un sol), la viscosité décrit la contrainte de cisaillement, c’est-à-dire la force tangentielle (par opposition aux forces normales, perpendiculaires à la paroi) qui s’applique par unité de surface sur la paroi. Cette contrainte de cisaillement s’accompagne de l'existence d'un gradient de vitesse d'écoulement dans le fluide. En effet, il existe une couche limite contiguë à la paroi, dans laquelle la vitesse du fluide passe de zéro, au niveau de la paroi, à sa la valeur maximale correspondant à celle d'un fluide libre. L'épaisseur de cette couche limite varie suivant l'état de la surface (plus la surface est lisse, plus la couche est mince). Plus précisément, on peut montrer que la vitesse de l’écoulement croit avec la hauteur au dessus de la paroi de manière logarithmique comme l'illustre la figure ci-contre.

Gradient de vitesse d'un fluide au dessus d'un sol
FigFluideGrad.png
Crédit : Université de Nantes

Ecoulement laminaire, écoulement turbulent

Un fluide peut s’écouler de différentes façons. Lorsque les lignes de courant (c’est-à-dire les tangentes en tous points parallèles à la direction de l'écoulement) restent parallèles entre elles et rectilignes, l’écoulement est dit laminaire. Au contraire, quand l’écoulement est désorganisé et le siège de tourbillons, on parle de régime turbulent (voir la figure ci-contre).

Afin de déterminer le régime en vigueur autour d’un "obstacle" (une roche dans l’eau ou un grain de sable dans le vent par exemple), on définit le nombre de Reynolds: R_e=\rho v d/\etad est le diamètre de l’obstacle et v la vitesse terminale ou de sédimentation du fluide (voir ici et ). Si le nombre de Reynolds est grand, les forces inertielles l’emportent sur les forces de frottement liées à la viscosité du fluide ; le régime est turbulent et des tourbillons se développent autour de l’obstacle. Au contraire, si le nombre de Reynolds est petit, en faisant « coller » le fluide à l’obstacle, les forces de viscosité tendent à faire disparaître les tourbillons ; le régime est laminaire.

Régime laminaire, régime turbulent
FigErosion2.png

L' activité éolienne: desctruction

Les vents sont provoqués par les contrastes de températures à la surface d’une planète et par la rotation de la planète. Les effets de l’activité éolienne sur un paysage sont multiples. Le vent déplace la matière sédimentaire, la redistribue, l’organise parfois en dunes et en modifie les propriétés physiques par abrasion mécanique.

Destruction : l’abrasion

Si l’action destructrice du vent est limitée par rapport à celle d’un agent liquide, les roches se trouvant sur le chemin de saltation (processus de transport des grains par sauts successifs, voir ici) des grains déplacés par le vent sont néanmoins progressivement polies, taillées, striées. L’efficacité de l’abrasion par le vent dépendant de la vitesse d’impact des grains, il est peu probable qu’elle soit élevée sur Titan et Vénus. En revanche, elle devrait l’être sur Mars comme semble le confirmer les images de la surface.

FigErosion3.png

L'activité éolienne: transport (initiation)

Transport: Initiation

Initier le mouvement d’une particule requiert d’avantage d’énergie que d’entretenir ce mouvement. Dans cet effort, l’idée que plus la particule est petite, plus elle est facile à mettre en mouvement est erronée ; il n’est pas si aisé d’arracher des particules fines à la surface. Ralph Bagnold (1896-1990), grand explorateur des déserts terrestres, a mis en évidence l’existence d’une taille de particule pour laquelle le mouvement à la surface était le plus facile à initier. Ce diamètre seuil d_t peut êtres estimé par la relation empirique suivante : d_{t}=10.7 \Huge(\frac{\eta^2}{\rho (\sigma - \rho) g}\Huge)^{1/3}\sigma est la densité du grain, g est l’accélération de pesanteur de la planète, \rho la densité de l’air et η sa viscosité. On a pu vérifier sur Terre que la répartition en taille des grains constituant les dunes était globalement distribuée autour de d_t.

La vitesse de cisaillement (qui caractérise la force que le vent exerce sur le sol) seuil de mise en mouvement d’un grain de diamètre d_t est alors : v_{*t}^{min}=3.5\frac{\eta}^{\rho d_t}.

La vitesse de l’écoulement (ici du vent), qui varie de manière logarithmique avec la hauteur z au dessus du sol (voir la figure), est liée à la vitesse de cisaillement v_* par la formule empirique suivante : v(z)=5.75v_*log(z/z_0)z_0 est un facteur lié à la rugosité de surface, environ égal à 1/30 de la taille des grains lorsque ces derniers sont compactés à la surface. Typiquement, sur la Terre et sur Mars, z_0=0.2-0.3 mm. C’est le gradient de vitesse d’écoulement au dessus du sol qui crée un cisaillement et permet de transférer l’énergie du vent vers les grains.

En tout logique, plus la gravité de la planète est faible, plus la taille des particules faciles à déplacer est grande et plus la vitesse seuil de mise en mouvement est petite. Sur Terre comme sur Titan, où les particules sont respectivement constituées de quartz et d’hydrocarbures solides, d_t∼0.2 mm. Cependant, sur Titan, qui 44 fois moins massif que la Terre, un vent à 1 m de la surface de 0.5 m/s suffit à initier leur mouvement alors que sur Terre un vent minimum de 4.5 m/s est requis. Sur Mars, la gravité est réduite aussi mais la faible densité atmosphérique élève la vitesse de cisaillement seuil de mise en mouvement. L’atmosphère dense de Vénus, au contraire, facilite la mise en mouvement de la matière sédimentaire. L’appliquette Erosion permet d’apprécier la facilité d’entrainement de la matière sédimentaire sur différents corps planétaires.

En dessous de la vitesse seuil v_{*t}^{min}, aucune particule, même petite, ne décolle.

En effet, pour les particules dont le diamètre d<d_t, la vitesse de cisaillement seuil de mise en mouvement décroit en 1/d mais reste supérieure à v_{*t}^{min} car le déplacement des petites particules est gêné par la présence d’une couche visqueuse tout près de la surface et/ou l’existence de forces cohésives (forces électrostatique ou de van der Waals). Il a fallu plusieurs tempêtes (« dust devils ») sur Mars pour balayer la poussière installée sur les panneaux solaires de Spirit et d’Opportunity.

Pour les grains dont le diamètre d>d_t, la viscosité de l’air n’est plus un obstacle mais la vitesse seuil de cisaillement nécessaire pour initier leur mouvement croit en \sqrt{d} selon : v_{*t}=0.1\sqrt{\frac{\sigma-\rho}{\rho} gd}. Evidemment, plus le grain est grand et/ou lourd, plus il est difficile à mettre en mouvement. Un air dense, cependant, facilitera son déplacement.

Vitesse de cisaillement seuil de mise en mouvement d’un grain en fonction de son diamètre d.
FigErosion7.png
Crédit : Adapté de la Figure 9.6 de H. Jay Melosh (2011)

L'activité éolienne: transport (suspension, saltation, reptation)

Transport : Suspension, saltation, reptation

Un bon moyen de prédire comment le vent déplacera un grain de diamètre d et de densité \sigma, est de comparer la vitesse de cisaillement de l’écoulement v_* à la vitesse limite de chute du grain dans l’atmosphère v_L, aussi appelée vitesse terminale: v_L=\sqrt{ \frac{4}{3}  \frac{(\sigma-\rho)dg}{C_d \rho}}C_d est un facteur caratéristique lié à la taille et à la forme du grain. C_d \approx 0.4 pour les grains de forme sphérique caractérisés par un nombre de Reynold suffisamment grand pour considérer que l’écoulement autour d’eux est de nature turbulente et C_d \approx 24/R_e pour les grains plus petits pour lesquels la viscosité de l’air joue un rôle non négligeable (petit nombre de Reynolds). Pour ces cas là on peut aisément montrer : v_L=\frac{d^2}{18}\frac{(\sigma-\rho)g}{\eta}.

Lorsque la vitesse de cisaillement de l’écoulement est nettement supérieure à v_L, le grain mis en mouvement entre en suspension ; il peut alors s’élever très haut dans l’atmosphère et traverser des distances intercontinentales. La condition v_*>>v_L étant plus facilement vérifiée pour des grains petits et/ou légers, ce type de mouvement concerne essentiellement les poussières.

Lorsque la vitesse de cisaillement de l’écoulement est comprise entre la vitesse seuil de mise en mouvement et la vitesse limite de chute (v_{*t}<v_*<v_L), le grain arraché à la surface est entrainé par le vent et se déplace alors par sauts successifs. C’est le phénomène de saltation. Les grains sont soulevées par le vent sur une longueur l \sim v_*/g (qui correspond à une hauteur de quelques centimètres ou dizaines de centimètres sur Terre) et retombent sous l'effet de leur propre poids, en rebondissant et en éjectant d'autres particules par impact. Une fois le mouvement de saltation initié, il requiert un vent moins fort pour être entretenu dans la mesure où, à chacun de ses sauts, le grain transmet une partie de son énergie cinétique à de nouveaux grains. Notons néanmoins que le mouvement de saltation peut être contrarié par le passage sur une surface rugueuse (ou la végétation sur Terre) et la présence d’une force de cohésion entre les grains (notamment la tension superficielle si les grains sont humides).

Enfin, les grains de plus grande dimension et/ou plus massifs, plus difficiles à soulever (v_*<v_{*t}), roulent ou glissent à la surface. Ils se déplacent ainsi de proche en proche sans jamais perdre le contact avec le sol. En réalité, leur mouvement est davantage déclenché par l'impact des particules en saltation plutôt que par l'action du vent. C’est la reptation.

Modes de transport des particules par le vent
FigErosion4bis.png
Crédit : Y. Reffet

L'activité éolienne: accumulation

Accumulation : dunes et autres formations éoliennes

Des vents excédant la vitesse seuil de déplacement ont été directement mesurés sur la Terre, Vénus et Titan. Mais cela ne suffit pas à expliquer pourquoi au moins 13% de la surface de Titan, 1.5% des continents terrestres, 0.7% du sol de Mars et 0.004% de la surface de Vénus observée par le Radar de Magellan sont couverts de dunes. Le mécanisme de formation de ces accumulations sableuses est complexe et nous n’en donnerons que le principe ici.

Les premiers grains mis en saltation, en retombant au sol, transmettent une partie de leur énergie à d’autres grains qui peuvent alors plus facilement se mettre en mouvement. La quantité de grains en saltation augmente ainsi progressivement jusqu’à ce que le flux soit saturé c’est-à-dire jusqu’à ce que le fluide ne puisse plus se charger en sable. Commence alors l’accumulation ; le sable érodé en amont se dépose sur le sol. Si la quantité de sable est suffisante, une dune apparaitra.

La morphologie des dunes est très variable (en étoile, barkhane, linéaire, transverse, … etc.); elle dépend non seulement du régime de vent en vigueur (unidirectionnel ou multidirectionnel, permanent ou oscillant) mais aussi de la disponibilité et de la nature des sédiments sur place. Dans les régions où la direction du vent s’inverse périodiquement, à l’échelle d’un jour ou d’une saison, les dunes sont souvent de type linéaire. L’essentiel des dunes observées sur Titan sont de ce type. Elles sont très semblables aux structures observées sur Terre en Namibie ou encore dans le désert d’Arabie Saoudite.

Il est important de souligner que le flux en masse de sédiment transporté par le vent étant proportionnel au cube de la vitesse de cisaillement (\propto v_*^3), l’orientation des dunes est donc plus volontairement contrôlées par des vents rares mais exceptionnellement puissants plutôt que par des vents présents tout au long de l’année mais dont l’intensité est faible. En particulier, il a été récemment montré que les dunes de Titan était sculptées lors de rares tempêtes tropicales, ce qui a permis de résoudre le mystère de leur orientation, contraire à celle des vents moyens prédits par les modèles climatiques mais en accord avec la direction de propagation des vents forts soufflant aux moments des Equinoxes.

Enfin, soulignons qu’il existe d’autres formes édifices éoliens, notamment des yardangs, (crêtes rocheuses sculptée par le vent) et trainées (« wind streaks ») sans expression topographique.

Classification des édifices éoliens
FigErosion5bis.png
Crédit : Adapté de la Figure 9.12 de H. Jay Melosh (2011)

L’activité pluviale et fluviale: destruction

Si la surface de Mars a pu voir l’eau couler dans le passé, aujourd’hui seules les surface de la Terre et de Titan sont soumises à l’érosion pluviale et fluviale. Il pleut, en effet, sur Terre partout où la température l’autorise. Sur Titan, ce sont les cycles du méthane et de l’éthane qui régissent la météo. Lorsque le sol est perméable, les « eaux » des pluies s’y infiltrent, venant parfois enrichir des aquifères - ou « alcanofères » sur Titan- souterrains, jusqu’à le saturer avant de s’écouler à la surface.

Destruction : Abrasion, altération physique et altération chimique

Au fur et à mesure, l’écoulement liquide décompose et désagrège le socle rocheux en place (aussi appelé substrat), par altération physique, mécanique mais aussi chimique, et participe ainsi à la production d’une masse sédimentaire ensuite transportée à l’état de grains ou de manière dissoute vers de plus basses altitudes

Altération physique: Plusieurs processus physiques provoquent la fragmentation mécanique du matériel rocheux sans en affecter la composition. En particulier, sur Terre, l’eau, en s’infiltrant, dans les fissures des roches les fragilise et contribue à leur désagrégation par cryoclastie (processus de fragmentation lié au cycle de gel/dégel) ou haloclastie (processus de fragmentation lié à la formation de cristaux de sels suite à l’évaporation de l’eau sur Terre). Ces processus étant liés à des changements de phase de l’agent liquide, ils ne sont sans doute pas très efficaces sur Titan où les variations de température à la surface sont très limitées (<2° pendant la journée, <4° d’une saison à l’autre).

Abrasion mécanique: Les débris solides transportés dans les écoulements sont aussi de puissants agents d’érosion; ils entaillent le substrat rocheux pour creuser des vallées et saper des berges. Un liquide étant plus dense qu’un gaz, l’activité fluviale est un agent d’érosion nettement plus efficace que l’activité éolienne : elle exerce une pression plus forte sur les sols, est capable de transporter des débris plus gros et est davantage aidée dans ses attaques mécaniques par la gravité. Pendant leur transport prolongé, les débris voient généralement leur taille se réduire et leur forme s’arrondir ; 10 km suffisent à façonner un galet de calcaire sur Terre - 300 km pour un galet siliceux. L’ampleur de ce travail d’érosion dépend de la vitesse et de la viscosité du fluide en mouvement ainsi que de la nature (notamment de la dureté) des sédiments et du socle rocheux. Est-ce l’érosion fluviale qui a façonné les pierres arrondies de 2 à 20 cm de diamètre photographiées par la sonde Huygens à la surface de Titan (voir la figure ci-contre)? Et si oui, combien de kilomètres on été nécessaires pour leur donner leur forme ? Des travaux préliminaires sur l’érodabilité de la glace d’eau à -180°C (la matière probable de la croûte de Titan) suggère que l’érosion par les rivières d’hydrocarbure sur Titan est aussi efficace que l’érosion fluviale sur Terre.

« Galets » sur Titan et sur la Terre
FigErosionFluviale1.png
Crédit : NASA/JPL/ESA/University of Arizona (Titan) et S.M. Matheson (Terre)

Altération chimique:Les activités pluviale et fluviale peuvent aussi modifier la nature chimique du socle rocheux, notamment par :

Figures karstiques sur la Terre et sur Titan
FigErosionFluviale2.png

L'activité fluviale: transport

Initiation

On l’a vu avec l’activité éolienne, la capacité d’un fluide à mobiliser un sédiment de diamètre d et de densité σ dépend de la densité ρ du fluide, de sa viscosité η et, bien sûr, de sa vitesse d’écoulement. En utilisant une loi d’échelle, l'appliquette "Erosion" permet de comprendre comment les différents paramètres en jeu agissent sur la mise en mouvement de la matière sédimentaire et de comparer l’action d’entrainement du vent sur différents corps planétaires à celle d’un solvant liquide (eau ou méthane liquide). Cependant, sans entrer dans le détail, soulignons que le modèle d’initiation de mouvement présenté dans la section "Activité éolienne: transport (initiation)" s’applique mal au mouvement des petites particules dans un fluide liquide, notamment parce que les forces de cohésion sont moindres et de natures différentes que celles en jeu dans un fluide gazeux. La figure ci-contre montre que des vitesses d’écoulement moins importantes sont requises pour transporter des petites particules dans l’eau ou le méthane liquide.

Transport fluvial
FigErosionPluviale41.png
Crédit : ALG

Suspension, saltation, traction

Une fois mis en mouvement, les sédiments peuvent être transportés. Les modes de transport des sédiments par un agent liquide sont sensiblement les mêmes que ceux vu pour l’activité éolienne: suspension (les particules ne sont jamais en contact avec le fond de la rivière), saltation (les grains se déplace en rebondissant sur le fond) et traction (les grains se déplacent en roulant ou en glissant au fond sans jamais perdre le contact avec le sol). Le transport des sédiments dans un liquide par saltation ou traction est aussi appelé charriage. A cette liste vient néanmoins s’ajouter la possibilité de transporter certains composés sous une forme dissoute (voir ici). Soulignons que l’addition d'une faible quantité de substance en suspension ou en solution peut augmenter grandement la viscosité du liquide.

Pour prédire le mouvement d’un grain dans une rivière, on peut comparer la vitesse de cisaillement du fluide à ce qu’on appelle la vitesse de sédimentation v_s c’est-à-dire la vitesse minimale qu'un flot doit avoir pour transporter, plutôt que déposer, un sédiment de diamètre d et de densité σ. La vitesse de sédimentation est à l’activité fluviale ce que la vitesse terminale est à l’activité éolienne. Elle dépend de la pesanteur, de la taille de la particule, de sa densité et de celle du fluide, et, pour les plus petites particules (celles dont le nombre de Reynolds est inférieur à 1), de la viscosité du fluide.

A l’instar de ce que l’on a vu pour l’érosion éolienne, la vitesse de sédimentation peut s’écrire: v_s=\frac{d^2}{18}\frac{(\sigma-\rho)g}{\eta} pour les petites particules sphériques autour desquels l’écoulement est laminaire et v_s=\sqrt{ \frac{4}{3}  \frac{(\sigma-\rho)dg}{0.4 \rho}} pour les particules sphériques plus grosses dont autour desquels l’écoulement est de nature turbulente.

Si l’écoulement est gravitaire (uniquement produit par l’action de la pesanteur), la vitesse de cisaillement basal (au fond d’un lit de rivière) est lié, en première approximation, à la profondeur du flot h (ou la hauteur des « eaux »), à la pente S du lit (S=sin \alpha) et à la gravité g par la relation : v_*=\sqrt{ghS}. Dans la pratique, on peut considérer que si v_*>v_s, les grains sont suspendus dans le liquide et si v_*<v_s, ils sont charriées (par saltation ou traction) ; les sédiments restent alors confinés dans une zone proche du fond. Plus la pente locale est forte ou plus le niveau des «eaux» est haut (notamment en période de crue), plus la matière sédimentaire sera facilement et abondamment transportée.

Notons que parce que la vitesse de l’écoulement n'est pas constante sur une section de cours d'eau (elle est maximale un peu en-dessous de la surface et dans l'axe du cours d'eau et minimale sur le fond et près des berges), une rivière profonde aura peu d'action sur le fond au contraire d’un écoulement très superficiel (quelques décimètres). Sur Terre, à vitesse égale en surface, la force érosive des wadi (lits de rivières généralement asséchées, en milieu aride) est en effet bien plus forte que celle des rivières des pays tempérés.

La figure ci-contre illustre les modes de transport des gros grains sédimentaires sur la Terre, Titan et Mars. Elle montre notamment que, pour une même vitesse d’écoulement, des sédiments plus gros peuvent être charriés sur Titan par rapport au cas terrestre. D’autre part, du fait de leur densité plus faible, les sédiments composés de glace sont a priori plus faciles à transporter que des sédiments de nature organique.


Paysages fluviaux et accumulation

Les « eaux » fluviales sont généralement collectées au sein de bassins de réception et viennent alimenter un réseau fluviatile hiérarchisé (rigoles, ruisseaux, rivières et fleuves sur Terre). Notons, une différence notable avec le cas éolien : l’agent liquide, contrairement au vent, ne se répartit pas sur toute la surface mais suit la ligne de plus grande pente en restant confiné dans un lit. Les filets d' « eau » confluent et fusionnent en chenaux de taille croissante. La mise en place de ces réseaux fluviatiles dépend de la pente régionale, du débit de liquide et de la nature du substrat (notamment de sa perméabilité). Sur pente forte, les chenaux sont multiples et confluent: le réseau fluviatile est dit en tresse: c'est le cas des portions amonts des cours d'eau (torrents de montagne). Quand la pente devient faible les différents cours d’ « eau » se rejoignent généralement en un unique chenal d'écoulement, souvent sinueux: le réseau à méandres caractérise la plaine alluviale proche de l'embouchure.

La matière sédimentaire mobilisée est déposée à l’endroit où la pente diminue formant ce que l’on appelle des cônes de déjection ou cônes alluviaux. La consolidation des sédiments est à l'origine de la formation des couches sédimentaires mais cette matière peut aussi être re-mobilisée lors de nouveaux épisodes pluvieux. Sur Terre, les sédiments finissent souvent leur voyage dans les océans. C’est peut être aussi le cas sur Titan dont les plus grands lacs sont connectés à des réseaux fluviatiles complexes (voir la figure ci-contre). Les amas de dépôts à l’embouchure des fleuves sont appelés deltas. De part et d’autre du lit limité par les berges, il est aussi fréquent de trouver des levées alluviales, topographies bombées formées par les dépôts des crues. Quelques exemples de paysages fluviaux sur la Terre, Titan et Mars sont présentés sur la figure ci-contre.

Paysages fluviaux
FigErosionFluviale3.png
Paysages fluviaux
FigErosionFluviale4.png
Crédit : Adapté de Grotzinger et al. (2013), Sedimentary processes on Earth, Mars, Titan and Venus. In : Comparative Climatology of Terrestrial Planets, S.J. Mackwell et al. Eds, pp 439-472. Univ. Of Arizona, Tucson.

Les dessins que forment les réseaux fluviatiles à la surface renseignent sur la nature du substrat rocheux, la pente locale et une éventuelle activité tectonique. Ils fournissent également des informations précieuses sur les climats présents ou passés. Cependant il faut garder à l’esprit que le flux de sédiments transportés variant en v_*^3, la forme des chenaux d’écoulement est généralement représentative d’événements catastrophiques et notamment d’épisodes de crue. Enfin, soulignons que tous les chenaux ne sont pas d’origine fluviale : les chenaux visibles à la surface de Vénus ont été creusés par des coulées de lave.


Se tester

Auteur: Alice Le Gall

Exercices


Catégories de cratères

Crater_Exo1.png
Auteur: Alice Le Gall

exerciceCatégories de cratères

Question 1)

Quel point du cours la figure ci-contre illustre-t-elle ?


Création du régolithe lunaire

exerciceCréation du régolithe lunaire par cratérisation

Une météorite (sphérique) composée de roches denses ayant une densité 3000 * kg * m^(-3) et un rayon de 1 km frappe la Lune avec une vitesse de 12* kms^(-1).

Question 1)

Calculer l’énergie cinétique E_c de ce projectile ?

Question 2)

Quelle est l’amplitude équivalente M de cet impact sur l’échelle de Richter ? On utilisera la formule: M=0.67*log_10 *E_c-5.87. Qu’en serait-il si la météorite était composée de fer (donc de densité de 8000*kg*m^(-3))?

Question 3)

3) Quelle fraction de cette énergie est nécessaire à la vaporisation totale du projectile ? On considérera que l’énergie de vaporisation est égale à 18*10^6 *J*kg^(-1).

Question 4)

Quel est le diamètre du cratère transitoire crée par cet impact ? On supposera que la Lune a la même densité que la météorite et que le projectile arrive sur la surface lunaire avec un angle de 30°.

Question 5)

D’après votre analyse de l’exercice "Catégorie de cratères", s’agit-il d’un cratère simple ou complexe ?

Question 6)

Quel est le volume de matière déplacé sachant que la profondeur du cratère transitoire vaut le tiers de son diamètre ?

Question 7)

Sachant qu’un tiers du volume déplacé est éjecté et redéposé hors du cratère, combien d’impacts de ce type faudrait-il pour recouvrir d’éjectas toute la surface de la Lune sur une épaisseur moyenne de 5 m ?

Cet exercice s'inspire d'un exercice proposé dans "Planétologie" de C. Sotin, O. Grasset et G. Tobie, Edition Dunod, Paris, 2009.


Cratères secondaires

Auteur: Alice Le Gall

exerciceCratères secondaires

Une météorite de fer ayant une densité de 7 * gcm^(-3) et un diamètre de 300*m frappe la Lune avec un angle de 30° et une vitesse de 12*kms^(-1).

Question 1)

Estimer la taille du cratère formé par cet impact.

Question 2)

Des roches sont excavées du cratère avec une vitesse de 500*ms^(-1). A quelle distance du cratère principal se formeront les cratères secondaires ?

Question 3)

Reprendre les questions 1) et 2) pour un impact sur Mercure. Comparer avec le cas lunaire et conclure.


Epaisseur du régolithe lunaire

Exo3.png
Auteur: Alice Le Gall

exerciceEpaisseur du régolithe lunaire

Question 1)

Commentez cette figure extraite de Shkuratov & Bondarenko (Icarus 149, 329, 2001) donnant l’épaisseur h du régolithe de différentes régions de la face visible de la Lune en fonction de l’âge de la surface T. A votre avis, quel type d’observation a permis d’estimer h ?


Des dunes sur Triton?

Exo4.png

exerciceDes dunes sur Triton?

Triton, le plus grand satellite de Neptune, possède une atmosphère tenue, composée presque uniquement d’azote. Cette atmosphère a probablement comme origine des geysers dont les traces (en l’occurrence des traînées sombres orientées dans le sens du vent dominant résultant de l’éjection puis de la retombée à la surface de panaches de poussières de 2 à 8 km de haut, cf. figure) ont été observées sur la calotte polaire australe du satellite par la sonde Voyager 2. La densité de l’atmosphère de Triton à la pression de surface (∼5 Pa) est de 1.3*10^(-4)*kgm^(-3) et la viscosité de l’azote à la température de surface (∼38 K) est 2.2*10^(-6)*Pa*s. L'accélération de pesanteur à la surface de Triton est 0.78 m/s^2.

Supposons que des grains de glace d’eau soient présents à la surface de Triton.

Question 1)

Quelle taille ont les grains susceptibles d’être déplacé ?

Question 2)

Quelle vitesse doit avoir le vent à 1 m au dessus de la surface pour les déplacer?

Question 3)

Comparez cette vitesse à la vitesse du son dans l’atmosphère de Triton (environ 127 m/s) et concluez sur la probabilité qu’une future mission, dotée de l’instrumentation adéquate, trouve à la surface du satellite des dunes.

Question 4)

A votre avis, quels processus pourraient être à l’origine de la matière sédimentaire sur Triton ?

Cet exercice s'inspire d'un exercice de "Planetary Surface Processes" de H. Jay Melosh, Cambridge University Press, 2011.


Vitesse de sédimentation

Auteur: ALG

exerciceVitesse de sédimentation

Considérons un cours d’eau particulièrement calme s’écoulant à 1 m/s. Le fond de ce cours d’eau est à 1 m de la surface.

Question 1)

Combien de temps faut-il à un grain de sable de 2 µm de diamètre pour atteindre le fond du cours d’eau ?

Question 2)

Même question pour une particule fine d’argile de 0.2 µm de diamètre?

Question 3)

A votre avis, les particules d’argile fines participent-elles à la sédimentation au fond du cours d'eau ?


Volcanisme sur Io

Io.png
Auteur: ALG

exerciceVolcanisme sur Io

La sonde Voyager 1 a détecté 9 volcans actifs à la surface de Io. En supposant que chacun de ses volcans a un taux d’éruption de 50*km^3/an, déterminer :

Question 1)

La vitesse moyenne de renouvellement de la surface sur Io en cm/an.

Question 2)

Le temps nécessaire au renouvellement total de la surface de Io sur une épaisseur d’1 km.


Mini-projets

Auteur: Alice Le Gall

Appliquette Cratérisation

Cette appliquette illustre les effets d’un impact météoritique sur Mercure, la Terre (avec ou sans atmosphère), la Lune et Mars en fonction des caractéristiques de l’impacteur (vitesse, angle d’arrivée, taille, densité) et de la surface impactée (densité).

Pour le détail des formules à partir desquelles a été construire cette appliquette, se référer à : G. S. Collins, H. J. Melosh, R. A. Marcus: Earth Impact Effects Program: A Web-based computer program for calculating the regional environmental consequences of a meteoroid impact on Earth, Meteoritics & Planetary Science 40, Nr 6, 817–840 (2005).

A vous de jouer en répondant notamment aux questions ci-dessous!

application.png

On rappelle que les astéroïdes sont composés de roches et de métaux ; leur densité varie entre 2000 et 8000 kg/m^3 et leur vitesse à l’entrée de l’atmosphère terrestre est généralement comprise entre 11 et 21 km/s. Les comètes, quant à elle, sont essentiellement composées de glace ; leur densité est comprise entre 500 et 1500 kg/m^3 et leur vitesse à l’entrée de l’atmosphère terrestre est généralement comprise entre 30 et 72 km/s.

Auteur: Alice Le Gall

exerciceQuestions

Question 1)

En utilisant l'appliquette, vérifiez, quand cela est possible, les résultats des exercices Création du régolithe lunaire par cratérisation et Cratères secondaires.

Question 2)

Retrouvez le diamètre de transition entre cratère complexe et cratère simple pour chaque corps planétaire. Comment évolue-t-il avec la gravité ?

Question 3)

En comparant les sorties de l’appliquette pour les cas « Terre » et « Terre sans atmosphère », déduisez le principal effet de l’atmosphère.

Question 4)

Retrouvez le coefficient de la loi en puissance qui lie le diamètre final d’un cratère simple à l’accélération de pesanteur du corps sur lequel il se trouve.

Question 5)

Estimez le diamètre de la météorite à l’origine de Meteor Crater, en Arizona, sachant que ce cratère a un diamètre d’environ 1.2 km, que l’impacteur était très probablement riche en fer et en nickel, et qu’il a frappé la Terre avec un angle d’environ 80°. Vérifiez que l’ordre de grandeur théorique de la profondeur finale du cratère est en accord avec la réalité.

Question 6)

Mêmes questions pour le cratère lunaire complexe Tycho dont le diamètre est de 85 km sachant que l’impacteur qui lui a donné naissance avait une trajectoire basse au dessus de l’horizon (c’est-à-dire avec un angle d’arrivée d’au moins 45°) et que sa densité était proche de celle de la Lune.


Appliquette Migration

En raison de la grande volatilité de la glace, les surfaces glacées sans atmosphère sont soumises à un phénomène de migration/ségrégation thermique. L’appliquette ci-dessous vise à évaluer l’efficacité de ce phénomène par rapport à d’autres processus d’érosion spatiale sur les principaux satellites glacés du Système Solaire. Elle s’inspire du travail de thèse de J.R. Spencer: The surfaces of Europa, Ganymède, and Callisto- An investigation using Voyager IRIS Thermal Infrared Specta, Ph.D dissertation by John R. Spencer, 1999.

Lisez l’essentiel à savoir ci-dessous et essayez de répondre aux questions.

application.png

Le taux instantané de sublimation s de la glace peut, en première approximation, s’exprimer de la façon suivante : s=P_(vap)*(1/rho)*sqrt((M/(2*pi*R*T)))rho est la densité volumique de la glace (0.92*g*cm^(-3)), M est la masse molaire de l'eau (18*g*mol^(-1)), R est la constante universelle des gaz parfaits (8.3144621*J*K^(-1)*mol^(-1)) et T, la température instantanée (en K).

T s’obtient en égalisant le flux solaire (entrant) et le flux émis par la surface (sortant) : sigma*T^4=(1-A)*(E_o/d^2)*cos(i)sigma est la constante de Stefan-Boltzmann (5.67*10^(-8)*W*m^(-2)*K^(-4)), E_o est la constante solaire (c’est-à-dire la puissance reçue du Soleil par unité de surface normale aux rayons solaires à la distance héliocentrique de 1 UA) (1360*W*m^(-2)), d est la distance héliocentrique en UA du corps glacé, A est est l’albédo de la surface et i est l’angle d’illumination du Soleil à la surface (l’angle entre la normale à la surface et la direction de l’ensoleillement). Il dépend de la latitude, de l’heure locale et éventuellement de la saison. Ici on considère que i=latitude.

P_(vap) est la pression de vapeur saturante de la glace en Pascal, c’est-à-dire la pression à laquelle la phase gazeuse de l’eau est à l’équilibre avec sa phase solide à la température T. Dans la gamme de températures des satellites glacés du système solaire (130-150 K), il a été établi semi-empiriquement que : ln*P_vap=28.9-((4.77*10^4)/(R*T)).

exerciceQuestions

Question 1)

Mise en jambe : par une analyse dimensionnelle, retrouvez la dimension de s ?

Question 2)

Comparez l’amplitude du phénomène de ségrégation thermique entre les satellites galiléens (d=5.2*UA), les satellites saturniens (d=9.5*UA) et ceux d’Uranus (d=19.2*UA). Vous vous placerez à l’Equateur, à midi, en été et prendrez un albédo de 0.4 pour la glace équatoriale.

Question 3)

Tracez le taux de sublimation lié au phénomène de ségrégation thermique en fonction de la latitude et de l’albédo de la glace pour un satellite galiléen. Comparez son intensité sur Europa (A=0.7), Ganymède (A=0.3) et Callisto (A=0.1).

Question 4)

À quelle(s) latitude(s) ce phénomène est-il le plus actif ?

Question 5)

Dans le système de Jupiter, la vitesse de « laboure » des régolithes par impacts micro-météoritiques est de quelques 10^(-3) mm/an. L’intensité du phénomène de « sputtering », quant à elle, décroit avec la distance à Jupiter : 10^(-4.5) mm/an sur Europe, 10^(-6)mm/an sur Ganymède et 10^(-7) mm/an sur Callisto. Que peut-on en déduire sur l’efficacité du phénomène de ségrégation thermique sur Europe, Ganymède et Callisto ? Discutez.


Appliquette Erosion

L’activité éolienne et, lorsqu’elle existe (sur Terre et Titan), l’activité fluviale participent efficacement au transport des sédiments des surfaces planétaires dotées d’une atmosphère. L’initiation de ce mouvement se fait plus ou moins facilement en fonction de la nature des sédiments (densité), des caractéristiques du fluide (densité et viscosité de l’air ou de l’agent liquide) et de la pesanteur. C’est ce qu’illustre cette appliquette.

Le modèle simplifié sur lequel s’appuie cette appliquette est décrit en partie dans la section activité éolienne. Pour plus de détails se référer à : « Planetary Surface Processes » de H. Jay Melosh, Cambridge University Press, 2011.

A vous de jouer en essayant de répondre aux questions ci-dessous.

Mise en mouvement des sédiments sur Vénus, la Terre, Mars et Titan application.png

Les caractéristiques (densité, viscosité) des fluides (atmosphères, liquides) présents à la surface de Vénus, la Terre, Mars et Titan sont donnés ici. Rappelons que la composition des sédiments varie d’un corps planétaire à l’autre : du quartz (2650 kg/m^3 ) sur Terre, du basalte (2900 kg/m^3) sur Vénus et Mars et de la glace d’eau (992 kg/m^3 à 92 K) et/ou de la matière organique (1500 kg/m^3) sur Titan.

Auteur: Alice Le Gall

exerciceQuestions

Question 1)

Testez l’appliquette pour un cas quelconque et expliquez la courbe obtenue et notamment les 2 régimes qui se dégagent.

Question 2)

Sur quel objet planétaire le transport des particules sédimentaires par le vent est-il le plus facile ? Classez les planètes par ordre de facilité du transport éolien et expliquez.

Question 3)

Toutes ces planètes présentent des dunes à leur surface, sur laquelle les grains constituant ces dunes sont sans doute les plus fins ?

Question 4)

Trouvez la combinaison Planète-Atmosphère-Sédiments pour laquelle l’entrainement de la matière sédimentaire à la surface requiert les vents les plus faibles.

Question 5)

La taille typique des grains constituant les dunes sur Terre est de l’ordre de 200 μm. Commentez.

Question 6)

Comparez la mise en mouvement d’un grain à la surface par le vent à celle d’un grain situé au fond d’une rivière sur Terre. Expliquez.

Question 7)

Même question pour Titan. Notez que la composition des sédiments sur Titan n’est pas encore bien identifiée. Il pourrait s’agir de matière organique, de glace d’eau ou d’un mélange de ces composés. L’agent liquide est le méthane liquide.

Question 8)

Comparez le transport fluvial sur Titan à celui sur Terre.

Question 9)

Dans le passé, de l’eau liquide coulait sans doute à la sa surface de Mars. Comparez l’activité paléo-fluviale de Mars à celle présente de la Terre. Que se passe-t-il pour les grains les plus petits ?

Question 10)

Quelle doit être la vitesse minimum du vent à 1 m du sol pour la mise en mouvement de grains à la surface de Mars. Qu’en déduisez vous ?


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Structure interne des planètes


Structure interne des planètes

Présentation du module

Prérequis


Structure thermique des atmosphères planétaires

Auteur: Emmanuel Marcq

Structure thermique des atmosphères planétaires

Dans cette partie, nous verrons comment s'établit la structure thermique dans les couches externes fluides (principalement gazeuses, ce que l'on appelle les atmosphères) des planètes, ainsi que les conséquences de l'existence d'une telle structure.

prerequisPrérequis

Il est possible de parcourir la partie Découvrir avec un simple bagage de Terminale scientifique ou d'amateur de vulgarisation scientifique. En revanche, la bonne compréhension des phénomènes en jeu et la capacité à calculer même approximativement les conditions moyennes au sein d'une atmosphère planétaire exigent un bagage en physique générale niveau licence, à savoir plus précisément :

[Cliquer ici pour commencer le cours]


Découvrir

Auteur: EM

Introduction

Auteur: EM

Importance du profil de température

Conditions à la surface

L'observation de la seule biosphère connue à jour (celle de la Terre) conduit les exobiologistes à poser comme nécessaire la présence d'eau liquide (ou au moins d'un liquide aux propriétés analogues comme l'ammoniac) à la surface d'une planète pour qu'une chimie prébiotique complexe, puis une activité biologique au sens propre, puisse s'y développer. Si bien que la notion d'habitabilité planétaire est de nos jours quasiment devenue un synonyme de présence possible d'eau liquide.

Or, si la disponibilité de l'eau dans l'Univers ne fait guère de doutes (la molécule H2O étant l'une des plus répandues), la question de son apport sur les planètes telluriques fait encore l'objet de débats. Surtout, la permanence de son état liquide est encore plus difficile à obtenir, et nécessite une fourchette de conditions de pression et de température bien particulières (ainsi, à la pression atmosphérique terrestre, doit-on se trouver entre 0°C et 100°C pour que l'eau puisse demeurer liquide). Les conditions de pression et de température au sein des atmosphères planétaires de leur sommet jusqu'à l'éventuelle surface constituent donc l'un des facteurs essentiels conditionnant les phénomènes pouvant s'y dérouler (qu'ils soient de nature biologique, ou plus simplement chimique ou météorologique).

Classification des atmosphères planétaires
forget_leconte.png
Typologie des atmosphères planétaires en fonction de la température (abscisse) et de la masse de la planète (ordonnée). Les atmosphères habitables correspondent à la zone centrale, où l'eau peut se trouver sous forme de glace, de vapeur et, de façon cruciale, liquide.
Crédit : Tiré de Forget & Leconte (2013)

Observables à distance

Une autre question cruciale est celle de la détectabilité de telles planètes dans notre voisinage galactique. Le seul moyen envisageable pour caractériser ces planètes consiste en l'étude spectroscopique (c'est-à-dire, décomposé selon ses différentes "couleurs") du rayonnement qui nous parvient. Ce rayonnement peut nous parvenir principalement par deux processus physiques distincts :


Transports d'énergie au sein des atmosphères

Il existe trois modes de transport de la chaleur au sein des atmosphères planétaires, qui déterminent les variations de température au sein de ces atmosphères :

Illustration des modes de transport de la chaleur
ConvetionConductionRadiation.jpg
Dans cette situation de la vie quotidienne, les trois modes de transport de l'énergie sont illustrés : la chaleur (énergie thermique) voyage au sein du liquide par des mouvement de convection, la casserole est chauffée radiativement par la plaque et le manche métallique est un bon conducteur de chaleur vers la main.

Grandeurs fondamentales

Auteur: EM

Échelle de hauteur

definitionDéfinition et intérêt

Une des plus importantes caractéristiques des atmosphères planétaires est leur épaisseur verticale. En toute rigueur, leur densité décroît continûment avec l'altitude jusqu'à rejoindre celle du milieu interplanétaire, si bien qu'il est difficile de leur attribuer une épaisseur bien définie. On peut néanmoins caractériser la rapidité avec laquelle cette densité décroît avec l'altitude (atmosphère plus ou moins bien "tassée" verticalement). Cela définit ce que l'on appelle l'échelle de hauteur atmosphérique, qui représente la différence d'altitude entraînant une division de la pression atmosphérique (liée à la densité) par un facteur constant (e \approx 2.718). Le lecteur intéressé par une définition quantitative pourra se reporter ici.

Facteurs influant sur l'échelle de hauteur

Cette échelle de hauteur est le résultat du compromis entre deux phénomènes physiques : la gravitation qui tend à tasser les molécules de l'atmosphère vers le bas, et l'agitation thermique des molécules qui tend à les disperser dans tout l'espace, y compris vers le haut. À ce titre, et toutes choses égales par ailleurs, l'échelle de hauteur atmosphérique est :

Échelles de hauteur des atmosphères du système solaire
Planète (ou satellite)VénusTerreMarsJupiterIoSaturneTitanUranusNeptuneTritonPluton
Échelle de hauteur (en km)168,411257,9482127221418

Dans le système solaire, les valeurs extrêmes vont de 8\,\mathrm{km} pour la Terre à environ 50\,\mathrm{km} pour Saturne. Ces valeurs sont en général très petites devant le rayon de la planète, si bien que l'on peut négliger la courbure de la planète et considérer l'atmosphère comme une succession de couches planes empilées de bas en haut. C'est ce que l'on appelle l'approximation plan-parallèle.

Détermination graphique de l'échelle de hauteur
scale_height.png
Lecture graphique de l'échelle de hauteur atmosphérique. Sur le profil de pression standard de l'atmosphère terrestre, on repère l'altitude H à laquelle la pression est divisée par le nombre e (environ 2,718). Cette altitude définit l'échelle de hauteur au niveau de la surface, proche ici de 8\,\mathrm{km}.
Crédit : Emmanuel Marcq

Gradient adiabatique

definitionDéfinition

Là où la convection est le mode de transport dominant d'énergie dans une atmosphère, on constate une décroissance régulière de la température avec l'altitude selon un coefficient (en °C/km ou K/km) appelé gradient adiabatique. En effet, si l'on considère une masse de gaz au cours de son transport dans un courant de convection vertical, celle-ci devra lutter contre la pesanteur et donc fournir de l'énergie pour ce faire. Or, le seul "réservoir" d'énergie d'un gaz parfait réside dans sa capacité calorifique. Il y aura donc une conversion partielle de son énergie thermique (en fait, de son enthalpie puisqu'on y inclut le travail des forces de pression) vers de l'énergie potentielle de pesanteur, et donc une baisse de la température de la parcelle d'air d'autant plus grande que celle-ci aura acquis davantage d'altitude (voir ici pour la démonstration). Si une région de l'atmosphère est soumise à cette circulation et en négligeant les autres modes de transport d'énergie, la température y décroît alors avec l'altitude en suivant ce gradient adiabatique.

Gradient adiabatique humide

En pratique cependant, les atmosphères planétaires ne sont pas constituées que de gaz parfaits, mais comportent des gaz en équilibre avec leur propre phase condensée (liquide ou solide). C'est le cas par exemple sur Terre de la vapeur d'eau qui constitue une proportion variable de l'atmosphère terrestre et se trouve parfois en équilibre avec des gouttes d'eau liquide ou des cristaux de glace d'eau. Ou encore de Titan où c'est le méthane gazeux qui se trouve parfois au contact de gouttes de méthane liquide. En ce cas, il existe un réservoir d'énergie supplémentaire pour une parcelle d'atmosphère en mouvement ascendant, à savoir l'énergie libérée par le gaz condensable lorsqu'il se convertit en gouttelettes liquides ou en cristaux solides, ce que l'on appelle la chaleur latente de condensation. Ce réservoir supplémentaire d'énergie limite alors la baisse de température avec l'altitude vers une valeur plus faible. On parle alors de gradient adiabatique humide, que l'on distingue du gradient adiabatique sec en l'absence de condensation.

Troposphère

La couche atmosphérique où la convection est le mode dominant de transport d'énergie s'appelle la troposphère, caractérisée par la décroissance en température décrite ci-dessus. C'est la couche atmosphérique la plus profonde, au contact de la surface pour les planètes telluriques. Au-dessus de la troposphère, les densités plus faibles rendent le transport d'énergie par rayonnement comparativement plus efficace que la convection, car le milieu dilué devient davantage transparent au rayonnement thermique.

Comparaison des profils thermiques de la Terre et de Titan
ETilayers.jpg
Comparaison des profils thermiques des atmosphères de la Terre et de Titan (un satellite de Saturne). On y constate que le profil thermique y suit une pente constante entre la surface et 10 km d'altitude pour la Terre et 30 km pour Titan, ce qui définit l'étendue verticale de la troposphère pour les deux atmosphères. Ces pentes correspondant aux gradients adiabatiques, plus fort sur Terre que sur Titan car la gravité terrestre est plus forte.
Crédit : LASP, Université du Colorado

Modèle du corps noir

definitionDéfinition

Le corps noir est un objet physique idéal qui absorbe tout le rayonnement électromagnétique qu'il reçoit (sa réflectivité est donc nulle à toutes les longueurs d'onde).

Propriétés

La propriété fondamentale du corps noir est que l'intégralité du rayonnement électromagnétique en provenance de cet objet est d'origine thermique. Le spectre de ce rayonnement ne dépend alors que de la température du corps noir en question. En particulier :

Corps noirs approchés

Certains objets réels sont de bonnes approximations du corps noir idéal, du moins sur certains intervalles de longueur d'onde et dès que le rayonnement réfléchi y est négligeable devant l'émission thermique et en l'absence de processus d'émission autres que thermiques. C'est par exemple le cas de la plupart des objets du quotidien dans le domaine infrarouge moyen (pour les longueurs d'onde autour de 10\,\mathrm{\mu m}.), ou encore des étoiles dans le domaine visible.

Spectres de corps noir
cn.png
Représentation des spectres thermiques émis par divers corps noir de température variable. Notez les échelles logarithmiques utilisées sur chacun des axes, nécessaires pour bien représenter les longueurs d'onde du pic et puissances spectrales, toutes deux très différentes selon la température.
Crédit : Astrophysique sur Mesure

Domaines visibles et infrarouge thermique

Il est d'usage de distinguer deux intervalles spectraux différents lorsque les planètes ont une température notablement plus faible que leur étoile (ce qui est toujours le cas dans le système solaire, mais pas toujours pour les planètes extrasolaires !).


Température d'équilibre

definitionDéfinition

La température d'équilibre d'une planète est la température théorique de sa surface (si on suppose cette température uniforme) en l'absence d'atmosphère. C'est une grandeur théorique qui n'a pas vocation à être mesurée, contrairement à la température effective.

Bilan de rayonnement

La température d'équilibre se détermine à partir d'un simple bilan de rayonnement (visible et thermique). Cela revient à négliger les autres sources d'énergie que le rayonnement de l'étoile hôte (le Soleil pour la Terre par exemple) : géothermie, réactions chimiques ou nucléaires, transitions de phase, etc. Sont pris en compte :

La température de surface influe ici sur le rayonnement thermique. Elle est égale à la température d'équilibre lorsque le bilan est équilibré, à savoir : Puissance lumineuse reçue = Puissance lumineuse réfléchie + Puissance rayonnée thermiquement, ce qui est équivalent à Puissance lumineuse absorbée = Puissance rayonnée thermiquement.

Détermination de la température d'équilibre
teq.png
Bilan de puissance pour une planète sans atmosphère : le flux reçu de l'étoile équilibre la somme du flux réfléchi par la planète et du flux rayonné thermiquement (en rouge), qui dépend fortement de la température de la planète. Ce bilan peut donc servir à déterminer cette température, appelée température d'équilibre.
Crédit : Emmanuel Marcq

Influence des différents paramètres

Une remarque importante est que cette définition repose sur l'hypothèse irréaliste d'une température de surface homogène sur l'ensemble de la planète, donc avec une redistribution parfaite de l'énergie. Cette température est donc un outil théorique plus qu'une température physiquement mesurable. Le lecteur intéressé par une approche plus quantitative (mais identique conceptuellement) pourra se reporter ici.


Température effective

definitionDéfinition

La température effective est une mesure de la puissance émise thermiquement par une planète. Elle se définit comme la température du corps noir (idéal) émettant la même puissance totale (en comptant toutes les longueurs d'onde) que la planète par unité de surface. Contrairement à la température d'équilibre, c'est une grandeur expérimentalement mesurable.

Comparaison entre température effective et température d'équilibre

Nous connaissons assez bien le système solaire pour pouvoir mesurer les températures effectives des planètes et les comparer aux températures d'équilibre théoriques. Le résultat est résumé sur le tableau ci-dessous :

Températures caractéristiques dans le système solaire
Planète (ou satellite)MercureVénusTerreLuneMarsJupiterSaturneTitanUranusNeptune
Température d'équilibre (°C)161-42-19-2-63-163-192-191-215-227
Température effective (°C)161-42-19-2-63-149-178-191-214-214
Température moyenne de surface (°C)16146215-2-58N/AN/A-179N/AN/A

Pour la plupart des planètes extrasolaires (hormis les plus grosses et les plus chaudes), seule la température d'équilibre peut être estimée (en supposant un albédo donné par un modèle théorique). Les ordres de grandeur de ces deux températures sont comparables lorsque la source d'énergie principale de l'atmosphère est le rayonnement de l'étoile hôte, comme c'est le cas dans le système solaire. Pour les planètes telluriques (et le satellite de Saturne Titan), ces deux températures sont mêmes égales car les sources d'énergie interne à la planète ont un effet négligeable sur l'atmosphère, ce qui n'est pas le cas pour les géantes gazeuses.

Comparaison entre température effective et température de surface

On constate également sur le tableau précédent que pour les corps possédant une surface solide, la température moyenne de la surface est toujours au moins égale à la température effective (égale pour un corps sans atmosphère comme la Lune ou bien Mercure, supérieure pour ceux possédant une atmosphère). Ce phénomène est appelé effet de serre et sera expliqué plus en détail à la page suivante.


Effet de serre

introductionOrigine

Le phénomène essentiel à l'origine de l'effet de serre au sein d'une atmosphère réside dans la différence d'absorption des rayonnements infrarouge thermique (en provenance de la planète) et visible/UV (en provenance de l'étoile) par les constituants de l'atmosphère. Les constituants gazeux d'une atmosphère (en excluant les particules solides ou liquide en suspension comme les poussières ou les cristaux et gouttelettes des nuages) sont en général transparents pour la lumière visible émise par leur étoile. En revanche, certains de ces gaz (comme la vapeur d'eau H2O, le dioxyde de carbone CO2 ou encore le méthane CH4) absorbent très bien le rayonnement infrarouge d'origine thermique émis par la planète.

Mécanisme

Cette différence d'absorption entre les rayonnements conduit à une séparation entre les régions :

Or, le bilan d'énergie de la planète impose que ce soit la couche rayonnant vers l'espace qui soit à la température effective permettant un équilibre entre la puissance reçue et celle absorbée. Il faut donc que l'énergie absorbée en profondeur puisse être transportée jusqu'à cette altitude de rayonnement. Comme l'atmosphère profonde située entre ces deux niveaux est opaque aux infrarouges, le rayonnement n'est pas le mode le plus efficace de transport, et c'est la convection qui prend le relais. Cette atmosphère profonde, s'étendant depuis l'altitude d'émission infrarouge jusqu'en bas (surface ou intérieur planétaire pour les géantes) n'est autre que la troposphère définie précédemment. Afin que ce transport d'énergie par convection puisse avoir lieu, il faut que la température de surface soit plus élevée que celle au sommet de la troposphère selon le gradient adiabatique. La température au sommet de la troposphère étant égale à la température effective, la température de surface est en conséquence plus élevée, ce qui est la définition même de l'effet de serre.

Effet de serre et profil thermique
radconv.png
Effet de serre modéré (à gauche) et intense (à droite). L'augmentation de l'opacité infrarouge de l'atmosphère (à droite) force le rayonnement thermique à provenir de couches plus élevées (à partir du pointillé rouge). La troposphère, zone où la convection assure le transport d'énergie vers le haut (flèches blanches) et où le profil de température est linéaire, s'étend donc plus profondément. Cela conduit à une température de surface plus élevée : l'effet de serre a augmenté (mais le profil de température dans la zone supérieure radiative reste inchangé ! Le bilan radiatif global et donc la température effective restent identiques.)
Crédit : Emmanuel Marcq

Couches atmosphériques supérieures

Ce sont les couches atmosphériques situées au-dessus de la troposphère, où la convection joue un rôle négligeable.

definitionMésosphère

La couche atmosphérique située au-dessus de la troposphère est (en général, voir page suivante) appelée mésosphère. Le transport d'énergie s'y fait exclusivement par rayonnement. La température y décroît avec l'altitude en tendant vers une valeur appelée température de peau atmosphérique. Cette décroissance s'y effectue de façon beaucoup plus modérée que dans la troposphère située en dessous et soumise au gradient adiabatique.

definitionThermosphère

Au sommet de la mésosphère, l'atmosphère devient complètement transparente à tous les rayonnements (les rayonnements visible ou IR thermique ne peuvent donc y déposer leur énergie) et extrêmement ténue (la convection est donc inefficace). Le transport d'énergie y est donc assuré faute de mieux par des processus de conduction qui sont eux-mêmes très inefficaces à grande distance. Cette zone connaît donc d'énormes contrastes de température verticaux et horizontaux car l'énergie qui y est déposée par les particules énergétiques de l'espace interplanétaire ou les rayonnements X et γ de l'étoile s'évacue très difficilement, ce qui conduit à l'appellation de thermosphère. La température y croît avec l'altitude, comme montré plus en détail ici.

definitionStratosphère

Certaines atmosphères planétaires possèdent une couche supplémentaire appelée stratosphère située entre la troposphère et la mésosphère. Cette couche est une couche radiative (la convection n'y joue aucun rôle dans le transport vertical de la chaleur) et connaît une inversion de température : la température y croît avec l'altitude ! Cette inversion est causée par une absorption partielle de la lumière et/ou des UV stellaires assez haut dans l'atmosphère, si bien que cette énergie ne peut pas s'évacuer par convection et seulement difficilement par radiation. Il se crée alors une anomalie chaude qui déforme le profil de température, allant jusqu'à l'inversion de température.

Dans le système solaire, Vénus et Mars ne possèdent pas de stratosphère (ces atmosphères principalement constituées de CO2 rayonnent très efficacement en infrarouge le peu de puissance absorbé à haute altitude, si bien que les anomalies de températures n'altèrent pas la forme du profil thermique). La Terre en possède une, causée par l'absorption des UV solaires par l'ozone (O3), sous-produit du dioxygène (O2) d'origine biologique. Les planètes géantes en possèdent également (causée par des composés hydrocarbonés absorbant les UV) ainsi que Titan (par absorption des UV solaires sur les particules du brouillard photochimique produit dans la haute atmosphère).

Profils thermiques des trois atmosphères telluriques du système solaire
EVMgreenhouseT.jpg
Profils thermiques de Mars, Vénus et de la Terre. Les profils thermiques des atmosphères de Mars et de Vénus ne comportent pas de stratosphère, tandis que l'atmosphère terrestre en comporte une, située d'après ce graphique entre 10 et 50 km d'altitude.
Crédit : Laboratory for Atmospheric and Space Physics, traduit et adapté par E. Marcq

Comprendre

Auteur: EM

Sans atmosphère

Auteur: EM

Lois du corps noir

Nous allons à présent aborder les lois quantitatives permettant de modéliser simplement les profils verticaux de température au sein des atmosphères planétaires. Cela nécessite quelques rappels sur le rayonnement thermique, dit de "corps noir".

definitionSpectre du corps noir

L'intensité lumineuse B_{\lambda}(T), définie comme la puissance émise par unité de surface émettrice, par angle solide autour de la direction du rayon et par unité de longueur d'onde \lambda émise par tout corps noir idéal de température T, est donnée par la loi de Planck :

\[ B_{\lambda}(T) = \frac{2 h c^2}{\lambda ^5} \frac{1}{\exp \left( \frac{hc}{\lambda kT} \right) -1} \]

h, c et k désignent respectivement les constantes fondamentales de Planck, de la vitesse de la lumière et de Maxwell-Boltzmann. Cette fonction possède des propriétés mathématiques aux conséquences importantes pour la suite du cours.

definitionLoi de Wien

Elle donne la position du maximum en \lambda de B_{\lambda}(T) à température T donnée, comme illustré précédemment.

\lambda_{\mathrm{max}} \approx \frac{hc}{2,821\;k T} \approx \frac{2898\,\mathrm{\mu m \cdot K}}{T }

Autrement dit, plus le corps est chaud, et plus il émet principalement à des longueurs d'ondes courtes et ce de façon inversement proportionnelle. Cela justifie la séparation du spectre lumineux en :

La séparation entre les deux domaines est prise de façon conventionnelle autour de 5\,\mu\mathrm{m}. Dans le contexte exoplanétaire, une remarque importante s'impose dès maintenant : la plupart des exoplanètes actuellement connues sont extrêmement chaudes, avec des températures excédant souvent 1000\,\mathrm{K}, si bien que la limite entre infrarouge thermique et lumière stellaire est décalée vers de plus courtes longueurs d'onde, voire devient complètement dénuée de sens. Cela empêche notamment d'appliquer tels quels les modèles atmosphériques conçus dans le système solaire qui distinguent ces deux catégories.

definitionLoi de Stefan

Lorsque l'on ne s'intéresse pas au détail du spectre émis par le corps noir, il est souvent intéressant de calculer le flux (c'est à dire la puissance par unité de surface émettrice) total émis par le corps noir dans un demi-espace (par exemple, pour une surface planétaire, vers le haut). Pour cela, il suffit d'intégrer la loi de Planck sur sa variable spectrale \lambda, et sur les 2\pi\,\mathrm{sr} d'angle solide en question. Le calcul donne alors le résultat suivant, connu sous le nom de loi de Stefan-Boltzmann :

\[ F = \sigma T^4 \]

\sigma = \frac{2\pi^5 k^4}{15h^3c^2} \approx 5.67 \times 10^{-8}\,\mathrm{W/m^2/K^4} est connu sous le nom de constante de Stefan-Boltzmann. La puissance émise par un corps noir dépend donc énormément de sa température (une augmentation relative de 1\% de sa température entraîne ainsi une augmentation d'environ 4\% du flux émis).


Loi de Kirchhoff

definitionÉmissivité

Le corps noir est un modèle abstrait que l'on ne rencontre pas dans la vie courante. Le spectre thermique S_{\lambda}(T) émis par un corps donné se trouvant à l'équilibre thermodynamique à la température T peut alors s'exprimer comme S_{\lambda}(T) = \varepsilon_{\lambda}\times  B_{\lambda}(T)\varepsilon_{\lambda} est une grandeur sans dimension appelée émissivité (qui dépend de la température, mais de façon moins marquée que la fonction de Planck B_{\lambda}(T) si bien que par souci d'alléger les notations, on ne la note pas en général \varepsilon_{\lambda}(T) comme on le devrait en toute rigueur).

definitionLoi de Kirchhoff

Considérons un corps noir en contact radiatif avec un corps réel à travers un filtre laissant seulement passer les radiations à la longueur d'onde \lambda. On sait qu'une fois l'équilibre thermodynamique atteint, ces deux corps en contact radiatif auront la même température T. Si l'on note a_{\lambda} la fraction du rayonnement incident absorbée par le corps réel, que l'on appelle absorbance, il en renvoie la fraction complémentaire \left( 1 - a_{\lambda} \right). Un bilan net des flux (nul à l'équilibre) à travers le filtre donne alors la relation B_{\lambda}(T) = \varepsilon_{\lambda} B_{\lambda}(T) + \left(1 - a_{\lambda} \right) B_{\lambda} (T), ce qui se simplifie en a_{\lambda} = \varepsilon_{\lambda}. C'est la loi de Kirchhoff, que L'on résume souvent en "les bons absorbeurs sont les bons émetteurs".

Illustration de la loi de Kirchhoff
kirchhoff.png
Crédit : EM

conclusionConséquences


Température d'équilibre sans atmosphère

Cette page développe de façon quantitative les notions vues de façon qualitative ici.

demonstrationDétermination du flux incident sur la planète

demonstrationBilan de puissance

demonstrationExpression de la température d'équilibre

Le bilan radiatif à l'équilibre imposant l'égalité entre la puissance rayonnée par la planète et la puissance absorbée par la planète, on obtient alors l'équation suivante :

\[ \pi R^2 \left(1 - A \right) F = 4 \pi R^2 \sigma {T_{\mathrm{eq}}^4 \]

qui se résout directement, après simplification du rayon R de la planète (ce qui signifie qu'en première approximation, la température d'une planète ne dépend pas de sa taille) en :

T_{\mathrm{eq}} = \left[ \frac{\left(1 - A\right) F}{4 \sigma} \right]^{1/4} = \sqrt{\frac{R_*}{d}} \left( \frac{1-A}{4} \right)^{1/4} T_*

ce qui permet de constater que cette température décroît avec la distance à l'étoile, et est proportionnelle à celle de l'étoile. Ainsi, toutes choses égales par ailleurs, pour une étoile naine rouge d'une température moitié de celle du Soleil, il faut pour conserver une température d'équilibre donnée se rapprocher de l'étoile d'un facteur quatre : on peut d'ores et déjà affirmer que les zones habitables autour des petites étoiles de faible température (naines rouges) sont très proches de ces dernières. Notons au passage que la température d'équilibre d'une planète est bornée par celle de son étoile, plus précisément comprise entre 0\,\mathrm{K} (à très grande distance) et 0,7 \times T_* à la limite où l'orbite de la planète est tangente à son étoile (et la planète de rayon négligeable devant l'étoile).


Structure verticale des atmosphères

Auteur: EM

Atmosphère isotherme

demonstrationÉquation hydrostatique en géométrie plan-parallèle

Cette équation relie l'augmentation de la pression en descendant avec la masse volumique locale (autrement dit, elle exprime le fait que l'origine physique de la pression au sein des atmosphères est le poids de la colonne de gaz située à la verticale). La différence de pression dP entre le haut et le bas d'une couche d'épaisseur dz (la direction verticale étant bien définie en géométrie plan-parallèle) dépend donc de la masse contenue dans un volume de section horizontale S et d'épaisseur dz, d'où, par équilibre des forces verticales s'exerçant sur ce volume -S P(z+dz) + S P(z) = \rho dV g = \rho g S dz

Équilibre hydrostatique
hydrostat.png
Schéma des forces appliquées à une tranche d'air à l'équilibre.
Crédit : Emmanuel Marcq

Une simplification par S fait donc apparaître dP = - \rho g dz : la pression décroît bien avec l'altitude, selon la masse volumique et la gravité locales.

definitionReformulation de l'équation d'état du gaz parfait

La forme habituelle de cette équation PV = nRT, où R \approx 8,314\,\mathrm{J/mol/K} désigne la constante des gaz parfaits, P la pression, V le volume occupé, n le nombre de moles et T la température n'est pas vraiment adaptée à une formulation locale (intensive, dirait-on en thermodynamique). Il vaut mieux la présenter sous la forme P = \frac{n}{V} RT, où l'on voit apparaître la densité molaire (homogène à des \mathrm{mol/m^3}) locale. Or, cette grandeur est proportionnelle à la masse volumique selon la relation \frac{n}{V} = \frac{\rho}{M}M désigne la masse molaire. Il est alors possible d'exprimer la masse volumique du gaz parfait en fonction des conditions de pression et température locales, ainsi que de la masse molaire du gaz constituant : \rho = \frac{MP}{RT}.

demonstrationÉchelle de hauteur

On suppose ici que l'atmosphère est constituée d'un gaz parfait de masse molaire M, et que l'atmosphère est de surcroît isotherme à la température T selon l'altitude. L'utilisation de l'équation d'état du gaz parfait au sein de l'équilibre hydrostatique donne, par substitution de \rho, \frac{dP}{P} = - \frac{dz}{H} avec H = \frac{RT}{Mg} désignant une grandeur homogène à une altitude. On l'appelle échelle de hauteur, et son interprétation est plus claire en intégrant l'équation différentielle où elle apparaît, avec la condition à la limite inférieure P(z=0) = P_0 :

\[ P(z) = P_0 \exp \left( - \frac{z}{H} \right)

L'échelle de hauteur H représente donc la hauteur caractéristique avec laquelle la pression décroît avec l'altitude pour tendre vers 0 dans l'espace interplanétaire à grande distance de la planète (mais l'approximation plan-parallèle, ainsi que la thermodynamique usuelle à l'équilibre cessent d'être valides à quelques dizaines d'échelles de hauteur au-dessus de la surface).

Dans le cas d'une atmosphère non isotherme, la résolution formelle est un peu plus complexe, mais l'idée générale d'une décroissance localement exponentielle selon une échelle de hauteur locale dépendant de la température locale reste valable.

Autre interprétation de l'échelle de hauteur

On peut reformuler la constante des gaz parfaits selon R = k \mathcal{N}k désigne la constante de Maxwell-Boltzmann et \mathcal{N} la constante d'Avogadro, puis simplifier dans l'expression de H. On obtient alors mgH =  kTm = M/\mathcal{N} désigne la masse d'une molécule de gaz : une molécule de gaz à la hauteur caractéristique possède donc une énergie potentielle de pesanteur du même ordre que son énergie cinétique microscopique (thermique) moyenne. On comprend donc bien pourquoi H représente le compromis entre l'agitation thermique qui tend à disperser les atmosphères (H est croissant avec T), et le poids qui a tendance à tasser les atmosphères vers le bas : H décroît avec m (atmosphère dense) et g (gravité forte).


Effet de serre

prerequisCadre du modèle

Dans un modèle purement radiatif d'une colonne d'atmosphère (sans convection ni conduction), il est relativement facile d'estimer l'effet de serre causé par une atmosphère (transparente en lumière visible et partiellement opaque au rayonnement infrarouge thermique) entourant une planète tellurique.

On supposera que la surface possède une émissivité égale à 1 en infrarouge thermique, et que celle de l'atmosphère (directement reliée à son absorbance via la loi de Kirchhoff) est prise constante et égale à \varepsilon_a dans tout le domaine infrarouge thermique (c'est ce que l'on appelle l'approximation grise). L'atmosphère est considérée ici isotherme à la température T_a. On négligera aussi les flux d'énergie éventuels provenant de l'intérieur de la planète, et on supposera que l'étoile émet de façon négligeable dans l'infrarouge thermique, situé loin de son maximum d'émission dans le visible (ou le proche IR pour les plus froides d'entre elles).

Bilans de flux

Représentation des flux rayonnants
gh1.png
Représentation schématique des flux (bleu pour le domaine stellaire visible-UV-proche IR, rouge pour le domaine infrarouge thermique).
Crédit : Emmanuel Marcq

La situation est très simple pour les flux stellaires. \bar{F} désigne le flux moyen à la surface de la planète, qui se déduit du flux à incidence normale appelé constante solaire (ou stellaire) par l'égalité des puissances : \pi R^2 F = 4 \pi R^2 \bar{F} (voir le raisonnement définissant la température d'équilibre pour plus de détails, R désigne ici le rayon planétaire). On en déduit immédiatement \bar{F} = F/4 : un facteur 2 s'explique aisément par le fait que seul un hémisphère est éclairé, et l'autre facteur 2 par la moyenne du cosinus de l'angle d'incidence intervenant dans le calcul local du flux.

En vertu de la définition de l'émissivité, l'atmosphère rayonne donc \varepsilon_a \sigma {T_a}^4 dans chacun des demi-espaces inférieur (vers la surface) et supérieur (vers l'espace). En vertu de la loi de Kirchhoff, cette émissivité est égale à son absorbance, si bien que la fraction complémentaire \left( 1 - \varepsilon_a \right) du rayonnement en provenance de la surface (considérée comme un corps noir) réussit à la traverser, le reste étant absorbé (on néglige les processus de diffusion ici ; seules les émissions et absorptions sont prises en compte).

Le bilan des flux à la surface donne alors à l'équilibre radiatif (synonyme d'égalité entre la somme des flux entrants et la somme des flux sortants) : \bar{F} + \varepsilon_a \sigma {T_a}^4 = A \bar{F} + \sigma {T_{\mathrm{surf}}}^4, tandis que celui au niveau de la couche atmosphérique donne \sigma {T_{\mathrm{surf}}}^4 = \left(1 - \varepsilon_a \right) \sigma {T_{\mathrm{surf}}}^4 + 2 \sigma \varepsilon_a {T_a}^4. Nous avons donc deux équations pour les deux inconnues T_a et T_{\mathrm{surf}}, et la résolution du système donne alors : T_{\mathrm{surf}} = \left( \frac{2}{2 - \varepsilon_a} \right)^{1/4} T_{\mathrm{eq}} et T_a = \left( \frac{1}{2 - \varepsilon_a} \right)^{1/4} T_{\mathrm{eq}} où l'on aura reconnu la température d'équilibre T_{\mathrm{eq}} = \left[\frac{(1-A) F}{4 \sigma} \right]^{1/4} =  \left[\frac{(1-A) \bar{F}}{\sigma} \right]^{1/4} définie précédemment.

conclusionDiscussion


Effet de serre : modèles plus complexes

introductionLimite du modèle à une seule couche

Le modèle vu précédemment a l'inconvénient de ne pas pouvoir excéder une augmentation de température à la surface de 19\,\%. Ceci est insuffisant dans le cas des atmosphères très épaisses comme celle de Vénus, où le rapport T_{\mathrm{surf}}/T_{\mathrm{eq}} excède 320\,\% ! Cela signifie que de telles atmosphères ne peuvent se modéliser par une unique couche isotherme, même totalement absorbante aux rayons infrarouges. Il existe différents modèles plus complexes permettant de mieux rendre compte des effets de serre intenses.

Modèles à plusieurs couches

Une première idée est d'ajouter, au-dessus de la première couche atmosphérique complètement opaque au rayonnement thermique de la planète, une ou plusieurs couches (la dernière couche immédiatement avant l'espace pouvant être partiellement transparente). Ces différentes couches atmosphériques peuvent alors chacune adopter des températures différentes, et former ainsi un profil de température décroissant avec l'altitude. Il faut ainsi environ une centaine de couches opaques pour rendre compte de la température de surface de Vénus.

L'étude d'un modèle à deux couches atmosphériques fait l'objet du mini-projet associé à ce chapitre.

Modèles radiatifs continus

Une vision plus réaliste mais ne faisant toujours intervenir que des échanges d'énergie par rayonnement consiste à découper l'atmosphère en un mille-feuille constitué d'une infinité de couches atmosphériques infiniment fines (d'un point de vue radiatif). En restant dans l'approximation grise en infrarouge thermique et transparente en lumière visible, il est même possible (mais hors-programme au niveau licence) de démontrer l'expression du profil de température en fonction de la profondeur optique \tau en infrarouge thermique : T^4(\tau) = \frac{{T_{\mathrm{eq}}}^4}{2} \left( 1 + \frac{3}{2} \tau \right). Notons que dans ce modèle, on obtient T_{\mathrm{surf}}^4 = {T_{\mathrm{eq}}}^4 \left(1 + \frac{3}{4} \tau_{\mathrm{surf}} \right) > T^4 \left( \tau_{\mathrm{surf}} \right) : le seul équilibre radiatif tend à créer une discontinuité de température au niveau de la surface, ce qui déclencherait alors des processus de convection pour y remédier. Un tel contraste thermique est néanmoins observable à la surface des planètes telluriques éclairées par le Soleil, comme une plage sur Terre par beau temps (le sable peut alors être brûlant et l'air frais), ou mieux encore dans les déserts de Mars.

Néanmoins, dans les atmosphères épaisses ou pour expliquer l'existence des stratosphères, l'absorption de la lumière stellaire par l'atmosphère doit être prise en compte (par exemple, seuls quelques pourcents de la lumière solaire atteint directement la surface de Vénus). Des expressions analytiques deviennent alors délicates à trouver, mais des modèles numériques peuvent être utilisés pour déterminer les profils de température dans une colonne d'atmosphère (ce que l'on appelle un modèle 1D radiatif). On peut également profiter de la puissance de calcul des ordinateurs pour abandonner d'autres approximations : il est par exemple indispensable d'abandonner l'approximation grise en infrarouge thermique si l'on veut simuler le spectre du rayonnement thermique émis par la planète.


Expression des gradients adiabatiques

demonstrationGradient adiabatique sec

Lorsqu'une parcelle de gaz se déplace verticalement de façon adiabatique, sa température varie sous l'effet des variations de pression. Si l'on considère un déplacement élémentaire entre l'altitude z et z+dz d'une masse m d'un gaz de capacité calorifique à pression constante Cp, d'entropie S et de volume V à la pression P et à la température T, un bilan de son enthalpie H donne dH = m C_p dT = T dS + V dP = V dP puisque dS=0 (déplacement adiabatique). La variation de pression dP étant reliée au déplacement vertical selon la loi hydrostatique dP = - \rho g dz = -\frac{m}{V} g dz, on obtient alors dT = -\frac{g}{C_p} dz = \Gamma dz en posant \Gamma = -\frac{g}{C_p}, appelé gradient adiabatique (sec). La détente adiabatique d'une parcelle de gaz ascendante conduit donc à un refroidissement proportionnel à la différence d'altitude selon le gradient adiabatique.

Une autre façon, peut-être plus intuitive, de considérer ce phénomène est d'interpréter la relation intermédiaire obtenue mC_p dT = - mg dz : la variation d'enthalpie du gaz (son "énergie thermique" en tenant compte des forces de pression) est directement reliée à sa variation d'énergie potentielle. Faire monter une parcelle de gaz lui coûte de l'énergie potentielle, ce qui est prélevé sur l'énergie thermique interne de ce gaz en l'absence de chaleur communiquée depuis l'extérieur.

demonstrationGradient adiabatique humide

Certaines atmosphères comportent des espèces chimiques condensables. L'exemple par excellence est la vapeur d'eau sur Terre, qui peut se condenser en glace ou un eau liquide. On rencontre aussi ce cas de figure sur Titan avec cette fois le méthane, ou encore dans les atmosphères des géantes gazeuses au niveau de leurs couches nuageuses. Le bilan précédent doit alors être modifié pour tenir compte de la libération de chaleur latente causée par le changement d'état qui peut arriver lorsque l'espèce condensable est saturée.

Le nouveau bilan d'enthalpie est alors donné par dH = VdP + L dm_{\mathrm{vol}}L désigne l'enthalpie massique de condensation et dm_{\mathrm{vol}} la masse d'espèce volatile qui se condense au cours du déplacement au sein de la parcelle de gaz. On arrive alors à l'expression suivante pour le nouveau gradient adiabatique \Gamma' (dit gradient adiabatique humide) : \Gamma' = \frac{\Gamma}{1 + \frac{L}{C_p} \frac{\partial e_{\mathrm{vol}}}{\partial T}}e_{\mathrm{vol}} désigne la fraction massique du volatil au sein de la parcelle de gaz. On constate alors que \Gamma' est plus faible que \Gamma en valeur absolue : la libération de chaleur latente par liquéfaction ou condensation compense partiellement le refroidissement dû à l'ascension.

Gradients adiabatiques au sein des atmosphères du système solaire
VénusTerreMarsJupiterSaturneUranusNeptuneTitan
\Gamma \, (\mathrm{K/km})-10.5-9.8-4.5-2-0.71-0.67-0.85-1.3
\Gamma' (\mathrm{K/km})-5-0.5

Profil thermique radiatif-convectif

demonstrationNécessité du phénomène de convection

La comparaison entre le profil thermique à un instant donné et le gradient adiabatique au même endroit permet de connaître la stabilité de l'atmosphère vis-à-vis des phénomènes de convection. Supposons pour bien comprendre un profil thermique isotherme. Si un mouvement local amène une parcelle de gaz à un niveau plus élevé de façon assez rapide pour qu'aucun échange thermique n'ait lieu (par conduction ou rayonnement), celle-ci va se refroidir en suivant le gradient adiabatique, et sera donc plus froide et plus dense que ses environs immédiats. Cette parcelle aura donc tendance à retomber jusqu'à son niveau de départ, puisqu'un gaz plus froid est également plus dense toutes choses égales par ailleurs : par exemple, pour un gaz parfait, \rho = \frac{MP}{RT}. On est donc en présence d'une atmosphère stable.

À l'inverse, si le profil thermique décroît plus fortement avec l'altitude que ce qu'indique le gradient adiabatique, cette parcelle de gaz sera certes refroidie si elle est soumise à un déplacement ascendant adiabatique, mais elle se retrouvera tout de même légèrement plus chaude que l'atmosphère environnante, et donc moins dense. Elle pourra donc continuer son mouvement ascendant jusqu'à ce qu'elle rencontre une zone stable où le profil thermique décroît moins vite que le gradient adiabatique. Une telle zone où des mouvements de convection à grande échelle peuvent se développer à partir d'une petite perturbation est dite instable. L'effet à long terme de ces mouvements de convection va conduire à un mélange qui homogénéisera le profil vertical de température jusqu'à retrouver une situation marginalement stable, c'est-à-dire avec un profil thermique suivant exactement le gradient adiabatique.

Stabilité du profil thermique
adiabat.png
Sur l'image de gauche, le profil thermique décroît rapidement avec l'altitude (dégradé de couleur rouge vers bleu). Si une masse d'air (délimitée par l'ellipse pleine) est amenée de façon adiabatique à un niveau supérieur, son refroidissement adiabatique est insuffisant par rapport aux alentours et elle reste plus chaude que ses environs. Elle peut alors continuer à monter, le profil thermique est instable. Sur l'image de droite, le profil thermique décroît très lentement avec l'altitude. La même masse d'air montant alors plus haut se retrouve plus froide que ses environs, et retombe alors à son niveau de départ. Le profil thermique est convectivement stable.
Crédit : Emmanuel Marcq

Troposphère

Les profils thermiques purement radiatifs tels que ceux modélisés ici ont tendance à voir leur pente \frac{dT}{dz} = \frac{dT}{d\tau} \times \frac{d\tau}{dz} croître en valeur absolue à mesure que la profondeur optique infrarouge \tau croît en s'enfonçant dans l'atmosphère profonde. Sous couvert d'hypothèses raisonnables concernant la composition du gaz considéré parfait (pour C_p) et la croissance de \tau selon le niveau de pression dans l'atmosphère, il est possible (mais hors-programme) de montrer que la pente du profil radiatif excède, en valeur absolue, le gradient adiabatique pour \tau voisin de l'unité. Les régions atmosphériques situées en dessous (\tau > 1) deviennent donc instables vis-à-vis de la convection qui s'y développe, et le profil thermique se met alors à suivre non plus la valeur donnée par le seul équilibre radiatif, mais le gradient adiabatique. On appelle cette couche atmosphérique troposphère. Les couches situées au-dessus (\tau < 1) sont quant à elles stables vis-à-vis de la convection, et l'équilibre radiatif y est valable : on se trouve alors dans la stratosphère ou la mésosphère, selon l'existence ou non d'une inversion de température.

Notons qu'il existe quand même une troposphère dans les atmosphères des planètes telluriques trop peu opaques au rayonnement infrarouge thermique pour avoir \tau > 1 (par exemple Mars, et dans une moindre mesure la Terre). En ce cas, l'instabilité de départ est causée par la discontinuité de température au niveau de la surface planétaire (voir ici), qui donne naissance à des mouvements de convection s'étendant jusqu'à une altitude équivalente à une échelle de hauteur environ.

Profil thermique radiatif-convectif
radconv2.png
En pointillé, le profil thermique purement radiatif. En dessous d'une certaine altitude (marqué par un point noir), ce profil devient convectivement instable et la convection prend le relais pour transporter l'énergie (aidant ainsi au refroidissement de la surface). la couche atmosphérique située sous ce point s'appelle alors la troposphère, et celle au-dessus mésosphère (il n'y a pas de stratosphère dans ce profil).
Crédit : Emmanuel Marcq

Autres couches atmosphériques

Couches atmosphériques des planètes telluriques du système solaire
EVMgreenhouseT.jpg
Crédit : LASP, Emmanuel Marcq (traduction)

Condition d'existence d'une stratosphère

Les profils thermiques les plus simples ne comportent qu'une troposphère surmontée d'une mésosphère, et le profil thermique y décroît toujours avec l'altitude. Mais il existe parfois au sein de la zone purement radiative une anomalie, une zone où la température croît avec l'altitude. Une telle zone est appelée stratosphère. Pour qu'une telle couche existe au sein d'une atmosphère, il faut qu'elle absorbe elle-même une partie du flux stellaire (dans le domaine visible, UV ou proche IR) et qu'elle soit relativement mauvaise émettrice en infrarouge thermique afin que l'énergie reçue par absorption du flux stellaire ne soit pas immédiatement perdue par rayonnement infrarouge thermique. Si l'on néglige les processus de diffusion lumineuse (ce qui est une hypothèse souvent vérifiée dans le domaine infrarouge thermique en l'absence de nuages, mais assez inexacte pour la lumière stellaire à plus courte longueur d'onde), le critère quantitatif pour l'existence d'une stratosphère est d'avoir une région verticale d'épaisseur optique \Delta \tau_v en lumière stellaire et \Delta \tau en infrarouge thermique tels que \Delta \tau_v > \Delta \tau.

Dans le système solaire, la Terre possède une stratosphère due à la présence d'ozone, qui est un très bon absorbant de la lumière UV du Soleil. Comme, à l'altitude où cette absorption a lieu, l'atmosphère est froide et sèche, et que l'atmosphère terrestre est pauvre en \mathrm{CO}_2, il y a peu d'absorption du rayonnement infrarouge, et donc aussi une faible émissivité infrarouge (\mathrm{H_2O} et \mathrm{CO}_2 étant les gaz à effet de serre principaux au sein des atmosphères telluriques). Les conditions d'existence d'une stratosphère sont donc réunies. En revanche, les atmosphères de Vénus et de Mars, constituées principalement de \mathrm{CO}_2 qui est un excellent émetteur infrarouge, ne possèdent pas de stratosphère. Dans le système solaire extérieur, on trouve également des stratosphères, dues à la présence de méthane (\mathrm{CH}_4) au sein de ces atmosphères qui absorbe bien dans l'infrarouge proche émis par le Soleil. Dans le cas de Titan, la stratosphère est due non seulement au méthane, mais aussi à l'absorption de la lumière solaire par les particules du brouillard photochimique qui l'entoure à haute altitude.

Thermosphère

Thermosphère
thermo.png
Positions respectives de la source de chaleur (+Q) et du puits radiatif mésosphérique (-Q). Le profil conductif s'établit alors entre les deux avec transport par conduction de la chaleur verticalement selon \vec{\jmath}_Q entre les deux, imposant le gradient thermique positif dT/dz > 0.
Crédit : Emmanuel Marcq

Au sommet de la mésosphère, vers un niveau de pression de 1\,\mathrm{Pa}, l'atmosphère devient trop peu dense pour être efficacement absorbante au rayonnement infrarouge et ainsi échanger de l'énergie de façon radiative. Le seul phénomène encore capable de transporter l'énergie devient alors la conduction thermique, obéissant à la loi de Fourier : \vec{\jmath}_Q = - k \overrightarrow{\nabla{T}}k désigne la conductivité thermique du milieu et \vec{\jmath}_Q le flux de chaleur ainsi transporté. La structure thermique dans cette couche est alors dictée par la position des sources et des puits de chaleur :

Les positions respectives de ces puits et de ces sources causent un profil thermique croissant avec l'altitude, et pouvant atteindre des températures très élevées la journée car la conductivité thermique d'un tel milieu dilué est très faible, la chaleur peut donc y être piégée de façon très efficace. On nomme donc cette couche thermosphère. Sur Terre, la dissociation des molécules de \mathrm{O}_2 par les UV solaires est une source de chaleur intense (ces molécules très fragiles vis-à-vis des rayonnements dissociants et/ou ionisants sont nombreuses dans l'atmosphère terrestre), si bien que les températures thermosphériques peuvent atteindre des valeurs très élevées, supérieures à 1000\,\mathrm{K}. Pour les planètes géantes du système solaire, la source d'énergie est principalement due au chauffage par effet Joule dans l'ionosphère (friction des électrons libres). En revanche, dans les atmosphères telluriques riches en \mathrm{CO_2} comme celles de Vénus et Mars, la dissociation des molécules est relativement difficile et le dioxyde de carbone est un radiateur efficace même à faible pression, ce qui entraîne des maxima de température diurne bien plus faible, pouvant même disparaître complètement pendant la nuit. On appelle alors parfois cette couche cryosphère lorsque ce phénomène se produit.


Se tester

Auteur: EM

QCM

Auteur: EM

Définitions

qcmDéfinitions

Voici quelques questions sur les définitions des grandeurs employées

1)  Que désigne la température d'équilibre d'une planète ?



Effet de serre

Auteur: EM

qcmEffet de serre

Diagrammes
gh3.png

Difficulté :   

1)  Parmi les trois diagrammes ci-dessus, lequel ou lesquels correspondent à une situation d'effet de serre ?







Profils thermiques

Auteur: EM

qcmProfils thermiques

Profils verticaux de température
EVMlayers.jpg

Difficulté :   

1)  Comment nomme-t-on les différentes couches atmosphériques colorées sur les trois profils thermiques ci-dessus (du plus foncé au plus clair)





Exercices

Auteur: EM

Étude d'une atmosphère fictionnelle

Auteur: Emmanuel Marcq

exerciceExercice

Vous venez d'être embauché par un célèbre réalisateur Hollywoodien en tant que conseiller scientifique pour son prochain film de science-fiction. L'action se déroulera sur une lune tellurique nommée Pandore d'une planète géante appelée Polyphème en orbite autour de l'étoile \alpha\,\mathrm{Cen}. Toutes les données numériques pertinentes se trouvent ci-dessous.

Données numériques pertinentes

Étoile (α Centauri) :

  • Masse : 1,1 masse solaire
  • Rayon : 1,27 rayon solaire
  • Classe spectrale : G2V
  • Température photosphérique : 5790 K

Polyphème :

  • Masse : 0,44 masse jovienne
  • Rayon : 0,75 rayon jovien
  • Période de rotation : 15 h
  • Période de révolution : 1,4 année terrestre
  • Rayon de l'orbite : 1,32 UA
  • Albédo visible : 0.4

Pandore :

  • Rayon : 0,78 rayon terrestre
  • Masse : 0,43 masse terrestre
  • Rayon de l'orbite : 264000 km
  • Période de rotation (synchrone avec révolution) : 31,5 h
  • Albédo visible : 0,3
  • Pression atmosphérique à la surface : 1,22 bar
  • Température moyenne de surface : 27°C
  • Composition atmosphérique (% en masse) : \mathrm{N_2} (81 %), \mathrm{O_2} (16 %), \mathrm{CO_2} (2 %), \mathrm{Ar} (1 %), \mathrm{H_2O} (variable), \mathrm{Ne}, \mathrm{CO}, \mathrm{CH_4}, \mathrm{H_2S}, \mathrm{O_3}, \mathrm{OCS}, \mathrm{SO_2} (traces).
  • Capacité calorifique à pression constante : 1012 J/kg/K
Question 1)
  1. Quelle est la puissance lumineuse totale émise par l'étoile hôte ?
  2. Calculer alors la constante stellaire au niveau de l'orbite de Polyphème.

Question 2)
  1. Calculer la température d'équilibre {T_{\mathrm{eq}}}' de la planète géante
  2. La température effective {T_{\mathrm{eff}}}' de Polyphème sera-t-elle supérieure ou inférieure à {T_{\mathrm{eq}}}' ? Justifier.
  3. Bonus : proposer une composition possible des nuages visibles de Polyphème, situés à une altitude où la température est voisine de {T_{\mathrm{eq}}}'.

Question 3)
  1. Calculer la température d'équilibre T_{\mathrm{eq}} de Pandore. La comparer à celle du point triple de l'eau, égale à 273.15\,\mathrm{K}. Que vaut alors T_{\mathrm{eff}} ?
  2. Quel est le nom du phénomène responsable de l'écart entre la température de surface T_S et T_{\mathrm{eff}} ? En donner une explication qualitative.

Question 4)

On se propose à présent d'estimer l'opacité infrarouge de l'atmosphère de Pandore à l'aide d'un modèle simple. L'atmosphère est supposée parfaitement transparente en lumière visible et absorbe la totalité des rayonnements infrarouges thermiques. La température de l'atmosphère, supposée uniforme, sera notée T_a.

  1. Faire un schéma en représentant de façon distincte les flux visible et IR thermique montants et descendants
  2. Exprimer le flux thermique s'échappant vers l'espace en fonction notamment de T_{\mathrm{eff}}.
  3. Effectuer un bilan des flux au niveau de la surface.
  4. En déduire alors les expressions de T_S et T_a en fonction de T_{\mathrm{eff}}.
  5. Effectuer l'application numérique et comparer avec la valeur de T_S donnée dans l'énoncé. Que constate-t-on ? Proposer une explication.

Question 5)

Afin d'améliorer ce modèle, on ajoute une seconde couche atmosphérique partiellement opaque aux IR thermiques au-dessus de la première couche (qui reste complètement opaque à ces mêmes IR thermiques). On note la température de la couche supérieure T_1 et celle de la couche profonde T_2. La couche 1 absorbe une fraction 0 < \varepsilon_1 < 1 du rayonnement IR thermique. Ces deux couches sont toujours considérées parfaitement transparentes en lumière visible.

  1. Faire un nouveau schéma représentant les différents flux.
  2. En effectuant trois bilans respectivement au niveau de l'espace, de la couche semi-transparente aux IR et à la surface, déterminer un système de trois équations à trois inconnues T_1, T_2 et T_S. On fera apparaître l'expression de T_{\mathrm{eff}} dans ce système.
  3. Résoudre ce système d'équations. En déduire la valeur de \varepsilon_1, puis celles de T_1 et T_2.
  4. Sur Terre, une modélisation analogue ne nécessite qu'une seule couche semi-transparente aux IR sans couche profonde (\varepsilon_{\mathrm{Terre}} \simeq 0.8). Comparer l'intensité de l'effet de serre sur Terre et sur Pandore.

Question 6)

Compte tenu de la composition atmosphérique, s'attend-on à trouver une stratosphère sur Pandore ? Si oui, quelle serait l'espèce chimique responsable ?

Question 7)
  1. Calculer la masse molaire moyenne de l'atmosphère ainsi que la gravité de surface.
  2. En déduire l'échelle de hauteur atmosphérique H au niveau de la surface.
  3. La limite de l'atmosphère (exobase) se situe à une pression de 10^{-9}\,\mathrm{bar} = 10^{-4}\,\mathrm{Pa}. Estimer l'altitude de cette exobase (on considérera H constant pour ce calcul).

Question 8)

Calculer le gradient adiabatique sec \Gamma. Le gradient adiabatique humide sera-t-il inférieur ou supérieur en valeur absolue ?

Question 9)

Représenter l'allure du profil thermique moyen de Pandore. On considérera que la troposphère s'étend sur une échelle de hauteur H, et on fera figurer l'échelle de hauteur, les différentes couches atmosphériques et les températures à leurs limites quand cela est possible.


Mini-projet

Auteur: EM

Énoncé

introductionIntroduction

Hypothèses du modèle

Le but de ce mini-projet est de gagner une compréhension plus intuitive de l'équilibre radiatif au sein d'une atmosphère tellurique, et notamment du phénomène d'effet de serre, au moyen d'un modèle simplifié basé sur des hypothèses simplificatrices vues dans ce cours. Ceci permettra de vérifier par le calcul les résultats obtenus en manipulant ce modèle.

Le modèle est donc plan-parallèle, et traite le spectre électromagnétique en deux domaines distincts : le visible/UV/IR proche (shortwave, SW) et l'infrarouge thermique (longwave, LW ou IR). Ces deux domaines sont traités chacun de façon grise. L'atmosphère est constituée de deux couches considérées isothermes, pouvant absorber et émettre tout ou partie des rayonnements IR thermiques. Le rayonnement SW n'est quant à lui absorbé que par la surface, l'atmosphère étant donc parfaitement transparente. Les échanges autres que radiatifs sont négligés par ce modèle.

Réglages

Voici la signification des différents champs à remplir :

  • Flux solaire moyen : il s'agit du flux stellaire moyenné dans le temps et dans l'espace au sommet de l'atmosphère. À ne pas confondre avec la constante stellaire, qui n'est pas moyennée !
  • Albédo bolométrique : c'est la fraction (en puissance) du flux SW renvoyé vers l'espace par la surface de la planète.
  • Opacités des couches 1 et 2 : il s'agit des épaisseurs optiques en IR thermique, variant donc entre 0 et +\infty.

Calculatrice application.png

Modèle à deux couches application.png

Questions

Atmosphère transparente en IR

  1. Comment régler les opacités des couches atmosphériques pour obtenir une atmosphère transparente en infrarouge thermique ?
  2. En cherchant l'albédo bolométrique de la Terre et le flux solaire moyen sur Internet, remplissez les champs appropriés. Que remarque-t-on pour les températures ?
  3. Justifiez le résultat obtenu pour la température de surface. À quelle valeur remarquable est-elle égale ? Vérifiez que cette égalité est maintenue en changeant la valeur de certains paramètres que l'on précisera.
  4. Bonus : essayez de reproduire la température diurne au point subsolaire dans le cas de la Lune et de Mercure.

Effet de serre à une couche

  1. Essayez diverses valeurs de l'opacité IR pour la couche la plus proche de la surface (couche n°2). Que remarque-t-on à propos des températures ? Comment s'appelle ce phénomène ?
  2. Que se passe-t-il dans le cas où l'on fait tendre l'opacité IR de cette couche vers l'infini ? Effectuez alors par vous-même le calcul théorique et justifiez les valeurs obtenues par le modèle.
  3. En déduire la fourchette de valeurs pour la température de surface dans ce cas de figure en fonction de la température d'équilibre correspondante.
  4. Essayez de reproduire avec ce modèle les températures de surface des corp suivants (à rechercher sur Internet) : Terre, Mars, Vénus, Titan.
  5. Que remarque-t-on pour ces deux derniers cas ? Proposez une amélioration du modèle.

Effet de serre à deux couches

Dans cette partie, on fixe l'opacité de la couche n°2 à proximité de la surface à une valeur très élevée, et on ajuste seulement l'opacité de la couche n°1.

  1. Que remarque-t-on concernant les températures ?
  2. Déterminer la nouvelle fourchette possible pour la température de surface. Justifier les températures obtenues quand les couches n°1 et n°2 sont toutes deux complètement opaques au rayonnement IR.
  3. Essayez à présent de reproduire la température que l'on aurait sur Titan en l'absence de nuages (T_S = 94\,\mathrm{K}). Pour quelle opacité de la couche n°1 ce résultat est-il obtenu ?
  4. Que remarque-t-on pour le cas de Vénus ? Comment améliorer encore ce modèle ?

Pour aller plus loin

  1. On fixe à présent l'opacité de la couche n°2 à une valeur très faible, et celle de la couche n°1 à une valeur très élevée.
    1. Montrer que {T_2}^4 = \frac{1}{2} \left( {T_1}^4 + {T_S}^4 \right)
    2. Vérifiez que le modèle donne le même résultat.
  2. Peut-on reproduire une stratosphère avec ce modèle ? Pourquoi ? Que faudrait-il ajouter comme paramètre réglable pour pouvoir le faire ?
  3. Comment prendre en compte l'effet radiatif en lumière SW des nuages avec ce modèle simplifié ? Comment pourrait-on améliorer leur prise en compte dans ce modèle ?

-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Dynamique atmosphérique

Auteurs: Thomas Navarro, Arianna Piccialli

Dynamique atmosphérique

objectifsObjectif

Les objectifs de ce chapitre sont, d'une part, d'acquérir quelques notions de base de dynamique des fluides et, d'autre part, d'explorer les différents régimes dynamiques qu'on peut observer sur les planètes de notre Système Solaire.

prerequisPrérequis

Les concepts abordés dans ce chapitre font appels à des notions de:

bibliographieLivres conseillés


Découvrir

Auteurs: Thomas Navarro, Arianna Piccialli

Méthode d'étude

Auteur: Thomas Navarro

Méthodologie

On connait très peu de choses sur les atmosphères des exoplanètes connues. Or cette question est fondamentale, tant pour les planètes géantes gazeuses dont l'atmosphère constitue la majeure partie de la planète, que pour les planètes à surface solide où le rôle de l'atmosphère dans leur habitabilité est primordial. Une atmosphère étant une enveloppe fluide en mouvement, son étude passe par sa dynamique et la compréhension de sa circulation.

Il existe deux méthodes complémentaires pour mieux comprendre la circulation atmosphérique : l'observation et la théorie. Notre connaissance de la circulation des atmosphères des exoplanètes est limitée car les observations sont à l'heure actuelle très difficiles. C'est pourquoi le recours à la théorie de la circulation atmosphérique, en se basant sur la mécanique des fluides, sert de socle à l'étude des circulations atmosphériques des exoplanètes. L'utilisation de modèles informatiques pour la simulation d'une atmosphère permet d'étendre cette théorie à des cas plus complexes tenant compte des nuages, aérosols, surface, etc ...

Les observations de la circulation atmosphèrique d'exoplanètes existent mais sont très rares. Par exemple, on a pu mesurer pour la planète HD 189733b son spectre d'émission et en tirer une carte de température. On a aussi pu mesurer les vents en haute altitude (d'au plus 10 000 km/h) de la planète HD 209458b par effet Doppler des lignes d'absorption du monoxyde de carbone présent dans son atmosphère. Toutefois, ces exemples restent rares si bien qu'en comparaison les observations des atmosphères planètaires de notre système solaire semblent exister à profusion. La connaissance de la dynamique atmosphérique des exoplanètes passe donc aussi et surtout par l'étude comparée des atmosphères du sytème solaire. Toutefois, notre système solaire ne présente pas toute la gamme des types d'exoplanètes connues, et par exemple l'étude d'une planète gazeuse géante chaude en rotation synchrone avec son étoile sur une orbite de 3 jours, cas assez exotique au regard du sytème solaire, passera également par la théorie et les moyens de simulation ...

conclusionConclusion

puzzle.png
Atmosphère d'une exoplanète : les éléments du puzzle à résoudre !
Crédit : Th. Navarro

Détecter et connaître les grandes caratéristiques physiques d'une exoplanète (orbite, taille, masse) est la première étape dans la compréhension d'une exoplanète. Connaître son atmosphère est la suite logique et la science actuelle en est à ses balbutiements dans ce domaine. L'étude des planètes du système solaire, tellement plus accessibles, et l'utilisation de modèles de climats s'avèrent nos meilleurs atouts pour comparer et extrapoler notre savoir à toutes les planètes en général.

spitzer1.jpg
Carte de température de HD 189733b, qui varie entre 650° C côté nuit et 930°C côté jour. Le décalage entre l'emplacement du maximum de température et le midi solaire révèle le rôle de l'atmosphère dans le transport de chaleur.

Pourquoi a-t-on une circulation?

Auteurs: Thomas Navarro, Arianna Piccialli

Bilan radiatif au sommet de l'atmosphère

On a vu que la notion de température d'équilibre ou effective requiert plusieurs hypothèses. L'une d'entre elles est que l'énergie rayonnée par unité de surface de la planète vers l'espace est homogène, c'est-à-dire qu'elle est la même en tous points, depuis l'équateur jusqu'aux pôles.

Or, la figure 1 nous donne un exemple pour la Terre qui montre la limite de cette hypothèse. On peut y voir que l'énergie absorbée par la Terre provenant du Soleil (et donc principalement dans la bande visible du spectre lumineux) dépend de la latitude, comme attendu d'après la figure 2. On y remarque surtout que l'énergie émise par la Terre vers l'espace, principalement de la bande infrarouge, dépend aussi de la latitude et est différente de la courbe d'énergie reçue. Ceci est un simple constat, issu d'observations, qu'il va s'agir d'interpréter.

En comparant les valeurs des puissances émises et reçues dans la figure 1, on constate qu'il y a une perte d'énergie vers les pôles et un gain d'énergie vers l'équateur. En vertu du principe de conservation de l'énergie, et en supposant que la planète est dans un état stationnaire, on ne peut que conclure que de l'énergie est transférée de l'équateur vers les pôles. Ce transfert d'énergie est causé par le mouvement global de l'atmosphère de la planète (et des océans s'ils sont présents).

On verra plus loin dans le cours que cette différence en énergie est également le moteur de la circulation atmosphérique.

objectifsObjectif

Plus généralement, ce cours sur la dynamique atmosphérique va de pair avec celui sur la structure thermique des atmosphères. On y aborde ici les mouvements fluides à grande échelle, tandis que le cours sur la structure thermique aborde l'équilibre radiatif et les mouvements convectifs verticaux uniquement.

Bilan radiatif de la Terre
rad_balance_ERBE_1987.jpg
Figure 1 : Bilan d'énergie de la Terre sur une année (1987). Puissance reçue par la Terre depuis le Soleil dans le visible en haut de l'atmosphère en bleu, et émise par la Terre vers l'espace dans l'infrarouge (en rouge).
Crédit : Pidwirny, M. (2006). "Global Heat Balance: Introduction to Heat Fluxes". Fundamentals of Physical Geography, 2nd Edition. Date Viewed. http://www.physicalgeography.net/fundamentals/7j.html
Radiation solaire
Solar_radiation.png
Figure 2 : La radiation solaire arrive à des angles différents à la surface de la Terre selon la latitude. Pour une même quantité d'énergie émise par le soleil, la zone couverte est plus petite à l'équateur et s'agrandit aux pôles. Ainsi, la Terre reçoit plus d'énergie par unité de surface à l'équateur qu'aux pôles.
Crédit : Arianna Piccialli

La circulation de Hadley

introductionUn exemple historique

Les échanges d'énergie à l'échelle globale d'une planète sont fondamentaux pour comprendre la circulation à grande échelle. Historiquement, la première description et compréhension de ces mouvements a été faite sur Terre au 18ème siècle.

L'exemple le plus célèbre de la preuve d'une circulation atmosphérique à grande échelle provient de l'observation des vents permettant la navigation sur les océans terrestres. Les vents dominants soufflent d'Est en Ouest aux latitudes tropicales (environ 30°S à 30°N, et qu'on appelle alizé). Une explication satisfaisante de l'origine de ces vents fut donnée par George Hadley en 1735 : il existe une circulation à l'échelle de la planète qui transporte des masses d'air depuis l'équateur jusqu'aux tropiques en formant une cellule, qu'on appelle cellule de Hadley tel qu'on peut le voir sur la Figure 1.

L'origine des alizés est la suivante : quand une masse d'air tombe vers la surface aux tropiques, elle retourne à l'équateur. Ce faisant elle subit la force de Coriolis : elle est donc déviée vers sa droite dans l'hémisphère Nord, ou vers sa gauche dans l'hémisphère Sud, c'est-à dire vers l'Ouest dans les deux cas. Inversement, une masse d'air qui part de l'équateur vers les tropiques subira une déviation vers l'Est et formera un courant jet en altitude au niveau des tropiques et orienté vers l'Est.

L'origine des alizés est ainsi comprise, mais quid de l'origine de la cellule de Hadley en elle-même ? Elle provient de la différence d'énergie reçue par la Terre en fonction de la latitude. La hauteur d'échelle atmosphérique est plus grande à l'équateur (ou, autrement dit, l'air est plus dilaté), ce qui cause un gradient horizontal de pression entre l'équateur et les pôles, de plus en plus marqué à mesure que l'on s'élève du sol (voir Figure 2). Ce gradient de pression provoque un mouvement d'air en altitude, de l'équateur vers les tropiques. Le reste de la cellule de Hadley se met en place pour "fermer" la circulation d'air, par simple conservation de la masse.

conclusionGénéralisation

Le mécanisme de la cellule de Hadley, connu depuis longtemps sur Terre, semble être universel dans les atmosphères des planètes, mais avec des caractéristiques différentes (extension en latitude, nombre de cellules) selon les propriétés physiques de l'atmosphère. Il est essentiel à la compréhension des mouvements à grande échelle d'une atmosphère et permet d'expliquer le transfert d'énergie de l'équateur vers les tropiques. Il est en réalité très complexe à comprendre dans les détails, et on trouve sur Terre d'autres mécanismes de transfert d'énergie au-delà des tropiques (voir Figure 1).

Circulation atmosphérique terrestre
circulation.png
Structure des mouvements atmosphériques globaux sur Terre.
Crédit : T. Navarro
Origine de la circulation de Hadley
hadley.png
La cellule de Hadley trouve son origine dans un mouvement d'air en altitude de l'équateur vers les tropiques dû à un gradient de pression.
Crédit : Thomas Navarro

attentionPrécision

La circulation de Hadley n'est pas une cellule de convection. Son origine est une différence de chauffage en latitude, suivant l'horizontale, et non un gradient thermique vertical qui génère une force de flotabilité qui s'oppose à la gravité comme dans le cas de la convection. Ainsi, pour déterminer les dimensions de la cellule de Hadley il faut connaître la vitesse de rotation de la planète et le gradient horizontal de pression, des phénomènes qui ne rentrent pas en jeu dans les causes de la convection.


Revue des différentes dynamiques atmosphériques planétaires

Auteurs: Thomas Navarro, Arianna Piccialli

Introduction

La rotation de la planète est la clé de la circulation atmosphérique, comme on vient de le voir sur Terre avec le rôle de la force de Coriolis dans la formation de la cellule de Hadley. Ainsi, il est fondamental de garder en tête les périodes de rotation pour les planètes du système solaire.

L'obliquité, qui est l'angle entre l'axe de rotation et la perpendiculaire au plan de l'orbite autour du Soleil, nous renseigne sur les saisons. Dans le cas de Vénus, l'obliquité proche de 180° signifie que la rotation est rétrograde : Vénus tourne de l'Est vers l'Ouest, dans le sens opposé aux autres planètes.

Caractéristiques des planètes avec une atmosphère
CorpsPériode de révolution (jours)Période de rotationObliquité
Vénus224.7243.0 jours177.4°
Terre365.223h5623.4°
Mars687.024h3725.2°
Jupiter4335.39h503.1°
Saturne10757.714h1426.7°
Titan10757.715.95 jours26.7°

Les informations que nous possédons sur ces planètes proviennent d'observations, de résultats de modèles et des équations régissant l'atmosphère.

definitionMéthodes d'étude des atmosphères planétaires

Les méthodes d'étude des atmosphères planétaires comprennent des moyens différents tels que la télédétection (en utilisant des telescopes sur la Terre ou des vaisseaux spatiaux); des mesures directes in situ obtenues par sondes, ballons, atterrisseurs; des études de laboratoire; et des modèles de circulation atmosphèrique. Les mesures des mouvements atmosphériques sont accomplies principalement par les moyens suivants :

  1. Mesures directes du vent in situ en utilisant des anémomètres.
  2. Suivi des ballons-sonde atmosphériques placés à différentes altitudes (Régulièrement utilisé sur Terre et deux fois sur Vénus) (Fig.1).
  3. Suivi des atterrisseurs pour mesurer le vent (Sur Vénus, Mars, Jupiter, et Titan) (Fig. 2).
  4. Suivi des nuages pour déterminer la vitesse du vent (Surtout sur Vénus) (Fig. 3).
  5. Détermination indirecte de la vitesse du vent à partir des champs de température (Voir les équilibres dynamiques).
  6. Mesures du décalage Doppler des raies spectrales pour déterminer la vitesse du vent (Surtout pour Vénus, Mars, et Titan).
Figure 1
Vega-Venus-Balloon.jpg
Représentation artistique du ballon VEGA dans l'atmosphère de Vénus.
Crédit : http://space-sky.com/inflatables-in-space/
Figure 2
nature04060-f1.2.jpg
Vitesse du vent zonal sur Titan pendant la descente de la mission Huygens.
Crédit : M. K. Bird, et al., Nature 438, 800-802 (8 December 2005)
Figure 3
Figures/Tracking_clouds_on_Venus.jpg
Exemples de nuages identifiés dans les images de Venus Express et utilisés pour déterminer la vitesse du vent su Vénus.
Crédit : Fig. 3 dans Khatuntsev et al, Cloud level winds from the Venus Express Monitoring Camera imaging, Icarus (2013); doi: 10.1016/j.icarus.2013.05.018

Planètes à rotation rapide

La Terre et Mars présentent des circulations à grande échelle très similaires typiques d'une planète en rotation rapide - les deux planètes ont des périodes de rotation similaires (Table). La différence principale est due à la présence des océans sur la Terre. En définitive, les deux atmosphères sont mises en mouvement par la différence d'énergie reçue sur la surface en fonction de la latitude.

La Terre

circulation.png
Circulation atmosphérique moyenne schématique sur Terre. Les cellules ne sont pas à l'échelle : elle font quelques dizaines de km d'altitude pour des milliers de km de largeur !
Crédit : T. Navarro

La circulation atmosphérique à grande échelle se caractérise par des cellules de circulation entre différentes latitudes. Si la cellule de Hadley rejoint l'équateur aux latitudes moyennes à environ 30 ° Nord et Sud comme vu auparavant, les cellules de Ferrel ne fonctionnent pas du tout sur le même mécanisme que les cellules de Hadley. Elles mettent en jeu des ondes planétaires baroclines qui dominent les mécanismes de transfert. Les cellules de Ferrel se situent entre les latitudes 30 et 60 ° dans chaque hémisphère, dans lesquelles on trouve un courant-jet. On trouve également une cellule polaire de latitude 60° au pôle dans chaque hémisphère, délimitée par le vortex polaire.

Cette structure en cellule est un comportement moyen de l'atmosphère, qui varie avec les saisons et surtout avec les conditions météorologiques locales, dépendant de nombreaux phénomènes transitoires et chaotiques. Par exemple le centre de la cellule a tendance à se déplacer de part et d'autre de l'équateur lorsque le point subsolaire varie en latitude selon la période de l'année. De plus, il n'existe pas non plus de courant ascendant ou descendant continu et clairement mesurable dans les branches des cellules pour un observateur momentané en un endroit donné. Il s'agit là d'un comportement moyen qui peut être dominé par des effets locaux ou temporaires (cycle jour/nuit, topographie, perturbation météorologique, etc ...). La manifestation la plus tangible de ces cellules à tout un chacun demeure néanmoins la présence de courants jets.

Mars

Tout comme la Terre, Mars possède également une cellule de Hadley. Du fait de l'atmosphère plus ténue de Mars (la pression au sol y est de seulement 6 mbar en moyenne, par rapport à 1000 mbar sur la Terre), les gradients de pression relatifs des pôles à l'équateur sont plus grands et la cellule de Hadley y est plus étendue. Pendant l'équinoxe on trouve deux cellules de Hadley centrées sur l'équateur comme sur Terre, mais durant le solstice, on ne trouve plus qu'un seule grande cellule de Hadley des moyennes latitudes de l'hémisphère d'été vers les moyennes latitudes de l'hémisphére d'hiver. Il faut noter que la différence notable de position de l’ascendance au moment du solstice entre la Terre et Mars vient de la faible inertie de la surface martienne (contrairement aux océans terrestres), qui fait que le maximum de température se déplace complètement dans l’hémisphère d’été alors qu’il reste dans les tropiques sur Terre.


Planètes à rotation lente

Vénus

L'atmosphère de Vénus est caractérisée par une dynamique complexe: une super-rotation rétrograde domine dans la troposphère/basse mésosphère, tandis qu'une circulation solaire-antisolaire peut être observée dans la thermosphère. La super-rotation s'étend depuis la surface jusqu'au sommet des nuages avec des vents de seulement quelques mètres par seconde près de la surface et atteignant une valeur maximale de 100 \textrm{ms}^{-1} au sommet des nuages (70 km), ce qui correspond à un periode de rotation de 4 jours terrestres. Les processus responsables du maintien de la super-rotation zonale dans la basse atmosphère et sa transition vers la circulation solaire-antisolaire dans la haute atmosphère sont encore méconnus.

En plus de la super-rotation zonale, une cellule de Hadley s'écoulant de l'équateur aux pôles avec des vitesses de moins de 10 \textrm{ms}^{-1} a été observée au sommet des nuages. La circulation de Hadley ou méridienne sur Vénus joue un rôle important dans le transport d'air chaud vers les pôles et d'air froid vers l'équateur. Il s'agit d'une cellule dans chaque hémisphère et elle n'est pas limitée aux régions proches de l'équateur comme sur la Terre où la cellule de Hadley est limitée par la force de Coriolis, mais elle s’étend jusqu’aux pôles.

Vénus
Cover_Venus.jpg
Crédit : ESA/VMC/Venus Express

Titan

Il y a très peu mesures directes de la circulation atmosphérique de Titan, un satellite de Saturne, avec une période de rotation de 16 jours. Comme sur Vénus, une super-rotation est prévue dans la haute atmosphère; néanmoins, au contraire de Vénus, les saisons sur Titan jouent un rôle important dans la circulation générale. Les observations obtenues par la sonde Cassini-Huygens montrent la présence d'un seul jet très intense direct vers l'est avec des vitesses de 190 \textrm{ms}^{-1} entre les latitudes 30^\circ-50^\circ dans l'hémisphère nord. L'existence d'une circulation de Hadley de l'équateur au pôle a été également prédite. L’hémisphère Nord est l’hémisphère d’hiver au moment des observations de Cassini. Les cellules de circulation prédites vont d’un pôle (été, ascendance) à l’autre (hiver, subsidence) pendant la majeure partie de l’année, avec une transition autour de l’équinoxe au cours de laquelle l’ascendance se déplace pour changer d’hémisphère, la cellule se réduisant sur l’hémisphère de printemps pendant qu’une autre se développe sur l’hémisphère d’automne, puis prend sa place.


Planètes géantes

Sur les planètes telluriques les vitesses du vent sont mesurées par rapport à la surface de la planète. Comme les géantes gazeuses et les géantes glacées ne disposent pas d'une surface solide, les vents sont généralement mesurés par rapport à la période de rotation de leur champ magnétique. Chacune des quatre planètes géantes (Jupiter, Saturne, Uranus, et Neptune) montrent une circulation zonale intense formée par un système de courants-jets qui alternent leur circulation (Est-Ouest) avec la latitude.

Géantes gazeuses

Les planètes géantes gazeuses de notre Système solaire, Jupiter et Saturne, sont composées essentiellement de gaz légers, comme l'hydrogène et l'hélium. On observe aussi la formation de nuages constitués de méthane, d'ammoniac, et du sulfure d'hydrogène.

Au niveau des nuages d'ammoniac, Jupiter possède environ 6-8 courants-jets par hémisphère, avec une vitesse maximale à l'équateur où le jet dirigé vers l'est atteint une vitesse zonale de \sim 100-125 m s-1, et à 23° Nord les vents atteignent jusqu'à 180 m s-1. Saturne possède 4-6 courants-jets par hémisphère, avec un très fort et large jet équatorial direct vers l'est à une vitesse maximale de \sim 450 m s-1. Jupiter affiche également de nombreux tourbillons de courte durée et des tempêtes de longue durée comme la Grande Tache rouge.

Animation issue de 16 images de Jupiter prises par Voyager 1, espacées de 10h (durée du jour sur Jupiter) et traitées pour en produire une animation fluide.
Crédit : NASA / JPL / Björn Jónsson / Ian Regan

Géantes glacées

Les planètes géantes glacées de notre Système solaire, Uranus et Neptune, sont constituées principalement d'eau, méthane ou d'ammoniac.

Les deux planètes glacées montrent un jet équatorial dirigé vers l'ouest - avec une vitesse de \sim 100 m s-1 et de \sim{500} m s-1 respectivement pour Uranus et Neptune - et deux jets intenses aux latitudes moyennes dirigés vers l'est avec une vitesse maximale de 200 m s-1. Comme sur Jupiter, forts tourbillons, convection et tempêtes ont été observés sur Neptune. Au contraire, sur Uranus aucune tempête n'a été observée.


Comprendre

Auteurs: Thomas Navarro, Arianna Piccialli

La circulation atmosphérique générale

Auteurs: Thomas Navarro, Arianna Piccialli

Outils

Auteurs: Thomas Navarro, Arianna Piccialli

Coordonnées sphériques

Comme toute équation de la physique, les équations régissant la dynamique atmosphérique doivent s'exprimer dans un système de coordonnées et un référentiel choisis arbitrairement. Un tel système naturellement adapté à une sphère, et donc à une planète, sont les coordonnées sphériques (r,\varphi,\theta), où r est la distance au centre de la sphère, \varphi est la l'angle de la longitude, et \theta est l'angle de la latitude.

On définit également un repère local pour tout point de l'espace de coordonnées (x,y,z), avec comme base le triplet (\vec{i}, \vec{j}, \vec{k})\vec{i} est dirigé vers l'Est, \vec{j} dirigé vers le Nord, et \vec{k} selon la verticale locale vers le haut. Le référentiel d'étude est ce référentiel local, lié à la rotation de la planète, il s'agit donc d'un référentiel tournant, donc non galiléen.

Pour résumer, on travaille dans deux référentiels différents, ce qui donne trois systèmes de coordonnées différents :

  1. Le référentiel de la planète, qui tourne avec elle, dans un système de coordonnées cartésiennes (axes X,Y,Z).
  2. Le référentiel de la planète, qui tourne avec elle, dans un système de coordonnées sphériques (coordonnées r,\varphi,\theta).
  3. Un référentiel local, de base (\vec i,\vec j, \vec k), qui est un système de coordonnées cartésiennes.
Système de coordonnées sphériques
spherical_coord_new.png
Crédit : Arianna Piccialli

L'exercice suivant permet de se familiariser avec la manipulation mathématique des coordonnées et des repères. Les resultats serviront à établir l'équation fondamentale de la dynamique.

exerciceExercice

Question 1)

Montrer que dans le référentiel de la planète, un point de coordonnées sphériques \left( \begin{array}{c} r\\ \varphi \\ \theta \end{array} \right) a pour coordonnées cartésiennes \left( \begin{array}{c} r\cos\theta\cos\varphi \\ r\cos\theta\sin\varphi \\ r\sin\theta \end{array} \right)

Question 2)

Exprimer \vec i, \vec j et \vec k dans le repère de la planète en fonction des angles \varphi et \theta

Question 3)

Montrer qu'une vitesse dans le référentiel local \left( \begin{array}{c} u\\ v \\ w \end{array} \right) au point de coordonnées sphériques \left( \begin{array}{c} r\\ \varphi \\ \theta \end{array} \right) s'exprime par \vec U = r\cos\theta\frac{d\varphi}{dt}\vec i+r\frac{d\theta}{dt}\vec j + \frac{dr}{dt}\vec k.

Question 4)

Exprimer \frac{d\vec i}{dt}, \frac{d\vec j}{dt} et \frac{d\vec k}{dt} en fonction de (u,v,w), (r,\varphi,\theta) et (\vec i,\vec j, \vec k).


Forces apparentes

Pour résoudre les équations régissant une atmosphère, on se place dans le référentiel local, lui-même dans un référentiel tournant avec la planète. Ce référentiel n'est pas inertiel, c'est-à-dire qu'il est en accélération par rapport à un référentiel inertiel. Afin de poser le principe fondamental de la dynamique, il est essentiel de tenir de compte de l'accélération apparente du référentiel d'étude, sous la forme de pseudo-forces.

remarquePrécision

Traditionnellement et pour des raisons pratiques on parle de force, ou pseudo-force, en multipliant l'accélération apparente par la masse de l'objet. On parlera ici plutôt de l'accélération d'une force apparente afin de s'affranchir du terme de masse, qui disparaitra dans les équations finales.

Les deux forces apparentes à considérer dans le cas d'une atmosphère sont la force centrifuge et la force de Coriolis.

definitionProduit vectoriel

L'expression mathématique des forces apparentes requiert l'emploi du produit vectoriel, défini ainsi:

Le produit vectoriel \mathbf{C} des vecteurs \mathbf{A} et \mathbf{B} s'écrit \mathbf{C}=\mathbf{A}\times\mathbf{B} et correspond au vecteur orthogonal à la fois à \mathbf{A} et \mathbf{B} tel que le triplet (\mathbf{A},\mathbf{B},\mathbf{C}) soit de sens direct. et que le module du produit soit \| \mathbf{C}\| = \| \mathbf{A}\| \| \mathbf{B}\| \sin \alpha\alpha est l'angle direct de \mathbf{A} vers \mathbf{B}. Ainsi, si \mathbf{A} et \mathbf{B} sont colinéaires, leur produit vectoriel sera le vecteur nul.

cross.png
\mathbf{A}, \mathbf{B} et \mathbf{C} forment une base directe puisque \sin \alpha est positif. Si \sin \alpha était négatif, la base serait dans le sens indirect.
Crédit : Thomas Navarro

Le produit vectoriel s'écrit avec des coordonnées dans un système cartésien uniquement :

\mathbf{A} \times \mathbf{B} = \left( \begin{array}{c} x_a \\ y_a \\ z_a \end{array} \right) \times \left( \begin{array}{c} x_b \\ y_b \\ z_b \end{array} \right) = \left( \begin{array}{c} y_az_b-z_ay_b \\ z_ax_b-x_az_b \\ x_ay_b-y_ax_b \end{array} \right)

Cette relation n'est pas valable en coordonnées sphériques. Il faut faire la transformartion en coordonnées cartésiennes pour pouvoir utiliser cette relation.


Force centrifuge

definitionForce centrifuge

La force centrifuge est la force apparente due au fait que le référentiel d'étude est en rotation, donc en accélération. En effet, l'orientation de la vitesse d'un point lié à la planète varie, mais pas son module. Ainsi, une particule au repos dans un référentiel galiléen aura une force apparente dans le référentiel de la planète.

On définit le vecteur rotation \mathbf{\Omega} comme étant le vecteur orienté selon l'axe de rotation de la planète et de module \|\mathbf{\Omega}\| = \Omega = \frac{2\pi}{T} avec T la période de rotation de la planète. L'accélération de la force centrifuge s'exprime \mathbf{a_{ce}}}=-\mathbf{\Omega}\times(\mathbf{\Omega}\times\mathbf{l}) avec \mathbf{l} le vecteur position depuis l'axe de rotation où la force s'applique. Dans un système de coordonnées sphériques, on a \|\mathbf{l}\|=\|\mathbf{r}\|\cos{\theta}, avec \mathbf{r} le vecteur position depuis le centre de la planète.

Une autre manière de l'exprimer est de dire qu'il s'agit d'une accélération perpendiculaire à l'axe de rotation, orientée vers l'extérieur et de valeur r\left(\frac{2\pi}{T}\right)^2\cos\theta = r\Omega^2\cos\theta

La force centrifuge est regroupée avec la force de gravité, dont l'accélération vaut \mathbf{g_m} = -g_m\vec k, l'indice m faisant référence à la masse de la planète. On obtient une force dont l'accélération totale est \mathbf{g} = -\mathbf{\Omega}\times(\mathbf{\Omega}\times\mathbf{l})+\mathbf{g_m}. Cette force dérive d'un potentiel, qu'on appelle le géopotentiel, somme de l'action de la gravité et de la force centrifuge.

exerciceExercices de démonstration et d'acquisition du cours

Question 1)

Démontrer par l'analyse ou par un schéma en 3D que \mathbf{\Omega}\times(\mathbf{\Omega}\times\mathbf{l}) correspond bien à une accélération perpendiculaire à l'axe de rotation, orientée vers l'extérieur et de valeur r\Omega^2 \cos\theta. Comment s'exprime cette accélération dans le référentiel local ?

Question 2)

Par la suite on fait l'approximation que pour l'accélération due au géopotentiel, on peut se contenter de considérer sa composante uniquement suivant l'axe \vec k pour l'additionner à la pesanteur, ceci afin de simplifier les équations du problème. Afin de s'assurer que cette approximation reste acceptable, quelle est l'erreur maximale faite dans le cas de la Terre si on ne considère pas les autres composantes de l'accélération due au géopotentiel ? Quelle est cette erreur relativement à l'accélération de pesanteur ? Et pour Jupiter ?


Force de Coriolis

Dans un référentiel en rotation, une autre force apparente est à prendre en compte lors d'un déplacement. Il s'agit de la force de Coriolis, qui tient compte du fait que le déplacement d'une particule génère une accélération apparente supplémentaire. Par exemple, le mouvement rectiligne d'une particule est apparement dévié pour un observateur situé dans un référentiel tournant.

L'accélération de la force de Coriolis s'exprime \mathbf{a_{co}}}=-2\mathbf{\Omega}\times\mathbf{U} avec \mathbf{U} le vecteur vitesse de la parcelle d'air considérée.

La vitesse \mathbf{U} d'une parcelle d'air dans l'atmosphère est généralement orientée parallèlement à la surface locale, c'est-à-dire que sa composante radiale (c'est-à-dire sa composante verticale locale) est en générale petit par rapport à au moins une des deux autres. En négligeant la composante radiale, on constate les choses suivantes :

Ceci explique pourquoi certaines structures atmosphériques, tels les ouragans ou les anticyclones, tournent toujours dans le sens des aiguilles d'une montre dans l'hémisphère Nord, et dans le sens contraire dans l'autre hémisphère.

exerciceExercice de démonstration et d'acquisition du cours

Question 1)

Démontrer par l'analyse ou par un schéma en 3D les 3 points ci-dessus.


Formalisme eulérien ou lagrangien

Les écoulements atmosphériques peuvent être décrits en utilisant deux points de vue classiques, appelés eulérien ou lagrangien :

prerequisDescription eulérienne

L'écoulement est suivi par un observateur depuis une position fixe. C'est le cas, par exemple, d'un atterrisseur sur Mars fixé au sol qui mesure la vitesse du vent, la température, ou la pression. Cette description est souvent préférée car elle est la plus pratique.

prerequisDescription lagrangienne

Dans ce cas, les particules fluides sont suivies le long de leurs trajectoires. C'est la description la plus intuitive.

rappelDérivée particulaire

Les descriptions lagrangienne et eulérienne sont liées à travers la dérivée particulaire, encore appelée dérivée totale, et qui s'écrit D/Dt. Soit \textbf{A}[\textbf{r}(t)] une grandeur physique vectorielle de l'écoulement, dépendant du point d'observation \textbf{r}=(x, y, z) et du temps t. La variation de la grandeur \textbf{A} s'écrit :

\underbrace{\frac{D\textbf{A}}{Dt}}_\text{\textrm{Variation lagrangienne}}=\frac{\partial{\textbf{A}}}{\partial{\mathrm{t}}}+\left(\frac{dx}{dt}\frac{\partial{\textbf{A}}}{\partial{\mathrm{x}}}+\frac{dy}{dt}\frac{\partial{\textbf{A}}}{\partial{\mathrm{y}}}+\frac{dz}{dt}\frac{\partial{\textbf{A}}}{\partial{\mathrm{z}}}\right)=\underbrace{\frac{\partial{\textbf{A}}}{\partial{\mathrm{t}}}}_\text{\textrm{Variation eul\'{e}rienne}}+\underbrace{(\mathbf{U}\cdot{\nabla})\textbf{A}}}_\text{\textrm{Terme d'advection}}

\mathbf{U}=u\vec{i}+v\vec{j}+w\vec{k} est la vitesse du fluide avec composants: u={dx}/{dt}, v={dy}/{dt}, w={dz}/{dt}.

Dans la cas où la grandeur est un champ scalaire f[\textbf{r}(t)], la relation est la même.

La dérivée particulaire décrit la variation avec le temps en suivant la particule en mouvement (point de vue lagrangien), en revanche \partial{\textbf{A}}}/\partial{\mathrm{t} décrit la variation locale avec le temps en un point d'observation fixé (point de vue eulérien) .


Équations de la dynamique

L'équation fondamentale de la dynamique

Le mouvement d'une particule dans un fluide est décrit par la deuxième loi de Newton (conservation de la quantité de mouvement) qui lorsqu'elle est appliquée à la mécanique des fluides donne l'équation de Navier-Stokes. Dans un système en rotation l'équation du mouvement d'une parcelle de fluide est:

\rho\frac{D\mathbf{U}}{Dt}=\Sigma\mathbf{F} avec \mathrm{D}/\mathrm{Dt} est la dérivée particulaire qui s'écrit \mathrm{D}/\mathrm{Dt}={\partial{}}/\partial{\mathrm{t}}+\mathbf{U}\cdot{\nabla}, \mathbf{U} la vitesse du fluide, \Sigma\mathbf{F} la somme des forces s'appliquant sur la parcelle et \rho la densité du fluide.

Soit en détaillant les forces :

\frac{D\mathbf{U}}{Dt}=\mathbf{a_{co}}+\frac{\mathbf{F_{p}}}{\rho}+\mathbf{g}+\mathbf{F_r}

avec \mathbf{a_{co}} l'accélération de la force de Coriolis, \mathbf{F_p} les forces dues au gradient de pression, \mathbf{g} l'accélération du géopotentiel, et \mathbf{F_r} qui désigne l'accélération dues à la viscosité. Ce qui donne :

\frac{D\mathbf{U}}{Dt}=-2\mathbf{\Omega}\times\mathbf{U}-\frac{1}{\rho}\nabla{p}+\mathbf{g}+\mathbf{F_r} (1)

\mathbf{\Omega} est le vecteur de rotation de la planète \nabla{p} est le gradient de pression.

exerciceExercice

Question 1)

Comment s'exprime l'accélération de la force de Coriolis -2\mathbf{\Omega}\times\mathbf{U} dans le repère local ?

Les équations en coordonnées sphériques

On a \frac{D\mathbf{U}}{Dt} = \frac{D(u\vec i)}{Dt} + \frac{D(v\vec j)}{Dt} + \frac{D(w\vec k)}{Dt}. Or il a été vu en exercice les expressions des dérivées temporelles des vecteurs \vec i,\vec j et \vec k. Ceci nous permet d'établir les équations de Navier-Stokes dans le référentiel local, en notant que \mathbf{g}=-g\vec k et \mathbf{F_r}=F_{rx}\vec i + F_{ry}\vec j +F_{rz}\vec k:

application.png

Ce système d'équations décrit tous les types de mouvements atmosphériques à toutes les échelles. Ces équations sont compliquées à résoudre, mais dans bien des cas utiliser une approximation est suffisante pour modéliser de nombreux phénomènes atmosphériques dynamiques.

exerciceExercice

Question 1)

Déduire les équations de Navier-Stokes en coordonnées sphériques données ci-dessus à partir de l'équation fondamentale de la dynamique (Equation 1).


Les équations primitives

introductionApproximations

Les équations de la dynamique sont très compliquées car elles forment un système non linéaire. Ceci signifie que la somme de deux solutions n'est pas forcément solution du problème, ce qui rend la résolution de ces équations très ardue, et à ce jour encore source de recherches. Cependant, en fonction des phénomènes étudiés et des caractéristiques de l'atmosphère planétaire, certains termes de ces équations peuvent en dominer d'autres. Pour estimer les différents termes dans les équations, on utilise la méthode de l'analyse d'échelle. Les ordres de grandeur des différents termes en jeu dans les équations fondamentales de la dynamique seront très différents selon l'échelle des écoulements que l'on souhaite étudier. Dans le tableau ci-dessous on compare les termes dominants sur les planètes à rotation rapide (la Terre) avec ceux sur les planètes à rotation lente (Vénus):

Termes dominants dans les équations de la dynamique
U^2/aUV/aUW/a2\Omega\sin\theta{U}2\Omega\sin\theta{W}\mathbf{F_r}
Terre10-510-510-810-310-610-12
Vénus10-310-510-510-510-710-12

avec a le rayon de la planète. On a r=a+z, où z est l'altitude depuis la surface.

On peut alors appliquer les approximations suivantes:

\frac{\partial{p}}{\partial{z}}=-g\rho

On obtient alors les équations primitives de la météorologie :

definitionMouvement horizontal:

\frac{Du}{Dt}-2\Omega{v}\sin\theta-\frac{uv\tan\theta}{a}=-\frac{1}{\rho}\frac{\partial{p}}{\partial{x}}

\label{Navier_stokes_2}\frac{Dv}{Dt}+2\Omega{u}\sin\theta+\frac{u^2\tan\theta}{a}=-\frac{1}{\rho}\frac{\partial{p}}{\partial{y}}

definitionEquilibre hydrostatique vertical:

\frac{\partial{p}}{\partial{z}}=-g\rho

À ce système d'équations on ajoute l'équation des gaz parfaits:

definitionEquation d'état:

\frac{p}{\rho} = \frac{RT}{M}

Avec R=8.31~ \mathrm{J}\cdot \mathrm{mol}^{-1}\cdot \mathrm{K}^{-1} la constante universelle des gaz parfaits et M la masse molaire du gaz qui constitue l'atmosphère, et dépend donc de sa composition. Pour l'air terrestre, on a M = 29\times10^{-3}~ \mathrm{kg}\cdot \mathrm{mol}^{-1}

ainsi que l'équation de conservation de la masse:

definitionEquation de continuité:

\frac{\partial{p}}{\partial{t}}+\mathrm{div}(\rho\mathbf{U})=0

Enfin, le premier principe de la thermodynamique:

definitionPremier principe de la thermodynamique:

\frac{c_p}{\theta}\frac{d\theta}{dt}=\frac{Q}{T}

Avec Q le forçage diabatique et \theta la température potentielle : \theta=T\left[\frac{p_0}{p}\right]^{\kappa}, où \kappa=\frac{R}{M\cdot c_p}, c_p la chaleur spécifique à pression constante et p_0une pression de référence.

On obtient ainsi 6 équations avec 6 inconnues (u,v,w,p,\rho,T).

Ce système d'équations primitives est le plus complet utilisé pour l'étude de la circulation générale de l'atmosphère. C'est notamment celui utilisé par les modèles de circulation générale.


Les équilibres dynamiques


Équilibre géostrophique

Les équilibres géostrophique et cyclostrophique sont deux approximations des équations primitives. Ils sont purement diagnostiques : ils ne contiennent pas de dérivées dans le temps, d'où l'impossibilité de faire des prédictions. Néanmoins, ils sont des outils puissants pour décrire différents écoulements observés dans les planètes.

definitionL'équilibre géostrophique

L'approximation géostrophique est un développement des équations primitives utilisée aux moyennes latitudes sur les planètes à rotation rapide (Terre, Mars). On suppose l'équilibre entre la force de Coriolis et la force due au gradient horizontal de pression. La force centrifuge est négligée.

2\Omega\sin\theta{v}=\frac{1}{\rho}\frac{\partial{p}}{\partial{x}}

2\Omega\sin\theta{u}=-\frac{1}{\rho}\frac{\partial{p}}{\partial{y}}

D'après ces équations, lorsque cet équilibre est valide, la vitesse du vent est directement proportionnelle au gradient horizontal de pression. Notez que l'équilibre géostrophique cesse d'être valide autour des latitudes équatoriales.

Force en action en équilibre géostrophique
Eq_geostro.png
Crédit : Arianna Piccialli

definitionVent géostrophique

En combinant les deux composantes de la vitesse, on peut introduir le vent géostrophique comme :

\mathbf{V_g} =  u_g\vec i+v_g\vec j=\vec k\times\frac{1}{{\rho}f}\nabla{P}


Équilibre cyclostrophique

definitionL'équilibre cyclostrophique

La circulation générale des planètes à rotation lente (Vénus, Titan), aussi bien que les vortex et les tourbillons sur toutes les planètes, peut être approximée par l'équilibre cyclostrophique. Cela suppose l'égalité entre la composante dirigée vers l'équateur de la force centrifuge et le gradient méridional de la pression. La force de Coriolis est négligée.

\frac{uv\tan\theta}{r}=\frac{1}{\rho}\frac{\partial{p}}{\partial{x}}

\frac{u^2\tan\theta}{r}=-\frac{1}{\rho}\frac{\partial{p}}{\partial{y}} (1)

Forces en action en équilibre cyclostrophique
Eq_cyclost.png
Crédit : Arianna Piccialli, adaptation de Schubert, 1983.

definitionVent cyclostrophique

L'équation du vent cyclostrophique peut alors être écrite comme :

u=\sqrt{-\frac{r}{\rho\tan\theta}\frac{\partial{p}}{\partial{y}}

exerciceExercice

Question 1)

Montrer à partir de l'équation (1) que l'équation du vent cyclostrophique peut être écrite comme :

2u\frac{\partial{u}}{\partial{\xi}}=\left.-\frac{R}{\tan{\theta}}\frac{\partial{T}}{\partial{\theta}}\right|_{\mathrm{p}=\mathrm{const}}

où : \mathrm{R}=191.4 J kg-1 K-1, et \xi=-\ln{\frac{p}{p_{ref}}} est la coordonnée de pression logarithmique, avec p_{ref} la pression au niveau de référence.


Nombre de Rossby

Auteurs: Thomas Navarro, Arianna Piccialli

Nombre de Rossby

definitionDéfinition

Le nombre de Rossby est un nombre sans dimension qui permet de caractériser les mouvements atmosphériques. Il est défini par:

Ro = \frac{U}{2\Omega{L}}=\frac{\textrm{acc\'el\'eration horizontale}}{\textrm{acc\'el\'eration de Coriolis}}

U est une vitesse caractéristique du système, \mathbf{\Omega} est la vitesse angulaire de rotation de la planète, et L est une longueur caractéristique du système.

exerciceExercice

Question 1)

Quelle est la dimension du nombre de Rossby ?

Une valeur de nombre de Rossby très supérieure à l'unité indique que la force de Coriolis due à la rotation de la planète est négligeable par rapport à la force d'inertie, dans ce cas on parle d'équilibre cyclostrophique. Dans le cas contraire d'un nombre de Rossby inférieur à l'unité, l'équilibre est dit géostrophique.

Les équilibres dynamiques
R_0 \ll 1Equilibre géostrophique[Terre, Mars]
R_0 \gg 1Equilibre cyclostrophique[Vénus, Titan, Ouragans]

exempleExemples d'écoulements observés dans les planètes

Les valeurs du nombre de Rossby pour différents systèmes sont comparées sur le tableau ci-dessous :

Tableau 1: Valeurs du nombre de Rossby pour différents systèmes
Vénus103
Terre1
Mars<<1
Titan>>1
Tourbillons de poussière102-103
Tornades103
Ouragans>>1

Systemes géostrophiques

exempleLa Terre et Mars

La Terre et Mars présentent une circulation atmosphérique aux grandes échelles très similaire et typique des planètes à rotation rapide : les deux planètes ont en fait une période de rotation similaire (Voir Tableau). La principale différence entre eux vient de:

  1. La présence d'océans sur la Terre.
  2. Le cycle de CO2 sur Mars, qui produit la condensation/sublimation d'une grande masse de CO2.

Un régime géostrophique des vents zonaux domine la circulation dans les deux planètes en dehors des latitudes tropicales. Aux latitudes moyennes, à la fois sur la Terre et sur Mars, la circulation est caractérisée par deux courant-jets, un dans chaque hémisphère.

Sur la Terre, ces jets sont des vents zonaux qui circulent de l'ouest vers l'est et leur vitesse augmente avec l'altitude jusqu'à la tropopause. Au-dessus de la tropopause ces jets affaiblissent, et puis ils augmentent encore avec l'altitude au-dessus de \sim 25 km jusqu'à \sim 70 km, où ils atteignent une vitesse de 60 m s-1.

Sur Mars, en raison de l'atmosphère très ténue et de l'absence des océans, l'atmosphère réagit presque instantanément au chauffage solaire. C'est aussi la raison pour laquelle les courant-jets dépendent des variations saisonnières. Au solstice d'hiver dans l'hémisphère nord, le courant-jet est centré entre \sim 40^{\circ}-50^{\circ} de latitude atteignant une vitesse maximale de 40 m s-1 à 5 km. Il augmente encore à 35 km, où il atteint une vitesse de 110 m s-1. A cette même époque, le courant-jet dans l'hémisphère sud est beaucoup plus faible.

Il faut noter que ces configurations des vents sont une moyenne temporelle et spatiale et ils sont vus rarement sur des journées individuelles. Les configurations des vents d'un jour à l'autre dévient considérablement de cette circulation globale.


Systemes cyclostrophiques

definitionVénus et Titan

Vénus et Titan sont deux planètes à rotation lente, caractérisées respectivement par une période de rotation de 244 jours (Vénus) et 16 jours (Titan). Une description détaillée de leur circulation peut être trouvée ici. Les deux planètes sont caractérisées par des forts vents zonaux dans l'ensemble de l'atmosphère, une caractéristique appelée super-rotation. Sur Vénus, la super-rotation atteint une vitesse supérieure à 100 m s-1 au sommet des nuages (vers 70 km d'altitude), correspondant à une période de rotation de 4 jours terrestres (\sim60 fois plus rapide que Vénus elle-même). Différentes études ont montré que sur les planètes qui tournent lentement, comme Vénus et Titan, les forts vents zonaux au sommet des nuages peuvent être décrits par l’équilibre cyclostrophique. Ce qui donne une possibilité de reconstruire le vent zonal si le champ de température est connu.

definitionTornades et ouragans sur la Terre

D'autres systèmes cyclostrophiques à petite échelle sont les ouragans et les tornades (Figure 1); ils sont caractérisés par un centre de basse pression et de forts vents. En raison d'un nombre de Rossby élevé (Tableau 1), la force de Coriolis peut être négligée pour les tornades et les ouragans, et on suppose l'équilibre entre la force centrifuge et le gradient de pression.

Figure 1
Tornado.jpg
Une tornade sur Terre observé par l'équipe VORTEX-99 le 3 Mai 1999 en Oklahoma.
Crédit : National Oceanic and Atmospheric Administration (NOAA).

Selon le glossaire de météorologie (AMS 2000), une tornade est une colonne d'air tournant violemment, en contact avec le sol et la base des nuages, et souvent (mais pas toujours) visible comme un nuage en forme d'entonnoir (Figure 1). La plupart des tornades ont des vitesses de vent entre 18 m s-1 et 135 m s-1. Son vortex a un diamètre typique de quelques centaines de mètres et tourne, en général, dans le sens contraire des aiguilles d'une montre dans l'hémisphère Nord. Les tornades se produisent sur tous les continents, mais sont plus fréquentes dans les États-Unis, où le nombre moyen de tornades enregistrées est d'environ 1000 par an, avec la majorité d'entre eux sur les plaines centrales et dans les états du sud. Les tornades sont associées à des orages violents et sont alimentés par l'afflux d'air chaud et humide. En général, ils sont le résultat de l'instabilité produit par la différence de température et d'humidité entre la surface, où l'air est plus chaud, et les niveaux supérieurs de l'orage, où l'air est plus froid.

Ouragan est le nom utilisé pour indiquer les cyclones tropicaux qui se produisent dans l'Atlantique ou le Pacifique Est. Les ouragans sont marqués par une région centrale d'air descendants, l'oeil, enfermé par des orages forts associés à des vents et des pluies intenses. Comme pour le cas des tornades, l'énergie des ouragans est fournie principalement par libération de chaleur latente dans l'air humide. Les ouragans sur la Terre se forment dans les régions tropicales au-dessus des océans chauds, et ils s'affaiblissent lorsqu'ils arrivent sur terre, où la source d'énergie disparaît. Dans l'oeil d'un ouragan, le nombre de Rossby locale est toujours >1 et peut arriver jusqu'à 100. Dans ce cas, l'équilibre devient cyclostrophique.

Les cyclones tropicaux sur la Terre et le vortex polaire de Vénus présentent des similitudes morphologiques et dynamiques, comme on peut voir dans la Figure 2. Le vortex de Vénus et les ouragans sont caractérisés par différentes échelles horizontales et durée de vie: le vortex de Vénus à un diamètre de 12000 km et il semble être permanent; les plus grands cyclones tropicaux observés sur la Terre ont un rayon de moins de 1000 km et durent environ une à deux semaines dans leur phase de maturité. La source d'énergie est aussi différente pour le vortex sur Vénus et les ouragans terrestres: la source d'énergie pour les ouragans est la libération de chaleur latente; le vortex polaire sur Vénus reçoit un apport d'énergie par le dépôt du rayonnement solaire au niveau des nuages et par l'émission thermique dans la basse atmosphère. Malgré leurs différences, les circulations du vortex de Vénus et des ouragans est très similaires: à partir du leur comparaison une meilleure compréhension de la dynamique de Vénus peut être atteinte.

Figure 2
VMC_hurricane.png
(Gauche) Le vortex polaire de Vénus; (Droit) l'ouragan Frances sur la Terre.
Crédit : Limaye et al., 2009

definitionTourbillons de poussière sur la Terre et Mars

Les tourbillons de poussière, présents à la fois sur la Terre et Mars, sont caractérisés par des vitesses de vent de rotation élevées, des champs électrostatiques importants et sont rendus visibles par la présence de poussière et de sable soulevé. Ils sont distincts des tornades car les tornades sont associées à des orages tandis que les tourbillons de poussière se forment sous un ciel clair.

Sur la Terre (Figure 3), l'étude de tourbillons de poussière est fondamentale pour comprendre leur rôle dans la convection et l'érosion des zones arides. Les tourbillons de poussière se produisent généralement en été dans les régions désertiques plus chaudes. Ils sont des événements transitoires et la plupart ne durent que quelques minutes.

Figure 3
Dust_devil_earth.jpg
Tourbillon de poussière sur la Terre observé dans le désert de l'Arizona.
Crédit : NASA

Sur Mars (Figure 4), les tourbillons de poussière peuvent avoir un effet important sur le cycle global de poussière. Les tourbillons de poussière sur Mars ont d'abord été identifiés dans les images prises par l'orbiteur Viking comme des petits nuages avec des longues ombres coniques. En plus, des traces laissées au sol par des tourbillons de poussière ont été détectées dans des images de la Mars Orbiter Camera et ont été également observées au sol par des atterrisseurs. Les tourbillons de poussière martiens et terrestres semblent avoir une morphologie similaire. Cependant, les tourbillons de poussière martiens sont un ordre de grandeur plus grand que ceux terrestres, atteignant souvent quelques kilomètres d'altitude et des centaines de mètres de diamètre avec des bases étroites et des larges sommets.

Figure 4
Dust_devil_mars.png
Tourbillon de poussière sur Mars photographié par le rover Spirit.
Crédit : NASA
vortex_mars_hirise.jpg
Tourbillon de poussière de 140 m de diamètre et 20 km de hauteur vu depuis l'orbite par l'intrument HiRISE.
Crédit : NASA / JPL / University of Arizona / HiRISE

Instabilités

Auteurs: Thomas Navarro, Arianna Piccialli

Nombre de Richardson

definitionDéfinition

Pour caractériser les différents types des instabilités atmosphériques on utilise le nombre de Richardson, un nombre sans dimension défini par:

Ri=\frac{N^2}{S^2}

S=\left(\frac{\partial{u}}{\partial{z}}\right) est le cisaillement vertical du vent.

N est nommée fréquence de Brunt-Väisälä définie comme la différence entre le gradient vertical de température \left(\frac{dT}{dz}\right) et le gradient adiabatique \Gamma:

N^2=\frac{g}{T}\left[\left(\frac{dT}{dz}\right)-\Gamma\right]

N est la fréquence d'oscillation d'une particule soumise à un déplacement vertical. Pour N^2<0 l'atmosphère est instable et une particule déplacée de son état initial s'éloignera irréversiblement. Si N^2=0, la stabilité est "neutre", la particule déplacée demeura à sa nouvelle altitude. Enfin, pour N^2>0 se produit une oscillation de la particule autour de son état initial.

conclusionInterprétation


Ondes atmosphériques

Auteurs: Thomas Navarro, Arianna Piccialli

Caractéristiques des ondes

Les ondes atmosphériques sont des perturbations des champs atmosphériques qui se propagent dans l'espace et/ou le temps. C'est un mécanisme important dans la dynamique des atmosphères car les ondes permettent de transporter des perturbations, transporter de l'énergie et de la quantité de mouvement d'une région à une autre.

rappelPropriétés des ondes

On peut représenter de manière simplifiée une onde atmosphérique par une fonction sinusoïdale, en fonction d'une dimension spatiale de coordonnée x et d'une dimension temporelle de coordonnée t:

\psi(x,t)=\psi_a\cos(k x-\omega t + \phi)

\psi_a est l'amplitude de l'onde; k=\frac{2\pi}{\lambda} est le nombre d'onde; \lambda est la longueur d'onde (en mètres); \omega=\frac{2\pi}{T} est la pulsation; T est la période (en secondes). \phi est la phase de l'onde, c'est-à-dire la valeur de la perturbation lorsque x=0 et t=0. La longueur d'onde est définie comme étant la distance séparant deux crêtes consécutives d'une onde. Si c (en mètres par seconde) est la vitesse de propagation de l'onde, on définit la fréquence (en hertz) par : \nu=\frac{c}{\lambda}.

Le champ physique représenté par \psi(x,t) est une variable atmosphérique. Il peut s'agir de la température, pression, le vent, etc ... La dimension de l'amplitude \psi_a est donc la même que celle de la variable représentée par la perturbation \psi.

Caractéristique d'une onde
Example_Wave.png
Au bout d'une durée correspondant à une période T, l'onde aura aura la même allure.
Crédit : A. Piccialli

rappelNotation exponentielle

Une manière plus compacte et efficace pour représenter une onde est la notation exponentielle. On écrit la perturbation sous sa forme complexe de la manière suivante :

\Psi(x,t)=\Psi_ae^{i(kx-\omega t)}

Avec i le nombre imaginaire i^2=-1. La perturbation réelle est définie comme étant la partie réelle de sa forme complexe :

\psi=Re(\Psi)

En utilisant la relation trigonométrique bien connue e^{i\theta}=\cos\theta +i\sin\theta, on obtient que l'amplitude complexe \Psi_a vaut :

\Psi_a=\psi_a e^{i\phi}

L'amplitude complexe \Psi_a contient ainsi l'information à la fois sur l'amplitude \psi_a et la phase \phi de l'onde. Cette notation est très pratique car elle permet notamment de dériver ou d'intégrer une onde par rapport à l'espace ou au temps. Par exemple :

\frac{\partial\psi}{\partial x} = \frac{\partial Re(\Psi)}{\partial x} = Re\left(\frac{\partial \Psi}{\partial x}\right) = Re(ik\Psi)

Ainsi, dériver par rapport à la coordonnée spatiale x revient à multiplier l'onde complexe par ik. De même, une dérivation temporelle revient à multiplier par -i\omega.

De la même manière, on peut montrer que trouver une primitive de l'onde complexe revient à diviser par ik, donc à multiplier par -\frac{i}{k}. De même, multiplier par \frac{i}{\omega} permet de trouver une primitive par rapport à t.


Onde sonore

Méthode des perturbations

À partir des équations primitives, il est possible de trouver les ondes susceptibles de se propager dans l'atmopshère en utilisant la méthode des perturbations. Il s'agit d'écrire chaque champ (par exemple avec la pression p) comme étant la somme d'une valeur fixe p_0 solution des équations et d'une petite perturbation p': p=p_0+p'. Ceci permet de linéariser les équations primitives en obtenant une équation pour les petites pertubations. Ces pertubations correspondent à des ondes que l'on peut ainsi étudier au moyen d'un cadre formel.

Onde sonore

L'onde la plus évidente est l'onde sonore dont le calcul va être détaillé ci-dessous. On définit les petites perturbations comme étant des ondes se propageant horizontalement et verticalement :

\Psi = \Psi_a e^{i(kx+mz-\omega t)}

avec k et m les nombres d'ondes horizontaux et verticaux respectivement. On fait l'approximation que la rotation et la gravité sont négligeables dans le cas qui nous intéresse. De plus, on suppose un fluide au repos, où la dérivée lagrangienne est égale à la dérivée eulérienne. Ainsi dans les équations primitives la force de Coriolis s'annule, tout comme la force centrifuge. En posant p'=c_s^2\rho' avec c_s la vitesse du son, les équations du mouvement horizontal et de l'équation de continuité s'écrivent ainsi :

\rho_0\frac{\partial u'}{\partial t} = - \frac{\partial p'}{\partial x}

\rho_0\frac{\partial v'}{\partial t} = - \frac{\partial p'}{\partial y}

\rho_0\frac{\partial w'}{\partial t} = - \frac{\partial p'}{\partial z}

\frac{1}{c_s^2}\frac{\partial p'}{\partial t} = - \rho_0\left( \frac{\partial u'}{\partial x} + \frac{\partial v'}{\partial y} +\frac{\partial w'}{\partial z} \right)

Soit, en utilisant les propriétés de la notation exponentielle :

-i\omega \rho_0 U_a = -ikP_a

-i\omega \rho_0 V_a = 0

-i\omega \rho_0 W_a = -imP_a

-i\omega P_a= c_s^2\rho_0(ikU_a+imW_a)

Par identification, on obtient :

\omega^2=c_s^2(k^2+m^2)

qui nous donne la relation entre longueur d'onde et période d'une onde sonore.

Généralisation

Le traitement des ondes atmosphériques est un sujet complexe; dans la page qui suit, nous allons donner un aperçu général des principaux types d'ondes en comparant différentes planètes, mais sans entrer dans le détail.

Une analyse plus détaillée des phénomènes ondulatoires peut être trouvé dans la liste suivante des livres:


Exemples d'ondes atmosphériques

Les ondes atmosphériques peuvent se manifester de diverses manières: comme oscillations de la température, de la densité et de la vitesse du vent, ou à travers des structures régulières de nuages. Ils peuvent être classés sur la base de facteurs différents: (1) mécanismes de restauration; (2) échelles de temps et d'espace; (3) ondes stationnaires ou qui se déplacent.

demonstrationClassement des ondes

Figure 1
GW_V1.png
Crédit : A. Piccialli
Figure 2
Kelvin.jpg
Ondes de Kelvin-Helmholtz observés au-dessus de Rome.
Crédit : Angelo Zinzi

Se tester

Auteurs: Thomas Navarro, Arianna Piccialli

Les bases de la circulation atmosphérique

exerciceExercice

Question 1)

Dans la figure suivante, on voit que l'énergie absorbée dans le visible dépend de la latitude (courbe bleue). Sachant que la puissance émise par le Soleil et reçue par la Terre est de 1361 W/m2 au total, quelle est l'équation régissant la relation entre la puissance reçue sur Terre et la latitude ?

Quelle serait l'allure de cette figure pour une planète ne possédant pas d'atmosphère ?

Bilan d'énergie
rad_balance_ERBE_1987.jpg

Question 2)

Dans la figure suivante, on a fait figurer le vent à deux altitudes différentes (300 et 925 Pa). Comment interprétez-vous l'orientation et l'intensité des vents ? Quel lien faites-vous avec les zones où les nuages sont absents ou présents ? Les zones arides et boisées sur Terre ?

Vents et nuages terrestres
windsmap.png
Crédit : Thomas Navarro

Question 3)

Quel est le lien entre variation particulaire et la variation totale d'un grandeur ? Comment interpréter le cas où le fluide est au repos (vitesse du fluide nulle) ?

Question 4)

Un ami vous affirme que le sens de rotation d'un vortex créé par de l'eau s'écoulant d'un lavabo dépend de l'hémisphère dans lequel on se trouve. Il en veut pour preuve que ce sens est toujours le même dans sa salle de bains et que ses nombreuses expériences de voyage de par le monde ne permettent pas de mettre ce fait en doute. Qu'en pensez-vous ?


Force de Coriolis

exerciceExercices de démonstration et d'acquisition du cours

Question 1)

Vous vous trouvez sur un manège tournant et souhaitez lancer un balle à votre ami situé de l'autre côté du manège. Si le manège tourne dans le sens des aiguilles d'une montre, Devez-vous lancer la balle à droite, à gauche, ou dans la direction de votre ami pour qu'elle lui arrive directement dans les bras ?

Vue de haut : vous êtes un bonhomme bleu avec un ami orange sur un manège gris. manege/manege1.png

Question 2)

Contrairement à vous, votre ami a eu mal au coeur et est descendu du manège pour s'asseoir sur un banc. Vous souhaitez néanmoins toujours lui lancer une balle, ce que vous tentez au moment où vous êtes le plus proche de lui. Devez-vous lui lancer la balle à droite, à gauche ou dans sa direction.

Vue de haut : vous êtes toujours un bonhomme bleu sur un manège gris mais votre ami orange n'est plus sur le manège. manege/manege4.png.

Question 3)

Il est possible de recréer une gravité artificielle dans un vaisseau spatial en le mettant en rotation autour d'un axe central. Les astronautes peuvent ainsi profiter d'une gravité telle que ressentie à la surface de la Terre dans un anneau qui tourne autour de son centre. Afin qu'ils ne ressentent pas de gêne lorsqu'ils se déplacent dans l'anneau, quelle doit être le diamètre minimal de l'anneau ?

station.jpg
Une station orbitale avec deux anneaux en rotation autour du moyeu central.
Crédit : 2001, Odyssée de l'espace


Mini-projet

Auteurs: Thomas Navarro, Arianna Piccialli

Projet

Ce mini-projet propose de visualiser des données calculées par un GCM afin d'aborder différents points vus dans le cours sur la dynamique atmosphérique.

Il est préférable d'avoir lu le cours sur le GCM et effectué le mini-projet de ce même cours pour prendre en main l'outil de visualisation et avoir une compréhension des données à manipuler.

structure thermique

Afficher la structure zonale de la température pour une planète similaire à la Terre, en fonction de la latitude et de la longitude. Qu'observez-vous ? Comment interpréter cette structure ?

Faire de même en faisant varier la vitesse de rotation de la planète. Qu'observez vous ? Comment l'interpréter ?

Faire de même en affichant le vent méridien, la circulation méridienne, et la super-rotation. Conclure.

Faire le lien avec les planètes connues du système solaire: Vénus, la Terre, Mars, Jupiter et Saturne.

Ondes

Afficher et identifier diverses ondes grâce à la pression de surface, les vents, la température

Influence du rayon planétaire

On se propose de vérifier la relation suivante de Lewis et consorts sur le lien entre rotation et taille sur la circulation grande échelle, etc ...


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Les orbites planétaires

Auteur: Valérie Ciarletti, Lucie Maquet

Les orbites planétaires

Plusieurs milliers d’exoplanètes, en orbite autour d'étoiles autres que le Soleil, ont été détectées à ce jour. La plupart d'entre elles ont été découvertes en étudiant les variations de luminosité liées à leur passage devant leur étoile (méthode des transits) et grâce à l'observation du mouvement de l'étoile autour de laquelle les planètes sont en orbite (méthode des vitesses radiales). Ces deux méthodes reposent sur l'exploitation d'informations liées à l'interaction gravitationnelle entre la planète et son étoile. Ce cours est essentiellement un cours de mécanique. Il a pour objectif de modéliser le mouvement d'une planète autour de son étoile et d'en identifier les paramètres caractéristiques. La partie Décrire présente les phénomènes de façon aussi simple que possible et ne requiert pas de compétences en mathématique. La partie Comprendre s'attache à démontrer les résultats énoncés dans la partie précédente. Le problème à deux corps (interaction entre une planète et son étoile) est au coeur de ce module. Le problème à plus de deux corps, qui est mathématiquement nettement plus compliqué, sera uniquement évoqué et permettra d'introduire les points dits de Lagrange. La migration des planètes sera également évoquée. Les illustrations seront systématiquement empruntées au monde des exoplanètes.


Décrire

Auteur: Valérie Ciarletti et Lucie Maquet

Un très bref historique sur l'étude et la modélisation des orbites

Les exoplanètes, comme les planètes et autres corps de notre système solaire sont soumises à la loi de la gravitation ou attraction universelle. Cette loi a été historiquement formalisée par Isaac Newton en 1687. Elle permet de modéliser, de façon générale, l'attraction entre des corps ayant une masse et, par conséquent, le mouvement des corps célestes.

Copernic
copernic.jpg
Modèle héliocentrique de Copernic , Caelestial Orbes, 1576

Bien avant Newton, le mouvement des planètes dans le ciel a retenu l'attention de nombreux scientifiques (Aristote, Galilée, Copernic,...) qui ont proposé des modèles pour expliquer ou, au moins, modéliser leurs observations. Les travaux de Copernic font date avec sa proposition en 1543 d'un modèle héliocentrique qui présente, entre autres, le grand avantage de simplifier les calculs par rapport au modèle géocentrique. Cependant, la cause du mouvement n'est pas identifiée et les orbites des planètes restent des cercles.

Johannes Kepler établit, à partir des observations minutieuses du mouvement de Vénus, Mars, Jupiter et Saturne faites par Tycho Brahe, le fait que les orbites des planètes de notre système solaire ne sont pas des cercles mais des ellipses dont le Soleil est un foyer. Il publie, en 1609 et 1619, des lois empiriques qui prendront le nom de Lois de Kepler. Ces lois sont particulièrement intéressantes et utiles parce qu'elles établissent des relations entre les différents paramètres des orbites. En outre, il faut noter que Kepler a certainement ouvert la voie à Newton en affirmant que "deux corps voisins et hors de la sphère d'attraction d'un troisième corps s'attireraient en raison directe de leur masse."

Newton a finalement modélisé la gravitation est ainsi permis une explication des phénomènes observés ainsi que la possibilité de prédire le mouvement des planètes en orbite autour de leur soleil. Les lois de la gravitation de Newton permettront d'ailleurs d'expliquer les résultats empiriques énoncés dans les lois de Kepler. Notons que la mécanique classique issue des lois de Newton n'est elle-même qu'une approximation, qui ne rend plus bien compte des mouvements des corps aux vitesses très élevées ou au voisinage immédiat des masses. Ainsi c'est la relativité générale d'Einstein qui a permis d'expliquer le mouvement du périhélie de Mercure ce qui n'était pas possible à partir des lois de Newton.


Les lois de Kepler

Kepler
kepler.jpg
Portait de Johannes Kepler (1571-1630) réalisé en 1610 - Artiste inconnu
Brahe
brahe.jpg
Portait de Tycho Brahe (1546-1601) réalisé en 1596 - Artiste inconnu

Les trois lois de Kepler ont été établies à partir de l'observation du mouvement des planètes au sein de notre système solaire. Elles ne reposent sur aucune modélisation mécanique de l'interaction entre la planète et le soleil. Néanmoins, ces lois seront confirmées, a posteriori, par la théorie de la gravitation universelle. Dans cette partie, ces lois sont énoncées sans démonstration (les démonstrations seront faites plus loin) et illustrées.


La première loi de Kepler (1605)

Loi des orbites : Les planètes autour de leur soleil ont un mouvement périodique dans un plan. Plus précisément, ces orbites sont des ellipses dont le soleil est un foyer.

demigrandaxe.jpg
Haut : Effet de la valeur de l'excentricté e sur la forme de l'ellipse Bas : Effet de la valeur du demi-grand axe a sur la taille de l'ellipse

exerciceForme des orbites

Question 1)

Exprimer la distance étoile-planète lorsque la planète est à son apoastre. Même question lorsqu'elle est située à son périastre .

Question 2)

Calculer, en utilisant les données du catalogue des exoplanètes, la valeur munérique de ces deux distances pour l'exoplanète détectée à ce jour, ayant la valeur d'excentricité la plus élevée du catalogue.

Question 3)

Utiliser les données du catalogue des exoplanètes et l'outil histogrammes pour étudier la variabilité des excentricités des exoplanètes.

Estimez l'excentricité moyenne des exoplanètes détectées à ce jour

Auteur: Valérie Ciarletti

exerciceDimension des orbites

L'objectif de cet exercice est d'étudier les tailles des ellipses des exoplanètes qui ont été détectées à ce jour en utilisant les données du catalogue et les outils qui permettent de les visualiser.

Question 1)
  • Utilisez la boite à outil histogrammes pour étudier la taille des orbites des exoplanètes détectées à ce jour.

    Comparez ces valeurs à celle de l'orbite de la Terre.

Question 2)
  1. Utilisez la boite à outils diagrammes pour rechercher un lien entre taille et forme des ellipses.


La deuxième loi de Kepler (1604)

Loi des aires : En un temps donné, le segment qui joint le centre du soleil au centre de la planète en orbite balaie une surface (aire) égale quelle que soit la position de la planète sur l'orbite.

Illustration de la loi des aires
LOI2t.jpg
Pour chacun des graphes, le temps de parcours les secteurs colorés ont des aires égales

La troisième loi de Kepler (1618)

Loi des périodes : Le carré de la période de révolution T d'une planète sur son orbite est proportionnel au cube du demi-grand axe de l'ellipse. \frac{T^2}{a^3}=Cte

Pour un système planétaire donné, plus une planète est éloignée de son étoile, plus sa période est grande. Il est important de ne pas tirer de conclusions fausses sur les vitesses relatives de ces planètes. En effet, lorsque les orbites en question ne sont pas des cercles, la vitesse de déplacement de la planète n'est pas constante en accord avec la loi des aires.

Cette loi ayant été établie dans notre système solaire, il pouvait sembler à Kepler que la constante était universelle. Nous verrons par la suite que les lois de la mécanique permettent de calculer cette constante et que la valeur de la constante dépend de la masse de l'étoile. On montre que

\frac{T^2}{a^3}=\frac{4\pi^2}{GM}{\left(1+\frac{m}{M}\right)}^2

G est la constante de gravitation universelle et M la masse de l'étoile et m celle de la planète.

Dans le cas très fréquent où la masse de l'étoile M est très supérieure à celle de la planète m, la relation devient \frac{T^2}{a^3}=\frac{4\pi^2}{GM} et seule la masse de l'étoile intervient.

exerciceTroisième loi de Kepler

Question 1)

Utilisez la boite à outils diagrammes pour représenter pour l'ensemble des exoplanètes du catalogue leur période de révolution autour de son étoile en fonction de la valeur du demi-grand axe de leur ellipse.

Question 2)

En échelle logarithmique pour les deux axes montrez que les points sont tous sur des droites de même pente. Expliquez pourquoi, sur le diagramme obtenu, les points ne sont pas tous alignés sur la même droite.


Mouvement de deux corps sous l'effet de la gravitation

L'attraction gravitationnelle, dans le cas d'un système planète-étoile isolé, permet de démontrer les lois de Kepler et de calculer le mouvement des deux corps. (Ces calculs sont présentés dans la partie comprendre).

Les animations ci-dessous illustrent l'effet de cette force d'attraction en fonction du rapport des deux masses en jeu. La croix rouge imobile correspond au centre de gravité (barycentre) de l'ensemble.

mouvement de deux corps de même masse
orbitun.gif
mouvement de deux corps de masse très différente
orbitquatre.gif

La Migration des planètes

Au cours de la formation et de l'évolution d'un système planétaire, plusieurs types de migrations planétaires peuvent avoir lieu. On distingue trois types de migration de planètes. Les deux premiers types de migrations ont lieu lorsque la proto-étoile est toujours entourée d'un disque soit de gaz (migration de type I) soit de planétésimaux (migration de type II).

Après la dispersion du disque de gaz et de planétésimaux, les planètes peuvent toujours intéragir avec les petits corps rescapés de l'accrétion planétaire. Étant donnée la composition actuelle des planètes Uranus et Neptune (elles contiennent, toutes deux, un coeur solide : signe qu'elles ont du se former plus proche du Soleil), il y a de forts soupçons sur le fait que la migration tardive des planètes du Système solaire soit responsable de l'orbite actuelle d'Uranus et Neptune à, respectivement, 20 et 30 UA du Soleil.

Ces migrations planétaires sont notamment une explication plausible pour l'existence des " Jupiters chauds " : planètes trés massives et trés proches de leur étoile.

Pour en savoir plus sur les migrations planétaires : voir la page en suivant le lien.


Comprendre

Auteur: Valérie Ciarletti

Mouvement d'une planète autour de son étoile - Introduction

Les exoplanètes, comme les planètes et autres corps de notre système solaire sont soumises à loi de la gravitation ou attraction universelle. Cette loi a été historiquement formalisée par Isaac Newton en 1687. Elle permet de modéliser, de façon générale, l'attraction entre des corps ayant une masse et, par conséquent, décrire le mouvement des corps massiques soumis aux forces de gravitation. Dans les pages qui suivent, le principe fondamental de la dynamique est utilisé pour étudié le mouvement de deux corps massiques isolés et démontrer les lois de Kepler.


Le problème à deux corps

On cherche à étudier le mouvement de deux corps de masses M_1 et M_2 assimilés à deux points matériels localisés aux points P_1 et P_2 qui sont leur centre de gravité. Le système de ces deux corps étant isolé on fait l'étude dans un référenciel (R) supposé Galiléen d'origine arbitraire.

Les forces en présence

Lorsque deux corps massiques sont en présence l'un de l'autre, l'effet de la gravitation qui agit sur ces corps se traduit par une force d'attraction. Si ces deux corps sont assimilés à des points matériels localisés en leur centre de gravité, cette force est proportionnelle aux deux masses en jeu et inversement proportionnelle à la distance au carré entre les deux points.

Cette force explique aussi bien la chute des corps sur Terre que le mouvement d'une planète autour de son soleil ou d'une lune autour de sa planète.

L'attraction gravitationnelle
grav.jpg

On a la force exercée par M_1 sur M_2,  \overrightarrow{F_1_2}=-G \frac{M_1 M_2}{|\overrightarrow{P_2P_1}|^3}\overrightarrow{P_1P_2} et, par symétrie, la force exercée par M_2 sur M_1 ,  \overrightarrow{F_2_1}=-G \frac{M_2 M_1}{|\overrightarrow{P_1P_2}|^3}\overrightarrow{P_2P_1}

La constante de gravitation universelle est G=6,67 .10^-^1^1 \; \mathrm{N \cdot m^2 \cdot kg^{-2}}

On remarque que  \vec{F}_2_1=- \vec{F}_1_2 en accord avec la loi de l'action et de la réaction pour un système isolé.

Dans ce référentiel (R), le principe fondamental de la dynamique appliqué aux deux corps donne donc deux équations couplées

\left\{   \begin{array}{l l l}  {{M_1}\ddot{\overrightarrow{OP_1}}=-G {M_1}\frac{M_2}{|\overrightarrow{P_2P_1}|^3}\overrightarrow{P_1P_2}}\\  {{M_2}\ddot{\overrightarrow{OP_2}} = -G {M_2}\frac{M_1 }{|\overrightarrow{P_2P_1}|^3}\overrightarrow{P_2P_1}=-{{M_1}\ddot{\overrightarrow{OP_1}}\end{array}

L'objectif est de connaître la position des centres de gravité P_1 et de P_2 en fonction du temps.

Le choix du référentiel de travail - Réduction à un problème à un corps

Si on considère l'ensemble des deux corps, le centre de gravité (ou barycentre) C est défini de la façon suivante :

{(M_1+M_2)} \overrightarrow{OC}={M_1}{\overrightarrow{OP_1}}+{M_2}{\overrightarrow{OP_2}}

On dérive deux fois par rapport au temps et on utilise le fait que {M_1}{\ddot{\overrightarrow{OP_1}}}=-{M_2}{\ddot{\overrightarrow{OP_2}}} , on obtient alors

{(M_1+M_2)} \ddot{\overrightarrow{OC}}={M_1}{\ddot{\overrightarrow{OP_1}}}+{M_2}{\ddot{\overrightarrow{OP_2}}}=\overrightarrow{0}}

Ce qui traduit le fait que le barycentre C est en mouvement rectligne et uniforme dans le référentiel (R). Le repère barycentrique (R_C) dont l'origine est le centre de gravité des deux corps est donc lui aussi Galiléen.

On choisit de travailler dans le repère (R_C) ce qui permet de découpler le mouvement du barycentre des mouvements relatifs des deux corps.

Les équations du mouvement dans le repère barycentrique (R_C)

On note \vec{r}_1=\overrightarrow{CP_1} , \vec{r}_2=\overrightarrow{CP_2}

et on introduit \vec{r}=\overrightarrow{P_2P_1}=\overrightarrow{OP_1}-\overrightarrow{OP_2}=\overrightarrow{r_1}}-\overrightarrow{r_2}}

soit \left\{   \begin{array}{l l}  {\overrightarrow{r_1}}=\overrightarrow{CP_1}}=\overrightarrow{CO}}+\overrightarrow{OP_1}} \\  {\overrightarrow{r_2}}=\overrightarrow{CP_2}}=\overrightarrow{CO}}+\overrightarrow{OP_2}} \end{array}

Avec ces notations, les équations du mouvement dans le repère barycentrique deviennent :

\left\{   \begin{array}{l l l}  {M_{1}\ddot{\overrightarrow{{r_{1}}}}=\overrightarrow{F_{21}}}\\  {M_2\ddot{\overrightarrow{{r_2}}} = \overrightarrow{F_{12}}=- \overrightarrow{F_{21}}}\end{array}

L'expression des forces d'attraction gravitationnelle permet de réécrire ce système sous la forme :

\displaystyle \left\{   \begin{array}{l l}  {\ddot{\overrightarrow{r_{1}}}}=\frac{\overrightarrow{F_{21}}}{M_1}\\\\{\ddot{\overrightarrow{r_2}} = -\frac{\overrightarrow{F_{21}}}{M_2}\end{array} et d'obtenir par différence \ddot{\overrightarrow{r}}}=\ddot{\overrightarrow{r_{1}}}}-\ddot{\overrightarrow{r_{2}}}}=\frac{\overrightarrow{F_{21}}}{M_1}+\frac{\overrightarrow{F_{21}}}{M_2}=\overrightarrow{F_{21}}}(\frac{1}{M_1}+\frac{1}{M_2}})

\frac{M_1M_2}{M_2+M_1}}\ddot{\overrightarrow{r}}}=\overrightarrow{F_{21}}}

Cette équation peut être interprétée comme l'équation du mouvement d'un corps ponctuel fictif de masse \mu=\frac{M_1M_2}{M_2+M_1} (appeléee masse réduite du système) soumis à la force \overrightarrow{F_{21}}}, soit \mu\ddot{\overrightarrow{r}}}=\overrightarrow{F_{21}}}. Dans la suite, ce point fictif sera noté P .

Le problème à deux corps se réduit donc à un problème à un corps fictif unique. On aboutit à une équation unique pour le mouvement de P dans laquelle n'apparait que l'inconnue \vec{r}.Cette équation est valable dans le repère baycentrique (R_C).

              {\mu}\ddot{\overrightarrow{r}}}=\mu \frac{d^2\overrightarrow{r}}{dt^2}=-G M_2 M_1 \frac{\overrightarrow{r}}{|\overrightarrow{r}|^3}

L'expression de la force de gravité permet a priori de modéliser l'interaction entre plusieurs corps (étoiles, planètes, lunes, petits corps ...). Cependant, seul le problème à deux corps peut être mathématiquement résolu sans approximation.


Equation du mouvement lorsque l'étoile est beaucoup plus massive que la planète

On suppose ici que M_1 \gg M_2

Dans le repère barycentrique, le point P_1 qui correspond au corps le plus massif est immobile. En effet, la position du centre de gravité est confondue avec celle du corps le plus massif, comme le montre le calcul suivant.

{(M_1+M_2)} \overrightarrow{OC}={M_1}{\overrightarrow{OP_1}}+{M_2}{\overrightarrow{OP_2}} devient \overrightarrow{OC}={\overrightarrow{OP_1}}

La masse \mu du point P est très voisine de celle M_2 du corps le plus léger. En effet, \mu=\frac{M_1M_2}{M_2+M_1}}=\frac{M_2}{1+\frac{M_2}{M_1}}} \approx{M_2}

Le corps 2 est donc en orbite autour du corps 1 dont le mouvement est négligeable. Cette situation particulière se présente fréquemment dans le cas d'une planète en interaction avec son étoile qui est souvent nettement plus massive qu'elle.


Etude du mouvement

On part de l'équation obtenue précédemment {\mu}\ddot{\overrightarrow{r}}}=-G M_2 M_1\frac{\overrightarrow{r}}{|\overrightarrow{r}|^3} dans le repère barycentrique (R_C).

Le vecteur position \overrightarrow{r}=\overrightarrow{CP} est défini à partir du centre de gravité C qui l'origine du repère.

\overrightarrow{r} est l'inconnue dont il faut déterminer l'évolution en fonction du temps.

Démonstration de la planeité de la trajectoire - Première loi de Kepler

On démontre en utilisant le théorème du moment cinétique que la trajectoire du point P est plane. C'est la première loi de Kepler.

Le moment cinétique \overrightarrow{L} d'un point en mouvement est défini, pour un repère particulier et par rapport à l'origine du repère, de la façon suivante {\overrightarrow{L}}=\mu \overrightarrow{r}} \wedge\overrightarrow{v}} . Le théorème du moment cinétique (qui se déduit des lois de la mécanique) exprime le fait que la dérivée de ce moment cinétique \overrightarrow{L} est le produit vectoriel du rayon vecteur \overrightarrow{r} et de la force \overrightarrow{F}.

Pour le cas qui nous intéresse, dans le repère barycentrique (R_C) au point C, on a donc

\frac{d\overrightarrow{L}}{dt}=\overrightarrow{r}} \wedge\overrightarrow{F}}=-G \overrightarrow{r}} \wedge\frac{\overrightarrow{r}}{|\overrightarrow{r}|^3} puisque \overrightarrow{F}=-G \frac{\overrightarrow{r}}{|\overrightarrow{r}|^3}

Le produit vectoriel de deux vecteurs colinéaires étant nul, on obtient \frac{d\overrightarrow{L}}{dt}=\overrightarrow{0}. \overrightarrow{L} est donc un vecteur constant.

Or, du fait du produit vectoriel, le vecteur {\overrightarrow{L}}=\mu \overrightarrow{r}} \wedge\overrightarrow{v}} doit être orthogonal à chacun des vecteurs \overrightarrow{r} et \overrightarrow{v}. On montre ainsi que le plan défini en tout instant par les deux vecteurs \overrightarrow{r} et \overrightarrow{v} est invariant (orthogonal à l'axe défini par ce vecteur constant \overrightarrow{L} ). C'est le plan dans lequel le point évolue.

En conclusion, la trajectoire du point P est bien plane.


Etude du mouvement

Démonstration de la loi des aires - Deuxième loi de Kepler

A partir du moment cinétique, il est aussi possible de démontrer la loi des aires.

Nous avons démontré précédemment que la trajectoire du point P restait dans un plan fixe qui est perpendiculaire à la direction du moment cinétique constant. Dans ce plan, il est donc possible de décrire le mouvement en coordonnées polaires. l'angle polaire sera noté ν (il s'agit de l'anomalie vraie définie dans La première loi de Kepler )

Dans ce système de coordonnées, on a \overrightarrow{r}=r\overrightarrow{e{_r}} , \overrightarrow{v}=\dot\overright{r}\overrightarrow{e{_r}}+r\dot\overright{\nu}\overrightarrow{e{_\nu}} et \overrightarrow{a}=(\ddot\overright{r}-r\dot\overright{\nu}^2)\overrightarrow{e{_r}}+(2\dot\overright{r}\dot\overright{\nu}+r\ddot{\nu})\overrightarrow{e{_\nu}}

Il est possible dès à présent de simplifier l'experssion de l'accélération puisque la force n'a pas de composante que selon l'axe \overrightarrow{e{_\nu}}. On a \overrightarrow{a}=(\ddot\overright{r}-r\dot\overright{\nu}^2)\overrightarrow{e{_r}}

Avec ces notation, le moment cynétique constant s'écrit {\overrightarrow{L}}=\mu \overrightarrow{r}} \wedge\overrightarrow{v}}=\mu r\overrightarrow{e{_r}}\wedge(\(r\overrightarrow{e{_r}}+r\dot\overright{\nu}\overrightarrow{e{_\nu}})=\mu r^2\dot\overright{\nu}\overrightarrow{e{_z}} .

On démontre ainsi, puisque {\overrightarrow{L}} est un vecteur constant, que la quantité V_A=r^2\dot\overright{\nu} (appelée vitesse aréolaire) reste constante lors du mouvement du corps autour du point C.

Or \frac{r^2\dot\overright{\nu}}2 dt est l'aire balayée pendant la durée dt par le vecteur {\overrightarrow{CP}} .

Géométrie illustrant la loi des aires
loidesaires.jpg

On en déduit donc que la surface balayée (en rouge sur la figure) pendant un temps dt donné est constante le long de la trajectoire et égale à \frac{r^2\dot\overright{\nu}}2 dt. C'est la loi des aires de Kepler.

Remarque 1 : On peut également noter que si r^2\dot\overright{\nu} est une constante, alors le signe de \dot\overright{\nu} est constant, ce qui traduit le fait que la rotation s'effectue toujours dans le même sens.

Remarque 2 : On peut utiliser la relation V_A=r^2\dot\overright{\nu} pour exprimer les dérivées de r et de \nu par rapport au temps et réecrire l'accélération du point P en introduisant la fonction u(\nu)=1/r. \dot{r}=\frac{dr}{dt}=\frac{d(1/u)}{dt}=-\frac{du}{dt}\frac{1}{u^2}=\frac{du}{d\nu}\frac{d\nu}{dt}\frac{1}{u^2}=-u'\dot{\nu}\frac{1}{u^2}=-u'V_A en notant \frac{du}{d\nu}=u' \ddot{r}=\frac{d^2r}{dt^2}=\frac{d(1/u)}{dt}=-u''\dot{\nu}V_A=-u''u^2V_A^2 en notant \frac{d^2u}{d\nu^2}=u'' \dot\overright{\nu}=V_Au^2

L'accélération \overrightarrow{a} devient alors \overrightarrow{a}=(\ddot\overright{r}-r\dot\overright{\nu}^2)\overrightarrow{e{_r}}=-V_A^2u^2(u''+u)\overrightarrow{e{_r}} . Cette expression sera utilisée par la suite pour trouver l'équation de la trajectoire du point P.


Equation de la trajectoire

Les solutions de l'équation du mouvementpermettent de déterminer la façon dont la position du point P déterminée par les deux variables r(t) et \nu(t) évolue au cours du temps. Cependant, la résolution de cette équation différentielle, n'est pas possible analytiquement. Nous allons donc nous focaliser sur la relation entre la distance r et l'angle polaire \nu qui modélise la trajectoire du point P dans le plan de l'orbite.

Le résultat recherché est obtenu en utilisant la fonction u(\nu)=1/r introduite précédemment. Avec cette nouvelle variable, l'équation {\mu}\ddot{\overrightarrow{r}}}=-G M_2 M_1\frac{\overrightarrow{r}}{|\overrightarrow{r}|^3} devient {\mu}V_A^2u^2(u''+u)\overrightarrow{e{_r}}=G M_2 M_1u^2\overrightarrow{e{_r}}

soit après simplifications : u''+u=G \frac{(M_2+M_1)}{ V_A^2}

Remarque : Cette équation peut également être obtenue en utilisant la conservation de l'énergie mécanique (cinétique+potentielle) du point P

L'équation à résoudre est une équation différentielle du second ordre (présence de u'') à coefficients constants avec second membre constant G \frac{(M_2+M_1)}{ V_A^2}.

La solution de cette équation est la somme d'une solution particulière de l'équation complète avec second membre et de la solution générale de l'équation sans second membre. On choisit comme solution particulière la solution constante égale à G \frac{(M_2+M_1)}{ V_A^2}.

La solution générale de l'équation sans second membre u''+u=0 est une fonction sinusoïdale de phase à l'origine et d'amplitude qui dépendent des conditions initiales du problème.

Au final, on obtient donc une solution de la forme u(t)=a cos(\nu(t)-{\nu}_0)+G \frac{(M_2+M_1)}{ V_A^2}.

Il est maintenant possible de repasser à la fonction r(t) et on obtient l'équation en polaire d'une conique :

r(t)=\frac{1}{u_0 cos(\nu(t)-{\nu}_0)+G \frac{(M_2+M_1)}{ V_A^2}}=\frac{ {V_A}^2}{G(M_2+M_1)}\frac{1}{\frac{u_0 V_A^2}{G(M_2+M_1)} cos(\nu(t)-{\nu}_0)+1}

Par identification aux paramètres de l'équation classique de l'ellipse r=a \left( \frac{1-e^2}{1+e \cos(\nu)} \right), on a

e= \frac{u_0 V_A^2}{G(M_1+M_2)} et a= \frac{\frac{{V_A}^2}{G(M_1+M_2)}}{1-{{(\frac{u_0 V_A^2}{G(M_1+M_2)}})}^2}


Exercice sur la trajectoire circulaire

exerciceExercice

Difficulté : ☆☆  

Vous vous intéressez à la trajectoire du corps fictif (F) de masse \mu=\frac{M_1M_2}{M_2+M_1} qui est en orbite autour du centre de gravité (C) du système isolé planète-étoile, ceci dans le cas particulier d'une orbite circulaire.

Question 1)

Utilisez la relation \mu \frac{d^2\overrightarrow{r}}{dt^2}=-G M_2 M_1\frac{\overrightarrow{r}}{|\overrightarrow{r}|^3} pour montrer que, dans le cas d'une trajectoire circulaire, la vitesse est constante en module sur toute la trajectoire circulaire suivie par le point fictif (F) autour du centre de masse des deux corps. Exprimez cette vitesse en fonction du rayon R du cercle suivi par (F) .

Question 2)

Exprimer la période T de l'orbite (temps mis par le corps pour parcourir une fois le cercle).Vérifier, toujours dans le cas d'une trajectoire circulaire, la deuxième loi de Kepler.

Question 3)

Dans le cas particulier où ce point est confondu avec le centre de gravité de la planète (M_1 \gg M_2 ), simplifier les expressions obtenues précédemment.


Forme des trajectoires

Evolution de la distance planète-étoile et de la vitesse instantanée le long de l'orbite
vrbis.jpg
Mise en évidence de l'effet de l'excentricté e sur la vitesse instantanée de déplacement de la planète sur son orbite. Le cas particulier de l'orbite circulaire est représenté en rouge.

Les animations ci-dessous montrent l'effet de cette force d'attraction en fonction du rapport des deux masses en jeu. La croix rouge imobile correspond au centre de gravité (barycentre) de l'ensemble.

mouvement de deux corps de même masse
orbitun.gif
mouvement de deux corps de masse très différente
orbitquatre.gif

description des orbites

Pour faire les calculs du mouvement d'une planète et de son étoile nous nous avons choisi un repère approprié pour simplifier les calculs (centre du repère au centre de masse, deux axes dans le plan de l'ellipse, ...), il faut maintenant tenir compte du fait que cette ellipse possède une certaine orientation dans l'espace et compléter la liste de paramètres que nous avons pour l'instant. Une orbite elliptique est décrite au moyen de deux plans (le plan de l'orbite et le plan de référence) et de six paramètres

Description de l'ellipse et du mouvement du corps dans le plan orbital

Plan orbital et mouvement de la planète sur son orbite
planorbite.jpg

Description du plan orbital

L'orientation du plan orbital est donnée par rapport à un plan de référence.

Plan orbital et Plan de référence
planorbiteetreference.jpg

Orientation du plan orbital par rapport au plan de référence


Méthodes de détection des exoplanètes fondées sur le mouvement

Méthode des transits

le transit désigne le passage d'une planète entre son étoile et nous. L'observation consiste à mesurer la variation du flux stellaire lors de ce passage de façon à obtenir des informations sur la planète étudiée et son orbite. La première planète ainsi découverte est HD209458b en 2000 (Charbonneau et al. 2000). Le principe est illustré sur la figure ci-dessous. Cette méthode permet de détecter la présence d'une exoplanète en orbite autout de son étoile et d'avoir accès à certains paramètres de l'ellipse. Pour en savoir plus, voir cours sur la méthode de détection des exoplanètes par la méthode des transits.

Illustration du principe de la méthode des transits (crédit CNES)
CNEStransits.gif

Dans notre système solaire, on peut observer depuis la Terre le transit des planètes Mercure et Vénus qui sont sur des orbites plus proches du soleil que celle de la Terre. Johannes Kepler a été le premier à prédire et pouvoir observer le transit de Mercure en novembre 1631, ainsi que celui de Vénus un mois plus tard.

Méthode des vitesses radiales

Principe : On mesure par effet Doppler la vitesse d'éloignement ou de rapprochement de l'étoile, on peut détecter ainsi qu'il y a une planète en orbite et estimer la période de révolution. Pour en savoir plus,voir cours sur la méthode de détection des exoplanètes par la méthode des vitesses radiales.

Illustration du principe de la méthode des vitesses radiales (crédit CNES)
CNESvitessesradiales.gif

Problème à N corps

Le cas d'un problème à deux corps, qui a été traité précédemment et qui permet de démontrer les lois de Kepler, est une approximation valable lorsque l'on peut négliger les forces de gravitation dues aux autres corps.

Le problème à N (N>2) corps se pose lorsque N corps massifs interagissent sans que l'on puisse a priori négliger certaines de ces interactions. Dans ce cas, on a un système de N équations à N inconnues qui sont les positions \vec{r_i} des centres de gravité des N corps de masse M_{j} .

\forall j : 1- N, {M_{j}\ddot{\overrightarrow{{r_{j}}}}=\sum_{i=1}^{N}{\vec{F_j_i}}

\forall j : 1- N, {\ddot{\overrightarrow{{r_{j}}}}=-G  \sum_{i=1}^{N}{\left(\frac{ M_i}{{r_{ji}}^3}\right)\vec{r}_j_i} avec \vec{r}_j_i=\vec{r}_i-\vec{r}_j

Trouver analytiquement les solutions de ce système d'équations est impossible dans le cas général. Il faut recourir à des méthodes de résolutions approchées (perturbatives ou numériques).


Les points de Lagrange

Dans le cas particulier du problème à trois corps, on s'intéresse ici au mouvement d'un corps 'test' de masse négligeable L qui subit l'attraction de deux corps plus massifs\ P_1 et\ P_2. Le fait que la masse du corps L soit négligeable permet de considérer que les mouvements de\ P_1 et\ P_2 ne sont pas perturbés par la présence de L.

Pour simplifier la présentation du problème, nous allons nous restreindre au cas où\ P_1 est l'étoile et\ P_2 une planète, beaucoup moins massive, est en orbite circulaire autour de son étoile.

Le mathématicien Joseph-Louis Lagrange (1772) étudie ce problème. Il montre qu'il existe 5 points, dits de Lagrange (notés \L_1 à \L_5), pour lesquels les forces d'attraction de\ P_1 et\ P_2 se combinent de façon à ce que le corps "test" L de masse négligeable ait la même période de révolution que les deux autres corps et les suive donc dans leur mouvement autour du centre de gravité de\ P_1 et\ P_2.

En contradiction apparente avec les résultats obtenus dans le cadre du problème à deux corps, on peut trouver des corps de masse négligeable qui ont donc une période de révolution égale à celle de la planète mais qui ne sont pas sur la même orbite.

On montre que les points \L_1 , \L_2 et \L_3 (parfois appelés Points d'Euler) correspondent à des positions instables alors que les points \L_4 et \L_5 correspondent à des positions stables. Les positions de ces deux derniers points ne dépendent pas des masses des points\ P_1 et\ P_2. Dans le cas, du système Soleil/Jupiter, ce sont au voisinage de ces points que se trouvent les nombreux astéroïdes troyens qui suivent (ou précèdent) la révolution de la Terre autour du Soleil. D'autres planètes du système solaire sont suivies ou précédées également par des petits corps troyens (la liste des troyens détectés à ce jour dans notre système solaire est disponible sur le site du Minor Planet Center )

Visualisation des points de Lagrange
Lagrange.jpg
Positions des points de Lagrange pour le système étoile-planète (représentées en rouge). Les points de Lagrange stables sont représentés en vert, les points instables en bleu.

Appliquette Système Solaire application.png

exerciceEtude par simulation numérique des points de Lagrange

Vous allez utiliser l'appliquette pour visualiser les points de Lagrange (astéroïdes Troyens) stables et instables d'un système étoile-planète.

Attention : Cette appliquette utilise un système d'unités arbitraire pour les distances, vitesses, masses et temps de façon à ce que les valeurs numériques restent inférieures à un millier.

Question 1)

Choisissez pour commencer le système 'astéroïdes Troyens' proposé par l'appliquette

Laissez évoluer ce système, sans modifier les conditions initiales, jusqu'à 100 unités de temps pour vérifier que les deux petits corps positionnés aux points de Lagrange \L_4 et \L_5 ont bien la même période de révolution autour de l'étoile que la planète.

Vérifiez qu'initialement les trois corps ont des vitesses très voisines.

Modifiez la masse de l'un des astéroides (de 0.001 à 1 par exemple) et observer le changement qui apparait après un temps suffisamment long d'environ 50 unités. Expliquez ce qui se passe et proposez une explication.

Question 2)

Vous allez maintenant utiliser l'appliquette afin d'étudier les mouvements d'un corps de masse négligeable au voisinage des points de Lagrange instables L_1 et L_2 (situés de part et d'autre de la planète sur l'axe entre la planète et l'étoile).

Créez pour commencer un système à deux corps avec les valeurs numériques suivantes pour l'étoile et la planète : M_1=500, M_2=10, P_1P_2=120, V_1=0. Trouver (en tâtonnant) une valeur de la vitesse initiale qui permet d'avoir une orbite quasi-circulaire pour la planète. Vérifiez que l'orbite de P_2 autour de C est voisine d'une orbite circulaire.

Question 3)

Etude des points de Lagrange L_1 et L_2

Vous allez maintenant ajouter à ce système un troisième corps de masse très faible aux positions qui correspondent aux points de Lagrange L_1 et L_2.

On peut montrer par méthode perturbative que les positions de L_1 et L_2 par rapport au centre de masse C du système étoile-planète sont données par les développements limités suivants:

CL_1=CP_2 +P_1P_2(-\epsilon+\frac{1}{3}\epsilon^2+\frac{1}{9}\epsilon^3+...) et CL_2=CP_2 +P_1P_2(\epsilon+\frac{1}{3}\epsilon^2-\frac{1}{9}\epsilon^3+...)

avec \epsilon=({\frac{1}{3}\frac{M_2}{M_2+M_1}})^\frac{1}{3}

Calculer la valeur de CL_1 et CL_2 pour la configuration que vous allez simuler.

Question 4)

Ajoutez dans le système à deux corps, un point de masse négligeable sur l'axe étoile-planète à la position L_2 que vous avez précédemment calculée. Donnez à ce petit corps une vitesse initiale quelconque et observez ce que donne la simulation. Etudiez, en prenant quelques valeurs de vitesse différentes, l'impact sur la trajectoire du petit corps. Trouvez une valeur de vitesse initiale qui permet à ce petit corps d'avoir une vitesse angulaire proche de celle de la planète en révolution autour du soleil (au moins pendant une courte durée)

Question 5)

Reprennez les questions précédentes pour la position L_1 que vous avez calculée.


Se tester

Auteur: Valérie Ciarletti

Exercices

Pour vérifier que vous avez compris et retenu les notions de base de ce module

qcmQCM sur les lois de Kepler

1)  Le mouvement d'une planète autour de son étoile (en l'absence de tout autre corps) est contenue dans un plan.


2)  La trajectoire d'un corps soumis à l'attraction d'un second corps est toujours une ellipse


3)  Dans le cas d'un système à deux corps (planète-étoile), la trajectoire de la planète est une ellipse dont un foyer est le centre de l'étoile.


4)  Une planète qui suit une trajectoire elliptique, atteint sa vitesse maximale quand elle est au périastre.



Mini Projet

Auteur: Lucie Maquet

Mini Projet

exerciceMasse du trou noir central de la Voie Lactée

L’observation du centre de notre Galaxie a révélé la présence d’étoiles en orbite autour d’une masse invisible. L’observation de l’étoile S2 autour du centre galactique a été menée sur une dizaine d’années et a ainsi permis de mesurer la masse du corps central invisible. La concentration de masse associée à l’absence de rayonnements visible ou même infrarouge, laisse suspecter la présence d’un trou noir super massif. Dans cette première partie du mini projet, nous vous proposons d’étudier l’orbite de l’étoile S2 et de pouvoir ainsi déterminer la masse du trou noir central.

Appliquette pour le mini-projet application.png

Question 1)

Pourquoi l'approximation du système à 2 corps semble-t-elle convenable ?

Orbite de S2 autour du trou noir SgrA*
eso_trou_noir.png

Question 2)

À l'aide de l'appliquette représentant l’orbite projetée dans le plan du ciel de l’étoile ainsi que le trou noir central SgrA*, repérer géométriquement le centre de l’ellipse.

Question 3)

Tracer la projection du grand-axe de l’orbite de S2 et évaluer l’excentricité de l’orbite. (L’excentricité évaluée par le rapport de la distance centre/foyer sur le demi grand axe reste préservée par projection par application du théorème de Thalès)

Question 4)

Lorsque l'étoile S2 est au périastre, elle se situe à une distance angulaire de 0,015". Notre Système solaire étant situé à 8000pc du centre galactique, estimer la distance du périastre au trou noir en unités astronomiques. En déduire le demi-grand axe de l'orbite réelle de l'étoile autour du trou noir en unités astronomiques.

Question 5)

À partir de la figure, déterminer la période de révolution de l'étoile. Grâce aux lois de Kepler, en déduire la masse du trou noir central de notre galaxie (nous sommes dans les conditions ou l'astre central est beaucoup plus massif que l'étoile S2).

exerciceDétermination de la masse de Jupiter grâce aux orbites de ses satellites

De la même façon que pour estimer la masse du trou noir central de notre galaxie, il est possible d'estimer la masse de toutes les planètes possèdant un ou plusieurs satellites. Dans cet exercice, nous allons estimer la masse de Jupiter grâce aux orbites des satellites galiléens (Io, Europe, Ganymède et Callisto). Pour déterminer les positions des satellites par rapport à la planète, nous allons faire appel au serveur d'éphémérides de l'IMCCE.

Question 1)

Déterminez la distance Io-Jupiter pour 6 dates prises à 6h d'intervalle. Pour cela, grâce au serveur d'éphémérides, on se place dans un repére héliocentrique et en coordonnées rectangulaires. On peut ainsi obtenir la position de Io et de Jupiter. Que peut-on en conclure sur la forme de l'orbite du satellite autour de la planète.

Question 2)

Dans la suite de l'exercice, nous ferons l'approximation que l'orbite du satellite est circulaire. On se place à présent dans un repére géocentrique en coordonnées sphériques. Déterminez la distance apparente Jupiter-Io pour une vingtaine de date prise toute les 3h. (Vous pouvez vous servir d'un tableur afin de réaliser les calculs.) La distance Jupiter-Io est comptée positement vers l'ouest et négativement vers l'est.

Question 3)

Tracez cette distance apparente en fonction du temps et déterminer la période de révolution du satellite et le rayon de son orbite. En déduire la masse de Jupiter.

Question 4)

Recommencez l'étude avec les autres satellites galiléens (pensez à échantilloner différemment les dates car les périodes de révolution des satellites sont de plus en plus grandes).

Question 5)

Les masses déterminées avec chacun des satellites sont-elles toujours égales ? D'où viennent ces différences ?

Question 6)

Cet exercice peut aussi être réalisé en observant Jupiter et ses satellites avec un petit télescope ou une lunette et en prenant des clichés de la position du système à intervalle de temps régulier. Pour simuler ces observations, vous pouvez vous appuyer sur le logiciel libre stellarium et effectuer ces mesures à partir de capture d'écran à intervalle de temps régulier.


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Petits corps du système solaire

Auteur: Nicolas Fray

Petits corps du système solaire

Dans cette partie, nous verrons les caractéristiques essentielles des petits corps du Système Solaire principalement les astéroïdes, les objets transneptuniens et les comètes.

La partie Décrire présente ces caractéristiques de façon aussi simple que possible et peut être lue avec des connaissances de niveau de terminale scientifique. En revanche, la partie Comprendre a pour objectif de démontrer quelques uns des résultats présentés précédemment et requiert un bagage en physique générale d’un niveau de licence.


Décrire

Auteur: Nicolas Fray

Qu'est ce qu'un petit corps ?

En 2006, l’Union astronomique internationale (UAI) a défini les petits corps du système solaire comme étant tous les objets orbitant autour du Soleil qui ne sont ni une planète, ni une planète naine, ni un satellite. Les petits corps sont donc définis par opposition aux autres objets du système solaire. En pratique, les petits corps du système solaire sont les objets orbitant autour du Soleil mais n’ayant pas une masse suffisante pour avoir une forme presque sphérique et qui n’ont pas fait place nette dans leur voisinage.

La résolution de l'UAI définissant les différents objets du système solaire peut être trouvée ici : https://www.iau.org/static/resolutions/Resolution_GA26-5-6.pdf


Les différentes familles de petits corps

L’usage distingue différents types de petits corps et en particulier, les astéroïdes, les objets de Kuiper et les comètes. Néanmoins, l’UAI n’a pas défini ces différentes appellations. Nous appellerons « astéroïdes » les petits corps dont l’ensemble de l’orbite est contenue à l’intérieur de celle de Neptune et « objets de Kuiper » ceux dont au moins une partie de l’orbite est située au-delà de celle de Neptune. D’autre part, nous définirons par « comète » les petits corps qui présentent une activité, c’est-à-dire l’émission de gaz et de poussières, sur une partie de leur orbite.

La majorité des astéroïdes est située entre Mars et Jupiter. Cet ensemble forme la ceinture principale d’astéroïdes. Néanmoins, l’orbite de certains astéroïdes peut croiser celle de la Terre, ceux-ci sont parfois appelés les géo-croiseurs. D'autres astéroïdes, appelés les troyens, circulent sur les mêmes orbites que les planètes et ceux dont des orbites sont comprises entre celles des planètes géantes sont appélés centaures. Les objets de Kuiper sont quant à eux majoritairement situés entre 30 et 50 unités astronomiques et forment la ceinture de Kuiper. Les comètes peuvent provenir d'au moins deux réservoirs : la ceinture de Kuiper et le nuage de Oort qui pourrait s'étendre jusqu'à 100 000 unités astronomiques du Soleil.

D’autre part, les poussières micrométriques gravitant sur le plan de l’écliptique et formant la lumière zodiacale peuvent aussi être considérées comme des petits corps même si leurs dimensions sont extrêmement faibles.


Les astéroïdes : introduction et historique

Le premier astéroïde a été découvert par Giuseppe Piazzi dans la nuit du 1er janvier 1801. Il s’agit de Cérès. Les calculs orbitaux montrèrent rapidement que ce nouvel objet se situait entre les planètes Mars et Jupiter. Entre 1802 et 1807, trois autres astéroïdes : Pallas, Junon et Vesta furent découverts sur des orbites très similaires. La recherche des petits corps du système solaire ne présentant pas d’activité cométaire, commença donc au début du 19ème siècle.

L’étude des astéroïdes présente un intérêt notable car elle permet de mieux comprendre les origines et la formation du système solaire dans son ensemble (voir notamment la page sur la composition des astéroïdes).

Afin de pouvoir connaître le plus grand nombre possible d'astéroïdes, des programmes de recherche automatique d’astéroïdes ont été conçus. Il s’agit de caméras CCD couplées à des télescopes dont les images prises à intervalles réguliers sont comparées automatiquement. Ces programmes permettent de découvrir de nombreux astéroïdes tous les mois. La page d’accueil du Minor Planet Center (http://minorplanetcenter.net/) donnant le nombre de découvertes lors du mois et de l’année en cours est particulièrement éloquente.

Dès qu’un nouveau petit corps est observé, il reçoit une désignation provisoire codant la date de la 1ère observation. Une fois que l’orbite d’un petit corps est clairement établie chaque corps reçoit un numéro permanent. Au 10 Févier 2015, 680 035 petits corps avaient été observés dont 427 393 ont une orbite bien définie (http://www.minorplanetcenter.net/mpc/summary).


Les astéroïdes : orbites

La majorité des astéroïdes est située entre Mars et Jupiter et plus précisément entre 2.1 et 3.3 unités astronomiques du Soleil. D’autre part, l’inclinaison des orbites des astéroïdes et généralement très faible, inférieure à 4°, les astéroïdes gravitent donc autour du Soleil dans une zone proche du plan de l’écliptique. La distribution des astéroïdes en fonction du demi-grand axe de leurs orbites présente des discontinuités appelées « lacunes de Kirkwood » qui sont des zones de la ceinture d’astéroïdes peu peuplée. En effet, l’orbite des astéroïdes présents dans ces zones n’est pas stable sur de longues périodes à cause des effets de résonances orbitales avec Jupiter.

Sur la figure ci-contre, on remarquera une faible population d’astéroïdes dont le demi-grand axe est compris entre 0.8 et 1.8 unités astronomiques. Parmi ceux-ci, certains peuvent avoir une orbite croisant celle de la Terre, il s’agit des astéroïdes géo-croiseurs qui sont aussi appelés NEO (Near Earth Objects). Les astéroïdes ayant un demi-grand axe de 5.2 unités astronomiques ont une orbite stable et identique à celle de Jupiter et ils se répartissent aux alentours de certains points de Lagrange de Jupiter qui correspondent à des zones de stabilité https://media4.obspm.fr/public/FSU/pages_points-lagrange/impression.html.

La distribution spatiale des astéroïdes dans la ceinture principale
asteroide_distribution_2.gif
Distribution des astéroïdes en fonction du demi-grand axe de leurs orbites.
Crédit : MPC / http://www.minorplanetcenter.net/iau/plot/OrbEls01.gif

Les astéroïdes : tailles

Les astéroïdes ont des tailles extrêmement variables. Le plus gros et le plus massif, Cérès, présente un diamètre équatorial de 975 km. D’autre part, Cérès ayant une forme proche de la sphère il est aujourd’hui considéré comme une planète naine. Les grands astéroïdes, du type de Cérès, sont les plus rares, néanmoins ils représentent une fraction notable de la masse contenue dans la ceinture principale. Ainsi, avec une masse de 9.5 × 1020 kg, Cérès représente à lui seul environ un tiers de la masse totale de la ceinture principale. Mais, d’une manière générale, le nombre d’astéroïdes croît lorsque leur taille diminue. Aussi, la très grande majorité des astéroïdes ont des dimensions beaucoup plus petites et peuvent avoir des formes très éloignées d’une sphère. C’est en particulier les cas de l’astéroïde Eros qui a été survolé en 2000 par la sonde spatiale NEAR (Near Earth Asteroid Rendezvous) et qui possède une forme très allongée. Globalement, la distribution en taille des astéroïdes semble suivre une loi en puissance avec une surabondance d’astéroïdes présentant des diamètres d’environ 100 km et 5 km. Cette distribution fournit une contrainte forte sur les modèles concernant l’histoire collisionnelle de la ceinture principale d’astéroïdes.

L'astéroïde Eros
Asteroide_Eros.jpg
Série d'images de l'astéroïde Eros acquises par la sonde NEAR alors distante d'environ 1800 km. Les dimensions de cet astéroïde de forme ellipsoïdale sont de 34.4 x 11.2 x 11.2 km.
Crédit : NASA / JHUAPL : http://near.jhuapl.edu/iod/20000228/index.html
Distribution en taille des astéroïdes
Distrib_Taille_Asteroides.jpg
Distribution en taille des astéroïdes.

Les astéroïdes : composition

Les observations spectroscopiques permettent de distinguer de nombreuses classes classes d’astéroïdes. Les 3 principales classes sont les astéroïdes de type C (Carbonés), de type S (Silicatés) et de type M (Métalliques). Les astéroïdes carbonés sont les plus nombreux et représentent 75% des astéroïdes observés. La distribution de ces différents types d’astéroïdes en fonction de la distance au Soleil est différente et est représentée sur la partie basse de la figure ci-contre. En effet, les astéroïdes carbonés sont majoritairement présents dans les zones externes de la ceinture d’astéroïdes alors que les astéroïdes de type S et M se concentrent dans les zones plus internes (voir figure ci-contre). Ces différentes distributions spatiales reflètent à la fois les processus liés à la formation de ces différents petits corps et l'évolution dynamique de la ceinture d'astéroïdes qui a pu conduire au mélange partiel des différentes populations d'astéroïdes.

Néanmoins, il faut aussi garder à l’esprit qu’une grande partie de notre connaissance sur la composition des astéroïdes provient de l’étude des météorites. En effet, la très grande majorité des météorités récoltées sur Terre provient de la ceinture d'astéroïdes. L'étude en laboratoire des météorites permet en particulier de préciser l'abondance des différents métaux (principalement du fer et du nickel), la nature des minéraux ainsi que d'obtenir des informations structuales sur la phase organique complexe et l'identification chimique des certains molécules simples. D’autre part, à quelques exceptions près, les astéroïdes ne contiennent pas de glace et ne présentent donc pas d’activité cométaire.

La distribution spatiale des différents types d'astéroïdes
asteroide_distribution.jpg
Distribution des astéroïdes en fonction de leur demi-grand axe. Distribution en nombre (en haut) et distribution des différentes classes d'astéroïdes (en bas).
Crédit : Encyclopedia Britannica, http://www.britannica.com/media/full/3485

Les astéroïdes : exploration spatiale

Les premières sondes spatiales lancées dans les années 1970 et 1980 n’ont pas survolé d’astéroïdes. Le premier survol d’un astéroïde, 951 Gaspra, a été effectué le 29 Octobre 1991 par la sonde Galileo. Depuis, de nombreux astéroïdes ont été survolés par des sondes spatiales. Les images acquises par les télescopes situés à la surface de la Terre ou en orbite autour de la Terre ne révèlent que très peu de détails dela surface des astéroïdes même sur Cérès qui est pourtant l’astéroïde le plus grand. Les survols d’astéroïdes par des sondes spatiales sont donc importants pour révéler des détails de la surface des astéroïdes, mais aussi leur forme précise ainsi que d’autres paramètres physico-chimiques comme la composition et la minéralogie de la surface ou la distribution massique interne.

Les principales missions d’études des astéroïdes sont NEAR (Near Earth Asteroid Rendezvous) qui s’est placée en orbite autour de l’astéroïde Eros en 2000 et Hayabusa qui malgré quelques difficultés techniques a pu prélever, puis ramener sur Terre, quelques poussières à la surface de l’astéroïde Itokawa. D’autre part, la mission DAWN s’est placée en orbite autour de l’astéroïde Vesta en 2011 puis en orbite autour de Cérès à partir du 6 mars 2015.

L'exploration spatiale des astéroïdes
asteroide-explo-spatiale.jpg
Photographies de l'ensemble des astéroïdes qui avaient été survolés début 2015. Les tailles des différents astéroïdes sont à l'échelle.
Crédit : http://solarviews.com/raw/pia/PIA14316.jpg

Les objets trans-neptuniens : introduction et historique

On désigne par objet trans-neptunien tout objet du système solaire dont l’orbite est entièrement ou en majeure partie située au-delà de celle de Neptune. Le premier objet trans-neptunien connu est Pluton qui a été découvert en 1930. Il fut considéré comme la 9ème planète du système solaire, avant d’être classifiée comme planète naine en 2006. L’existence de nombreux objets au-delà de Neptune avait été postulée par K.E. Edgeworth en 1949 puis par G.P Kuiper en 1951. Jusqu’en 1992, Pluton et son plus gros satellite Charon étaient les seuls objets trans-neptuniens connus. La découverte d’un nouvel objet de Kuiper en 1992 marque le début d’une recherche systématique des objets trans-neptuniens. Début 2015, plus de 1300 objets trans-neptuniens avaient été détectés (http://www.minorplanetcenter.net/iau/lists/t_tnos.html). Les orbites de ces objets correspondent à plusieurs groupes dynamiques. Nous verrons dans la partie suivante qu'on distingue en particulier les objets appartenant à la ceinture de Kuiper de ceux appartenant au disque épars.

La découverte d'un nouvel objet trans-neptunien en 1992
Trans-neptuniens_1ere_decouverte.jpg
Séquence temporelle des images ayant permis la découverte d'un objet trans-neptunien le 30 août 1992. L'objet trans-neptunien est entouré d'un cercle blanc.
Crédit : http://www2.ess.ucla.edu/~jewitt/kb.html

Les objets trans-neptuniens : orbites

Environ la moitié des objets trans-neptuniens présente des orbites au-delà de Neptune ayant des faibles excentricités (e < 0.2) et des demi-grand axes généralement compris entre 37 and 48 unités astronomiques. Ces objets trans-neptuniens sont appelés les objets de Kuiper classiques et forment la ceinture de Kuiper. Cette ceinture a une structure similaire à la ceinture principale d’astéroïdes et est structurée par des résonances avec l’orbite de Neptune. Ainsi de nombreux objets de Kuiper, dont Pluton, sont en résonance 2:3 avec Neptune.

D’autre part, un nombre croissant d’objets trans-neptuniens présentent des orbites de forte excentricité (e > 0.2), des périhélies au-delà de l’orbite de Neptune et des demi-grand axes supérieurs à 48 unités astronomiques. Ces objets font partie du disque épars. L’objet le plus massif de ce disque épars est Eris. On peut noter que l’orbite de Sedna avec un périhélie de 76 UA et un aphélie d’environ 900 UA est tout à fait exceptionnelle. Aussi Sedna peut être considéré comme un objet du nuage de Oort interne. La strcuture du nuage est discuté dans la partie traitant de l'orbite des comètes.

Les objets se trouvant aujourd'hui dans la ceinture de Kuiper et le nuage de Oort se sont très vraisemblablement formés dans la zone actuelle des planètes géantes. Ils ont ensuite été repoussé à des distance héliocentriques plus élevés suite aux interactions gravitationnelles avec les planètes géantes.

La distribution spatiale des objets trans-neptuniens
Trans-neptuniens_orbites.png
Excentricité en fonction du demi-grand axe des objets trans-neptuniens et des centaures. Cette figure montre les différentes familles dynamiques d’objets et en particulier les objets de la ceinture de Kuiper classique et ceux du disque épars mais aussi les centaures dont le demi-grand axe est inférieur à celui de Neptune.
Crédit : https://nai.gl.ciw.edu/sites/nai.gl.ciw.edu/files/images/ghuntress/2011-02-15%2018:43/5.1.3fig1.png

Les objets trans-neptuniens : taille et masse

Les objets trans-neptuniens étant éloignés et de faible luminosité, il n’est pas aisé d’en déduire leurs caractéristiques physiques comme la taille ou la masse. Néanmoins, certains objets trans-neptuniens possèdent un ou plusieurs satellites. C’est, par exemple, le cas d'Eris qui possède un satellite, Dysnomie, et de Pluton autour duquel gravitent au moins 5 satellites. Si la période de révolution et le rayon de l’orbite des satellites sont mesurés, alors la masse du système peut être calculée grâce à la troisième loi de Kepler. Ainsi les masses d'Eris et de Pluton sont de 1.67 × 1022 kg et de 1.31 × 1022 kg. On remarquera que Eris est légèrement plus massif que Pluton.

Comme pour la masse, la mesure des diamètres des objets trans-neptuniens peut être délicate. Pour des objets dont l’orbite est bien connue, la méthode la plus précise pour mesurer la taille est l’occultation stellaire. Lors d’une occultation stellaire, l’objet étudié passe devant l’étoile et projette une ombre à la surface de la Terre. La mesure de la durée de l’occultation en différents points à la surface de la Terre permet alors de calculer le diamètre de l’objet occultant de manière relativement précise. Les rayons de Pluton et d'Eris sont actuellement estimés à 1153 ± 10 km et 1163 ± 6 km.

Connaissant la taille et la masse, la densité moyenne de ces objets est immédiatement déduite. La valeur de la densité moyenne renseigne sur la composition globale de ces objets. La densité volumique d'Eris étant d’environ 2.5 g.cm-3, celui-ci doit être composé majoritairement de roches. D’autre part, connaissant la taille et la magnitude, l’albédo peut aussi être estimé rapidement. Ainsi Eris possède un albédo de 0.96, ce qui fait d'Eris un des objets les plus réfléchissants du système solaire et qui indique la présence possible de glaces à la surface.

On notera que les occultations stellaires peuvent aussi révéler la présence d’atmosphère. Ainsi, Pluton est entouré d’une faible atmosphère dont la pression à la surface est estimée entre 6 et 24 microbars.


Les objets trans-neptuniens : composition

Malgré l’éloignement et la forte magnitude des objets trans-neptuniens, des observations photométriques et spectroscopiques dans le visible et le proche infrarouge permettent de contraindre la nature chimique des surfaces des objets de Kuiper. Sans surprise, l’objet dont la nature chimique de la surface est la mieux connue est le plus brillant, c’est-à-dire Pluton. En effet, les observations spectroscopiques dans le proche infrarouge ont montré que le composé principal est l’azote moléculaire (N2) avec des quantités plus faibles de méthane (CH4) et de monoxyde de carbone (CO). Dans le cas de Pluton, les observations actuelles permettent aussi de mettre en évidence des hétérogénéités à la surface. Le méthane a été détecté sur d’autres objets trans-neptuniens de grande taille, néanmoins l’azote et le monoxyde de carbone n’ont été détecté que sur Pluton (et Triton, le satellite principal de Neptune). En effet, même si le méthane n’est pas le composé le plus abondant, c'est le plus facile à détecter dans le proche infrarouge grâce à ces bandes d’absorption intenses. On notera que ces composés, l’azote, le méthane et le monoxyde de carbone, sont extrêmement volatiles et ne peuvent être présents en phase solide que sur des objets à la fois suffisamment froids pour les condenser et suffisamment massifs pour éviter l’échappement gravitationnel.

Néanmoins, tous les objets trans-neptuniens n’ont pas la même composition de surface. En effet, de la glace d’eau ainsi que des hydrates d’ammoniac ont été détectés à la surface de certains d’entre eux.

Spectre infrarouge et composition de surface de Pluton
objet-transneptuniens-compo-surf-pluton.gif
Spectre dans l’infrarouge proche de Pluton montrant la présence de glaces de N2, CH4 et CO en surface.
Crédit : http://pluto.jhuapl.edu/common/content/What-We-Know/images/6_PlutoSpectrum3_lg.gif

Les objets trans-neptuniens : exploration spatiale

A ce jour (Mai 2015), aucun objet trans-neptunien n’a été survolé par une sonde spatiale. Néanmoins, la sonde spatiale New Horizons lancée le 19 janvier 2006 doit survoler Pluton le 14 Juillet 2015 à une distance d’environ 10 000 km. Il s’agira donc du 1er survol d’un objet trans-neptunien par une sonde spatiale. Après le survol de Pluton, la sonde New Horizons continuera sa trajectoire dans la ceinture de Kuiper et devrait encore survoler un ou deux autres objets. Néanmoins, cette phase de la mission et les objets à survoler ne sont pas encore définis.

Les premières images de Pluton par la sonde New Horizons
trans-neptunien_photo-pluton-new-horizon.jpg
Premières images de Pluton et de son satellite Charon acquises par la sonde New Horizons en janvier 2015 à une distance d’environ 200 millions de kilomètres.
Crédit : Credit: NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute http://pluto.jhuapl.edu/Multimedia/Science-Photos/pics/lorri_opnav2_sqrt_BW_poslevBOTH.jpg

Les comètes : introduction et historique

Les comètes sont parfois visibles à l'œil nu, aussi sont-elles connues depuis l'Antiquité et ont parfois été représentées sur certaines œuvres d'art anciennes. Dans la croyance populaire, l'apparition d'une comète était associée à un bon ou à un mauvais présage suivant les cas. D'après Aristote, les comètes étaient un phénomène atmosphérique. La nature extraterrestre des comètes ne sera démontrée qu'en 1577 par Tycho Brahé qui effectua des mesures de parallaxes montrant que les comètes pouvaient être plus lointaines que la Lune. Certaines comètes ont eu une importance historique. En particulier, le retour de la comète 1P/Halley en 1758 avait été prédit par Edmond Halley. Cette prédiction permit alors de démontrer la théorie de la gravitation newtonienne. D'autre part, la comète 1P/Halley a été également la première comète survolée par des sondes spatiales en 1986.

Certaines comètes ont une orbite très elliptique, leur distance au Soleil peut varier de manière très significative au cours de l’orbite. Aussi lorsqu’elles se rapprochent, elles développent une activité : leur noyau est alors entouré d’une atmosphère constituée de gaz et de poussières. Bien que de faible densité, cette atmosphère peut être très étendue et brillante. C’est cette activité qui distingue les comètes des autres petits corps du système solaire.

De nos jours plus de 3800 comètes ont été observées (http://www.minorplanetcenter.net/). Durant les dernières décennies les comètes les plus remarquables ont été C/1996 B2 Hyakutake, C/1995 O1 Hale-Bopp, C/2006 P1 McNaught. D'autre part, depuis 1P/Halley, 6 autres comètes ont été survolées par des sondes spatiales : 26P/Grigg-Skjellerup, 19P/Borelly, 9P/Tempel, 81P/Wild 2, 103P/Hartley 2 et 67P/Churyumov-Gerasimenko qui est accompagnée par la sonde Rosetta depuis août 2014.

La comète Q/2001 NEAT
Comet_NEAT.jpg
Image de la comète C/2001 Q4 (NEAT) prise depuis l’observatoire de Kitt Peak en Arizona en 2004.
Crédit : https://solarsystem.nasa.gov/planets/profile.cfm?Object=Comets

Les comètes : orbites

Les comètes ont généralement des orbites très excentriques. Leur distance au Soleil varie donc de manière très significative durant leur orbite. Elles sont généralement classifiées en fonction de leur période de révolution : les comètes ayant une période inférieure à 200 ans sont appelées comètes à courtes périodes alors que celles ayant une période supérieure à 200 ans sont appelées comètes à longue période. L’inclinaison des orbites des comètes à courtes périodes est généralement proche du plan de l’écliptique alors que les comètes à longues périodes ont une inclinaison aléatoire. Il est possible que les comètes à longues périodes puissent évoluer en comètes à courtes périodes suite à des interactions gravitationnelles avec les planètes géantes. On distingue aussi la famille des comètes de Jupiter qui possédent des périodes orbitales inférieures à 20 ans. Ces comètes sont ainsi nommées car leurs orbites sont déterminées par influence gravitationnelle de Jupiter. De plus, étant qu'elles ont des inclinaisons faibles et un sens de révolution autour du Soleil identique à celui des planètes, ces comètes trouvent très vraisemblablement leur origine dans le cainture de Kuiper.

Les comètes dont les orbites présentent de très longues périodes et des inclinaisons aléatoires proviendraient d’un réservoir appelé « nuage de Oort ». Celui-ci se situerait entre 50 000 et 100 000 unités astronomiques et aurait la forme d'une coquille sphérique entourant l'ensemble du système solaire. Il faut noter qu'aucun corps n'a jamais été observé à de telles distances du Soleil ; aussi l'existence du nuage de Oort n’est déduite que des observations des comètes à longues périodes. La densité de matière étant très faible à de telles distances du Soleil, les comètes du nuage de Oort ne se sont pas formées in-situ. Elles se seraient agrégées dans la zone des planètes géantes et en auraient été éjectées suite à des interactions gravitationnelles.

Les comètes dont les orbites présentent des périodes inférieures à 200 ans et des inclinaisons proches du plan de l’écliptique proviendraient quant à elles du nuage de Kuiper.

Les réservoirs des comètes
comete_reservoirs.jpg
Illustration montrant les deux réservoirs principaux des comètes : la ceinture de Kuiper à 30-50 unités astronomique du Soleil et le nuage de Oort qui pourrait s’étendre jusqu’à 50 ou 100 000 unités astronomiques du Soleil.
Crédit : http://www.esa.int/spaceinimages/Images/2014/12/Kuiper_Belt_and_Oort_Cloud_in_context

Les comètes : activité et structure

L’activité cométaire, c’est-à-dire le développement d’une faible atmosphère entourant le noyau solide est la caractéristique qui distingue les comètes des autres petits corps du système solaire. Le développement de cette faible atmosphère est dû à la sublimation des glaces contenues dans le noyau. Cette sublimation est induite par le réchauffement du noyau lorque celui-ci se rapproche du Soleil. Aussi lorsque les comètes sont situées à quelques unités astronomiques du Soleil, différentes grandes structures sont observables :

Ces différentes structures, ainsi que la petite taille et le faible albédo des noyaux cométaires, rendent très difficile l’observation directe de ces noyaux cométaires depuis le sol ou l’orbite terrestre. Aussi notre connaissance sur la composition des noyaux cométaires provient majoritairement de l’étude de leurs atmosphères.

La comète C/1995 O1 (Hale-Bopp)
comete-hale-bopp-structures.jpg
Image de la comète C/1995 O1 Hale-Bopp prise en 1997 montrant les différentes structures qui se développent autour du noyau lorsque celui-ci se rapproche du Soleil.
Crédit : http://stardust.jpl.nasa.gov/science/hb.html

Les comètes : composition

La composition des comètes peut être déterminée par des observations depuis le sol et l’orbite terrestre dans tous les domaines de longueur d’onde. Ces observations ont permis de détecter dans la coma plus de 20 molécules gazeuses. L’eau est la molécule gazeuse la plus abondante ; le dioxyde de carbone (CO2) et le monoxyde de carbone (CO) présentent de fortes abondances de l’ordre de 10%. Ces molécules gazeuses présentent une grande diversité chimique et certaines sont relativement complexes comme le cyano-acétylène (HC3N) ou l’éthylène glycol (HO-CH2-CH2-OH). D’autre part, la nature de certains minéraux peut aussi être déterminée par des observations à distance. Ainsi les grains cométaires sont majoritairement constitués de silicates. Néanmoins, ces grains contiennent aussi une matière organique réfractaire. Cette composante organique présente en phase solide dans les grains cométaires est très difficile à observer depuis la Terre et n’a été mise en évidence de manière directe que par des mesures in-situ.

Notre connaissance sur la composition des noyaux cométaires provient donc majoritairement de l’étude de leurs atmosphères. Les observations de l’environnement cométaire permettent de déduire que les noyaux cométaires sont constitués d’un mélange de minéraux, de composés organiques réfractaires et de glaces de composés volatils.

Il faut noter qu’une partie des poussières extra-terrestres collectées dans la haute atmosphère terrestre ou au sol ont très vraisemblablement une origine cométaire. D’autre part, la sonde spatiale Stardust a collecté des grains dans l’environnement de la comète 81P/Wild2 puis les a ramenés sur Terre en janvier 2006. Ces échantillons disponibles au laboratoire permettent de déterminer de manière relativement précise la composition minéralogique des comètes.

Composition chimique des comètes
comete_compos.jpg
Composition chimique des comètes.
Crédit : Crédit : Astrophysique sur Mesure / Françoise Roques et Gilles Bessou http://media4.obspm.fr/public/AMC/pages_cometes/impression.html

Les comètes : exploration spatiale

La comète de 1P/Halley est la première à avoir été survolée par une sonde spatiale en 1986. A cette occasion, 5 sondes spatiales ont approché la comète 1P/Halley : Sakigake, Suisei, Vega-1, Vega-2 et Giotto. Le survol le plus proche a été réalisé par la sonde Giotto en mars 1986 à une distance de 596 km. Le noyau de la comète 1P/Halley a donc été le premier à avoir été photographié, ses dimensions ont alors été estimées à 16 × 8 × 7 km. La sonde Giotto a poursuivi sa course et a ensuite survolé la comète 26P/Grigg-Skjellerup en juillet 1992. Depuis 5 autres comètes ont été survolées :

Depuis août 2014, la sonde Rosetta accompagne la comète 67P/Churyumov-Gerasimenko durant une partie de son orbite autour du Soleil. Pour la première fois, il ne s’agit pas d’un survol du noyau, mais d’une mise en orbite autour du noyau ce qui permet de faire une étude plus détaillée de la comète mais aussi de suivre le développement de son activité lors de son approche du Soleil. D’autre part, un module nommé Philae a atterri sur la surface du noyau de 67P/Churyumov-Gerasimenko le 12 novembre 2014. Cette mission devait durer jusqu’en décembre 2015, mais a été prologée jusqu'en septembre 2016..

Le noyau de 67P/Churyumov-Gerasimenko photographié par la sonde Rosetta
comete-Chury-rosetta.png
Photographie acquise à une distance de 285 km grâce à la camera OSIRIS de la sonde Rosetta du noyau de la comète 67P/Churyumov-Gerasimenko. Les dimensions de la partie la plus importante sont d’environ 4.1 × 3.2 × 1.8 km alors que celles du plus petit lobe sont d’environ 2.6 × 2.3 × 1.8 km.
Crédit : ESA/Rosetta/MPS for OSIRIS Team MPS/UPD/LAM/IAA/SSO/INTA/UPM/DASP/IDA http://www.esa.int/spaceinimages/Images/2014/08/Comet_on_3_August_2014

Les météorites : définition

Les météorites sont des objets d’origine extra-terrestre retrouvés à la surface terrestre et donc disponibles en laboratoire pour des analyses physico-chimiques détaillées. Les météorites ne sont pas des petits corps du système solaire puisqu’elles n’orbitent plus autour du Soleil. Avant d’atteindre le sol terrestre, ces objets extra-terrestres traversent l’atmosphère terrestre. Lors de cette traversée atmosphérique, ils subissent un très fort échauffement produisant une traînée lumineuse appelée météore. Concernant les météorites, les chutes sont distinguées des trouvailles. Les chutes sont les météorites pour lesquelles la traversée atmosphérique a été observée alors que les trouvailles sont celles qui ont été retrouvées au sol sans que la date d’impact soit connue.

Les corps parents de la plupart des météorites sont des astéroïdes. L’étude des météorites en laboratoire permet d’obtenir des informations inaccessibles aux observations astronomiques classiques et de mieux comprendre l’évolution des astéroïdes mais révèlent aussi de précieuses informations concernant la formation du système solaire et les processus physico-chimiques présents dans le disque proto-planétaire. En particulier, certaines météorites contiennent une très grande diversité de composés organiques ou des inclusions qui constituent les tout premiers solides condensés dans la nébuleuse primodiale et qui permettent de dater l’origine du système solaire dans son ensemble.

On peut noter que le flux annuel de météorites à la surface de la Terre est estimé à 1010 – 1011 g/an et que ce flux est dominé par les micrométéorites ayant des dimensions de l’ordre de quelques micromètres.

La météorite de Orgueil
meteorite_orgueil.jpg
Fragment de la météorite d’Orgueil dont la chute a été observée en 1864.
Crédit : collection du MNHN-Paris http://www.futura-sciences.com/magazines/espace/infos/actu/d/astronomie-systeme-solaire-ne-little-bang-dixit-meteorite-orgueil-25248/

Les météorites : classification

L’étude des météorites a montré une très grande diversité de ces objets et elles sont subdivisées en deux grandes familles : les météorites différenciées et les météorites non-différenciées. Les météorites non-différenciées contiennent un matériau qui n’a pas été profondément altéré dans le corps parents et sont aussi appelées chondrites car elles contiennent généralement des chondrules qui sont des inclusions de forme sphérique ayant des tailles de l’ordre de quelques micromètres jusqu’au centimètre. Le matériau des météorites différenciées a subi de profondes modifications dans le corps parents.

Les météorites non différenciées, aussi appelées chondrites, sont elles même subdivisées en trois classes principales en fonction de leur composition : i.) les chondrites carbonées qui contiennent plusieurs pourcents en masse de carbone, ii.) les chondrites à enstatite qui sont riches en enstatite (minéral de formule MgSiO3) et iii.) les chondrites ordinaires qui sont les plus courantes. Bien que non-différenciées, les chondrites ont pu subir quelques processus d’altération depuis leur formation : métamorphisme thermique, altération aqueuse ou chocs. Néanmoins, certaines chondrites primitives possèdent une composition élémentaire très proche de celle du Soleil ce qui montre une formation très ancienne et quasi contemporaine de celle du Soleil. Ces météorites font partie des matériaux les plus primitifs que nous possédions sur Terre et peuvent alors fournir des contraintes concernant les conditions régnant dans le disque protoplanétaire ainsi qu’une datation du système solaire grâce à des méthodes de datation isotopique.

Les météorites différenciées sont elles aussi subdivisées en trois classes principales : i.) les achondrites qui sont principalement composées de minéraux, principalement des silicates ii.) les météorites métalliques constituées principalement de fer et de nickel et qui présentent des structures de cristallisation particulières appelées les figures de Widmanstätten et iii.) les lithosidérites constituées d’un mélange de minéraux et de métal. Celles-ci proviennent de corps parents suffisamment massifs pour avoir subi un processus de différentiation. Les météorites métalliques proviendraient du cœur métallique de ces corps parents alors que les achondrites proviendraient des régions externes de ces corps parents.

La météorite de Allende
meteorite-allende.jpg
Coupe de la météorite de Allende sur laquelle les chondres sont visibles.
Crédit : UPEC / N. Fray
La météorite de Gibeon
meteorite-gibeon.jpg
Coupe de la météorite métallique de Gibeon sur laquelle les figures de cristallisation de Widmanstätten sont visibles.
Crédit : UPEC / N. Fray

Les météorites : datation

Certaines chondrites carbonées possèdent une composition élémentaire très proche de celle du Soleil malgré un appauvrissement pour les éléments les plus volatils (H, He, C, N,...). Ces météCes météorites se sont donc formées en même temps que le système solaire et n'ont pas subi de changement de composition important depuis. D’autre part, des études par spectrométrie de masse en laboratoire permettent de mesurer l’abondance d’éléments à l’état de traces. Il est donc possible de mesurer l’abondance d’éléments radioactifs à très longue durée de vie ainsi que l’abondance des éléments produits par ces processus radioactifs. Ces méthodes de datation radiométrique ont permis de déterminer l’âge de formation des météorites les plus primitives : 4.56 milliards d’années. Cette date correspond à la condensation des premiers solides dans le système solaire. On pourra retenir que sans l’étude en laboratoire des météorites, l’âge de notre système solaire ne serait pas connu avec autant de précision.


Comprendre

Auteur: Nicolas Fray

La datation des météorites

La datation absolue de roches anciennes est généralement réalisée grâce à la mesure de l'abondance d'éléments naturellement radioactifs. En effet, au cours du temps, l'abondance des noyaux parents décroît alors que celle des noyaux fils augmente. A un instant t, l'abondance des noyaux parents N_P (t) dépend de son abondance initiale N_P (t_0) et de son temps caractéristique de décroissance \tau : N_P (t)=N_P (t_0)  e ^{-(t-t_0)/\tau}. Il faut noter que le temps de demi-vie \tau_{1/2}, qui correspond au temps nécessaire pour que l’abondance initiale soit divisée par deux, est souvent utilisé à la place du temps caractéristique de décroissance. Ces deux temps sont liés par la relation \tau_{1/2}=\tau ln2.

A l’instant t, l'abondance des noyaux fils N_F (t) est égale à N_F (t) = N_F (t_0) + N_P (t_0) (1 - e ^{-(t-t_0)/\tau}) si tous les noyaux parents se désintègrent pour donner le même noyau fils. En combinant, les deux équations précédentes, N_F (t) peut être exprimée en fonction de N_P (t) qui sont les deux quantités mesurables. Néanmoins,l'abondance initiale de noyaux fils N_F (t_0) est généralement inconnue. La roche ayant pu subir une différentiation chimique lors de sa formation, elle peut être inhomogène. Les différentes mesures réalisées sur la même roche seront donc normalisées à l'abondance d'un isotope non radioactif de l'élément fils. En mesurant plusieurs échantillons de la même roche, l’âge de celle-ci ainsi que l'abondance initiale de l'élément fils radioactif pourront être déterminés (voir exercice dans la partie "Se Tester".).

Un des couples d'éléments couramment utilisé est le couple 87Rb (élément parent) et 87Sr (élément fils), les abondances de ces deux éléments sont normalisées à l'abondance de 86Sr. Ces abondances sont mesurées par spectrométrie de masse en laboratoire. Les différentes mesures seront représentées dans un diagramme 87Sr / 86Sr en fonction de 87Rb / 86Sr. La pente de la droite obtenue (e ^{(t-t_0)/\tau}-1) est liée à l’âge de formation de la roche alors que l’ordonnée à l’origine donne la rapport initial 87Sr / 86Sr. En normalisant à un isotope stable et en effectuant différentes mesures sur une roche hétérogène, les deux inconnues précédentes peuvent donc être déterminées et en particulier l’âge de la roche. Cette méthode n’est valable que si le système étudié, la roche ou la météorité, est clos, c’est-à-dire si aucun des éléments étudiés n’a pu diffuser à l’extérieur du système.

La datation absolue des météorites, et en particulier des inclusions les plus anciennes qu’elles contiennent, nous permet de dater la formation du système à 4.56 milliards d'années. Sans l'étude des météorites et des méthodes de datations liées aux isotopes naturellement radioactifs, l'obtention d'un chiffre aussi précis ne serait pas possible. L’étude des météorites et de l’ensemble des échantillons d’origine extra-terrestre disponibles au laboratoire permet donc de dater de manière absolue la formation du système solaire dans son ensemble.


La distribution spatiale des espèces gazeuses dans l'environnement cométaire

L’atmosphère des comètes est appelée coma. La principale source des espèces gazeuses présentes autour des noyaux cométaires est la sublimation des glaces contenues dans celui-ci. Les molécules gazeuses produites directement depuis la surface ou la sous-surface du noyau sont appelées « molécules mères ». Une fois dans l’environnement cométaire, ces molécules gazeuses sont soumises au flux ultraviolet du Soleil et peuvent se photo-dissocier en de nouvelles espèces gazeuses plus petites appelée « molécules filles ». Par exemple, la molécule d’eau peut se photo-dissocier en radicaux hydroxyle (OH) et en atomes d’hydrogène. La distribution spatiale autour du noyau est l'élément essentiel pour comprendre l’origine des espèces gazeuses. Afin de déterminer les mécanismes de production des différentes espèces gazeuses présentes dans la coma puis remonter aux abondances des molécules présentes dans le noyau ; les distributions spatiales mesurées grâce aux observations astronomiques doivent être comparées à un modèle. Le modèle le plus simple pour décrire la distribution spatiale des molécules est le modèle de Haser.

Dans le cadre du modèle de Haser, la densité des molécules mères dans la coma n’est régie que par l’expansion générale de la coma et par leur photolyse sous l’effet du rayonnement UV solaire. La densité volumique n_M (r) (en molécules.m-3) en fonction de la distance r au noyau, vérifie donc l’équation de conservation de la masse : dn_M/dt+div(n_M *v)=-n_M/tau_M\tau_M est la durée de vie de la molécule mère étudiée dans l’environnement cométaire et v la vitesse d’expansion des gaz dans la coma.

En supposant un état stationnaire, une vitesse constante dans la coma et une symétrie sphérique, l’équation précédente se simplifie : fraction(d;dr)(n_M*r^2)=-fraction(n_M*r^2;v*tau_M)=-fraction(n_M*r^2;l_M)l_M est appelée « longueur d’échelle parent », elle correspond à la longueur caractéristique de photolyse de la molécule mère.

La condition initiale permettant d’intégrer l’équation différentielle précédente est donnée par le taux de production Q (en molécules.s-1) qui correspond au nombre de molécules mère émises depuis la surface du noyau en 1 seconde. L’intégration de l’équation précédente conduit à : n_M *((r))=fraction(Q;4*pi*v*r^2)*exp(-r/l_M).

Pour les molécules filles, la densité volumique dans la coma est régie par les mêmes processus auxquels il faut rajouter la production directement dans la coma par photolyse de la molécule mère. Dans ce cas, l’équation de conservation de la masse s’écrit avec deux termes dans le membre de droite ; i.) un terme de production qui correspond à la photodissociation de la molécule mère et ii.) un second terme de destruction correspond à la photodissociation de l’espèce fille considérée. Soit n_M (r) et n_F (r) les densités volumiques des espèces mère et fille, ainsi que tau_M et tau_F leurs temps de vie respectifs dans l’environnement cométaire. L’équation de conservation de la masse pour une espèce fille s’écrit alors : dn_F/dt+div(n_F *v)=n_M/tau_M-n_F/tau_F En utilisant les mêmes hypothèses géométriques et dynamiques que précédemment et en imposant la condition initiale n_F (0)=0, on trouve : n_F*((r))=fraction(Q;4*pi*v*r^2)*fraction(l_F;l_P-l_F)*exp(-r/l_M). Dans cette dernière équation, Q est le taux de production de la molécule mère dont est issue la molécule fille, l_P la longueur d’échelle parent et l_F la longueur d’échelle fille, qui correspondent respectivement aux longueurs caractéristiques de destruction par photolyse des espèces mère et fille.

Ce modèle est très simple, voir simpliste au regard de nos connaissances actuelles sur les comètes. En particulier, la production de gaz à la surface du noyau est inhomogène et les environnements cométaire n’ont pas une symétrie sphérique. Néanmoins, ce modèle permet d’obtenir des ordres de grandeurs pertinents en particulier pour les longueurs d’échelles et des versions modifiées de ce modèle continuent à être utilisées pour calculer les taux de production des espèces gazeuses à partir des observations.


Se tester

Auteur: Nicolas Fray

Détermination de la masse et de la densité de Eris

Auteur: Nicolas Fray

exerciceDétermination de la masse et de la densité de Eris

Après la découverte de Dysnomie, l’unique satellite de Eris, son orbite a pu être déterminée (Brown et al., 2007, Science, 316, 1585). Son demi-grand axe et sa période sont 37400 ± 180 km et 15.773 ± 0.002 jours, respectivement.

Question 1)

A partir de la 3ème loi de Kepler, calculer la masse du système Eris-Dysnomie.

Question 2)

Le rayon de Eris a été déterminé à 1163 ± 6 km par occultation stellaire (Sicardy et al., 2011, Nature, 478, 493). Calculer la densité de Eris. Que peut-on en conclure ?


Exercice : flux des micrométéorites

Auteur: Nicolas Fray

exerciceFlux de micrométéorites

Difficulté :   

Question 1)

Le flux de micrométéorites à la surface de la Terre est estimé à (40 ± 20) × 106 kg.an-1 pour des grains ayant des masses comprises entre 10-9 et 10-4 grammes.

  • En supposant une densité de ρ = 3000 kg.m-3, quel est le rayon équivalent d’un corps sphérique ayant un masse équivalente au flux annuel de micrométéorites ?
  • En supposant que la Terre est parfaitement sphérique avec un rayon de 6367 km, quelle est l’épaisseur de la couche de micro-météorite tombant sur Terre en 1 million d’années ?


Ordres de grandeur de la taille d'une coma cométaire

Auteur: Nicolas Fray

exerciceOrdre de grandeur de la taille d'une coma

Question 1)

Les glaces cométaires sont majoritairement constituées de glace d’eau. Dans la coma, la vitesse d’expansion des molécules d’eau est d’environ 0.5 km.s-1 et la photodissociation de l’eau conduit à la formation de radicaux hydroxyles (OH) et d’atomes d’hydrogène. Les temps de vie typiques de l’eau, du radical hydroxyle et de l’atome d’hydrogène sont de 6 × 104 s, 2 x 105 s et de 106 s, respectivement. En supposant une vitesse d’expansion des radicaux hydroxyles égale à celle des molécules d’eau et de 12 km.s-1 pour l’atome d’hydrogène, calculer les dimensions caractéristiques des coma de H2O, OH et H.


Exercice : datation d'une météorite

Auteur: Nicolas Fray

exerciceDatation d'une météorite

Difficulté : ☆☆   Temps : 15 min

Question 1)

Sachant que le temps de demi-vie du Rubidium 87 est de 48.8 milliards d'années et connaissant les abondances suivantes, calculer l'âge de la météorite dans laquelle ces abondances ont été mesurées.

Abondances
{^{87}Rb}/ {^{86}Sr}{^{87}Sr}/ {^{86}Sr}
0.7580.74864
0.72550.7465
1.520.79891
1.490.79692
1.5550.80152
1.6850.80952
0.15420.7091
0.15330.70895


Q.C.M.

Auteur: Nicolas Fray

qcmQ.C.M. : Question 1

1)  La plupart des astéroïdes résident dans la ceinture principale ; où est située cette ceinture principale ?




Auteur: Nicolas Fray

qcmQ.C.M. : Question 2

1)  Pourquoi les comètes brillent-elles ?



Auteur: Nicolas Fray

qcmQ.C.M. : Question 3

1)  Les noyaux cométaires sont constitués de glaces et de poussières. Cette glace est-elle comestible ?



Auteur: Nicolas Fray

qcmQ.C.M. : Question 4

1)  Le plus gros des astéroïdes se nomme :




Auteur: Nicolas Fray

qcmQ.C.M. : Question 5

1)  Pluton est :




Auteur: Nicolas Fray

qcmQ.C.M. : Question 6

1)  La majorité des objets trans-neptuniens est située :




Auteur: Nicolas Fray

qcmQ.C.M. : Question 7

1)  Les comètes sont des objets :



Auteur: Nicolas Fray

qcmQ.C.M. : Question 8

1)  En moyenne, les comètes sont-elles plus grandes que les astéroïdes ?


Auteur: Nicolas Fray

qcmQ.C.M. : Question 9

1)  Y a-t-il plus de comètes répertoriées que d'astéroïdes ?



Projet

Auteur: Nicolas Fray

Structure dynamique de la ceinture principale d'atéroïdes et de la ceinture de Kuiper

Le but de ce projet est de retrouver les principales caractéristiques dynamiques des astéroïdes et des objets trans-neptuniens à partir des données orbitales compilées par le « Minor Planet Center » ou le « Jet Propulsion Laboratory ».

Auteur: Nicolas Fray

exerciceLa ceinture principale d’astéroïdes, les lacunes de Kirkwood et les différentes familles dynamiques d’astéroïdes

Question 1)

Les lacunes de Kirkwood correspondent à des minimas de la distribution des astéroïdes en fonction de leur demi-grand axe (ou en fonction de leur période orbitale). Ces lacunes sont dues à des résonances avec Jupiter.

A partir des éléments orbitaux des astéroïdes numérotés, dont l’orbite est connue, qui sont disponibles sur la base de données du JPL (http://ssd.jpl.nasa.gov/?sb_elem), tracer l’histogramme montrant la distribution des astéroïdes en fonction de leur demi-grand axe. Pour construire cet histogramme, on utilisera préférentiellement un pas de 0.01 UA. Afin de mettre en évidence le lien entre la position des lacunes et les résonances avec Jupiter, on représentera sur cet histogramme, la localisation des résonances 4:1, 3:1, 5:2 7:3 et 2:1. On rappelle que le demi-grand axe de Jupiter est de 5.2 UA.

Afin de mettre en évidence, les différentes familles dynamiques d’astéroïdes, on pourra aussi représenter l’ensemble des astéroïdes dans un graphique montrant l’inclinaison en fonction du demi-grand axe.

Auteur: Nicolas Fray

exerciceLa ceinture de Kuiper classique et le disque épars

Question 1)

Les objets trans-neptuniens sont contenus dans deux grands réservoirs : la ceinture de Kuiper classique et le disque épars. Le principal critère permettant de distinguer ces deux réservoirs est l’excentricité de l'orbite des objets qu’ils contiennent. De plus, la ceinture de Kuiper est structurée par des résonances avec Neptune, dont le demi-grand axe est de 30.1 UA.

A partir des éléments orbitaux des objets de la ceinture de Kuiper classique (http://www.minorplanetcenter.net/iau/lists/TNOs.html) et de ceux du disque épars (1) (http://www.minorplanetcenter.net/iau/lists/Centaurs.html) on pourra représenter l’ensemble de ces objets dans deux graphiques montrant l’excentricité et l’inclinaison en fonction du demi-grand axe de ces objets. Afin de mettre en évidence la structuration de la ceinture de Kuiper classique par Neptune, on pourra indiquer sur ces graphiques la positon des résonances 4:3, 3:2, 5:3, 7:4 et 2:1. De plus, sur le graphique de l’excentricité en fonction du demi-grand axe, on pourra aussi tracer les courbes représentant un périhélie constant. Afin de bien distinguer la ceinture de Kuiper classique du disque épars, on pourra pour chacun des deux graphiques proposés utiliser deux axes des abscisses ; un premier en échelle linéaire allant de 28 à 60 UA puis un second en échelle logarithmique s’étendant de 25 à 1 000 UA.

(1) Ce fichier issu du Minor Planet Center contient à la fois les éléments orbitaux des centaures et des objets du disque épars.


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Observables


Observables

Ces chapitres décrivent les différentes informations auxquelles nous avons accès pour étudier les planètes et les exoplanètes.

Flux et spectres : L'essentiel de ces informations vient du rayonnement électromagnétique. On peut collecter tout le flux venant de l'objet qu'on étudie, ou bien disperser ce flux en fonction de la longueur d'onde pour obtenir un spectre.

Chaque domaine de longueur d'onde, visible, infrarouge, UV, radio, demande des détecteurs spécifiques et explore des régions de l'univers définies par les conditions physiques qui gouvernent les émissions de ces rayonnements. La polarisation de la lumière est aussi une riche source d'information sur les environnements planétaires.

Dans les environnements planétaires, les plasmas sont un état de matière auquel on peut accéder directement grace à des missions d'exloration spatiale.


Flux et spectre

Auteurs: Emmanuel Marcq, Loic Rossi

Rayonnement électromagnétique : Flux et spectre

objectifsObjectifs

Ce chapitre a pour but de présenter ce que peut nous apprendre l'observation du flux émis ou réfléchi par l'atmosphère ou la surface d'une planète (ou d'une exoplanète).

prerequisPrérequis

Pour ce chapitre il est préférable d'avoir une connaissance préalable des concepts suivants :


Décrire

Auteurs: Loïc Rossi, Emmanuel Marcq

Les composantes du flux

Le flux radiatif reçu de la part d'une planète peut être analysé comme la somme de deux composantes :

Séparation des composantes

Ces deux composantes seront traitées séparément dans la suite de ce chapitre. En général, les planètes sont largement plus froides que la photosphère de leur étoile, si bien que le flux réfléchi et le flux thermique s'observent de façon disjointe dans le spectre de la planète (voir figure). Cependant, ce n'est pas le cas pour les exoplanètes très chaudes, pour lesquelles le recouvrement des deux composantes n'est pas négligeable si bien que la séparation entre ces deux catégories perd de sa pertinence.

Composantes réfléchie et thermique
figure_corps_noirs_v6.png
Irradiances spectrales émises ou réfléchies en provenance de quelques atmosphères planétaires. On distingue les deux composantes : la composante thermique du corps et la composante correspondant au flux solaire ou stellaire réfléchi par la planète. Cette distinction perd de son sens physique pour une planète très chaude comme 51PegB.
Crédit : Loïc Rossi CC-BY-SA

Dans le cas du système solaire, il est usuel de traiter le flux à des longueurs d'onde plus courtes que 5 µm (incluant donc l'UV, le visible et l'IR proche) comme provenant quasi-exclusivement du Soleil, et les longueurs d'onde plus grandes comme provenant de l'émission thermique du corps observé (incluant donc l'IR moyen et lointain, ainsi les domaines sub-millimétrique et radio). La relation mathématique entre température d'un corps noir et la longueur d'onde du maximum spectral s'appelle la loi de Wien : pour une étoile de température de surface voisine de quelques milliers de Kelvins, il se situe dans le domaine visible voire UV, tandis que pour une planète de température effective voisine de quelques dizaines à quelques centaines de Kelvins, il se situe dans le domaine IR.


Flux stellaire


Corps telluriques

Les planètes du système solaire constituent un cas particulier intéressant puisque l'on peut résoudre leur disque et même effectuer des observations en orbite. Il est même possible pour les planètes telluriques de distinguer le flux diffusé au sein de l'atmosphère de celui réfléchi ou diffusé par leur surface solide (voire liquide dans le cas de la Terre et de Titan).

Observations atmosphériques

Dans le cas de Mars et Vénus, les spectres dans l'infrarouge proche de ces planètes sont dominés par l'absorption due au dioxyde de carbone (CO2), composant majoritaire de leurs atmosphères. Dans l'ultraviolet, le spectre de Vénus est dominé par l'absorption due au dioxyde de soufre (SO2) ainsi que par un absorbant dont la composition n'est pas encore connue. Dans le cas de la Terre, ce même domaine spectral est dominé par l'absorption due à la vapeur d'eau et au CO2 (ainsi qu'au méthane dans une moindre mesure), tandis que le spectre visible et UV révèle la présence d'ozone O3 et de dioxygène O2. Le spectre réfléchi de Titan est quant à lui largement dominé par l'absorption du méthane CH4 et des aérosols présents dans son atmosphère.

Spectre de la Terre vu par Galileo
spectre_terre_galileo.png
Luminance spectrale en provenance de la Terre et observée par la sonde Galileo alors en route vers Jupiter. Les spectres révèlent de grandes quantités d'eau, d'oxygène ainsi que du méthane. Les quantiés mesurées par Galileo témoignent d'une activité biologique intense.
Crédit : Adapté de Sagan et al. (1993).

La nature physique des objets diffuseurs varient selon le corps observé. Au sein de l'atmosphère terrestre, la diffusion est principalement le fait des molécules d'air (régime de Rayleigh), ainsi que des nuages d'eau (recouvrant à tout moment environ 50% de notre planète). Pour Vénus, les nuages épais et omniprésents empêchent toute observation de la surface en lumière solaire. Dans le cas de Mars, l'atmosphère peu dense ne crée pas beaucoup de diffusion Rayleigh, en revanche les poussières soulevées dans l'atmosphère par les tempêtes ainsi que les nuages de glace contribuent à la diffusion de la lumière solaire vers l'observateur de façon significative.

Nuages de Vénus en UV
venus2uv.jpg
Photographie en UV proche (365 nm) des nuages supérieurs de Vénus côté jour. La nature physique des contrastes observés est encore en partie mystérieuse à ce jour.
Crédit : ESA (mission Venus Express)

Observations des surfaces

L'observations des surfaces de Mars et de la Terre depuis l'espace permettent de déterminer partiellement leurs compositions : la surface de Mars comporte ainsi des oxydes de fer en quantité significative qui lui donnent cette teinte "rouillée". La présence de silicates et de phyllosilicates (dont des argiles) est également décelable, ainsi que celle de sulfates.

Surface martienne
curiosity.jpg
Panorama martien observé par le rover Curiosity de la NASA. La couleur caractéristique de la surface martienne apparaît clairement, ainsi que la diffusion de la lumière par les poussières en suspension dans l'atmosphère.
Crédit : NASA

Sur Terre, en plus des silicates et autres roches nues visibles dans les déserts, la végétation (chlorophylle) présente une absorption caractéristique en infrarouge proche. De plus, les étendues liquides (mers, océans) sont nettement reprérables également, via le phénomène de réflexion spéculaire (miroitante) typique des surfaces lisses.

Chlorophylle vue en IR proche
chloro_IR.jpg
Photographie en IR proche de la rivière Neckar en Allemagne. La réflectance très élevée de la chlorophylle des arbres est particulièrement frappante.
Crédit : Cyrill Harnischmacher

Dans le cas de Titan, les observations de surface sont limitées à quelques fenêtres spectrales dans l'IR proche. Ces dernières révèlent des zones claires et sombes indiquant une présence variable de composés organiques sombres (par rapport à la glace environnante) à la surface. Le phénomène de réflexion spéculaire est également observé près des régions polaires, indiquant par là la présence de lacs d'hydrocarbures liquides.

Réflexion spéculaire sur les lacs de Titan
Titan_specular.jpg
Réflexion en IR proche de la lumière solaire à la surface d'un lac de Titan situé près du pôle Nord.
Crédit : NASA (mission Cassini)

Les planètes géantes

Dans le cas des planètes géantes, il n'y a pas de surface à observer, seule l'atmosphère contribue au flux réfléchi. Il est difficile de sonder très profondément dans ces atmosphères, l'opacité (par absorption et diffusion) au sein de ces atmosphères croissant rapidement avec la profondeur en dessous des nuages visibles (constitués de NH3 ou NH3SH pour Jupiter et Saturne, de CH4 pour Uranus et Neptune).

L'absorption de certaines longueurs d'onde dans le visible nous renseigne aussi sur la composition gazeuse et/ou particulaire. Uranus et Neptune apparaissent ainsi bleu-vert en lumière visible à cause de l'importante épaisseur travsersée de méthane gazeux qui absorbe davantage dans le rouge. À l'inverse, sur Jupiter et Saturne, les brumes photochimiques situées en altitude comportent des chromophores de composition encore inconnue et absorbant l'UV et le bleu, ce qui donne à ces planètes une teinte globalement jaune-orangée.

Spectres des planètes géantes dans le domaine visible
sp_geantes.png
Spectres d'Uranus, Neptune, Saturne et Jupiter dans le domaine visible. On notera le faible albédo de Jupiter et Saturne dans le bleu ainsi que les fortes absorptions d'Uranus et Neptune dans le rouge (liées au méthane).
Crédit : Adapté de Karkoschka (1994).
Apparence visuelle des planètes géantes du système solaire
PlanetesGeantes.jpg

Le flux thermique

Auteurs: Loïc Rossi, Emmanuel Marcq

Analyse de composition atmosphérique

L'analyse du spectre thermique permet d'identifier divers composés (surtout atmosphériques) de par la présence de bandes ou de raies spectrales caractéristiques d'une espèce chimique.

Système solaire

Les spectres thermiques en provenance des planètes du système solaire nous renseignement notamment sur :

Notons que ces mêmes techniques sont également utilisées depuis l'orbite terrestre pour des mesures satellitaires de composition atmosphérique, notamment pour des mesures météorologiques (nuages, vapeur d'eau) ou climatologiques (CO2).

Spectres thermiques telluriques
Thermal_IR_Venus_Earth_Mars.png
Spectres des trois principales planètes telluriques connues dans l'infrarouge thermique. Les composés gazeux responsables des structures observées sont indiqués.
Crédit : NASA GSFC (Hanel et al.)
Images IR thermiques de la Terre
earth_IRmerge.png
À gauche : image Météosat dans le canal 10,5-12,5 µm (fenêtre de transparence atmosphérique). À droite : image Météosat dans le canal 5,7-7,1 µm (zone d'opacité de H2O)

Exoplanètes

Les spectres thermiques d'exoplanètes que nous sommes en mesure d'observer sont évidemment de bien moins bonne qualité que pour les objets du système solaire. Ils ne sont pas résolus spatialement (aspect ponctuel des exoplanètes), et sont en général de résolution spectrale assez faible (car on ne peut se permettre de trop disperser spectralement un flux reçu qui est en général très faible). Nous disposons néanmoins à ce jour des connaissances suivantes :


Analyse du profil thermique

Lorsque la composition de l'atmosphère est connue, la forme exacte des raies spectrales vues dans le spectre thermique peut donner à l'observateur des renseignements sur la température du milieu responsable de l'émission thermique (que ce soit la surface ou l'atmosphère). Ainsi, une atmosphère où le profil thermique décroît avec l'altitude présentera des raies en absorption, tandis qu'une atmosphère où la température croît avec l'altitude (une stratosphère, donc) présentera des raies d'émission. Une explication plus détaillée est disponible ici.

L'utilisation de ces spectres pour la mesure du profil thermique n'est possible que dans une plage limitée d'altitude selon la raie observée. Elle nécessite également un gaz dont le profil vertical d'abondance est bien connu dans l'atmosphère : c'est le cas de CO2 sur Mars et la Terre par exemple. Il est hélas impossible de se livrer à la fois à des mesures de profils de composition et de température simultanément...

Spectre thermique de Mars
mariner_mars.jpg
Spectres thermiques enregistrés par la sonde Mariner 9 en orbite autour de Mars. Le profil thermique est décroissant avec l'altitude dans les moyennes latitudes, mais croissant au pôle sud comme le montre la bande de CO2 tantôt en absorption ou en émission.
Crédit : Tiré de Hanel et al. (1972)

Exoplanètes

L'observation indirecte (par différence avec le spectre stellaire pur observable lors d'un transit secondaire) du flux thermique émis par des exoplanètes géantes permet, moyennant des hypothèses raisonnables sur leur composition, d'estimer la température des couches atmosphériques émettrices. Cependant, la faiblesse du signal impose une résolution spectale très faible, hélas insuffisante pour dériver un véritable profil vertical de température.


Méthodes

Auteurs: Loïc Rossi, Emmanuel Marcq

Observations nadir et limbe

definitionGéométrie d'une observation planétaire

Pour décrire la géométrie d'une observation planétaire, il faut au moins trois angles, que l'on choisit conventionnellement de la façon suivante :

Géométrie d'une observation spatiale
figure_geometrie_simple.png
Géométrie d'observation : en bleu \theta_0 est l'angle solaire zénithal (SZA) ; en vert \theta est l'angle d'émission (EMI) ; et en rouge l'angle α est l'angle de phase.
Crédit : Loïc Rossi CC-BY-SA

Observation nadir

L'observation en nadir consiste à observer la planète en pointant l'instrument vers son centre. On observe donc l'atmosphère ou la surface qui se trouve directement sous la sonde. Cela correspond à un angle d'émission nul. Cependant, cette condition n'est jamais rigoureusement respectée, et on considère qu'une observation est en nadir tant que l'on peut négliger la courbure planétaire, ce qui donne une limite pour l'angle d'émission de l'ordre de 30° pour des observations depuis l'orbite basse.

Observations au limbe

Pour les observations au limbe, on observe la planète selon une incidence rasante ; en d'autres termes l'angle d'émission est proche de 90°. Dans cette configuration la courbure planétaire n'est pas négligeable : on ne peut plus considérer l'atmosphère comme constituée de couches planes parallèles. Le principal avantage de l'observation au limbe est que la résolution spatiale se traduit directement en résolution verticale, tandis que les observations nadir sont en général peu précises selon cette direction (mais plus adaptées à une cartographie horizontale). Un autre avantage des observations au limbe est la démultiplication des épaisseurs optiques traversées par les rayons lumineux au sein des différentes couches, ce qui se traduit par des gains substantiels de sensibilité pour la détection et la mesure d'espèces à l'état de traces.

Observations au limbe et au nadir
nadir_limb.png
Géométries d'observations au limbe (bleu) et au nadir (rouge).
Crédit : Emmanuel Marcq CC-BY-SA

Transits et occultations

definitionTransits primaires

Un transit primaire désigne le phénomène d'éclipse partielle d'une étoile par une planète et son atmosphère. L'occultant présente alors un diamètre apparent petit devant l'occulté. Un exemple connu dans le système solaire est celui du transit de Vénus, mais l'étude de ce phénomène a connu un regain d'intérêt avec son application à la détection et à la caractérisation d'exoplanètes.

Si la planète dispose d'une atmosphère, une partie de la lumière stellaire va traverser cette atmosphère pendant le transit primaire. L'observation du spectre transmis permet alors de mesurer quelle extinction supplémentaire est causée par l'atmosphère de la planète à différentes longueurs d'onde, permettant ainsi de contraindre la nature physico-chimique de ses constituants.

definitionTransits secondaires

Un transit secondaire désigne le phénomène réciproque : c'est à présent l'étoile qui masque la planète, le plus souvent totalement étant donné que les étoiles sont bien plus grandes que les planètes.

Immédiatement avant et après un transit secondaire, on peut observer, en plus du spectre de l'étoile seule telle qu'elle apparaît en l'absence de transit, une contribution supplémentaire due au spectre émis ou réfléchi par la planète. Il est alors possible, par soustraction entre le spectre composite observé et celui de l'étoile seule (spectroscopie différentielle), d'analyser le spectre émis ou réfléchi par la planète seule. Une telle méthode exige toutefois une grande sensibilité, car la contribution d'origine planétaire est beaucoup moins intense que celle en provenance de l'étoile.

definitionOccultations

Une occultation (solaire ou stellaire) désigne un phénomène physiquement analogue à un transit primaire (l'occulté est une étoile, l'occultant une planète), mais où cette fois l'occulté est de diamètre apparent très petit devant l'occultant. L'observabilité des occultations s'accroît avec la proximité de l'observateur à l'occultant (à sa surface ou en orbite basse). Un coucher de Soleil est un exemple d'occultation d'observation quotidienne aisée. Il est toutefois possible d'observer des occultations loin de l'occultant, notamment depuis la Terre, entre un corps du système solaire et une étoile lointaine. Un autre type d'occultation aussi utilisé consiste en l'utilisation comme source de l'émetteur radio d'une sonde spatiale. L'occultant est alors l'atmosphère autour de laquelle orbite la sonde, et l'observation se fait à partir de radiotélescopes sur Terre.

L'extinction progressive (à mesure que l'occultant se place devant l'occulté) du rayonnement en provenance de la source permet alors de déduire les propriétés optiques des différentes couches atmosphériques traversées.

transit_occ.png
Illustration des transits primaire (en haut à gauche), secondaire (en bas à gauche) et d'une occultation stellaire (à droite).
Crédit : Gauche : CNES ; Droite : ESA

Comprendre

Auteurs: Loïc Rossi, Emmanuel Marcq

Transfert radiatif

Auteurs: Loïc Rossi, Emmanuel Marcq

Processus radiatifs

L'interaction entre le rayonnement (ondes du champ électromagnétique) et la matière (chargée au niveau microscopique : électrons, noyaux atomiques) se caractérise par trois types de processus radiatifs : l'absorption, l'émission et la diffusion.

Émission

Un processus d'émission intervient lorsque la matière cède localement de l'énergie au champ électromagnétique (création d'un photon). Cette émission est qualifiée de thermique lorsque le champ et la matière sont à l'équilibre thermodynamique à une même température T (on peut voir alors leur interaction comme celle d'un gaz de photons perpétuellement absorbés et émis par la matière environnante, et se mettant en équilibre de la sorte). Il existe également des phénomènes d'émission non thermiques (ex: fluorescence, émission laser), mais ils sortent du cadre de ce cours ; certains de ces processus sont vus dans ce chapitre.

Illustration d'un processus d'émission spontanée
EmissionSpontanee.png
Émission spontanée d'un photon par un système matériel possédant au moins deux niveaux d'énergie. L'énergie totale est conservée dans ce processus.

Absorption

Un processus d'absorption a lieu lorsqu'inversement, le champ électromagnétique cède de l'énergie à la matière environnante (destruction d'un photon).

Illustration d'un processus d'absorption
Absorption.png
Absorption d'un photon par un système matériel possédant au moins deux niveaux d'énergie. L'énergie totale est conservée dans ce processus.

Diffusion

Lorsque la présence de matière interagit avec l'onde électromagnétique en absorbant et réémettant un photon dans un temps très court, donc sans lui soutirer d'énergie. La réémission s'effectuant dans tout l'espace, il en résulte une déviation des ondes électromagnétiques hors de la direction d'incidence. On appelle ce phénomène diffusion.

Illustration d'un processus de diffusion
circle10_z.gif
Illustration de la diffusion d'une onde électromagnétique par une sphère diélectrique de rayon comparable à la longueur d'onde et d'indice de réfraction relatif n_r = 1,78. Le champ électrique total figure à gauche, et la composante diffusée à droite.
Crédit : R. Hogan (Univ. of Reading)

On regroupe les phénomènes d'absorption et de diffusion sous le nom d'extinction : ces deux phénomènes ont comme point commun de diminuer l'intensité d'un faisceau lumineux dans la direction d'incidence, soit en l'absorbant, soit en en déviant tout ou partie.


Épaisseur optique / Loi de Beer-Lambert

Profondeur optique

On définit alors la transmittance t comme le rapport entre l'intensité lumineuse I après traversée et celle I_0 avant la traversée du milieu : t(\lambda) = \frac{I(\lambda)}{I_0(\lambda)}. Cette transmittance vaut 1 si le milieu traversé est transparent, 0 si le milieu est parfaitement opaque, et prend une valeur intermédiaire si le milieu est partiellement opaque. Elle dépend a priori de la longueur d'onde comme la formule l'indique.

La transmittance a l'avantage d'être une grandeur aisément mesurable, mais son interprétation physique directe est malcommode. Il est préférable pour cela d'introduire la grandeur appelée profondeur optique \tau(\lambda) qui se déduit de la transmittance comme suit : \tau(\lambda) = - \ln \left[ t(\lambda) \right], soit I(\lambda) = I_0(\lambda) e^{-\tau(\lambda)}. Il est alors facile de déduire des propriétés mathématiques du logarithme que \tau(\lambda) est une grandeur additive le long d'un même rayon (voir figure ci-contre), et qu'elle offre donc un paramétrage naturel de l'abscisse curviligne le long de ce rayon. Il est en outre possible de relier physiquement la variation locale de \tau(\lambda) le long d'un rayon à la présence de matière traversée : c'est la loi de Beer-Lambert .

Additivité de la profondeur optique
tau_add.png
Crédit : Emmanuel Marcq CC-BY-SA

definitionLoi de Beer-Lambert

Elle s'exprime comme suit le long d'un rayon lumineux : d\tau(\lambda) = n(s) \sigma_{\mathrm{ext}}(\lambda) \, dss désigne l'abscisse curviligne le long du rayon (croissant dans le sens de propagation), n(s) la densité volumique de diffusants et/ou absorbants et \sigma_{\mathrm{ext}}(\lambda) la section efficace d'extinction des diffusants et/ou absorbants. En présence de plusieurs types de diffuseurs et/ou d'absorbeurs, il suffit d'ajouter leurs contributions individuelles. L'évolution de la profondeur optique totale \tau(\lambda) = \int_{s=-\infty}^{+\infty} d\tau(\lambda) selon la longueur d'onde au cours d'une occultation ou d'un transit offre donc la possibilité à l'observateur de déduire les propriétés matérielles du milieu traversé (densité volumique et nature physique des particules responsables de l'extinction).


Diffusions Rayleigh et Mie

Régimes de Rayleigh et de Mie

Le régime de diffusion Rayleigh concerne la diffusion de la lumière par des particules petites devant la longueur d'onde (rayon r \ll \lambda), ce quelque soit le type d'aérosol (sphérique ou non) : molécules isolées de gaz, micro gouttes, etc.

La théorie de Mie est quant à elle valable pour toutes les valeurs de r, mais uniquement pour des particules sphériques (gouttes liquides par exemple). Elle tend vers le cas Rayleigh lorsque r \ll \lambda. Pour des particules non sphériques (cristaux, aérosols de Titan, poussières), cette théorie n'est valable qu'en première approximation, et les méthodes utilisées pour aller plus loin sont hors-programme.

Section efficace de diffusion

Cette section efficace évolue de façon très différente selon le régime. Dans le régime Rayleigh, la section efficace est une fonction rapidement croissante de la longueur d'onde (une illustration courante étant la diffusion bien plus importante du bleu que de rouge dans l'atmosphère terrestre, donnant sa couleur à notre ciel). En régime de Mie, cette dépendance est bien plus faible, si bien que les diffuseurs apparaissent peu colorés en l'absence d'absorption (sur Terre, les nuages d'eau liquide sont un bon exemple).

Section efficace de diffusion
Qext_log_log_v3.png
Représentation log-log de la section efficace de diffusion en fonction de la longueur d'onde pour des particules sphériques d'un rayon r \approx 1\,\mathrm{\mu m}. Aux grandes longueurs d'onde, r \ll \lambda et on se trouve dans le régime Rayleigh (\sigma_{\mathrm{ext}} \propto \lambda^{-4}, apparaissant comme une asymptote de pente -4). Pour r \sim \lambda et r > \lambda, on se trouve dans le régime de Mie, où la section efficace est presque indépendante de \lambda et voisine de la section géométrique des particules.
Crédit : Loïc Rossi CC-BY-SA

Fonction de phase

La fonction de phase définit la répartition angulaire du rayonnement diffusé. C'est en quelque sorte la probabilité pour un rayon incident d'être diffusé dans une direction donnée.

Fonctions de phase de Rayleigh et de Mie
mie_scattering_Sharayanan_ccbysa.png
Figure montrant les indicatrices des différents processus de diffusion. La lumière incidente est supposée aller de gauche à droite. Plus la flèche est longue, plus la diffusion sera importante dans cette direction. À gauche, le régime de Rayleigh avec une diffusion relativement isotrope. Au centre, la diffusion de Mie, qui diffuse fortement vers l'avant. À droite, la diffusion de Mie pour des particules encore plus grandes.
Crédit : Sharayanan CC-BY-SA

Albédo de simple diffusion

Quand un rayonnement est diffusé et absorbé, on définit l'albédo de simple diffusion \varpi_0 comme la proportion du rayonnement qui est diffusée. Si \varpi_0 = 1, toute la lumière est diffusée, il n'y a pas d'absorption. En revanche si \varpi_0 = 0, tout la lumière est absorbée, il n'y a plus de diffusion. En général, \varpi_0 dépend de la longueur d'onde : \varpi_0(\lambda).


Surfaces

Types de réflexion

Quand du rayonnement parvient à une surface, il peut être réfléchi de plusieurs façons :

Réflexion diffuse et spéculaire
earth_specular.jpg
Photographie de la Terre prise depuis la station spatiale internationale. On distingue nettement la réflexion spéculaire sur la surface de l'océan et celle diffuse due aux nuages ou à la surface des continents.

Spectroscopie

Selon la longueur d'onde, le rayonnement incident sur une surface peut-être réfléchi mais aussi absorbé. On pourra alors étudier la réflectance d'une surface en fonction de la longueur d'onde (la réflectance valant 1 si tout la lumière est réfléchie ; 0 si tout est absorbé.).

L'étude de la réflectance d'une surface en fonction de la longueur d'onde peut être utile pour caractériser celle-ci. Ainsi certains minéraux ont un spectre avec des bandes d'absoption caractéristiques. C'est ce qui permet de caractériser des surfaces comme celles de Mars (pour détecter des minéraux hydratés par exemple), de la Lune ou bien celle d'astéroïdes et de comètes.


Température de brillance

definitionDéfinition

La température de brillance T_B(\lambda) d'un objet est la température du corps noir qui émettrait la même intensité que celle émise par l'objet à la longueur d'onde \lambda : I(\lambda) = B\left[\lambda, T_B(\lambda) \right]B\left[\lambda, T \right] désigne la fonction de Planck à la longueur d'onde \lambda pour un corps noir de température T. Comme les courbes représentant les fonctions de Planck ne se croisent jamais, il y a correspondance unique entre I(\lambda) et T_B(\lambda) : la température de brillance n'est qu'une autre façon de décrire un spectre. En particulier, elle ne représente pas forcément la température d'un objet physique.

La formule de Planck permet d'exprimer analytiquement T_B(\lambda) selon la formule T_B(\lambda) = \frac{hc}{k\lambda} \ln^{-1} \left( 1 + \frac{2hc^2}{\lambda^5 I(\lambda)} \right).

Lecture graphique de la température de brillance
nimbus-earth.png
Spectre thermique terrestre observé par l'instrument NIMBUS. Les courbes en pointillé représentent les spectres des corps noits aux températures indiquées en Kelvin. Ceci permet une lecture directe de ce spectre en température de brillance : un minimum situé autour de 215 K vers 15 µm, et un maximum un peu en dessous de 300 K entre 10 et 12 µm.
Crédit : Adapté de Hanel et al. (1970)

Intérêt

Son intérêt principal réside dans l'interprétation des spectres thermiques issus d'un objet (ici une planète et son atmosphère). En effet, sous réserve de certaines hypothèses :

La température de brillance correspond alors à la température du milieu situé à une profondeur optique égale à 1 : T_B(\lambda) \approx T\left[\tau(\lambda) = 1\right] avec \tau comptée depuis l'observateur et le long du rayon. Intuitivement, cela résulte d'un compromis dans l'intensité intégrée le long du rayon et reçue par l'observateur :


Méthodes

Auteurs: Loïc Rossi, Emmanuel Marcq

Nadir

Auteurs: Loïc Rossi, Emmanuel Marcq

Sondages thermiques

Raies en absorption vs. émission

Nous sommes à présent en mesure d'interpréter pourquoi les raies caractéristiques de certains gaz apparaissent tantôt en absorption, tantôt en émission dans les spectres thermiques observés. En effet, le centre d'une raie spectrale présente une absorption massique plus grande que les ailes de cette même raie. En conséquence, du point de vue d'un observateur extérieur à l'atmosphère, la profondeur optique unité est atteinte à des altitudes plus élevées aux centres des raies que sur leurs ailes. À partir de là, on a les cas de figure suivants :

Raies en absorption ou en émission
emis_abs.png
Profils d'une raie spectrale vue en émission (haut) ou en absorption (bas). L'altitude \tau(\lambda)=1 est atteinte plus haut au coeur de la raie (longueur d'onde \lambda_c) que dans les ailes lointaines de la raie (longueur d'onde \lambda_a) : z_c < z_a avec \tau(\lambda_c,z_c) = 1 et \tau(\lambda_a,z_a)=1.
Crédit : Emmanuel Marcq CC-BY-SA

Application

Lorsque le composé responsable d'une raie d'absorption est bien connu spectroscopiquement (son absorption en fonction de la longueur d'onde notamment) et que son profil d'abondance vertical est supposé connu au sein de l'atmosphère étudiée, il est possible de savoir à quelles altitudes sont atteintes les profondeurs optiques unité pour les différentes longueurs d'onde (ainsi, comme expliqué ci-dessus, le coeur des raies va sonder plus haut que les ailes lointaines des raies, où les rayons pourront même provenir de la surface si l'atmosphère est transparente par ailleurs). L'analyse du flux spectral reçu par l'observateur selon la longueur d'onde va alors lui permettre de reconstituer le profil thermique dans les plages d'altitudes associées aux différentes raies spectrales.

De façon semi-quantitative, lorsque la section efficace \sigma_{\mathrm{abs}}(\lambda) et le profil vertical en densité de l'absorbant n(z) sont connus, il est alors possible de trouver à quelle altitude z(\lambda) on a \tau \left[ z(\lambda) \right] = \int_{z(\lambda)}^{+\infty} \sigma_{\mathrm{abs}}(\lambda) n(z')\,dz' = 1. On sait alors qu'il règne une température T\left[ z(\lambda) \right] \approx T_B(\lambda) à cette altitude. On a supposé dans ce calcul que la visée de l'observateur pointe verticalement vers le centre de la planète (visée nadir).


Sondages de composition

Principe

Lorsque le profil vertical de température est supposé connu dans une atmosphère planétaire (par exemple au moyen de la méthode décrite précédemment), il est possible d'utiliser les raies spectrales de composés identifiés (et bien connus spectroscopiquement) pour en déduire leur profil vertical d'abondance sur une plage d'altitudes donnée.

De façon semi-quantitative et en visée nadir, on peut procéder comme suit : la connaissance du profil thermique T(z) permet, pour chaque longueur d'onde \lambda, de retrouver l'altitude z(\lambda) correspondant à la température de brillance observée — en d'autres termes telle que T_B(\lambda) = T\left[z(\lambda)\right]. Or, on sait que cette altitude correspond à la profondeur optique unité à la longueur d'onde considérée, si bien que l'on a \tau \left[ z(\lambda) \right] = \sigma_{\mathrm{abs}}(\lambda) \times N\left[z(\lambda) \right] = 1\sigma_{\mathrm{abs}}(\lambda) désigne la section efficace d'absorption du composé mesuré (supposée ici indépendante de la pression et de la température) et N(z) la densité de colonne du composé recherché au-dessus de l'altitude z, c'est-à-dire N(z) = \int_{z}^{\infty} n(z')\,dz' avec n(z') la densité volumique de l'absorbant à l'altitude z'. On peut alors en déduire par différentiation sur les altitudes sondées le profil de densité volumique n(z) du composé mesuré sur l'intervalle sondé.

Cependant, afin de moins dépendre des diverses approximations déjà évoquées, il est préférable d'utiliser un modèle de transfert de rayonnement afin de modéliser les spectres thermiques attendus et de les comparer ensuite aux observations en ajustant les différents paramètres (opération appelée fit en anglais de laboratoire). Notons que la procédure décrite ci-dessus ne fonctionne en pratique que lorsque les raies spectrales sont résolues, c'est-à-dire à une très haute résolution spectrale.

Il n'est en revanche pas possible d'inverser simultanément le profil thermique et le profil d'abondance du composé par la seule observation de ses raies d'absorption. On parle de problème dégénéré.

Absorption de quelques gaz dans l'IR thermique
GEISA2011.png
Absorption de la vapeur d'eau (rouge), du dioxyde de carbone (vert), de l'ozone (bleu) et du méthane (violet) dans les conditions standard de température et de pression. L'échelle verticale est logarithmique.
Crédit : Emmanuel Marcq (à partir de la base de données GEISA 2011) CC-BY-SA

Spectre réfléchis

Réflectance

La lumière stellaire réfléchie et reçue par un observateur extérieur a subi au moins un événement de diffusion, soit au sein de l'atmosphère (molécules de gaz, aérosols), soit par la surface pour une atmosphère peu opaque autour d'une planète tellurique. Ces propriétés de réflexion sont résumées par la fonction R(\theta_0,\varphi_0,\theta_1,\varphi_1) appelée réflectance bidirectionnelle. C'est une fonction à quatre variables, deux pour caractériser la direction du rayon incident (d'angle zénital d'incidence \theta_0 et d'azimuth \varphi_0) et deux pour celle du rayon émergent (d'angle d'émergence zénital \theta_1 et d'azimuth \varphi_1) . C'est une fonction positive, dont la valeur minimale est nulle dans les directions où l'intensité réfléchie est nulle. Elle ne se déduit pas simplement des fonctions de phase calculables en régime de Rayleigh et de Mie, notamment à cause des phénomènes de diffusion multiple et de la possible contibution de la surface.

Transmission atmosphérique

Dans le cas d'une couche réfléchissante (surface, sommet des nuages) surmontée d'une atmosphère purement absorbante (non diffusante en elle-même), on a alors une relation anayltique entre l'intensité réfléchie I(\theta_1,\varphi_1) et celle de la source I(\theta_0,\varphi_0) : I(\theta_1,\varphi_1) = I(\theta_0,\varphi_0) R(\theta_0,\varphi_0,\theta_1,\varphi_1) \exp \left[ - \tau \left(\frac{1}{\cos \theta_0} + \frac{1}{\cos \theta_1} \right) \right]\tau désigne l'épaisseur optique de l'atmosphère au-dessus de la couche réfléchissante (comptée selon la verticale). Le terme en exponentielle provient de la loi de Beer-Lambert pour le rayon incident et le rayon émergent, en tenant compte de leur inclinaison éventuelle qui les amène à traverser des épaisseurs atmosphériques plus importantes que des rayons purement verticaux.

Hormis l'étude la couche réfléchissante dans des longueurs d'onde où \tau est négligeable, cette méthode permet de mesurer le spectre de l'absorption atmosphérique décrite par \tau(\lambda) : on a ainsi accès à la densité de colonne intégrée au-dessus de la couche réfléchissante en examinant la profondeur des raies d'absorption des composés atmosphériques. Notons qu'au contraire de l'émission thermique, la présence de composés absorbants se traduit toujours par des raies en absorption et non plus en émission.

Illustration de l'intensité réfléchie
refl.png
Crédit : Emmanuel Marcq CC-BY-SA

Occultations et transits

Auteurs: Loïc Rossi, Emmanuel Marcq

Occultations

definitionLa méthode des pelures d'oignon

L'observation d'une occultation au cours du lever (ou du coucher) de la source à travers l'atmosphère d'une planète permet d'inverser le profil vertical d'extinction k_{\mathrm{ext}}(z;\lambda) = n(z) \sigma_{\mathrm{ext}}(\lambda) à la longueur d'onde \lambda à partir de l'observation des transmissions t(z_i,\lambda) selon différentes altitudes tangentesz_i (altitude minimale du rayon lors de sa traversée de l'atmosphère). Un des algorithmes permettant cette inversion est appelé méthode des pelures d'oignon : on découpe l'atmosphère en coquilles sphériques concentriques homogènes à la manière d'un oignon. L'altitude tangente z_0 la plus élevée pour laquelle on mesure \tau(z_0,\lambda) > 0 permet de déduire l'extinction locale k_{\mathrm{ext}}(z_0,\lambda) au sein de cette couche la plus extérieure. La profondeur optique observée juste en-dessous, à l'altitude tangente z_1 < z_0, est alors un peu plus grande. Comme on connaît déjà k_{\mathrm{ext}}(z_0,\lambda), on en déduit k_{\mathrm{ext}}(z_1,\lambda) pour la couche immédiatement intérieure. Et ainsi de suite jusqu'au rayon le plus bas pour lequel on puisse mesurer une transmission t(z_N,\lambda) > 0.

La mesure des profils d'extinction k_{\mathrrm{ext}}(z,\lambda) dans l'atmosphère permet alors d'en déduire plusieurs paramètres importants :

Ces occultations sont donc une méthode précieuse de sondage atmosphérique, mais assez délicate à mettre en oeuvre. Il faut en effet pouvoir mesurer de nombreuses transmissions précisément, tout en connaissant parfaitement chacune des altitudes tangentes. Ceci n'est en général possible que pour un satellite en orbite autour de la planète, et nous restreint donc au système solaire.

Méthode dite "par pelure d'oignon"
onion.png
Visualisation géométrique de la méthode d'inversion surnommée "par pelure d'oignon" : la transmission observée t(z_1) permet, connaissant l'épaisseur traversée, de remonter à k_{\mathrm{ext}}(z_1). À partir de là, la transmission t(z_2) permet, connaissant k_{\mathrm{ext}}(z_1), d'en déduire k_{\mathrm{ext}}(z_2) et ainsi de suite.
Crédit : Emmanuel Marcq CC-BY-SA

Transits primaires

Transits primaires

L'observation d'un transit primaire se traduit par une baisse relative de luminosité en provenance de la source partiellement occultée, appelée profondeur du transit, notée \delta et habituellement mesurée en ppm (parties par million). Pour une planète sans atmosphère, la profondeur est indépendante de la longueur d'onde (la réciproque n'est pas vraie : ainsi un plafond nuageux élevé peut conduire à la même observation, par exemple). En revanche, si l'atmosphère présente une extinction variable selon la longueur d'onde (que ce soit par absorption ou par diffusion Rayleigh par exemple), alors le rayon apparent de la planète (et donc la profondeur du transit) sembleront légèrement plus grands dans les longueurs d'onde où l'atmosphère cause davantage d'extinction.

On peut ainsi montrer, sous certaines hypothèses simplificatrices, que la variation relative de la profondeur du transit selon la longueur d'onde est liée à celle de la section efficace d'extinction (moyennée verticalement) au sein de l'atmosphère, selon la loi : \frac{d \delta / d\lambda}{\delta} = \frac{2H}{R} \frac{d\sigma_{\mathrm{ext}} / d \lambda}{\sigma_{\mathrm{ext}}}H désigne l'échelle de hauteur de l'atmosphère et R le rayon de la planète. Ces variations sont donc d'autant plus notables que l'échelle de hauteur est grande, ce qui favorise donc les atmosphères très dilatées. C'est par exemple le cas pour les Jupiter chauds (atmosphère légère constituée principalement de H2 et à température élevée).

Spectroscopie d'un transit primaire
transit_prim.png
Visualisation de la profondeur d'un transit primaire en fonction de la longueur d'onde. Ici, l'atmosphère est transparente aux grandes longueurs d'onde, et de plus en plus opaque aux courtes longueurs d'onde, ce qui augmente la profondeur du transit.
Crédit : Emmanuel Marcq CC-BY-SA

Transits secondaires

L'intérêt d'un transit secondaire réside dans la possibilité d'effectuer une spectroscopie différentielle de la planète : si l'on mesure un spectre S_{\mathrm{star + planet}}(\lambda) juste avant ou juste après ce transit secondaire, ainsi qu'un spectre S_{\mathrm{star}}(\lambda) de l'étoile seule pendant ce transit secondaire, on peut en déduire le spectre S_{\mathrm{planet}}(\lambda) = S_{\mathrm{star + planet}}(\lambda) - S_{\mathrm{star}}(\lambda) émis ou réfléchi par la planète seule vue à angle de phase nul.

Le spectre S_{\mathrm{planet}}(\lambda) peut alors être analysé comme le serait n'importe quel spectre (par exemple en termes de température ou de composition pour un spectre thermique, ou bien de propriétés des diffuseurs pour un spectre réfléchi). C'est du moins le cas en théorie, car en pratique le faible rapport signal à bruit de tels spectres interdit à ce jour toute analyse trop poussée de ces spectres, de résolution spectrale souvent médiocre.

Courbe de lumière
stevenson.png
Courbe de lumière lors du transit secondaire de WASP-43b. Le flux en provenance de l'étoile est normalisé à 1. Le surcroît autour du transit secondaire est causé par l'émission thermique de la planète, ce qui a permis de reconstituer son profil thermique. L'insert en haut à droite représente le transit primaire.
Crédit : Figure tirée de Stevenson et al. (2014)

Se Tester

Auteurs: Emmanuel Marcq, Loïc Rossi

QCM de cours

Auteur: Loïc Rossi

qcmQuelques questions de cours

Difficulté :    Temps : 10 min

1)  Un rayon lumineux traverse deux milieux de composition et dimensions identiques. Le second possède une densité volumique double du premier. Quelle sera l'épaisseur optique totale si \tau_1 désigne l'épaisseur optique du milieu 1 ?



2)  Dans quel cas les composantes thermiques et réfléchies d'une planète seront-elles indistinctes ?



3)  Pourquoi est-il difficile d'observer les couches profondes de certaines atmosphères ?



4)  La température de brillance est toujours la température physique d'un corps.


5)  On observe un transit (primaire) d'une exoplanète à plusieurs longueurs d'onde. La profondeur du transit est globalement constante. Que peut-on en conclure ?




Transit primaire

Auteur: EM

exerciceÉtude spectroscopique d'un transit primaire

Difficulté : ☆☆☆   Temps : 30 min

On considère la variation avec la longueur d'onde \lambda de la profondeur \delta d'un transit primaire autour d'une étoile de rayon R_{\star} = 7\cdot 10^5\;\mathrm{km}. Le meilleur ajustement par un modèle simple est représenté ci-dessous (l'axe des abscisses des gradué de façon logarithmique). L'échelle de hauteur de l'atmosphère de l'exoplanète sera supposée constante.

Profondeur optique vs. longueur d'onde
transit_simu.png
Simulation d'un transit primaire
Crédit : EM
Question 1)

Estimer la profondeur du transit en l'absence d'atmosphère.

Question 2)

En déduire le rayon R de la planète.

Question 3)

Interpréter l'allure générale du spectre de \delta :

  • Quel phénomène peut causer les pics isolés vers 600 et 800 nm ?
  • Quel phénomène est responsable de l'augmentation constatée vers les courtes longueurs d'onde

Question 4)

Mesurer la pente K observée pour les courtes longueurs d'onde.

Question 5)

En déduire l'échelle de hauteur atmosphérique H, puis la température sachant que l'on a aussi H = \frac{R T}{M g}. On prendra M = 2.4\;\mathrm{g/mol}, R = 8,31\;\mathrm{J/K/kg} et g = 15.7\;\mathrm{m/s^2}.


Sondage thermique

Auteur: EM

exerciceSpectres d'émission thermique

Difficulté : ☆☆☆   Temps : 30 min

Interpréter les spectres d'émission thermiques suivants à l'aide du cours. On répondra notamment aux questions suivantes :

Pour l'interprétation du spectre 2, voici une formule semi-numérique pour convertir les radiances spectrales en température de brillance : T_B(\lambda) = \frac{14388\;\mathrm{K}}{\lambda} \times \frac{1}{\ln \left( 1 + \frac{11910.4}{\lambda^3 I} \right)} où la longueur d'onde \lambda est en µm et la radiance I en \mathrm{W/m^2/sr/cm^{-1}}

Spectre 1
spectre.png
Spectre 2
TitanEmission.jpg
Question 1)

Identifier les espèces gazeuses présentes dans la planète du spectre 1.

Question 2)

Estimer la température de surface pour le spectre 1, et la structure thermique des deux atmosphères.

Question 3)

Interpréter les pics centraux au coeur des bandes d'absorption vers 9,6 µm et 15 µm sur le spectre 1.

Question 4)

Identifier les deux objets du système solaire en question.


Mini-projet

Auteurs: Loïc Rossi, Emmanuel Marcq

Occultation stellaire à travers l'atmosphère de Vénus

introductionContexte

En 2011, l'équipe de Franck Montmessin (LATMOS, France) a découvert l'existence d'une couche d'ozone (O3) dans la haute atmosphère de Vénus côté nuit. Cette couche est très ténue et d'extension verticale restreinte. Elle présente également d'importantes variations horizontales, pouvant passer sous le seuil de détection. Les données utilisées provenaient de l'instrument SPICAV à bord de la sonde Venus Express (2006-2014) de l'ESA, et utilisaient la méthode des occultations stellaires en ultraviolet, domaine spectral où l'ozone présente une absorption caractéristique.

Ce mini-projet se propose d'appliquer la même méthode à des occultations stellaires simulées, comparables à celle mesurées par SPICAV mais plus faciles à traiter.

complementDescription des occultations simulées

Les occultations simulées prennent en compte l'extinction de la lumière de l'étoile causée par la traversée d'une partie de l'atmosphère de Vénus. Cette atmosphère simulée est constituée de dioxyde de carbone (CO2 à 96,5%) suivant une distribution hydrostatique, et d'une couche d'ozone (O3) d'altitude fixe et d'épaisseur caractéristique assez mince. Le dioxyde de carbone absorbe majoritairement aux courtes longueurs d'onde, tandis que l'ozone présente une bande d'absorption centrée sur une longueur d'onde d'environ 250 nm (bande de Hartley) . Ce modèle, par souci de simplicité pédagogique, ne prend pas en compte les phénomènes suivants :

Ces occultations ont été simulées pour diverses altitudes tangentes du rayon lumineux. Ces altitudes représentent l'altitude minimale atteinte par le rayon lorsqu'il passe au plus près de Vénus. Un bruit synthétique a été également été ajouté.

activiteConsignes

  1. Pour chaque observation, ajuster la densité de colonne d'ozone donnant le meilleur accord entre transmission théorique et observée. Copier chaque couple de valeurs vers le tableur.
  2. Pourquoi la transmission théorique ne réussit-elle pas à ajuster les observations aux courtes longueurs d'onde ? Interpréter le désaccord constaté, notamment vis-à-vis l'altitude tangente.
  3. Interpréter la courbe donnant la densité de colonne d'ozone traversée en fonction de l'altitude tangente : vérifier notamment qu'elle est compatible avec une couche mince d'ozone située à une altitude z_0 que l'on précisera.
  4. Représenter schématiquement trois occultations d'altitudes tangentes z telles que : z>z_0, z=z_0, z<z_0. Vérifiez la cohérence avec les variations de la densité de colonne d'ozone observées le long de ces rayons.
  5. Estimer à partir du profil vertical de densité de colonne d'ozone l'épaisseur caractéristique h de la couche d'ozone.
  6. En considérant un modèle simplifié où l'ozone est uniformément réparti entre les altitudes z_0 et z_0 + h, montrer que la longueur L parcourue par le rayon d'altitude tangente z_0 est donnée par L = 2 \sqrt{2 R h}R = 6051\;\mathrm{km} désigne le rayon de Vénus. On se placera dans l'hypothèse, vérifiée ici, où R \gg z_0 \gg h .
  7. En déduire alors une estimation de la densité particulaire (en molécules/m3) d'ozone au sein de cette couche dans le cadre de ce modèle simplifié.

Simulation d'une occultation stellaire à travers l'atmosphère de Vénus

activiteMode d'emploi

Simulation application.png


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Flux UV

Auteur: Jean-Yves Chaufray

Flux UV

Ce chapitre présente les principales émissions UV observées dans les hautes atmosphères des planètes. On décrit non seulement les émissions aurorales que l'on peut observer dans le visible depuis la surface de la Terre, mais aussi d'autres émissions plus ténues qui nous donnent des informations sur la composition, la dynamique et la variabilité des hautes atmosphères planétaires. Les différents processus à l'origine de ces émissions : interaction du rayonnement solaire avec l'atmosphère, précipitation de particules énergétiques, réactions chimiques, etc... sont décrits et illustrés par différents exemples dans le système solaire.

prerequisPrérequis

Vous pouvez commencer le cours ici


Décrire

Auteur: Jean-Yves Chaufray

Introduction

Les luminescences atmosphériques sont des émissions lumineuses émises par les atmosphères planétaires. Elles sont produites par les espèces atomiques et moléculaires de l'atmosphère de la planète se trouvant dans des états de haute énergie (états excités) qui en redescendant vers un état de basse énergie émettent des photons.

Pour produire ce type d’émission il est donc nécessaire d’exciter les espèces atmosphériques le plus souvent par interaction avec un photon ou un électron. Les luminescences atmosphériques (appelées airglow) produites dans les hautes atmosphères planétaires (thermosphère/exosphère) peuvent généralement être classées en trois catégories :

Les émissions appelées « dayglow ». Le « dayglow » est l’émission de l’atmosphère de jour qui résulte de l’interaction du rayonnement solaire avec les gaz atmosphériques. Par définition, le « dayglow » inclus aussi les émissions produites par interactions entre les gaz atmosphériques et les photoélectrons, c’est à dire les électrons produits par la photoionisation de l’atmosphère de la planète.

Les émissions appelées « nightglow » qui sont les émissions luminescentes produites du côté nuit. Les réactions chimiluminescentes telles que les réactions de recombinaison entre deux atomes produisent des molécules dans des états excités à l'origine des émissions de type « nightglow » dans les hautes atmosphères planétaires.

Les émissions aurorales qui peuvent être définies comme les émissions résultant de l’impact de particules énergétiques autres que les photoélectrons, comme par exemple lors de précipitations d’électrons énergétiques de la magnétosphère terrestre dans les régions polaires.

L’énergie perdue par l’atmosphère sous forme de luminescences atmosphériques ne représente qu’une fraction minime de l’énergie absorbée par l’atmosphère. Une partie de l’énergie absorbée est aussi transformée en énergie thermique (chauffage) et énergie cinétique (dynamique).


Emission Lyman-alpha de l'hydrogène atomique

Avant de voir en détails les principaux mécanismes d ’émissions, voici quelques exemples d’émissions observées dans l’UV et le visible sur différents objets du système solaire

definitionEmission Lyman-alpha de l'hydrogène atomique

A cause de la gravité, les espèces légères, comme l’hydrogène atomique deviennent les principaux composants des très hautes atmosphères (exosphère) des planètes. L’hydrogène atomique peut diffuser de façon efficace le rayonnement solaire et former une couronne lumineuse en UV autour de la planète. Cette émission a été observée pour la première fois autour de la Terre à la fin des années 50. Elle avait d’abord été interprétée comme la diffusion du rayonnement solaire par les atomes d’hydrogène du milieu interplanétaire avant d’être interprétée comme l’émission d’atomes d’hydrogène liée gravitationnellement à la Terre et formant autour d’elle une « géocouronne ». Des couronnes similaires ont été mises en évidence autour de toutes les planètes du système solaire (Mercure, Vénus, Mars, Jupiter, Saturne, Uranus, Neptune) , de certains satellites (Titan, ...)et des comètes. Des tentatives d’observations par la sonde Rosetta n’ont pas permis de mettre en évidence une « couronne » d’hydrogène autour des astéroïdes Lutetia et Steins. La couronne d’une planète pouvant s’étendre sur plusieurs rayons planétaires, cette émission peut être observée côté jour et côté nuit. D’autres espèces comme l’hélium ou l’oxygène atomique conduisent à des émissions exosphériques observables en UV.

Le milieu interplanétaire composé essentiellement d’hydrogène atomique produit lui aussi une émission par diffusion du rayonnement solaire et la première carte complète de l’émission de l’hydrogène interplanétaire vue depuis la Terre a été effectuée par le satellite OGO-5.


Dayglow et Nightglow

Emissions dayglow des planètes telluriques

L’atmosphère de la Terre est composée essentiellement de N2 et de O2. Les principales émissions UV observées dans la thermosphère de la Terre côté jour sont des émissions produites par O, O+, N+, N2 et NO. Sur Mars et Vénus, l’atmosphère est essentiellement composée de CO2 et les principales émissions observées en UV côté jour sont les mêmes et sont produites par CO, CO2+ et O. Ces émissions résultent de différent processus induit par le rayonnement solaire qui seront décrites en détails dans la partie Comprendre.

Emissions nightglow des planètes telluriques

Sur Mars et Vénus et la Terre, des bandes d’émissions UV de NO sont visibles du côté nuit, à ces bande d’émissions, s’ajoutent des bandes d’émissions de O2 sur la Terre. Ces émissions sont produites par des réactions chimiques de recombinaison (chimiluminescence) entre des atomes d’azote et des atomes d’oxygène. Ces atomes sont produits par la photodissociation de CO2 et N2 du côté et transporté par les vents vers la nuit où ils peuvent se recombiner.


Emissions aurorales

Généralités

Les émissions aurorales sont des émissions produites par interaction entre des particules très énergétiques (le plus souvent des électrons) provenant de l’environnement spatial voisin de la planète (magnétosphère par exemple) et les composés de l’atmosphère de la planète. Les émissions aurorales peuvent être observées dans toutes les gammes spectrales du spectre électromagnétique : des rayons gammas au émissions radios. Dans ce cours on se limitera aux émissions UV-visible. L’excitation peut être directement produite par la particule énergétique incidente ou produite par une cascade de collisions dans l’atmosphère. Des émissions aurorales ont été observées sur la Terre et les quatre planètes géantes du système solaire. Des émissions aurorales ont aussi été observées sur Vénus, Mars et sur certains satellites galiléens (Ganymède, Io, Europe).

Emissions aurorales terrestres

Les principales émissions aurorales visibles observées sur Terre sont les raies vertes et rouges de l’oxygène atomique. Les observations des émissions aurorales en UV montrent un spectre riche en raies principalement associées à N, O, N+, O+, N2. Ces émissions sont observées aux hautes latitudes, au voisinage des pôles magnétiques, où les électrons accélérés dans la magnétosphère de la Terre peuvent précipiter dans l’atmosphère le long des lignes de champs magnétique.

Emissions aurorales des planètes géantes

Les émissions aurorales observées sur les planètes géantes sont aussi principalement produites par des précipitations d’électrons magnétosphériques près des pôles magnétiques. Les émissions UV sont dominées par les émissions de H et H2. La morphologie des émissions aurorales sur Jupiter et Saturne montrent différentes structures qui seront présentées dans la suite de ce cours. Les émissions aurorales UV des géantes glacées Neptune et Uranus ont été observées pour la première fois par la sonde Voyager 2.


Comprendre

Auteur: Jean-Yves Chaufray

Structure Atomique de l'hydrogène

L'atome est le constituant de base de la matière; il est formé d'un noyau chargé positivement et d'un nuage d'électrons chargé négativement. Le noyau contient A nucléons, dont Z protons chargé positivement et (A-Z) neutrons de charge nulle. Un atome est électriquement neutre et contient donc Z protons et Z électrons. Des atomes ayant un nombre Z identique mais un nombre A différent sont appelés isotopes. Par exemple, l'atome de deutérium composé de 1 proton, 1 neutron et 1 électron (Z=1, A=2) est un isotope de l'hydrogène composé de 1 proton et 1 électron (Z=1, A=1). La science qui étudie la structure interne des atomes s'appelle l'atomistique.

La dispersion de la lumière par un gaz atomique présente une structure sous forme de raies. Chaque élément a un spectre de raies caractéristiques, par exemple l'hydrogène et le deutérium possèdent plusieurs séries de raies portant le nom des scientifiques qui les ont observées pour la première fois. La série des raies de Lyman dans l'ultraviolet a été observée pour la première fois par Théodore Lyman en 1906. Johann Balmer a découvert quatre raies de la série de Balmer en 1885 dans le visible. Johannes Rydberg et Walter Ritz montrèrent que les longueurs d'onde des différentes séries pouvaient être décrites par la formule de Rydberg-Ritz: 1/lambda_mn=R(1/n^2-1/m^2) R est la constante de Rydberg, m et n sont deux nombres entiers. La structure en raies des spectres d'émission des atomes et la présence de nombre entiers dans l'équation de Rydberg suggère une quantification de l'énergie des électrons dans le nuage atomique, on parle de niveaux d'énergie. Les valeurs de l'énergie sont quantifiées par un nombre entier n et données par E_n=-hcR/n^2 ou h est la constante de Planck et c la vitesse de la lumière dans le vide. Une raie d'émission résulte d'une transition d'un électron du niveau m vers le niveau n (m>n). Cette quantification de l'énergie d'un atome ne peut s'expliquer par la physique classique. Bohr présentera un premier modèle théorique permettant de démontrer la formule de Rydberg-Ritz en 1913, mais c'est la physique quantique développée dans les années 1920 par Schrodinger et Heisenberg, puis la théorie des champs développée par Dirac qui permettront non seulement de retrouver la formule de Rydberg-Ritz mais aussi d'expliquer toutes les observations de la structure de l'hydrogène. L'étude des émissions spectroscopiques est à la base de l'astrophysique.


Modèle de Bohr

Hypothèses du modèle de Bohr de l'hydrogène: Le modèle de Bohr de l'atome d'hydrogène a été élaboré en 1913 par Niels Bohr pour expliquer la structure en raies des spectres d'émissions des atomes. Ce modèle repose sur une description classique du mouvement de l'électron autour du noyau mais impose une quantification de son moment cinétique et suppose que l'électron ne rayonne pas sur une orbite stable circulaire.

Description du modèle:

L'électron est soumis à la force électrostatique radiale du noyau. Le mouvement se fait donc dans un plan. On note z l'axe perpendiculaire à ce plan. L'équation fondamentale de la dynamique, appliquée à l'électron de masse me en coordonnées cylindriques, projeté sur les axes r et θ s'écrit:

m_(e)*(dtemps(r;2)-r*dtemps(theta;1 )^2)=-e^2/4*pi*epsilon_0*r^2

m_(e)*(2*dtemps(r;1)*dtemps(theta; 1)-r*dtemps(theta;2))=0==>(m_(e)/(r))*(d(r^2*dtemps(theta; 1))/dt)=0

La seconde équation s'intègre facilement et conduit à la loi des aires r^2*dtemps(theta;1)=C, comme la trajectoire est suppposée circulaire, la vitesse angulaire dtemps(theta;1)=omega est constante. Le moment cinétique est définit par vecteur(sigma)=m_(e)*vecteur(r) croix vecteur(v) ou vecteur(v)=r*dtemps(theta;1)*vecteur(e_theta)est le vecteur vitesse. Le moment cinétique est donc une constante donnée par sigma=m_(e)*r^2*omega L'équation fondamentale de la dynamique projetée sur l'axe r qui traduit l'équilibre entre la force électrostatique et la force centrifuge peut se réécrire sous la forme: m_(e)*r*omega^2=e^2/4*pi*epsilon_0*r^2 Ce qui permet de déterminer la vitesse angulaire omega=sqrt(e^(2)/4*pi*m_(e)*epsilon_(0)*r^3)

Par ailleurs, on suppose que le moment cinétique est quantifié, c'est à dire qu'il ne peut prendre que des valeurs multiples de h/2*pi: sigma=n*h/2*pi. On en déduit l'expression des rayons des orbites stationnaires : r_(n)=n^(2)*h^(2)*epsilon_(0)/pi*m_(e)*e^(2) L'énergie totale de l'électron sur l'orbite quantifiée est la somme de son énergie potentielle électrostatique et de son énergie cinétique : E_(n)=0.5*m_(e)*r_(n)^2*omega^(2)-e^(2)/4*pi*epsilon_(0)*r_n En remplaçant rn et ω par leur expression, on obtient les niveaux d'énergie quantifiés : E_(n)=-(m_(e)*e^(4)/8*epsilon_(0)^(2)*h^(2))*(1/n^(2))

Limites du modèle de Bohr :

Le modèle de Bohr ne permet pas de décrire le spectre d'émission d'espèces polyélectroniques et la notion de trajectoire est incompatible avec le principe d'incertitude d'Heisenberg. Le modèle de Bohr sera finalement abandonné et remplacé par la théorie quantique dans les années 1920 dans la laquelle l'électron n'est plus décrit comme une particule ponctuelle mais par une fonction d'onde. La physique quantique ne sera pas décrite dans ce cours.


Coefficients d'Einstein

Les processus d'émission et d'absorption peuvent être décrits de façon probabiliste à l'aide de coefficients appelés coefficients d'Einstein. Ces coefficients ont été introduits par Einstein en 1917, avant le développement de la théorie quantique. Trois processus possibles ont été postulés par Einstein :

Si un atome dans un état excité 2 peut se désexciter vers plusieurs niveaux inférieurs 1a, 1b, 1c, ..., l'inverse de la somme des coefficients d'émission spontanée d'Einstein sur toutes les transitions 1x représente la durée de vie de l'état excité 2: t_2=1/(A_21_a+A_21_b+A_21_c+...)


Section efficace

Considérons un flux de particules (par exemple un flux de photons ou un flux d'électron), Φ arrivant au sommet d'une atmosphère planétaire. On suppose que les particules décrivent des trajectoires rectilignes le long desquelles elles peuvent interagir avec les espèces atmosphériques. Pour simplifier on supposera que l'atmosphère n'est composée que d'une celle espèce A.

Le flux de particules dΦint qui interagit avec l'atmosphère le long d'un segment élémentaire ds de la trajectoire est proportionnelle à la densité de A, au flux incident et à la longeur ds du segment.

d*Phi_(int)*((s))=sigma*Phi((s))*n_(A)*((s))*ds

Section Efficace
SectionEfficace.png

La constante de proportionnalité σ à la dimension d'une surface. On l'appelle section efficace d'interaction entre l'espèce incidente et l'espèce A. Elle dépend de l'énergie des particules incidentes (donc de la longeur d'onde pour un photon). Cette section efficace mesure l'efficacité d'une interaction donnée entre A et les électrons ou les photons incidents.


Diffusion résonante et diffusion fluorescente : Généralités

La diffusion résonante d'un photon par un atome peut être vu comme la succession d'une transition atomique de l'état électronique fondamental (n=1) vers un état excité (m) par absorption d'un photon puis la désexcitation vers le niveau fondamental associé à l'émission d'un photon. Si la desexcitation se fait vers un ou plusieurs états excités intermédiaires (p avec n <p<m) avant d'atteindre l'état fondamental, on parle de diffusion fluorescente. Dans le dernier cas les photons émis ont des longueurs d'onde supérieures à la longueur d'onde du photon incident.


Diffusion résonante et diffusion fluorescente : Exemple émission Lyman-alpha de l'hydrogène atomique

L'hydrogène est l'espèce neutre majoritaire dans l'Univers. Toutes les planètes du système solaire contiennent de l'hydrogène sous forme atomique qui domine à hautes altitudes. Sur les planètes telluriques comme Vénus, la Terre et Mars, cet hydrogène est produit par la dissociation de la vapeur d'eau atmosphérique. A haute altitude, cet hydrogène peut diffuser le rayonnement solaire à 121.6 nm (UV) dans toutes les directions. L'intensité du flux diffusé est d'autant plus intense que le rayonnement solaire est intense, donc que la planète est proche du Soleil.

On défiinit le facteur d'excitation gexc comme le nombre moyen de diffusions par seconde et par atome d'hydrogène. Lorsque le milieu est assez dilué, cette fréquence de diffusion est donnée par:

g_exc=int(Phi(lambda)*sigma(lambda)*d*lambda)

ou Φ(λ) est le flux solaire à la longueur d'onde λ (en photons/nm/s/m2) et σ(λ) la section efficace de diffusion d'un atome d'hydrogène à la longueur d'one λ (en m2). Le profil spectral de la section efficace n'est pas une fonction infiniment fine à 121.6 nm. Elle possède une certaine largeur spectrale qui peut résulter de différents mécanismes.

Si l'on néglige l'élargissement naturel de la raie et l'élargissement par collisions. La section efficace suit un profil et gaussien et peut s'écrire sous la forme:

sigma(lambda)=sigma_0*exp(-((lambda-lambda_0)/(Delta*lambda))^2)

ou σ0 est la section efficace au centre du profil, Δλ est la largeur Doppler du profil. Si par ailleurs on suppose que le flux solaire à un profil spectral "plat" : un profil spectral constant avec la longueur d'onde (Φ(λ) = Φ0) au voisinage de 121.6 nm, le facteur d'excitation se calcule facilement et l'on obtient:

g_exc=sqrt(pi)*Phi_0*sigma_0*Delta*lambda

Le nombre de photons diffusés par unité de volume et de temps s'appelle le taux d'émission volumique, il est simplement donné par le produit entre le facteur d'excitation et la densité d'hydrogène (atome/cm3).

epsilon(r)=g_exc*n(r)

Ce taux volumique d'émission n'est en général pas mesurable directement, un instrument optique mesure seulement son intégrale sur une ligne de visée. On appelle intensité cette intégrale :

I=int(epsilon(s)*ds)=g_exc*int(n(s)*ds)=g_exc*N

s est la coordonée curviligne le long de la ligne de visée. L'intégrale de la densité sur la ligne de visée, notée N est la colonne densité le long de la ligne de visée, elle s'exprime en général en atome/cm3. Cette grandeur est utile car c'est elle qui peut être directement déterminée par le rapport entre l'intensité mesurée et le facteur d'excitation généralement connu. L'intensité peut s'exprimer en photons/cm2/s. On préfère souvent utilisé une autre unité appelé Rayleigh, noté R définit par 1*R=10^(6)*photons*cm^(-2)*s^(-1)

I(Rayleigh)=g_exc*((photons*atom^(-1)*s^(-1)))*N(atome*cm^(-2))/10^(6)

La diffusion résonante est le principal mécanisme produisant l'émission Lyman-alpha observée en UV autour des planètes. De nombreuses autres émissions sont produites par ce mécanisme comme par exemple la raie de l'oxygène atomique à 130.4 nm, la raie de l'ion O+ à 83.4 nm ou la raie du carbone atomique C à 156.5 nm. Dans le domaine visible on peut aussi citer la raie du sodium à 589 nm, dont la section efficace est suffisamment grande pour que cette émission soit observée dans des milieux extrêmement ténus comme les "atmosphères" de la Lune ou de Mercure.


Notation Spectroscopique

Avant de voir les autres processus d'émissions, voici quelques rappels et éléments de notation spectroscopique qui seront utilisés dans la suite pour nommer les etats excités des atomes polyatomiques.

Dans le cadre du modèle de Slater, la fonction d'onde polyelectronique peut s'écrire comme le produit de fonctions d'onde monoélectronique, appelée orbitale atomique qui dépend de 3 nombres quantiques :

Pour une valeur n+l donnée, il y a 2l+1 orbitales atomiques de même énergie chacune correspondant à un nombre quantique ml différent. Pour chaque orbitale atomique, on peut définir 2 spin-orbitales, caractérisées par un nombre quantique de spins ms = ± 1/2 différents. D'après le principe d'exclusion de Pauli, on a au maximum deux électrons (de nombres quantiques de spin ms opposés) par orbitale atomique. Deux électrons ne peuvent pas être décrit par une même spin-orbitale (n,l,ml,ms). La règle de Klechkowsky permet de d'ordonner les orbitales atomiques en fonction de leur énergie :

Une fois la règle de Klechkowsky vérifiée, La règle de Hund permet de déterminer les spins des différents électrons de la dernière couche électronique : L'état minimum d'énergie est celui pour lequel le spin total est maximum.

L'état fondamental d'un atome est son état de plus basse énergie. La répartition des électrons dans les différentes orbitales atomiques de l'atome à l'état fondamental doit donc minimiser l'énergie du système. La construction de la configuration électronique fondamentale d'un atome s'effectue à l'aide des règles de Klechkowsky, de Hund et du principe d'exclusion de Pauli.

La configuration électronique du carbone (6 électrons) est 1s22s22p2

La configuration électronique de l'oxygène (8 électrons) est 1s22s22p4

Les électrons de valence, sont les électrons de la dernière couche n remplie, l'atome de carbone possède 4 électrons de valence, l'atome d'oxygène possède 6 électrons de valence.

Un état atomique pour un atome polyélectronique peut aussi être noté sous la forme 2S+1L ou S est la somme des spins des différents électrons et 2S+1 est appelée la multiplicité de spin. Le symbol L est définit par le nombre quantique orbital total des électrons, par analogie avec la notation des orbitales atomiques. Ainsi, si le nombre quantique orbital total L = 0, le symbole utilisé est S, si L =1 le symbole est P, si L=2, le symbole est D etc... Pour l'atome d'oxygène de configuration électronique 1s22s22p4 Les électrons des couches s (l=0) ont des nombres quantiques orbitaux nuls, par ailleurs ces couches sont entièrement remplies, leur contribution au spin total S est donc nulle. Seuls les 4 derniers électrons vont contribuer aux nombres quantiques S et L. La couche p est définit par un nombre quantique l =1, elle est composée de trois sous couches ml = -1, 0 et 1. La règle de Hund (maximisation de S, et pour un spin S donné maximisation de L) et le principe d'exclusion de Pauli (les électrons ne peuvent pas se trouver dans le même état quantique (n,l,ml,ms) permet de remplir les trois sous couches:

o
ml
10-1
msup downupup

Le nombre L total vaut donc L= 2x(1)+0-1=1, le symbol du niveau fondamental de l'atome d'oxygène est donc P.

Le nombre S total vaut S = +1/2 -1/2 +1/2+1/2 = 1 donc 2S+1=3, la notation du niveau fondamental de l'atome d'oxygène est donc 3P.


Airglow : Généralités

Illustration

La diffusion résonante n'est pas le seul mécanisme à l'origine de l'airglow planétaire, dans les pages suivantes nous allons voir d'autres exemples de mécanismes de façon plus succinte. Les différents processus possibles sont représentés de façon schématique sur cette figure.

Mécanismes d'émissions
Mecanismes.png
Principaux mécanismes à l'origine de l'airglow planétaire
Crédit : adapté de Leblanc et al. JGR, 111, E09S11

La diffusion résonante a été décrite dans la section précédente. Lors d'une diffusion fluorescente, l'atome excité par le rayonnement solaire ne revient pas directement dans son état fondamental mais passe par un état électronique intermédiaire. Le photon diffusé à donc une longeur d'onde supérieure à la longueur d'onde du photon incident. Ce type d'émission à été observée sur Jupiter pour la molécule H2.

L'excitation par impact d'électrons produit des émissions pour des transitions dites "interdites" c'est à dire des transitions qui ne peuvent pas être produites par des photons solaires. La raie de l'oxygène à 135.6 nm est un exemple de raie interdite observée dans les atmosphères de Vénus, Mars et la Terre. Les électrons peuvent être des électrons produit par ionisation de l'atmosphère neutre par le rayonnement UV solaire ("photoélectrons"), dans ce cas l'émission est appelée "dayglow" ou des électrons énergétiques précipitant dans l'atmosphère, dans ce cas l'émission est appelée émission aurorale.

L'excitation dissociative résulte de la dissociation d'une molécule par interaction avec un photon solaire ou un électron dont au moins un des produits de la dissociation se trouve dans un état excité. Sur Terre, la dissociation de O2 peut produit un atome d'oxygène dans un état excité noté 1S qui en se relaxant vers le niveau fondamental (3P) produit un rayonnement à 297 nm. Cette émission est aussi observée sur Mars, mais elle est essentiellement due à la dissociation de CO2 et non pas O2 qui est le principal constituant atmosphérique. L'état 1S peut se désexciter vers un niveau intermédiaire: le niveau 1D avant le niveau fondamental. Les transitions 1S 1D et 1D 3P émettent un rayonnement dans le visible correspondant aux raies rouge (630 nm) et verte (557.7 nm) de l'oxygène caractéristique des émissions aurorales terrestres. Récemment, la sonde Rosetta a observé des raies d'émissions produites par la dissociation de la vapeur d'eau cométaire suite aux impacts avec des électrons énergétiques autour de la comète 67P Churyumov-Gerasimenko.

La recombinaison dissociative résulte de l'interaction d'un ion moléculaire avec un électron. La capture de l'électron conduit à la formation d'un intermédiaire réactionnel instable qui se dissocie. Un ou plusieurs produits de la dissociation peuvent se trouver dans un état excité et produire un rayonnement. La recombinaison des ions O2+ peut conduire à la formation d'atomes d'oxygène dans les états 1D, 1D ou 3P conduisant à des émissions à 297, 557 et 630 nm.

L'ionisation excitative par interaction d'une espèce neutre avec un photon ou un électron est la source principale de l'émission de CO2+ à 289 nm observée sur Mars et Vénus par ionisation de CO2.


Exemple : La raie de l'oxygène à 297 nm

Le plus souvent une émission est produite par plusieurs mécanismes dont l'importance peut varier en fonction de l'altitude. A titre d'exemple on va étudier plus en détails la raie de l'oxygène à 297 nm observée dans le dayglow martien.

Schéma d'émissions de l'atome d'oxygène

Les principales voies d'excitation et de désexcitation de l'oxxygène atomique sont représentées sur cette figure. La raie à 297 nm de l'oxygène correspond à la transition 1S 3P.

Représentation schématique des émissions de l'oxygène atomique
Odiagramme2.png

L'oxygène atomique dans l'état 1S peut être produit par les mécanismes d'excitation suivants :


Emission volumique

Pour chaque processus, on définit le taux de production de O dans l'état excité 1S, c'est à dire le nombre d'atomes d'oxygène produit dans l'état 1S par unité de volume et par unité de temps. Pour les deux premiers processus décrit à la page précédente, ce taux de production est proportionnel à la densité de CO2. Pour le troisième processus il est proportionnel à la densité de O2+ et pour le dernier processus il est proportionnel à la densité de O.

Le taux de production Q1 du premier processus est donné par:

Q_1=n_(CO_2)*int(Phi(lambda)*sigma_(CO_2+h*nu-->CO+O))(lambda)*d*lambda

Φ(λ) étant le flux solaire à la longueur d'onde λ et σCO2+hν CO+O(1S) ) la section efficace du processus considéré pour la longueur d’onde λ.

Le taux de production Q2 du second processus est donné par

Q_2=n_(CO_2)*int(F(E)*sigma_(CO_2+e-->CO+O))(E)*d*E

F(E) étant le flux de photoélectrons d'énegie E et σCO2+eCO +O(E) la section efficace de ce processus pour un életron d'énergie E

Le taux de production Q3 du troisième processus a une forme similaire à celle du processus 2

Q_3=n_(O)*int(F(E)*sigma_(O+e-->O))(E)*d*E

Le taux de production du Q4 du quatrième processus peut s'écrire sous une forme identique à Q2 et Q3. Cependant, contrairement aux processus 2 et 3 qui nécessitent des électrons avec des énergies suffisante pour dissocier CO2 ou exciter O. La recombinaison dissociative se fait principalement avec des électrons de basse énergie dont la distribution en énergie est bien décrite par une distribution maxwellienne. L'intégration peut alors être remplacée par une fonction ne dépendant que de la densité et de la température des électrons. Le terme Q4 peut alors s'écrire sous la forme

Q_4=p*alpha(T_e)*n_e*n_(O_(2)^(+))

Le coefficient α est appelé coefficient de réaction et contient tout l'information de nature cinétique. Il dépend de la température des électrons, p est un nombre compris entre 0 et 1 qui représente la probabilité que l'état excité 1S soit produit par la réaction (p ~ 4%).

L'atome dans l'état excité 1S produit par un des quatre mécanismes ci-dessus peut se désexciter vers l'état 1D ou l'état fondamental 3P. Seule la desexcitation vers l'état 3P conduit à l'émission d'un photon de longeur d'onde 297 nm. Les proportions de desexcitation de 1S vers 3P et 1S vers 1D sont directement proportionnel aux coefficients d'Einstein des transitions notés A297 et A557.

L'émission volumique totale à 297 nm est donc donnée par

epsilon=(A_297/(A_297+A_557))*(Q_1+Q_2+Q_3+Q_4)

Dans ce calcul, on a négligé les processus de désexcitation par collisions (quenching). Ce terme peut être pris en compte en ajourant sa fréquence au dénominateur


Profils en altitude

La figure représente un exemple de modélisation du taux d'émission volumique du rayonnement à 297 nm décrits auparavant ainsi que leur somme ε.

Modélisation de la raie à 297 nm de l'oxygène atomique sur Mars
Modele_O297.png
Modélisation des différents processus à l'origine de l'émission de l'oxygène à 297 nm
Crédit : O. Witasse, (2000), Modélisation des ionosphères planétaires et de leur rayonnement : La Terre et Mars, thèse de doctorat

Ce modèle prédit que 75% de l'émission à 297 nm sur Mars est produite par l'excitation photodissociative de CO2. Il prédit aussi l'existence de deux pics d'émissivité. L'un vers 100 km et l'autre vers 150 km. Ces deux pics sont produits par la photodissociation excitative de CO2. Le pic au-dessous de 100 km est produit par les photons solaires de longueur d'onde 121.6 nm et le pic vers 150 km par les photons de longueurs d'onde entre 90 et 120 nm.

20% de l'émission est produite par l'excitation dissociative de CO2 par impact électronique. L'émission de l'oxygène à 297 nm est donc essentiellement un moyen d'étudier CO2 sur Mars. Cette émission dépend très peu de la densité de O et de O2+.


Emissions Aurorales: Généralités

Les émissions aurorales résultent de la précipitation de particules énergétiques « extra-atmosphériques » (le plus souvent des électrons) avec des énergies pouvant aller de quelques dizaines d’eV à plusieurs centaines de keV. Le terme « extra-atmosphérique » permet d’exclure les électrons produits par ionisation de l’atmosphère : les photoélectrons à l’origine de certaines émissions de l’airglow planétaire.

Les particules énergétiques sont produites par des mécanismes complexes liés à l’interaction du vent solaire avec la planète. Dans ce cours, nous ne verrons pas en détails les mécanismes d’accélération des électrons et les systèmes de courant responsables de ces précipitation. Nous verrons seulement l’effet de leur précipitation dans l’atmosphère des planètes.


Emissions aurorales terrestres

Sur Terre, la principale structure aurorale est une bande de forme ovale située aux hautes latitudes, centrée sur les pôles magnétiques. Il existe cependant de nombreuses autres structures moins brillantes que l’ovale auroral.

Les électrons excitent les espèces neutres atmosphériques qui en se désexcitant émettent un rayonnement appelé rayonnement auroral. La plupart des émissions décrites dans la section dayglow existent dans les émissions aurorales. Les émissions aurorales terrestres par exemple sont dominées par les raies d’émissions de l’oxygène et de l’azote. Dans le domaine visible, les émissions aurorales terrestres sont dominées par les raies rouge et verte de l’oxygène atomique décrites dans la section dayglow ainsi que les raies de N2 dans le violet – proche UV (300 – 380 nm). Dans l’UV plus lointain, on observe d’autres système de raies de N2 appelé Végard Kaplan (VK) (210 – 280 nm) et Lyman-Birge-Hopfield (LBH) (130 – 220 nm), ainsi que les raies déjà évoquées de l’oxygène atomique (297 nm, 135.6 nm, 130.4 nm) et de l’azote atomique (149.3 nm). Un exemple de spectre UV auroral terrestre obtenu par le satellite S3-4 est représenté sur la figure ci-dessous.

Exemple de spectre auroral observé en UV
Earth_Aurrora_Spectrum.png
Spectre auroral composite obtenu par les spectromètres UV et VUV de la sonde S3-4
Crédit : Ishimoto et al., J. Geophys. Res., 93, 9854, 1988

Emissions Aurorales des planètes géantes

Des aurores ont été observées sur plusieurs objets du système solaire, les plus intenses sont observées sur Terre, Jupiter et Saturne. Les sondes Voyager ont aussi observées des émissions aurorales UV sur Uranus et Neptune.

Des aurores très intenses ont été aussi observées dans les régions polaires de Jupiter et Saturne par le télescope Hubble. Sur Jupiter, on peut distinguer trois grand types de structures aurorales :

L’atmosphère de Jupiter et Saturne est essentiellement composée de H et H2. Les émissions aurorales UV observées sont donc essentiellement les émissions Lyman-α de l’hydrogène (121.6 nm) et les bandes électroniques Lyman et Werner de H2 (80 – 170 nm). Différents états vibrationnels de H2 peuvent être excités ce qui conduit non pas une raie d’émission unique mais à une série de raies appelées bandes.

Structure des émissions UV aurorales observées par le télescope Hubble
aurores_jupiter.jpg
Emissions aurorales UV observées par le télescope Hubble
Crédit : NASA and J. Clarke (University of Michigan)

Autres emissions aurorales dans le système solaire

Des émissions aurorales UV ont aussi été observées sur des objets non magnétisées. L’émission de l’oxygène à 130.4 nm a été observée la nuit sur Vénus et attribuée à des précipitation d’électrons dans l’atmosphère de Vénus. Sur Mars, la sonde Mars Express a observé des raies UV interdites la nuit, dont la source ne peut être que des électrons. Ces émissions sont liées au champ magnétique crustal des roches au voisinage de la surface de Mars.

Enfin pour compléter ce rapide survol des émissions aurorales UV sur les objets du système solaire, on peut ajouter que des aurores ont été observées sur d'autres objets, en particulier les satellites de Jupiter : Io, Ganymède et Europe. Sur Io, les principales signatures spectrales UV de ces aurores sont des raies d'émissions de l'oxygène atomique (130.4 ; 135.6 nm) et du soufre (147.9 et 190.0 nm). Sur Europe et Ganymède des raies d'oxygène produites principalement par excitation dissociatve de O2. Ganymède, le plus grand satellite de Jupiter est le seul satellite connu à posséder un champ magnétique intrinsèque. Ganymède est donc entouré de sa propre magnétosphère qui interagit avec le plasma magnétosphérique de Jupiter. La magnétosphère de Ganymède protège son atmosphère et sa surface aux basses latitudes. Les précipitations d'électrons et donc les aurores associées sont donc observées uniquement aux hautes latitudes là où les lignes de champ magnétique sont ouvertes et se reconnectent aux lignes de champ magnetique de Jupiter (cf figure ci dessous). L'intensité des émissions aurorales sur Ganymède est de quelques centaines de Rayleigh. On peut aussi noter sur la figure la présence d'une émission diffuse aux plus basses latitudes produites par l'impact des photoélectrons sur les espèces neutres de l'atmosphère de Ganymède.

Aurores UV sur Ganymède
Ganymede_Aurora.png
Emission de la raie d'oxygène à 135.6 nm sur Ganymède observée par le télescope Hubble
Crédit : McGrath et al. (2013), J. Geophys. Res., 118, 2043
Emissions UV aurorales observées dans le système solaire
ObjetsPrincipales Espèces excitées
TerreN2, O2, N, O, N2+, H
JupiterH2, H
SaturneH2, H
UranusH2, H
NeptuneH2, H
VénusO, CO2
MarsO, CO2
IoO, S
GanymèdeO2
EuropeO2
ComètesH2O, CO, CO2

Nightglow

Les processus d’excitation vus précédemment sont la plupart inopérants du côté nuit dû à l’absence de rayonnement solaire incident et de photoélectrons. Le principal mécanisme d’excitation est la recombinaison radiative. La recombinaison radiative entre deux atomes d’oxygène est à l’origine du système de bandes de Herzberg entre 250 et 390 nm observé sur Terre.

La recombinaison entre un atome d’oxygène et un atome d’azote est à l’origine du système de bandes γ et δ de NO (190 – 270 nm) observé sur Terre, Vénus et plus récemment sur Mars.

Ces atomes sont produits du côté jour par la dissociation des espèces moléculaires majeures (N2 et O2 sur Terre), (CO2 et N2 sur Mars et Vénus) et transportés côté nuit. Ces émissions sont donc des traceurs de la circulation atmosphérique à haute altitude (cf Exercice 2).

Le taux d’émissivité volumique est proportionnel à la densité des espèces atomiques qui se recombinent. Du côté jour la densité de ces espèces est trop faible pour produire une émission importante comparée aux autres mécanismes vus précédemment.


Exercices

Auteur: Jean-Yves Chaufray

Exercice 1

exerciceSéparation spectrale des raies Lyman-alpha de l'hydrogène et du deutérium

Difficulté : ☆☆☆   Temps : 30 minutes

Dans le modèle de Bohr présenté dans le cours, on a supposé que le proton était immobile, on suppose maintentant que le proton n’est pas immobile.

Question 1)

Montrer que le référentiel barycentrique du système est galiléen.

Question 2)

On posera vector(r)= vector(r_e)-vector(r_n), où vector(r_e) est la position de l'électron et vector(r_n) la position du noyau dans le référentiel du laboratoire, exprimer les positions de l'électron vector(r'_e) et du noyau vector(r'_n) dans le référentiel barycentrique du système en fonction de vector(r)

Question 3)

Réécrire l’équation de la dynamique pour l’électron et le proton dans le référentiel barycentrique et montrer que l'équation se réduit à la dynamique d'une particule de masse réduite μ que l'on exprimera en fonction de la masse de l'électron et du noyau.

Question 4)

On suppose que la trajectoire de cette particule réduite est circulaire, déterminer la vitesse angulaire de la particule réduite. On suppose que le moment cinétique de cette particule réduite est quantifié et ne peut prendre que des valeurs du type sigma=n*h/2*pi. déterminer les valeurs possibles de r et l'énergie de la particule en fonction de n.

Question 5)

Calculer la longueur d’onde du photon émis lors de la transition du niveau m vers le niveau n de l’hydrogène et du deutérium atomique sachant que le noyau du deutérium est composé d'un proton et d'un neutron, on supposera que la masse d'un neutron est égale à la masse d'un proton.

Question 6)

La masse du proton est 1.672622x10-27 kg et la masse d'un électron de 9.109383x10-31 kg. En déduire la longueur d'onde des transitions Lyman-alpha de l'hydrogène et du deutérium et en deduire le pouvoir de résolution nécessaire pour séparer spectralement les deux raies.


Exercice 2

exerciceDétermination du flux d'azote descendant dans la nuit sur Mars

Difficulté :    Temps : 10 minutes

Question 1)

L'émission UV de NO a été observée pour la première fois par la sonde Mars Express côté nuit sur Mars. L'intensité intégrée de la bande δ sur une colonne verticale entre 0 et 80 km a été estimée à 85 R. Cette émission est produite par la recombinaison des atomes O et N, produits côté jour à haute altitude et transporté à plus basse altitude côté nuit.

On suppose que 77% des recombinaisons produisent une émission dans la bande δ. On suppose que la perte d'azote par recombinaisons de N et O représentent 45% de la perte totale d'azote.

  • On note L le taux de perte total d'atomes d'azote par unité de volume et par seconde. Déterminer le nombre de recombinaison LR entre N et O par unité de volume et par seconde.
  • En déduire le nombre de recombinaison conduisant à une émission dans la bande δ de NO par unité de volume et par seconde. Ce terme est le taux d'émission volumique de la bande δ de NO
  • Montrer que le taux de perte total de N intégré sur la colonne entre 0 et 80 km est proportionnel à l'intensité mesuré
  • En déduire le flux d'azote nécessaire pour compenser cette perte (on convertira l'intensité en Rayleigh en ph/cm2/s)


Exercice 3 : Emission UV sur Europe

exerciceEmission UV sur Europe

Difficulté :    Temps : 10 minutes

Question 1)

Sur Europe, des observations faites par le télescope Hubble en 1996 ont mis en évidence la présence des raies de l’oxygène à 130.4 nm et 135.6 nm

L’intensité mesurée de la raie à 130.4 nm est de 8.6 Rayleigh. L’intensité de la raie à 135.6 nm est de 12.9 Rayleigh.

Pourquoi cette observation indique qu’un mécanisme impliquant des électrons est forcément à l’origine d’une partie des émissions observées ?

Question 2)

Deux mécanismes ont été proposés pour expliquer ces émissions :

L’excitation de O par impact d’éléctrons (mécanisme 1)

O+e^(-)-->O^(star)+e^(-)

L’excitation dissociative par impact d’électrons de O2 (mécanisme 2)

O_2+e^(-)-->O^(star)+O^(star)

Exprimer le taux d’émission volumique à 130.4 et 135.6 nm pour chaque mécanisme en fonction de la densité de O et O2

Les valeurs des fréquences d’excitation à 130.4 et 135.6 nm de ces deux mécanismes sont données ci-dessous :

int(f(E)*sigma_(130.4)_(;)_(1)*((E)))*dE=2.2*10^(-7)*s^(-1)

int(f(E)*sigma_(135.6)_(;)_(1)*((E)))*dE=2.0*10^(-8)*s^(-1)

int(f(E)*sigma_(130.4)_(;)_(2)*((E)))*dE=2.4*10^(-8)*s^(-1)

int(f(E)*sigma_(135.6)_(;)_(2)*((E)))*dE=4.2*10^(-8)*s^(-1)

Quel mécanisme permet de mieux reproduire le rapport d'intensité observé ?


Mini Projet

Auteur: Jean-Yves Chaufray

Airglow

Dayglow

Les observations présentées ci-dessous ont été obtenues par la sonde Mars Express en regardant l'atmosphère en mode tangentielle (parallèle à l'horizon) pour étudier les émissions UV de la haute atmosphère de Mars.

http://exoplanetes.esep.pro/esep_outils/fluxuv/dayglow.html

Justifiez cette géométrie d'observation.

Regardez un spectre obtenu vers 120 km et un spectre observé à 200 km. Quelle différence observez vous ? A quelle espèce correspond la raie vers 121 nm ? Pourquoi reste t-elle visible à haute altitude ? La largeur de cette raie peut elle fournir des informations sur la température du milieu ?

Les bandes entre 180 nm et 260 nm sont des bandes interdites appelées bandes de Cameron correspondant à la transition électronique CO(a3Π) CO(état fondamental). Sachant que CO2 est l’espèce majoritaire dans l’atmosphère de Mars au dessous de 180 km. Proposez un mécanisme d’excitation produisant ces émissions. Sur quelle autre planète du système solaire ces bandes devraient être importantes ? Pourquoi l’émission diminue au-dessous de 120 km ?

La raie à 289 nm est une raie de CO2+ produite par ionisation de CO2 par impact d'électron ou photoionization. Au dessus du pic d'intensité l’intensité devrait être proportionelle à la densité de CO2 à l’altitude du point tangent. Estimer la température à partir de cette émission. Est ce réaliste ?

Nightglow

On s’intéresse maintenant à d’autres observations mais obtenues du côté nuit.

http://exoplanetes.esep.pro/esep_outils/fluxuv/nightglow.html

Le spectre observé est t-il identique ou différent de celui observé du côté jour. Quel type de mécanisme peut être important du côté nuit ? Comment expliquer que la raie de l’hydrogène soit observée aussi du côté nuit ?

Comment expliquer l’augmentation de l’intensité de la raie Lyman-α quand on passe de 80 km à 130 km ?


Aurores planétaires

On va maintenant s’intéresser aux émissions aurorales planétaires observées par le télescope Hubble. Connectez vous sur le site APIS https://apis.obspm.fr/

Cliquez sur login et connectez vous avec un compte temporaire.

Après connexion, lancez quelques recherches types : Regardez des observations HST de Jupiter, Saturne, Uranus et leurs lunes et ce qui les différencie. Que pensez-vous des observations de Mars ? Y voit-on des aurores. Quelle émission est observée sur Mars sur ces images ?


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Polarisation

Auteur: Loïc Rossi

Polarisation

objectifsObjectif

L'objectif de ce chapitre est de découvrir la polarisation de la lumière, ses utilisations et comment elle nous apporte des informations sur les propriétés des environnements planétaires.

prerequisPré-requis

Dans ce grain, les concepts d'ondes et en particulier d'onde électromagnétique seront employés. Avoir une connaissance élémentaire de ces concepts est donc recommandée.

Cliquez ici pour commencer le chapitre.

remarqueIllustrations et figures

Sauf mention spécifique les illustrations et figures utilisées dans ce cours sont librement utilisables, étant issues du domaine public ou publiées sous une licence Creative Commons .


Découvrir

Auteur: Loïc Rossi

Introduction

Auteur: Loïc Rossi

Historique de la polarisation

introductionLa découverte et l'étude de la polarisation

Rasmus Bartholin (1625-1698) publie en 1669 ses observations des propriétés optiques du Spath d'Islande. Il avait remarqué qu'un rayon réfracté par un tel cristal produisait deux rayons, un rayon « ordinaire » et un rayon « extraordinaire ». Les deux rayons ayant des propriétés différentes : c'est la découverte de la biréfringence. Christian Huygens (1629-1695) étudiera aussi la double réfringence des cristaux de spath, et observera que l'intensité de la lumière transmise par deux cristaux dépend de l'orientation de ces derniers. Il y a donc une asymétrie autour de la direction de propagation : ce sont les bases de la polarisation.

François Arago (1786-1853) s'intéressera lui à la polarisation du ciel. Dans la même période, Étienne-Louis Malus (1775-1812) publie en 1809 des travaux sur la polarisation de la lumière par réflexion : il avait observé que la lumière du Soleil couchant observée après réflexion puis à travers un cristal biréfringent changeait d'intensité avec la rotation du cristal. En 1810, il publie ses travaux sur la biréfringence, qui lui valent le prix de l'Académie des Sciences. Il est le premier à employer le terme de « polarisation ».

François Arago
Francois_Arago.jpg
(1786-1853)

Dans la lignée des observations de Malus, David Brewster (1781-1868) établit en 1815 les lois de la polarisation par réflexion, avec notamment l'angle qui porte son nom : l'angle de Brewster.

Augustin Fresnel (1778-1827) observera que les faisceaux ordinaires et extraordinaires produits par biréfringence ne peuvent pas produire d'interférences (car de différentes polarisations), ce qui lui permettra d'établir que la lumière est une onde transverse, et non longitudinale.

En 1845, Michael Faraday (1791-1867) réalise une expérience où il fait traverser un faisceau de lumière polarisée linéairement dans un matériau exposé à un champ magnétique orienté dans la direction de propagation de la lumière. Faraday observe que la direction de polarisation à la sortie du matériau est changée, prouvant l'effet d'un champ magnétique sur la lumière, et confirmant ainsi que la lumière est une onde électromagnétique.

La synthèse de ces divers travaux sur la lumière et la polarisation viendra avec James Clerk Maxwell (1831-1879) qui achèvera de construire la théorie électromagnétique avec les équations de Maxwell publiées sous diverses formes entre 1865 et 1873.

James Clerk Maxwell
James_Clerk_Maxwell.png
(1831-1879)

Pieter Zeeman (1865-1943) découvrira en 1896 l'élargissement et la polarisation des raies d'émission spectrales sous l'effet d'un champ magnétique. D'autre part, John Wiliam Strutt (Lord Rayleigh) (1884-1919) publie en 1871 ses travaux sur la diffusion (diffusion Rayleigh) de la lumière par de petites particules, expliquant ainsi la couleur et la polarisation du ciel. Toujours concernant la diffusion, Gustav Mie (1869-1957) établira la solution des équations de Maxwell dans le cas de la diffusion par particules sphériques, ce régime se situant entre le régime de Rayleigh et l'optique géométrique.

Un héritage important

La découverte de la polarisation et son étude ont ouvert un champ d'étude important que les sciences planétaires ont su exploiter, comme nous allons le voir dans le cadre de ce chapitre. Nous ne traiterons pas tous les phénomènes liés à la polarisation mais nous nous focaliserons sur ceux utiles à la planétologie.


Contexte

introductionPourquoi la polarisation ?

La principale observable pour un astronome ou un astrophysicien, c'est le photon, qui peut être considéré comme la particule de lumière. Le photon est porteur de beaucoup d'informations, car il est modifié par les diverses interactions qu'il peut avoir avec son environnement. Ainsi, divers processus peuvent changer la polarisation de la lumière, et fournir ainsi des informations sur la surface, l'atmosphère et d'autres paramètres des systèmes planétaires.

Les processus polarisants peuvent concerner une large gamme de longueurs d'ondes. De plus les dispositifs de mesure de la polarisation peuvent être passifs et assez simples à mettre en œuvre.

introductionLa polarisation autour de soi

Dans la vie quotidienne, on est régulièrement amené à rencontrer des dispositifs ou des phénomènes polarisants. Quelques exemples communs :

Mais la nature n'est pas en reste :


La polarisation

Auteur: Loïc Rossi

Les types de polarisation

La polarisation est une propriété de la lumière. Cette dernière est une onde électromagnétique se déplaçant dans le vide à la vitesse c=299 792 458 m/s. Elle est composée d'un champ électrique (noté généralement E) et d'un champ magnétique (noté B), orthogonaux. À travers les équations de Maxwell, les champs E et B sont liés : la connaissance de l'un suffit pour connaitre l'autre. Aussi, pour simplifier — et c'est aussi la convention choisie en polarimétrie — on ne raisonne que sur le champ E.

Une onde électromagnétique plane se définit notamment par sa direction de propagation. Le plan perpendiculaire à la direction de propagation est appelé le plan d'onde. C'est dans le plan d'onde qu'évolue le champ E (et le champ B, mais nous n'en parlerons plus). À chaque instant, le champ E a une amplitude et une direction différente dans le plan d'onde. Dit autrement, si l'onde se propage en direction de l'observateur ce dernier verra le champ E former differents motifs dans le plan d'onde pendant son évolution temporelle. C'est cela qui va définir la polarisation de l'onde.

Une onde électromagnétique plane
figures/Onde_electromagnetique.png
Schéma montrant une onde électromagnétique plane avec les champs E (en bleu) et B (en rouge) orthogonaux. Le vecteur k indique la direction de propagation. La longueur d'onde λ est indiquée également.
Crédit : SuperManu, CC-BY-SA

La polarisation elliptique

Le cas le plus général est celui d'une polarisation elliptique, les autres situation pouvant être considérées comme des cas particuliers de celui-ci.

definitionPolarisation elliptique

Si le champ E dessine une ellipse dans le plan d'onde, on parle de polarisation elliptique.

C'est le cas le plus général. On peut alors décomposer le champ électrique selon deux composantes perpendiculaires :

E_x = E_x0 * cos(kz-omega *t)

E_y = E_y0 * cos(kz - omega * t + phi), où omega = 2*pi*lambda /c est la pulsation de l'onde électromagnétique; k = 2*pi / lambda le nombre d'onde et φ le déphasage entre les deux composantes.

Champ E d'une onde polarisée elliptiquement.
Polarisation_elliptique.gif
Vue du plan d'onde d'une onde électromagnétique polarisée elliptiquement. La direction de propagation « sort » de l'écran. (Cliquez sur l'image pour l'agrandir et voir l'animation)
Crédit : Fffred
Polarisation elliptique
Polarisation_Elliptical_inductiveload.png
Onde polarisée elliptiquement. Les courbes bleue et rouge représentent les deux composantes orthogonales du champ électrique. Le champ E est indiqué en noir. La projection sur le plan d'onde (ligne jaune sur le plan bleu) donne une ellipse.
Crédit : Inductiveload

La polarisation circulaire

Nous venons de voir la polarisation elliptique. On peut remarquer que si les deux axes principaux de l'ellipse sont égaux, l'ellipse devient un cercle : c'est la polarisation circulaire.

definitionPolarisation circulaire

Si le champ E dessine un cercle dans le plan d'onde, on parle de polarisation circulaire. Le sens de rotation de E définit une polarisation :

On peut se souvenir du sens de rotation en utilisant ses mains. En pointant son pouce vers soi, on regarde dans quel sens s'enroulent les autres doigts; en choisissant la main qui permet de reproduire le sens de rotation de l'onde polarisée (main gauche ou main droite), on détermine le sens de la polarisation !

On peut alors écrire les composantes du champ électrique comme suit :

E_x = E_0 * cos(kz-omega *t)

E_y = E_0 * sin(kz - omega * t), où E_0 est l'amplitude commune des deux composantes du champ électrique. La phase vaut alors phi = pi/2.

Champ E d'une onde polarisée circulairement.
Polarisation_circulaire.gif
Vue du plan d'onde d'une onde électromagnétique polarisée circulairement. La direction de propagation « sort » de l'écran. Ici, la polarisation est droite vue depuis l'observateur. (Cliquer sur l'image pour l'agrandir et voir l'anumation)
Crédit : Fffred
Polarisation circulaire
Polarisation_Circular_inductiveload.png
Onde polarisée circulairement. Les courbes bleue et rouge représentent les deux composantes orthogonales du champ électrique. Le champ E est indiqué en noir. La projection sur le plan d'onde (en noir sur le plan bleu) donne un cercle.
Crédit : Inductiveload

attentionAttention aux conventions !

Attention ! Ceci est vrai si on se place du point de vue de l'observateur. Les directions doivent être interverties si on se place du point de vue de la source. Quand vous traitez des problèmes de polarisation, vérifiez toujours quelle est la convention utilisée.


La polarisation linéaire

definitionPolarisation linéaire

Si le champ E décrit un segment dans le plan d'onde, on dit que la polarisation est linéaire. On peut la voir comme une polarisation elliptique pour laquelle l'un des deux axes de l'ellipse de polarisation serait réduit à un point.

Le champ électrique s'écrit alors

E_x = E_x0 * cos(kz-omega *t)

E_y = E_y0 * cos(kz - omega * t), avec E_x0/ E_y0 = cste et phi = 0.

Le champ E d'une onde polarisée linéairement.
Polarisation_rectiligne.gif
Vue du plan d'onde d'une onde électromagnétique polarisée linéairement. La direction de propagation « sort » de l'écran. (Cliquer sur l'image pour l'agrandir et voir l'animation)
Crédit : Fffred
Polarisation linéaire
Polarisation_Linear_inductiveload.png
Onde polarisée linéairement. Les courbes bleue et rouge représentent les deux composantes orthogonales du champ électrique. Le champ E est indiqué en noir. La projection sur le plan d'onde (ligne jaune sur le plan bleu) donne une droite.
Crédit : Inductiveload

Lumière non polarisée

Lumière non polarisée

On a abordé ici les types de polarisation, mais la lumière n'est pas forcément polarisée. Ou plutôt, un faisceau de lumière n'est pas polarisée d'une seule façon. On peut avoir une superposition de différentes polarisations linéaires, elliptiques et circulaires. La lumière naturelle est ainsi composée de multiples états de polarisation différents, donnant en moyenne une lumière non polarisée.

Pour les situations de polarisation linéaire, on décompose généralement la polarisation en deux composantes : la composante parallèle au plan de diffusion, et la composante qui lui est orthogonale. On représente souvent la lumière naturelle par un faisceau de lumière polarisée dans deux directions orthogonales. Un polariseur pourra alors filtrer l'une des composantes.

Lumière naturelle
Wire-grid-polarizer_Fffred_ccbysa.png
Exemple de lumière non polarisée venant de la gauche et traversant un filtre polarisant. Seule la composante polarisée linéairement et verticale est transmise.
Crédit : Fffred CC-BY-SA

Sources non polarisées

Les sources naturellement polarisées ne sont pas communes. La lumière solaire est un bon exemple de lumière non polarisée. De même, le rayonnement thermique n'est généralement pas polarisé. Cependant, bien que les sources ne soient pas polarisées, la réflexion et la traversée de certains milieux peuvent modifier la polarisation de la lumière.


Polariseurs

Un polariseur est un dispositif qui agit sur un faisceau de lumière incidente selon la polarisation de celui-ci. Il peut filtrer la lumière en ne laissant passer que certaines composantes de polarisation. Il peut aussi changer la polarisation d'un faisceau incident.

Les filtres polarisants

La plupart des polariseurs sont de simples filtres (la marque Polaroid en est un exemple connu), qui ne laisse passer la lumière polarisée que dans une direction particulière (on parle de direction ou d'axe du polariseur). Ainsi une lumière non-polarisée sera polarisée après avoir traversé un tel filtre. Une lumière polarisée ne sera totalement transmise que si la direction de polarisation incidente est la même que celle du filtre.

L'intensité transmise par un polariseur dépend des orientations du filtre et de l'onde incidente. Si on note theta l'angle entre la direction du filtre et la direction de polarisation de l'onde incidente et I_0 son intensité, on a après le polariseur une intensité I(theta) = I_0 * cos^2 *(theta), c'est la Loi de Malus. De fait, on retrouve qu'un polariseur dont la direction de polarisation est perpendiculaire à celle de la lumière incidente, il ne transmettra rien. De même, deux polariseurs de directions perpendiculaires (on dit qu'ils sont croisés) ne laissent pas passer la lumière: celle-ci est polarisée dans une direction par le premier polariseur, puis bloquée par le second, de direction perpendiculaire. Dans le cas d'une source non polarisée I(theta) = I_0/2.

Illustration de la loi de Malus
Animation_polariseur.gif
Un polariseur (parfois appelé analyseur) devant une source polarisée linéairement . Selon l'angle que fait la direction du polariseur avec la polarisation de la lumière, le filtre laisse passer plus ou moins de lumière, conformément à la loi de Malus.
Crédit : Rogilbert

Lames à retard

D'autres dispositifs optiques permettent de modifier la polarisation de la lumière. Les lames à retard sont utilisées à cet effet. On l'a vu précédemment, un faisceau polarisé peut être considéré comme étant la somme de deux composantes de polarisation orthogonales. Lors de la traversée d'une lame à retard, les propriétés de biréfringence de la lame vont faire qu'une des deux composantes est retardée par rapport à l'autre, ce qui va changer la polarisation en sortie. On dira que la lame a deux axes, un axe lent et un axe rapide.

Dans le cas d'une lame demi-onde, le déphasage entre les deux composantes est π (ou d'une demi-longueur d'onde, d'où son nom). De fait, si l'onde polarisée linéairement selon une direction faisant un angle θ avec l'axe rapide de la lame, elle ressortira avec une direction tournée d'un angle 2*theta. L'utilisation principale qui en est faite est de changer la direction de polarisation linéaire. Une onde polarisée avec un angle theta = 45° par rapport à l'axe rapide aura en sortie un angle theta = 90° avec l'axe rapide : les directions incidentes et émergentes sont donc croisées !

Lame à retard
/figures/polariseur_lame_quart-onde.png
De la lumière non polarisée passe dans un polariseur qui la polarise linéairement avant de passer à travers une lame quart d'onde qui la transforme en lumière polarisée circulaire gauche.
Crédit : Dave3457, domaine public, traduction Loïc Rossi

Dans le cas d'une lame quart d'onde, le déphasage vaut plusoumoins pi/2 (ou un quart de longueur d'onde). Une telle lame permet de transformer une polarisation linéaire en une polarisation elliptique ou circulaire, et inversement. En effet dans le cas linéaire, les deux composantes du champ électrique, parallèle et perpendiculaire à l'axe rapide sont de la forme E_parallel = a*cos(omega*t) et E_perp = b*cos(omega*t). Si on introduit un déphasage de +pi/2, les deux composantes deviendont E_parallel = a*cos(omega*t) et E_perp = b*cos(omega*t + pi/2) = - b*sin(omega*t), le vecteur du champ électrique va donc décrire une ellipse !

Attention ! Le fonctionnement des lames à retard dépend de la longueur d'onde !


Les paramètres de Stokes

Pour décrire l'état de polarisation de la lumière on va utiliser une notation introduite par Gabriel Stokes : le vecteur de Stokes. Celui-ci est composé de quatre éléments : I, Q, U et V.

Les éléments de Stokes
StokesParamSign1.png
Figure illustrant les différents paramètres de Stokes.
Crédit : Dan Moulton, CC-BY-SA

Intensité

Le paramètre I décrit l'intensité de la lumière. L'intensité totale est I_tot >= I_polI_pol =  sqrt(Q^2 + U^2 + V^2). Le degré de polarisation, décrivant la proportion de la lumière qui est polarisée est donc P = I_pol / I_tot. Si on note I_para la polarisation parallèle au plan de référence et I_perpla composante polarisée perpendiculairement au plan de référence, on a I = I_para + I_perp.

Polarisation linéaire

La polarisation linéaire est décrite par les éléments Q et U. Ils sont définis tels que (cf. figure):

Le degré de polarisation linéaire se mesure alors avec P_l =  sqrt(Q^2 + U^2) / I. Si on est dans le cas où U = 0,alors P_l =  -Q / I = (I_perp - I_para)/(I_perp + I_para).

Polarisation circulaire

La polarisation circulaire se mesure avec V. Si V est positif, la polarisation est circulaire droite, si V est négatif, elle est gauche (du point de vue de la source, attention les conventions peuvent varier). Le degré de polarisation circulaire est alors simplement P_c = V/I.


Processus polarisants

Auteur: Loïc Rossi

Polarisation par diffusion

Auteur: Loïc Rossi

Polarisation par diffusion : Rayleigh

On va maintenant s'intéresser aux processus liés aux environnements planétaires qui peuvent polariser la lumière et donc nous donner des informations sur les caractéristiques des milieux étudiés. Dans le cas où les planètes ou corps auxquels on s'intéresse ont une atmosphère, la lumière peut être polarisée par diffusion au sein de celle-ci.

La diffusion Rayleigh

Cette diffusion est très importante dans les atmosphères planétaires. Elle se produit quand une onde vient à être diffusée par une particule qui est très petite devant sa longueur d'onde. Par exemple, quand du rayonnement visible (~500nm) vient à rencontrer une molécule dans l'air (~0.1 nm). La diffusion Rayleigh est isotrope.

L'efficacité de la diffusion Rayleigh dépend de la longueur d'onde de l'onde incidente. Plus la longueur d'onde est petite, plus la diffusion est efficace. C'est pour cela que le ciel est bleu : la lumière dans les longueurs d'onde bleues est plus diffusée et semble venir de toutes les directions, tandis que la lumière rouge est peu diffusée et traverse l'atmosphère. C'est aussi pourquoi le Soleil semble rouge au coucher : la lumière traverse plus d'atmosphère et le bleu est fortement diffusé. La lumière nous arrivant est donc pauvre en bleu et nous semble rouge-orangée.

Angles de phase et de diffusion
./figures/phase_scattering_angles.png
Illustration de l'angle de phase (α, entre la source, l'objet et l'observateur) et de l'angle de diffusion (Θ, entre la direction du rayon incident et celle du rayon diffusé).
Crédit : Loïc Rossi CC-BY-SA

En termes de polarisation, la diffusion Rayleigh est caractéristique en ce qu'elle polarise la lumière en fonction de l'angle de phase α. Rappelons que l'angle de phase est l'angle entre le rayon incident et l'angle émergent (c'est le supplémentaire de l'angle de diffusion). La diffusion Rayleigh diffuse la lumière avec une polarisation perpendiculaire au plan de diffusion, avec un maximum pour un angle de phase de 90°.


Polarisation par diffusion : Mie

definitionLa diffusion de Mie

La diffusion de Mie concerne elle des photons diffusés par des particules de taille similaire ou supérieure à la longueur d'onde. Par exemple, la lumière visible (~500 nm) dans les nuages de gouttelettes d'eau (~5μm). Elle tire son nom du physicien allemand Gustav Mie qui a établi cette solution des équations de Maxwell en 1908.

Contrairement à la diffusion Rayleigh qui peut se résoudre analytiquement, la diffusion de Mie est plus complexe. Il s'agit d'une solution particulière des équations de Maxwell et a une expression analytique, mais dont les calculs sont vite fastidieux ; c'est pourquoi on l'utilise surtout avec des outils numériques.

La diffusion de Mie n'est pas isotrope : elle diffuse préférentiellement vers l'avant, et dépend peu de la longueur d'onde. C'est elle qui rend les nuages blancs : toutes les longueurs d'onde sont diffusées vers l'observateur qui voit donc un nuage blanc !

En termes de polarisation, l'émission varie beaucoup en fonction de la taille du diffuseur, de son indice de réfraction, et de la distribution en taille des diffuseurs. Mais on retrouve des structures caractéristiques :

Indicatrices de rayonnement
./figures/mie_scattering_Sharayanan_ccbysa.png
Indicatrices de rayonnement pour différents types de diffusion avec un rayon venant de la gauche. À gauche, la diffusion de Rayleigh, au centre une diffusion intermédiaire entre Rayleigh et Mie, à droite une indicatrice typique de la diffusion de Mie, avec une diffusion principalement vers l'avant.
Crédit : Sharayanan, CC-BY-SA
Quelques nuages cumulus
./figures/nuages_Michael_Jastremski_CCBYSA.jpeg
Si ces cumulus apparaissent blancs, c'est à cause de la diffusion de Mie.
Crédit : Michael Jastremski, CC-BY-SA
Une gloire
./figures/glory_anders_sandberg.jpg
Une gloire vue depuis un avion de ligne.
Crédit : Anders Sandberg, CC-BY.

La polarisation par réflexion/transmission.

Auteur: Loïc Rossi

La polarisation par transmission et réflexion

Certains matériaux ont des propriétés polarisantes sur la lumière les traversant, notamment par biréfringence.

definitionLa biréfringence

La biréfringence est une propriété de certains matériaux dans lesquels l'indice de réfraction dépend de la polarisation et de la direction de l'onde incidente. Cela crée des directions différentes de propagation dans le milieu selon la polarisation de l'onde. On parle alors d'indice ou de direction ordinaire et extraordinaire.

Une exemple de biréfringence
./figures/birefringence_calcite_Adrian_Pingstone.jpg
Un texte vu à travers un cristal de calcite. La biréfringence fait apparaître le texte en double.
Crédit : Adrian Pingstone
La polarisation par biréfringence
Calcite_and_polarizing_filter_Aldoaldoz.gif
Un texte vu à travers du calcite et un polariseur. Selon le sens du polariseur, on laisse passer le rayon ordinaire ou extraordinaire, polarisés perpendiculairement.
Crédit : Aldoaldoz, CC-BY-SA

Les deux rayons ordinaires et extraordinaires sont polarisés différemment, souvent dans des directions perpendiculaires. Cette propriété peut-être utilisée pour créer des analyseurs de polarisation.

definitionLes polaroid

Certains matériaux ne sont pas biréfringents, mais sont tout de même polarisants. C'est le cas des polaroid, qui sont des filtres dont les molécules sont toutes orientées dans la même direction. La lumière polarisée perpendiculairement aux molécules est transmise, l'autre composante étant bloquée.

definitionLors de la traversée d'une interface

Lorsqu'une onde électromagnétique arrive à une interface, par exemple entre l'air et du verre, une partie de l'onde est transmise dans le verre et une partie est réfléchie. Selon l'indice de réfraction des deux milieux, l'angle d'incidence de l'onde et sa polarisation, les composantes transmises et réfléchies varient. Observer les variations de la polarisation après transmission ou réflexion par l'interface peut ainsi donner de précieuses informations sur le milieu.

En particulier, il existe un angle, appelé angle de Brewster où seule la composante de polarisation parallèle à l'interface est réfléchie.

La polarisation par reflexion
./figures/Poloriser-demo_Tchannon_ccbysa.jpg
Une fenêtre vue sans (à gauche) et avec (à droite) un polariseur. À droite, la réflexion est supprimée par un polariseur bloquant la composante verticale de la polarisation.
Crédit : Tchannon, CC-BY-SA

Applications à la planétologie

Auteur: Loïc Rossi

La polarimétrie dans le système solaire

Planètes

Pour la planétologie, la polarisation par diffusion atmosphérique est un phénomène intéressant, car observée sur une autre planète, elle apporte des informations sur les composants atmosphériques, les nuages, et éventuellement des cristaux de glace ou des poussières. Ainsi, la composition des nuages de Vénus a pu être déterminée grâce à des mesures de polarimétrie comparées à des modèles de diffusion de Mie et Rayleigh..

L'étude des planètes sans (ou avec une fine) atmosphère est plus complexe car la polarisation provient alors essentiellement de la diffusion par la surface. Les modèles de diffusion par des surfaces irrégulières comme du régolithe sont délicats à mettre en œuvre. Cependant, les courbes de polarisation de corps comme Mars ou la Lune peuvent être comparés à des mesures en laboratoire menées sur des analogues. Ainsi pour la Lune ou Mars, la comparaison avec des analogues de roches de type volcaniques et silicates donne des résultats en accord avec les mesures in-situ.

Astéroïdes

L'étude des astéroïdes par polarimétrie complète avantageusement d'autres méthodes telles que la spectroscopie. Il a ainsi été constaté que les courbes de phase polarimétriques des astéroïdes permettent de déterminer leur albédo, ce qui n'est pas toujours aisé par d'autres techniques..

À l'instar des formes de vie, il existe pour les astéroïdes une taxonomie où les objets sont distingués par leur type spectral correspondant à leurs propriétés de surface et à leur composition. L'étude par polarimétrie a mis en évidence que certains astéroïdes qui appartiennent à une même classe spectrale présentent des signatures polarimétriques distinctes, permettant d'affiner les classifications.

Comètes

Les comètes sont aussi étudiées en polarimétrie, notamment afin de caractériser les grains de poussière cométaire (taille, forme et composition). Des variations de la polarisation selon la distance au noyau mettent en évidence des changements dans le type de grains selon qu'ils soient dans la coma ou dans la queue. De même, des variations de polarisation après la rupture d'une comète peuvent indiquer des changements dans les propriétés des grains après un tel évènement.


Applications à l'exoplanétologie

Détection

L'exoplanétologie pourrait aussi tirer des informations de la polarisation. En effet, la lumière d'une étoile est généralement non polarisée, tandis que la lumière réfléchie et diffusée par l'atmosphère de la planète le sera par la surface et par l'atmosphère de la planète.

Ainsi une planète qui serait noyée dans la lumière de son étoile hôte pourrait être invisible en photométrie, mais détectable en polarisation ! Mieux, selon la polarisation mesurée, on pourrait déterminer si la planète possède ou non des nuages et caractériser ces derniers.

Caractérisation

La polarisation peut aussi donner les informations sur la planète, comme pour le système solaire. Ainsi détecter des structures polarimétriques comme des gloires ou des arcs-en-ciel pourraient indiquer la présence de nuages d'eau. À l'inverse, une polarisation de type Rayleigh pourrait indiquer que la planète ne possède pas de nuages.

Outre les paramètres de l'atmosphère ou de la surface, la polarisation peut permettre de mesurer certains paramètres orbitaux de la planète. En effet, la polarisation étant sensible à une rotation du plan de diffusion, la variation de la polarisation avec la rotation de la planète autour de son étoile peut être reliée à une inclinaison du plan orbital et/ou à une excentricité de l'orbite.

Disque protoplanétaires

Les disques protoplanétaires peuvent aussi être étudiés par polarimétrie. La lumière de l'étoile au centre du disque est non polarisée, mais les grains du disque autour diffusent la lumière et génèrent ainsi beaucoup de polarisation. Un instrument sensible à la polarisation peut ainsi mieux voir le disque qu'en lumière normale et peut donc l'étudier plus en détail.

L'étoile HR4796A
/figures/HR4796A-K1_GPI_pol.jpg
L'étoile HR4796A observée par le Gemini Planet Imager. À gauche, l'image en intensité et à droite la même cible en lumière polarisée. La lumière de l'étoile est non polarisée tandis que le disque de poussières présent autour de celle-ci polarise fortement la lumière. L'observation en lumière polarisée permet ainsi de mieux distinguer le disque de son étoile.
Crédit : Gemini Planet Imager; Processing by Marshall Perrin, Space Telescope Science Institute.

Pour de tels disques, on peut ainsi étudier les grains qui les composent, mais aussi identifier leur orientation et d'éventuelles structures internes. Ce genre d'observations permet ainsi de mieux contraindre les modèles de formation planétaire.


Comprendre

Auteur: Loïc Rossi

Réflexion et transmission

Auteur: Loïc Rossi

Interfaces entre deux milieux

Supposons une interface entre deux milieux d'indices respectifs n_1 et n_2. Un rayon arrive sur cette interface avec un angle theta_i par rapport à la normale à l'interface. Une partie est réfléchie avec un angle theta_reflexion et une partie est réfractée avec un angle theta_r.

À l'interface entre deux milieux
lois_descartes_fig.png
Illustration d'une interface entre deux milieux d'indices de réfraction n_1 et n_2 respectivement. Un rayon arrive avec un angle theta_i à l'interface. Il est en partie réfléchi avec un angle theta_i et en partie réfracté avec un angle theta_r.
Crédit : Loïc Rossi CC-BY-SA

definitionLes lois de Snell-Descartes

Dans le cadre de l'optique géométrique, les lois de Snell-Descartes énoncent que :

Du point de vue des ondes électromagnétiques

Une onde électromagnétique incidente peut être décrite sous la forme suivante : vecteur(E_i) = vecteur(E_im) * exp(i*(omega*t-vecteur(k)*vecteur(r)))omega = 2*pi*c/lambda, et où vecteur(k) et vecteur(r) sont le vecteur d'onde et le vecteur position respectivement. E_im est le module du vecteur de champ électrique incident.

Par la suite on notera avec E_rm le module du champ électrique réfléchi par l'interface et E_tm le module du champ transmis par l'interface. On va définir deux coefficients : le coefficient de transmission t et le coefficient de réflexion r, tels que :

Pour déterminer l'expression de t et de r on va s'intéresser à deux cas de polarisation de l'onde incidente.


Polarisation perpendiculaire au plan d'incidence

Si on suppose que l'onde incidente est polarisée perpendiculairement au plan d'incidence, on a : vecteur(E_im) = E_im * vecteur(e_x).

Cas où E est perpendiculaire
fig-fresnel-E-perp.png
Un rayon incident arrive avec un angle theta_i avec la normale à une interface. Le rayon incident est polarisé perpendiculairement au plan d'incidence.
Crédit : Loïc Rossi CC-BY-SA

À l'interface entre les deux milieux, et à partir des lois de Maxwell, on a des relations de continuité entre les différentes composantes des champs électrique et magnétique. Ainsi, les composantes tangentielles du champ électrique se conservent. Les champs électriques étant déjà parallèles à l'interface, on a donc : E_im + E_rm = E_tm (1).

E_im + E_rm = E_tm (1)

En ce qui concerne le champ magnétique, ce sont les composantes normales qui sont conservées. Comme vecteur(E) est perpendiculaire à vecteur(B), les champs magnétiques incidents, transmis et réfléchis sont dans le plan d'incidence et on a, par projection sur l'axe (Oz) :

(B_im -B_rm)*cos(theta_i) = B_tm*cos(theta_r) (2) où theta_r est l'angle de réfraction.

Par ailleurs, l'équation de Maxwell-Faraday permet d'établir que B = n *E/c . On peut alors écrire :

((2)) <=>  n_1*(E_im-E_rm)*cos(theta_i) = n_2*E_tm*cos(theta_r).

En remplaçant E_tm par son expression en (1), on peut écrire : n_1 * (E_im - E_rm)* cos(theta_i) = n_2*(E_im+E_rm)*cos(theta_r) . Ce qui devient, après quelques arrangements :

E_im * (n_1*cos(theta_i) - n_2*cos(theta_r)) = E_rm * (n_1*cos(theta_i)+n_2*cos(theta_r))

et donne finalement les coefficients de réflexion et de transmission, dits coefficients de Fresnel :


Polarisation parallèle au plan d'incidence

Si on suppose maintenant que la polarisation du champ vecteur(E) est dans le plan d'incidence, on aura : vecteur(B_im) = B_im*vecteur(e_x).

Cas où E est parallèle
fig-fresnel-E-para.png
Un rayon incident arrive avec un angle theta_i avec la normale à une interface. Le rayon incident est polarisé parallèlement au plan d'incidence.
Crédit : Loïc Rossi CC-BY-SA

Pour le champ magnétique, on a la relation de continuité vecteur(n) croix ((vecteur(B_im) + vecteur(B_rm) - vecteur(B_tm))) = mu*vecteur(j_s) liant les composantes tangentielles du champ avec le courant surfacique parcourant l'interface. Ici, ce courant est nul, ce qui nous permet d'écrire que :

B_im - B_rm = B_tm (1)

ainsi que (E_im+E_rm)*cos(theta_i) = E_tm*cos(theta_r) (2)

En utilisant à nouveau la relation B = nE/c, on peut écrire :

L'équation (2) devient quant à elle, avec la même astuce :

(1+r_parallel)*cos(theta_i) = t_parallel*cos(theta_r) (4)

En utilisant les expressions (3) et (4) on retrouve les deux autres coefficients de Fresnel :

Les coefficients de Fresnel mettent à jour un cas particulier. En effet si theta_i = arctan(n_2/n_1), on a r_parallel = 0 ! L'onde polarisée parallèlement au plan d'incidence (perpendiculairement à l'interface) est totalement transmise ! Cet angle particulier porte le nom d'angle de Brewster d'après David Brewster qui l'a mis en évidence le premier.


Coefficients de réflexion et de transmission

definitionCoefficients de réflexion et transmission

Les coefficients calculés ci-avant sont des coefficients de réflexion et de transmission en amplitude des ondes. Or on mesure généralement l'intensité de la lumière. On va donc utiliser des considérations énergétiques (conservation de l'énergie notamment) pour définir les coefficients de réflexion et transmission à l'interface.

Les deux cas étudiés précédements sont applicables au cas général où la lumière n'est pas polarisée. En effet, on peut considérer la lumière naturelle comme ayant une composante polarisée parallèlement au plan d'incidence et une composante polarisée perpendiculairement au plan d'incidence.

C'est l'étude de la lumière transmise ou réfléchie par un corps dans différentes polarisations qui va fournir des informations sur le milieu, car les coefficients de Fresnel dépendent de la géométrie, mais aussi des caractéristiques des milieux, via n_1 et n_2.


Usages

Emissivité

On peut s'intéresser à la polarisation du rayonnement thermique issu d'un corps. Normalement le rayonnement thermique n'est pas polarisé, mais la traversée du milieu (le sol par exemple) va le polariser et l'on va pouvoir mesurer cet effet. C'est ce qui est utilisé par exemple par la sonde Cassini qui étudie Titan.

On va donc s'intéresser à la transmission du corps en fonction de la géométrie d'observation et de son indice de réfraction (ou sa permittivité électrique). On parlera alors d'emissivité du corps.

v
polarisation_emissivites.png
Figure montrant l'emissivité en fonction de l'angle d'émission pour différentes permittivités. Les courbes pleines correspondent à la polarisation perpendiculaire et les courbes en tirets correspondent à la polarisation parallèle. On voit ainsi que l'emissivité diminue avec la hausse de la permittivité.
Crédit : Figure produite par Alice Le Gall (LATMOS)
Carte d'emissivité du pole nord de Titan
emissivite_pole_titan.png
Carte d'émissivité du pôle de Titan obtenue par le radiomètre de Cassini en polarisation perpendiculaire. L'emissivité mesurée a permis d'établir que la permitivité des lacs de Titan est entre 1,6 et 1,9 : ce sont des lacs d'hydrocarbures !

On mesure généralement le degré de polarisation P = (e_parallel - e_perp) / (e_parallel + e_perp)e_i est l'émissivité en polarisation parallèle ou perpendiculaire au plan de diffusion.

Reflexion

On peut également utiliser cette méthode de façon active en envoyant une onde polarisée sur une surface avec un radar et en étudiant la réflexion de cette onde sur le corps étudié. (Donner Exemple)


La polarisation par diffusion

Auteur: Loïc Rossi

Les différents régimes

definitionLe paramètre de taille

Pour étudier les processus de diffusion tels que la diffusion de Rayleigh ou de Mie, on va utiliser le paramètre de taille x = (2*pi*r)/(lambda), où r est le rayon du diffusant et lambda la longueur d'onde du photon incident. Le paramètre de taille permet de distinguer le régime de Rayleigh et celui de Mie :


La diffusion Rayleigh

La diffusion Rayleigh se produit dans le cas de diffuseurs petits par rapport à la longueur (x<<1), ayant un indice de réfraction proche de l'unité ou satisfaisant |n_r|x<<1.

La diffusion Rayleigh
Diffusion_rayleigh_Christophe_Dang_Ngoc_Chan_ccbysa.png
Une onde électromagnétique incidente fait osciller le nuage électroniques des atomes. Le dipôle électrostatique généré rayonne une onde électromagnétique de même longueur d'onde : la diffusion Rayleigh.
Crédit : Christophe Dang Ngoc Chan, CC-BY-SA

Lorsqu'un onde électromagnétique rencontre le diffuseur, elle génère un dipôle électrostatique de moment vecteur(P) = alpha * vecteur(E), où vecteur(E) est le champ électrique incident et α la polarisabilité du diffusant. Ce dipôle va rayonner une onde de même fréquence dans toutes les directions. Cependant, l'intensité et la polarisation de l'onde rayonnée vont dépendre de l'angle de diffusion.

On peut montrer que la fonction de phase est P(Theta) = (3/4 )* (1+cos^(2)*(Theta)), où Θ est l'angle de diffusion.

En ce qui concerne la polarisation, on va considérer que la lumière incidente est non polarisée (ce qui est vrai pour la lumière solaire) et considérer les directions parallèle et perpendiculaire au plan de diffusion, que l'on va noter avec les indices l et r respectivement. La composante diffusée polarisée perpendiculairement au plan de diffusion, I_r ne dépend pas de Θ, tandis que I_l évolue en cos^2*Theta. Dès lors, si on s'intéresse au degré linéaire de polarisation, on aura :

P_l *((Theta)) = (I_r - I_l)/(I_r + I_l) = (1-cos^2*(Theta))/(1+cos^2*(Theta)) = (sin^2*(Theta))/(1+cos^(2)*Theta )

Ceci rend compte du maximum de polarisation observé par diffusion Rayleigh pour un angle de phase de 90°.


Exercices

Auteur: Loïc Rossi

Exercices

Auteur: Loïc Rossi

qcmUne mise en jambes

Difficulté :   

1)  Lorsque le Soleil se couche, il devient plus rouge, et le ciel également. Quel phénomène entre en compte ?



2)  Pourquoi peut-il être intéressant de porter des verres polarisés lorsqu'on est en voiture ?




Exercices

Auteur: Loïc Rossi

exercicePremières interprétations

On observe les vecteurs de Stokes suivants (mesurés tels que le plan de diffusion est horizontal) :

  1. ((1; 0.8; 0; 0))
  2. ((1; 0,3; 0,6; 0))
  3. ((1; 0; 0; 0,4))
  4. ((1; 0; 0; 0))
  5. ((1; 1; 0; 0))
Question 1)

Lequel de ces vecteurs correspond à une lumière totalement polarisée ? Même question pour une lumière non-polarisée.

Question 2)

Lequel (lesquels) de ces vecteurs décrit une lumière circulairement polarisée ?

Question 3)

Quels sont les vecteurs de lumière linéairement polarisés ?

Question 4)

À quels vecteurs pourrait-on associer de la lumière diffusée selon le régime de Rayleigh ?

Question 5)

Quel est le degré de polarisation linéaire de ces vecteurs ? Même question avec le degré total de polarisation.


Mini-projet

Auteur: Loïc Rossi

Mini-projet : les gloires de Vénus

Auteur: Loïc Rossi

exerciceQuestions introductives

Difficulté :   

On se propose dans ce projet d'étudier les nuages de Vénus à l'aide de la polarimétrie. On va pour cela utiliser des mesures prises par l'instrument SPICAV-IR, à bord de la sonde européenne Venus Express.

Question 1)

Dans une atmosphère comme celle de Vénus avec des nuages et du gaz, quels sont les processus de diffusion que l'on doit considérer ?

Question 2)

SPICAV-IR observe Vénus dans la fin du domaine visible et l'infrarouge proche. Dans ce cas, lequel des processus évoqués ci-dessus peuvent être négligés ?

Question 3)

SPICAV-IR mesure les deux composantes orthogonales de polarisation linéaire à l'aide de deux détecteurs. Le détecteur 1 ( d_1) mesure I_perp et le détecteur 0 (d_0) mesure I_para. Quelle va être l'expression du degré de polarisation linéaire ?

Question 4)

SPICAV-IR peut-il mesurer les éléments de Stokes U et V ?


Mini-projet : les gloires de Vénus

Auteur: Loïc Rossi

exerciceAjustement d'une gloire

On va ici étudier une gloire observée en polarisation par SPICAV-IR. Dans ce type d'observation, la sonde regarde un endroit fixe sur Vénus. Ainsi seul l'angle d'émission varie tandis que l'angle solaire zénithal reste constant.

L'application (disponible ici) présente l'observation SPICAV-IR pour trois longueurs d'onde (1,1 ; 1,274 et 1,553 μm) en rouge. Pour chacune de ces longueurs d'onde l'application permet de calculer un modèle de polarisation. Ce modèle simplifié dépend du rayon efficace des particules des nuages ainsi que de leur indice de réfraction. L'indice de réfraction dépendant de la longueur d'onde, il est ajustable séparément pour chaque longueur d'onde.

Question 1)

En « jouant » avec les paramètres du modèle, tentez de trouver des valeurs qui permettent d'ajuster l'observation à toutes les longueurs d'onde.

Question 2)

Quelle est l'évolution générale des indices de réfraction ? En vous appuyant sur les tables d'indices suivants, quels types de composés peut-on exclure pour la composition des nuages ? Quels composés sont possibles ?

Indices de réfraction de certains composés
Longueur d'onde (µm)Indices de réfraction approximatifs
ComposéEauAcide sulfuriquePoussières volcaniques
1,11,3261,421,50
1,2741,3231,411,50
1,5531,3181,401,49


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Plasmas planétaires

Auteur: Ronan Modolo

Plasmas planétaires : mesures in-situ

objectifsObjectifs

Les objectifs de ce chapitre sont, d'une part, de découvrir quelques méthodes de mesure in situ utilisées dans les missions d'explorations spatiales et, d'autre part, de comprendre sommairement le principe de fonctionnement de quelques uns des instruments qui permettent de caractériser le milieu plasma. Il ne s'agit donc pas de décrire en détail un instrument particulier, ou un jeu d'instruments, mais de présenter et assimiler les concepts physiques mis en jeu.

prerequisPrérequis

Les concepts abordés dans ce chapitre font appel à des notions de :

Plus particulièrement, ce chapitre est basé sur des techniques de mesures et de diagnostics utilisées en physique des plasmas. Bien que souhaitable, il n'est pas essentiel d'avoir suivi un cours de physique des plasmas pour comprendre ce chapitre.


Découvrir

Auteur: Ronan Modolo

Un gaz ionisé rempli l'Univers

introductionUn gaz ionisé rempli l'Univers

Il est souvent dit que l'univers est composé à 99% de plasma et que cet état constitue logiquement le quatrième état de la matière (solide, liquide, gazeux et plasma). Cela peut paraître surprenant car sur Terre, cet état n'existe que dans certains cas très précis. Il est possible de rencontrer cet état sous une forme naturelle dans les éclairs d'orage, les aurores boréales, ou bien sous une forme 'artificielle' (c'est-à-dire produite par l'homme) dans les tubes à décharges (lampes,...), les téléviseurs, dans les tokamaks pour la fusion nucléaire,... En dehors de l'environnement terrestre, cet état constitue donc la majeure partie de l'univers visible et peut se rencontrer dans les étoiles, les nébuleuses, les pulsars et les systèmes planétaires. Pour comprendre la grande diversité des plasmas, il est fréquent de représenter leurs propriétés dans un diagramme densité-température (Fig). Nous remarquons que la densité peut varier de 20 ordres de grandeur tandis que la température peut s'échelonner sur 7 ordres de grandeurs, ce sont des variations extrêmement grandes.

Diversité des propriétés plasmas
plasma_scales.png
Diversité des plasmas naturels et artificiels que l'on peut rencontrer
Crédit : (adapté dewikipedia)

Mais qu'est-ce qu'un plasma ?

introductionMais qu'est-ce qu'un plasma ?

Considérons l'expérience suivante : une boîte contient un gaz mono-atomique (hydrogène par exemple) à température et pression atmosphérique constante. On suppose que les parois de la boîte sont parfaites et que les atomes frappant la paroi subissent une collision élastique et n'ont pas d'échange chimique avec la paroi. Le comportement de ce gaz obéit à la loi des gaz parfaits. Le comportement de ce gaz peut être décrit par la dynamique des fluides et des équations standard de la dynamique des gaz neutres de Navier-Stokes. Nous chauffons ce gaz à pression constante. Rappelons que la température est directement proportionnelle dans ce cas à l'énergie cinétique moyenne des particules constituant le gaz. A partir d'une température suffisamment élevée (de l'ordre de 1 million de K), les atomes sont ''ionisés''. Par conséquent les électrons sont littéralement arrachés de leur orbite dans l'atome et il est énergétiquement possible pour les électrons et les protons d'exister sous la forme de deux fluides distincts électriquement chargés. Notre gaz d'hydrogène a atteint l'état plasma.

Etat plasma
etat_plasma.png
Représentation schématique des différents états de la matière

Définition

definitionUne description succincte des propriétés plasmas

Dans l'état plasma, la matière est composée, soit totalement soit partiellement, de particules chargées (électrons et ions) qui sont libres et non pas liées comme au sein d'atomes ou molécules. Cela découle simplement du fait que leur énergie cinétique liée au mouvement des particules est plus grande que l'énergie de liaison électrostatique de 13.6 eV 2 times 10^(-18)J (pour l'hydrogène). Gardons en tête que 1eV, ou un électron volt, est le travail fourni pour déplacer un électron au travers d'une différence de potentiel de un volt. C'est une unité d'énergie très utilisée en physique atomique et physique des plasmas.

Du fait de leur charge électrique, les particules interagissent avec le champ électromagnétique, d'une part parce que le mouvement des particules chargées est régi par le champ magnétique, et d'autre part parce que l'ensemble des particules est lui-même source de champ, par la densité de charge et de courants que ces mouvements entraînent.

Parmi les nombreuses propriétés des plasmas, nous retiendrons d'une part qu'un plasma est globalement électriquement neutre mais que des écarts à la neutralité au niveau microspcopique, qui découle du fait que les particules chargées sont libres, sont susceptibles d'intervenir et d'autre part que les plasmas montrent des comportements collectifs, différents des gaz neutres, régis par les forces électromagnétiques. Ces effets collectifs sont plus importants que les forces Coulombiennes entre particules chargées. Ainsi dans le cas des gaz, les ondes se propagent par l'action de collisions inter-moléculaires tandis que pour un plasma les ions peuvent se propager en l'absence de collisions au moyen de forces électromagnétiques qui agissent à distance sur les particules.

L'étude et le formalisme de la physique des plasmas s'appuient donc sur l'électromagnétisme pour décrire l'évolution du champ électromagnétique, la mécanique pour s'intéresser à la trajectoire de particules individuelles, la physique statistique qui permet de décrire l'évolution d'un grand nombre de particules et la mécanique des fluides pour comprendre le comportement global d'un fluide (électriquement chargé dans ce cas et donc les équations de la mécanique des fluides doivent être couplées avec les équations de Maxwell). La figure résume très schématiquement les interactions entre particules chargées et champ et les formalismes physique mis en jeu.

Relation Plasma
schema_relation_plasma.png
Représentation schématique entre le champ électromagnétique et les particules chargées.
Crédit : R. Modolo

Quelques grandeurs caractéristiques

Une description plus détaillée de la physique des plasmas est disponible à la page suivante. Dans ce chapitre nous nous interessons aux instruments et aux mesures qui permettent de caractériser ce milieu.

Certaines propriétés et caractéristiques de ce milieu sont également présentées telles que :

Nous ferons appel à ces notions dans ce chapitre.


Les observables pour les plasmas

introductionQuelles sont les quantités à mesurer ?

L'étude des plasmas nécessite d'avoir accès aux informations caractérisant le champ électromagnétique et les particules chargées dans la région considérée. Ces informations peuvent être obtenues à l'aide de différentes mesures et leurs instrumentations spécifiques. Comme nous l'avons montré en préambule, la diversité des plasmas est telle que des paramètres comme la densité ou la température varient sur plusieurs ordres de grandeurs. Il n'est de ce fait pas possible avec un unique instrument de couvrir l'ensemble des valeurs possibles.

Pour caractériser les environnements planétaires ionisés, il est nécessaire de décrire/caractériser les quantités suivantes :

Nous nous limiterons à l'étude des plasmas naturels rencontrés dans le système solaire. Malgré ces considérations, aucun instrument ne peut couvrir ces larges gammes de densité, énergie, ... il existe donc de nombreux instruments qui permettent d'obtenir des mesures/observations sur une échelle de valeurs restreintes. Nous présentons uniquement un échantillon des possibles instruments embarqués sur les missions spatiales à titre d'illustration.


Quelques instruments de mesures pour les plasmas

introductionGénéralités

Les objets du système solaire regroupent une variété d'objets et de régions. Cette diversité se traduit par des régimes de densité, température, vitesse, champ magnétique... pouvant couvrir plusieurs ordres de grandeurs. Les objectifs scientifiques d'une mission spatiale définissent les régions à explorer et contraignent les intervalles de mesures possibles qu'un ou plusieurs instruments doivent couvrir.

Pour illustration, nous prendrons comme exemple la mission Cassini-Huygens qui explore le système de Saturne et ses satellites naturels depuis 2004. Plus d'informations sur la mission sont disponibles sur les sites de la NASA et de l'ESA. En cliquant sur le lien suivant vous revivrez quelques-unes des fantastiques découvertes du système kronien obtenues grâce à la sonde Cassini.

Les instruments plasmas doivent être capables de mesurer les paramètres définis dans le tableau ci-dessous. Nous ne présentons que quelques uns des instruments de la sonde, le tableau est de ce fait incomplet.

Observables et instruments de mesure
ParamètreIntervalle de valeurs possibles (pour répondre aux objectifs scientifiques)Instruments considérésIntervalle de mesures possibles (limitation instrumentale)
Champ magnétique10^(-2)-10^(4) nTMagnétomètre continu (fluxgate) (a)10^(-1)-10^(5) nT
Magnétomètre alternatif (search-coil) (b)10^(-3)-10^(15) nT
Mesures particulaires
ÉlectronsÉnergie : 1eV<E < 100MeV Densité : 10^(-3)-10^(4)cm^(-3) Spectromètre électronique(c) (Plasma 'chaud', E >10-30 eV)0.6eV - 28 keV
Sonde de Langmuir (b)Plasma "froid" : E eV Densité : quelques slash(e^(-);cm^(3)) à 10^5 slash(e^(-);cm^(3))
IonsEnergie : 1eV<E<100MeV Densité : 10^(-3)-10^(4)cm^(-3) Masse: m/q = 1 400 amu/eSpectromètre de masse ionique (c) 1eV - 50 keV m/q=1- 400 amu/e

Quelques instruments et leurs caractéristiques

Nous présentons brièvement les instruments mentionnés à la page précédente et leurs principales caractéristiques.

La sonde spatiale Cassini et quelques-uns de ces instruments
Cassini_instrument.png
Vue d'artiste de la Sonde Cassini-Huygens
Crédit : Crédit ESA

introductionMesures magnétiques

Les magnétomètres mesurent l'intensité du champ magnétique \mathbf{B} (mesure scalaire) mais également les composantes B_x, B_yet B_z du champ magnétique (mesure vectorielle). On distinguera les magnétomètres continus (type fluxgate) qui sont sensibles aux bandes passantes 0-60Hz des magnétomètres alternatifs (type search-coil) qui sont eux sensibles aux fréquences plus élevées ( > 100 Hz). Ces derniers sont essentiellement utilisés pour l'étude des ondes.

Il y a de nombreuses méthodes pour effectuer des mesures de champ magnétique. Pour les applications spatiales, tenant compte de la grande diversité des mesures possibles et des contraintes liées aux ressources limitées (poids, puissance), il est fréquent de rencontrer des magnétomètres continus de type fluxgate.

Comme les magnétomètres sont sensibles aux courants électriques et aux composés ferreux, ils sont placés sur des mâts, relativement loin du coeur du satellite (plusieurs mètres). Ils sont souvent accompagnés d'un programme de propreté magnétique pour assurer que le champ magnétique lié au satellite est limité et ne pollue pas les mesures. Les mesures attendues varient de 0.1-3 nT (dans le vent solaire) à plusieurs milliers de nT proche de la planète (si la planète a un champ magnétique intrinsèque fort).

introductionMesures particulaires

En dépit du fait que les instruments particules utilisés en physique spatiale ont été construits avec diverses géométries et manipulant des combinaisons sur l'énergie des particules, l'état de charge, la masse des particules et l'analyse des espèces, il n'y a en fait que quelques techniques basiques qui permettent de sélectionner des particules avec des propriétés spécifiques. Ils peuvent faire appel à un champ électrostatique, ou à un champ magnétostatique, ou une combinaison de champ électrique et magnétique, ou en déterminant le temps de vol d'une particule sur une distance donnée... pour ne mentionner que ceux-ci.

Lors de la sélection d'un instrument pour une mission particulière ou si l'on souhaite comparer différents instruments plasmas, on regarde essentiellement quelques paramètres clefs. Ceux-ci sont :

Nous nous intéresserons aux quelques instruments suivants :

introductionMesure des électrons

Les spectromètres électroniques permettent de déterminer la fonction de distribution des électrons des divers milieux traversés. Ces différentes régions se traduisent par des distributions de vitesse extrêmement variées. Ces instruments sont essentiellement constitués de plusieurs fenêtres d'entrées afin d'avoir une couverture angulaire la plus importante possible. Les particules chargées qui rentrent dans le système sont ensuite dirigées vers un analyseur électrostatique qui permet d'effectuer une sélection en énergie puis, en sortie de l'analyseur viennent impacter des galettes de microcanaux couplées à un système électronique qui permettent de compter les impacts et digitaliser les informations.

Ces instruments sont particulièrement utilisés dans les régions où le plasma est ''chaud'', c'est-à-dire dans le contexte des plasmas spatiaux, dont l'énergie est supérieure à une dizaine d'eV (jusqu'à plusieurs dizaine de keV).

introductionMesure des ions

Tout comme les électrons, les spectromètres ioniques doivent permettre de caractériser les fonction de distribution de cette population du plasma et s'appuient également sur le principe d'analyseurs électrostatiques. Ces instruments doivent couvrir une grande échelle d'énergie et un grand champ de vue (idéalement 4\pi stéradians). Par ailleurs la caractérisation des ions nécessite de déterminer la masse de ceux-ci. Différents principes de spectrométrie de masse sont utilisés dans la physique des plasmas spatiaux et nous présenterons deux concepts.

introductionMesures des particules de basse énergie (Sonde de Langmuir)

Une sonde de Langmuir est une sonde électrostatique qui permet de mesurer, entre autre, la densité et la température électronique et le potentiel du plasma. Cela consiste en une électrode plongée dans le plasma. Pour l'exploration spatiale, cette électrode est située au bout d'un mât, à quelques mètres du corps du satellite. En faisant varier la tension appliquée à la sonde, un courant est collecté. L'analyse de cette réponse permet d'en déduire les propriétés du plasma (densité et température électronique, potentiel du satellite).

Cette technique est utilisée préférentiellement dans une région de plasma dense et ''froid'' ( > eV) tel que les régions ionosphériques.


Comprendre

Auteur: Ronan Modolo

Les sondes de Langmuir

Auteur: Ronan Modolo

Principe de fonctionnement

definitionQuelques généralités sur le principe d'une sonde électrostatique

Les sondes électrostatiques utilisées pour les missions spatiales sont basées sur des techniques de laboratoire développées et présentées par Irving Langmuir et ses collègues au milieu des années 1920. Ce n'est seulement qu'à partir de la fin des années 1950 que ce type de technique a été utilisé sur des fusées et satellites pour mesurer la densité des ions et des électrons ionosphériques, la température électronique et le potentiel du satellite.

La technique des sondes de Langmuir consiste à mesurer le courant collecté par la sonde lorsque l'on fait varier la tension apliquéee à celle-ci. Une sonde électrostatique est une électrode conductrice de taille et forme appropriées qui est insérée dans le plasma (pour les plamas spatiaux la sonde se trouve sur au bout d'un mât du satellite). La tension sur l'électrode varie par rapport à une électrode de référence et le courant collecté est mesuré. L'analyse de la réponse ''tension-courant (U-I)'', appelé caractéristique va permettre de déterminer les propriétés du plasma : sa densité électronique n_e, sa température électronique T_e, la masse moyenne des ions m_i et la densité des ions n_i, ainsi que le potentiel du satellite.

Une théorie simple de la sonde de Langmuir [Mott-Smith and Langmuir, 1926] montre que l'amplitude du courant électronique I_e , est proportionnel à n_e, et que l'amplitude du courant ionique I_i est proportionnel à n_i. Le courant pour des potentiels répulsifs est proportionnel à l'exponentielle de la tension divisée par la température : I_e \propto \exp \left( {\frac{eV}{k_b T}} \right)

Caractéristique "tension-courant" d'une sonde électrostatique
schema_LP_UI.png
Représentation schématique d'une caractéristique U-I pour une sonde de Langmuir à symétrie sphérique (similaire à celle de Cassini). La courbe rouge indique le courant total collecté en fonction de la tension. Les courbes discontinues bleus et vertes indiquent les contribution respectives du courant électronique et du courant ionique.

On fait varier le potentiel appliqué à la sonde V_a par rapport au satellite et on collecte le courant sur la sonde. Le courant I est la somme des courant ionique et électronique générés par les particules impactant la sonde. La figure de cette page illustre une représentation schématique d'un courant collecté par une sonde de Langmuir sphérique (celle de Cassini). Il est possible d'identifier différentes régions. Lorsque U=V_a - V_p >0 (V_p étant le potentiel du plasma) les électrons sont accélérés et les ions sont freinés. Dans le cas inverse (U=V_a - V_p <0) les électrons sont repoussés et les ions accélérés. L'échantillonnage de la fonction de distribution des électrons en fonction du potentiel appliqué à la sonde est schématisé grâce à l'appliquette disponible à la page suivante.

Cette technique est une mesure active, c'est-à-dire qu'elle pertube le milieu qu'elle mesure. Ainsi l'insertion de la sonde va modifier le plasma. Lorsque la sonde n'est pas présente le plasma a localement une densité n_e, une température T_e, une densité n_i,... Lorsque la sonde est présente, la tension appliquée à la sonde va collecter les courants liés aux déplacement des charges électriques (ions et électrons). Du fait de la plus grande mobilité des électrons (moins massifs que les ions), les électrons vont impacter la sonde plus rapidement ce qui va créer une structure de potentiel autour de la sonde. Du coup un électron qui se trouve loin de la sonde et de sa structure de potentiel verra un potentiel différent que celui appliqué à la sonde à cause de cet écrantage. Cette région s'appelle la gaine et l'équilibre de charge entre ions et électrons est brisé.


Quelques définitions, rappels et hypothèses

introductionIntroduction

On appelle sonde électrostatique, ou sonde de Langmuir, un conducteur de petite dimension, plongé dans le plasma à étudier, polarisé électriquement et qui collecte les particules chargées du plasma. Au voisinage de la sonde se forme une gaine que l'on décrira rapidement par la suite.

La théorie classique des sondes électrostatiques repose sur les hypothèses suivantes :

rappelDistribution de Maxwell-Boltzmann

Les électrons ont une distribution des vitesses de Maxwell-Boltzmann (dite maxwellienne)

f_e(v_e) = n_e \left( \frac{m_e}{2 \pi k_B T_e} \right)^{3/2} \exp \left( - \frac{m_e v_e^2}{2 k_B T_e} \right)

Le nombre d'électrons par unité de volume, dont le vecteur vitesse est compris entre \mathbf v et \mathbf v + d \mathbf v est ainsi égal à :

dn = n_e \left( \frac{m_e}{2 \pi k_B T_e} \right)^{3/2} \exp \left( - \frac{m_e v_e^2}{2 k_B T_e} \right) dv_x dv_y dv_z

en système de coordonnées cartésiennes.

definitionDéfinition du potentiel plasma

Considérant que le plasma est électriquement neutre et équipotentiel localement, on peut définir un potentiel qui correspond à l'ensemble des espèces du plasma : le potentiel plasma V_p. On notera la tension V_a appliquée à la sonde, et U = V_a - V_p cette même tension mesurée par rapport au potentiel plasma.


Le calcul du courant collecté

demonstrationCourant électronique

Le calcul est ici développé pour le cas d'une sonde à symétrie plane, utilisant un système de coordonnées cartésiennes où l'axe x est normal au plan de la sonde. Les calculs dans le cas d'une géométrie sphérique sont proposés en exercice. On notera \eta = \frac{m_e}{2 k_B T_e}

On définit le flux comme le nombre de particules par unité de surface et par unité de temps. Le flux de particules qui arrive à la surface de la sonde est égale à : \Phi = n_e \left( \frac{\eta}{\pi} \right)^{3/2} \int_0^{+\infty} v_x \exp (- \eta v_x^2) dv_x \int_{-\infty}^{+\infty} \exp (- \eta v_y^2) dv_y \int_{-\infty}^{+\infty} \exp (- \eta v_z^2) dv_z

soit \Phi = \frac{1}{4} n_e \sqrt{\frac{8 k_B T_e}{\pi m_e}}

Ce calcul suppose que tous les électrons sont collectés et que leurs vitesses ne sont pas modifiées au voisinage de la sonde. Si la sonde est polarisée à un potentiel V négatif (V_a < V_p), seuls les électrons ayant une vitesse telle que : \frac{1}{2} m v_x^2 \ge |e V| seront collectés, par contre tous les ions sont collectés.

Le courant électronique s'écrit alors : I_e = -e S n_e \left( \frac{\eta}{\pi} \right)^{3/2} \int_{\sqrt{|2 e V|/m_e}}^{+\infty} v_x \exp (- \eta v_x^2) dv_x \int_{-\infty}^{+\infty} \exp (- \eta v_y^2) dv_y \int_{-\infty}^{+\infty} \exp (- \eta v_z^2) dv_z Ici, e est la valeur absolue de la charge unitaire et S la surface de la sonde.

Par intégration, I_e = -e S n_e \left( \frac{k_B T_e}{2 \pi m_e} \right)^{1/2} \exp \left( - \frac{|eV|}{k_B T_e} \right) = I_{th}\exp \left( - \frac{|eV|}{k_B T_e} \right)I_{th} est le courant lié aux vitesses thermiques des particules. Le courant électronique est négatif à cause de la charge de l'électron.

La relation obtenue peut s'exprimer en fonction de la vitesse moyenne des électrons : \overline{v_e} = \left( \frac{8 k_B T_e}{\pi m_e} \right)^{1/2} Le courant électronique s'écrit donc également : I_e = -eS\frac{n_e\bar{v_e}}{4}\exp\left(- \frac{|eV|}{k_B T_e} \right)

Pour U = 0 (i.e. une tension sonde égale au potentiel plasma) tous les électrons sont collectés. Pour U > 0 (c'est-à-dire V > V_p), le courant est le même car tous les électrons sont collectés. Le courant électronique est alors constant et égal à : I_{eM} = - e S n_e \left( \frac{k_B T_e}{2 \pi m_e} \right)^{1/2} = -e S \frac{n_e \bar{v_e}}{4} On montre alors que pour U=0, I_e = I_{eM}.

objectifsCourant ionique

Pour V<0, tous les ions sont collectés et on devrait obtenir un courant ionique de saturation constant égal à :

I_{iM} = e S n^+ \left( \frac{k_B T_i}{2 \pi m_i} \right)^{1/2}

Cependant la présence d'une gaine autour de la sonde modifie la valeur du courant ionique de saturation. Pour U>0, les ions sont repoussés et seuls ceux dont la vitesse v_x est suffisante pourront être collectés comme on l'a montré pour les électrons.

complementLa gaine

Le plasma est supposé électriquement neutre en volume. Lorsque la sonde est polarisée elle attire les particules chargées : tous les électrons si U>0 et tous les ions si U<0. Afin de conserver la neutralité électrique du plasma il se crée, au voisinage de la sonde, une charge d'espace appelée ''gaine''. Les particules de même polarité que le potentiel de la surface sont exclues de cette gaine. Cette gaine est électronique si U>0 (afin de limiter le flux d'électrons) et ionique si U<0 (pour limiter le flux d'ions). L'épaisseur de cette gaine est de l'ordre de grandeur de la longueur de Debye : \lambda_D = \left( \frac{\varepsilon_0 k_B T_e}{n_e e^2} \right)^{1/2}

La solution exacte de la distribution du potentiel électrostatique est un problème aux conditions aux limites très compliqué qui ne peut être résolu que dans certaines géométries simples (sphère, cylindre ou plan).

On peut noter que les objets de taille finie introduits dans un plasma ayant des températures ioniques et électroniques approximativement égales acquièrent en général une charge négative car la vitesse des électrons v_e\propto \sqrt{\frac{k_BT_e}{m_e}} est beaucoup plus grande que la vitesse thermique des ions v_i \propto \sqrt{\frac{k_BT_i}{m_i}}, et de ce fait plus d'électrons viennent frapper l'obstacle. Comme cet objet se charge négativement, les électrons sont repoussés. L'équilibre s'obtient lorsque le courant électronique collecté à la surface de l'objet (la sonde) vient équilibrer le courant ionique incident ce qui se produit pour une certaine valeur de potentiel que l'on appelle le potentiel flottant.

conclusionCaractéristique courant-tension

Le courant collecté par la sonde est la somme algébrique des courants électroniques et ioniques, I = I_i + I_e. Les paramètres plasmas n_e et T_e sont déterminés à partir du courant électronique I_e. Pour avoir accès au courant électronique, il faut éliminer la contribution du courant ionique du courant total mesuré. La figure U-I représente -I en fonction de U.


Conclusion

conclusionEn résumé ... et en savoir plus

L'analyse de la caractéristique tension-courant permet de déterminer quelques propriétés du plasma telles que la densité électronique et ionique, la température électronique ,... En se limitant à la théorie la plus simple (sans prendre en compte les effets de gaine), il est possible de trouver des expressions théoriques ci-dessous :

\begin{eqnarray}I & = & \left \{\begin{array}{c}I_{th}\left(1-\frac{qV_p}{k_BT}\right) \qquad\qquad (\textrm{potentiel attractif, } qV_p <0)\\I_{th}\exp^{ -\frac{qV_p}{k_BT}} \qquad\qquad (\textrm{potentiel r\'epulsif, } qV_p >0)\\\end{array}\right.\end{eqnarray}

L'appliquette du lien suivant présente une observation de la sonde de Langmuir de Cassini (point rouge) et le résultat d'un ajustement d'une courbe théorique pour les paramètres d'entrées (n_e, T_e ...) à spécifier par l'utilisateur.

complementOn ne vous a pas tout dit

Dans le cas des sondes de Langmuir embarqués sur des missions spatiales, d'autres termes de courant contribuent au courant total. En particulier les photoélectrons du satellite ont une contribution non-négligeable dans le courant total. Ces photoélectrons sont les électrons arrachés du satellite (qui est composé de parties conductrices) lors de l'interaction entre le plasma et la sonde spatiale. Il existe d'autres contributions comme le courant des particules énergétiques ou le courant lié aux impacts de poussières (ou plasma poussiérieux) présentes dans l'espace. I = I_i + I_e + I_{ph}+I_{e,imp}+ I_{pous.}+...

bibliographieUn peu de lecture

Pour approfondir, nous recommandons les lectures suivantes :

  • Mott-Smith and Langmuir, Physical Review, 28, 727, 1926
  • Laframboise J., Univ. Toronto Institue for Aerospace Studie, 1966
  • Fahleson U, Space Science Reviews, 7, 238, 1967
  • Chen F., ''Plasma diagnostic techniques'', Academic, New-York, 1965. Une note de lecture est disponible à l'adresse suivante

Spectromètre / Analyseur électrostatique

Auteur: Ronan Modolo

Un analyseur électrostatique

introductionPrincipe de fonctionement

Pour illustration nous prenons comme exemple le spectromètre électronique embarqué sur la mission Spatiale Cassini. Plus d'informations sont disponibles dans le papier de description instrumentale Young et al, Space Science Reviews, ..., 2004. Ce spectromètre a été construit par le Mullard Space Science Laboratory, Angleterre.

Un schéma simplifié de l'instrument est présenté à la figure suivante. Cet instrument est essentiellement un analyseur électrostatique hémisphérique de type 'top-hat' (en référence au fait qu'une petite section d'analyseur se trouve placée au dessus des électrodes de déflection).

Schéma d'un spectromètre électronique
schema_ELS.png
Représentation schématique du spectromètre électronique embarqué sur la mission Cassini et la trajectoire possible d'un électron en rouge.
Crédit : Ce schéma est une version adaptée de la figure 3 de Young et al, SSR, 2004

Les électrons entrent dans le senseur via une des huit fenêtres d'entrées qui consiste en un baffle collimateur (les huit fenêtres définissent le champ de vue de l'instrument, c'est-à-dire sa couverture angulaire ). Ces électrons sont ensuite dirigés dans l'analyseur électrostatique jusqu'au détecteur, qui dans le cas du spectromètre électronique de Cassini sont des galettes micro-canaux. Ces galettes permettent la détection des particules chargées. La sélection en énergie s'effectue dans l'analyseur électrostatique. L'analyseur consiste en deux plaques/électrodes ayant pour l'une un potentiel nul et pour l'autre un potentiel que l'on applique. Le champ électrique \mathbf E entre les deux électrodes exerce une force q\mathbf E sur la particule qui va dévier la trajectoire lorsque celle-ci entre dans l'entrefer (espace entre les deux électrodes). Les particules atteignent les détecteur lorsque le rapport E/q correspond à la force q\mathbf E générée par le champ. En faisant varier le potentiel de l'électrode, il est possible de parcourir différentes gammes d'énergie. Les mesures présentent donc un spectre d'énergie. En analysant ce spectre, et en combinant les informations sur la couverture angulaire, il sera possible de reconstruire la fonction de distribution des électrons.

L'appliquette \ref{appliquette_analyseur_electrostatique} présente brièvement le mode de fonctionnement d'un analyseur électrostatique et la trajectoire d'un électron pour une énergie incidente fixée par l'utilisateur. Les potentiels des deux électrodes ont été fixés (valeurs non connues de l'utilisateur) et il s'agit de déterminer la bande passante en énergie.


Théorie simplifiée de deux analyseurs électrostatiques

Nous présentons deux cas simples d'analyseur électrostatique :

Les analyseurs sphériques ou hémisphériques sont des extensions naturelles de ces deux types d'analyseurs et ne présentent pas de concepts différents, seuls les calculs sont un peu plus compliqués.


Analyseur électrostatique a électrodes parallèles

Pour illustrer la théorie qui se cache derrière le fonctionnement d'un analyseur électrostatique nous prendrons le cas d'un analsyeur à électrodes parallèles (cf Figure). Notons que ce genre d'instrument n'a pas été embarqué à bord de missions spatiales et est utilisé juste dans le cadre d'explication du concept sur une géométrie simple.

introductionConfiguration

Un analyseur électrostatique à électrodes parallèles consiste en deux électrodes séparées par une distance d. Une des deux électrodes est reliée à la masse tandis que l'autre électrode est fixé à un potentiel V_a (V_a >0 pour la détection des électrons, V_a <0 pour la détection des ions). Les particules entrent par un orifice d'entrée positionné en (x,y) = (0,0) avec une vitesse v_0 et un angle \theta par rapport aux électrodes. Les particules voient un champ électrostatique constant qui va modifier leur trajectoire. Les particules vont ensuite impacter le détecteur situé à une distance L de l'orifice d'entrée. Le schéma suivant illustre le montage.

Représentation schématique d'un analyseur électrostatique à électrodes parallèles
schema_ESA_parallel.png

Trajectoire des particules dans l'analyseur

Energie des particules et position du détecteur

Il est possible de décrire analytiquement la trajectoire d'une particule de charge q dans ce système. Nous présentons ici uniquement les résultats et les cacluls pourront être fait dans le cadre d'un exercice (cf exercice ). Les équations paramétriques décrivant la trajectoire sont :

\left\{\begin{array}{c}x(t) = v_0t\cos\theta \\y(t) = v_0t\sin\theta-\frac{qEt^2}{2m}\end{array}\right.

En notant \mathcal{E}_0 l'énergie cinétique initiale de la particule (à l'entrée du système), il est possible de relier la distance du détecteur (x=L) à l'énergie.

\mathcal{E}_0 = \frac{qV_a}{4\sin\theta\cos\theta}\left(\frac{L}{D}\right)

A partir d'un simple calcul d'incertitude il est possible de montrer que la résolution relative en énergie dépend de la position du détecteur et de sa largeur.

\frac{\Delta\mathcal{E}_0}{\mathcal{E}_0} = \frac{qV_a}{4\sin\theta\cos\theta}\frac{\Delta x}{x}

Ainsi en balayant le potentiel appliqué à l'électrode on pourra couvrir différentes gammes d'énergie et reconstruire la fonction de distribution en énergie.


Analyseur électrostatique à secteur cylindrique

introductionConfiguration

Un autre analyseur électrostatique simple a une géométrie cylindrique. Cet analyseur est constitué de deux secteurs cylindriques concentriques (cf Figure). Ce type d'analyseur a été utilisé lors de la mission spatiale Mariner 2. Cet analyseur a entre autre permis de fournir la confirmation expérimentale d'un vent solaire continu et de déterminer ses propriétés élémentaires [Snyder and Neugebauer, 1962].

Représentation schématique d'un analyseur à secteur cylindrique
schema_ESA_cyl.png

À cause de la géométrie cylindrique, seules les particules avec une vitesse parallèle à la normale du plan d'entrée de l'analyseur peuvent entrer dans celui-ci. Or avec une largeur d de l'entrefer, des particules avec une composante non nulle suivant le plan d'entrée de l'analyseur peuvent également se propager jusqu'à la sortie. Cela a pour conséquence d'augmenter la gamme d'énergie car les particules entrant dans l'analyseur avec un angle important par rapport à la normale peuvent être sélectionnées quand bien même leur énergie totale peut se trouver en dehors de la gamme d'énergie filtrée.


Trajectoire des particules dans l'analyseur

Dans ce genre de montage l'énergie de la particule reste constante. La force radiale est équilibrée par la force électrique et la particule chargée est maintenue sur une trajectoire circulaire de rayon

R = \frac{2\mathcal{E}\ln(R_2/R_1)}{q(V_2-V_1)}\mathcal{E} est l'énergie cinétique de la particule, V_2 et V_1 sont les potentiels appliqués aux deux électrodes.

L'analyseur sélectionne les particules ayant une énergie \mathcal{E} = \frac{q(V_2-V_1)}{2\ln\frac{R_2}{R_1}}

La constante de l'analyseur K, également appelé la sensibilité de déflection, est le rapport entre l'énergie \mathcal{E} (en eV) de la particule qui passe dans l'analyseur et la tension U appliquée entre les deux électrodes séparées de la fente de sortie d'une distance d=R_2-R_1. La bande d'énergie \Delta \mathcal{E} des particules qui passent à travers l'analyseur vaut : \Delta\mathcal{E}\sim qU/2d Une extension naturelle des analyseurs à secteur cyindrique à deux dimensions est de former des analyseurs à secteurs sphériques et les analyseurs électrostatiques hémisphériques ''top-hat''.


Spectromètre de masse ionique

Auteur: Ronan Modolo

Généralités sur les spectromètres de masse

La spectrométrie de masse utilise le rapport masse sur charge (m/q) pour séparer les atomes et molécules ionisés. La spectrométrie de masse est l'une des techniques analytiques les plus sensibles et est fréquemment utilisée pour déterminer les propriétés du plasma. Le spectre de masse contient des informations sur la composition élémentaire (présence et nombre de certains éléments), l'abondance isotopique (la masse exacte) et la structure (les fragments).

Un spectromètre de masse se compose en deux parties, une source qui va ioniser le gaz et un analyseur qui va permettre la détermination des masses qui composent le mileu (en fait des rapport m/q). Dans le domaine spatial, le plasma est le milieu d'étude et la source d'ionisation n'est généralement pas nécessaire (sauf si on souhaite caractériser les atmosphères neutres planétaires). L'instrument se réduit donc à la partie analyseur.

Il existe différentes classes d'analyseur permettant de donner la masse des particules. Nous nous limiterons à une description succincte du fonctionnement de base de deux analyseurs :


Analyseur à secteur magnétique

introductionDescription et principe de base

Un analyseur magnétique sépare les rapports m/q basés sur la déviation des trajectoires de particules ionisés dans un secteur magnétique. Dans le secteur magnétique, la trajectoire des ions est plane et est située dans le plan perpendiculaire à \mathbf{B}. La trajectoire est circulaire avec un rayon r.

Connaissant la tension d'accélération des particules à l'entrée de l'analyseur, la zone d'impact sur le détecteur permet d'obtenir la masse de la particule.

Le schéma présente l'analyseur d'ions IMA (Ion Mass Anaylzer) embarqué sur les missions Mars Express et Venus Express. On identifie un déflecteur électrostatique (partie du haut) qui va permettre d'avoir une acceptance angulaire des faisceaux d'entrée plus importante, un analyseur électrostatique de type ''top-Hat'' étudié précédemment, un analyseur magnétique où les trajectoires de différentes espèces (masses) ioniques illustrent les différentes zones d'impact du détecteur.

Le spectromètre de masse de Mars-Express / Venus-Express
shcema_analyseur_magnetique.png
Représentation schématique du spectromètre de masse ionique de Mars-Express et Venus-Express.
Crédit : Source : Thèse Claire Ferrier, 2009

Théorie simplifiée pour un analyseur magnétique

demonstrationConcept physique sous-jacent

Lorsque les particules chargées entrent dans l'analyseur, elles se trouvent dans un milieu avec un champ magnétique uniforme et statique \vec{B}. Le mouvement d'une particule non-relativiste dans un tel champ est donné par : m\frac{d\mathbf{v}}{dt} = q\mathbf{v}\times\mathbf{B}

q\mathbf{v}\times\mathbf{B} est la force de Lorentz. En prenant le produit scalaire de l'équation ci-dessus avec le vecteur vitesse, nous obtenons m\mathbf{v}\cdot\frac{d\mathbf{v}}{dt} = \frac{d}{dt}\left(\frac{1}{2}mv^2\right) = q\left(\mathbf{v}\cdot\mathbf{v}\times\mathbf{B}\right)=0

Ce qui montre que l'énergie cinétique \mathcal{E}=1/2mv^2 est une constante du mouvement. Pour déterminer la trajectoire il est avantageux de séparer les composantes des vitesses parallèle et perpendiculaire au champ magnétique. Soit \mathbf{v} =  \mathbf{v}_{/\!/}+\mathbf{v}_\perp

L'énergie cinétique peut également se décomposer en une contribution parallèle et une autre perpendiculaire, \mathcal{E} = \mathcal{E}_{/\!/}+\mathcal{E}_\perp\mathcal{E}_{/\!/}=\frac{1}{2}mv^2_{/\!/} et \mathcal{E}_\perp=\frac{1}{2}mv^2_\perp. Comme la force \mathbf{v}\times\mathbf{B} n'a pas de composante parallèle au champ magnétique, la composante parallèle de la vitesse est constante, donc la particule se déplace avec un vitesse constante le long du champ \mathbf{B} (sauf si v_{/\!/} = 0). Puisque \mathcal{E} et \mathcal{E}_{/\!/} sont constants alors \mathcal{E}_\perp (et de ce fait v_\perp) sont également des constantes du mouvement.

Le rayon de courbure r_c du mouvement de la particule dans le plan perpendiculaire à \mathbf{B} peut s'écrire (en ignorant le signe) : m\frac{v^2_\perp}{r_c} = |q|v_\perp B Le rayon r_c est souvent appelé le rayon de Larmor r_c = \frac{mv_\perp}{qB}

Si les ions entrant dans le secteur magnétique sont initialement passés par un analyseur électrostatique (seules les particules avec une énergie sélectionnée peuvent sortir de l'analyseur) alors les ions ont une énergie donnée \mathcal{E}=\frac{1}{2}mv^2=qU (U est la tension d'accélération utilisé dans l'analyseur électrostatique). La vitesse des ions vaut donc v=\sqrt{\frac{2\mathcal{E}}{m}}=\sqrt{\frac{2qU}{m}} On obtient ainsi la mesure de masse sur charge : \frac{m}{q} = \frac{r_c^2B^2}{2U}

Les ions avec différents rapports de masse sur charge auront des rayons de Larmor différents et auront des zones d'impact sur le détecteur différentes.


Analyseur à temps de vol

objectifsPrincipe de fonctionnement

Un analyseur à temps de vol est également appelé ''Time of Flight'' ou ''TOF''. Cet analyseur repose sur le principe de détermination du temps de vol des particules qui entrent dans l'analyseur. Pour une particule à une énergie connue \mathcal{E}, on mesure le temps que la particule met pour effectuer la distance entre la source et le détecteur. Connaissant le temps de parcours et la distance parcourue, on en déduit la vitesse. Comme l'énergie de la particule est déterminé on peut en déduire sa masse.

Par exemple pour une même énergie de départ \mathcal{E} deux particules de masse m_1 >m_2 auront des vitesses telles que v_1=\sqrt{2\mathcal{E}/m_1} < v_2 = \sqrt{2\mathcal{E}/m_2}. C'est-à-dire que la vitesse de la particule légère (m_2) sera plus grande que la vitesse de la particule lourde (m_1). Comme les deux particules ont parcouru la même distance d on trouve que le temps de parcours de la particule légère t_2 sera plus bref que celui de la particule lourde t_1.

\frac{1}{2}M\left(\frac{d}{t}\right)^2 = q(\mathcal{E}/q+U_a-\Delta\mathcal{E}_f) avec U_a un potentiel de post-accélération et \Delta\mathcal{E}_f l'énergie perdue lors de collision à travers une feuille de carbone (cf ci-dessous). Soit \frac{M}{q} = \frac{2\left((\frac{\mathcal{E}}{q}+U_a)-\Delta\mathcal{E}_f\right)}{\left(\frac{d}{t}\right)^2}

exempleDescription du spectromètre de masse de Cassini

Prenons comme illustration le spectromètre à temps de vol de l'instrument CAPS sur Cassini (cf figure). Dans ce schéma, tout comme celui de l'analyseur de Mars Express, les particules passent d'abord par un analyseur électrostatique type top hat avant de rentrer la partie de l'analyseur en masse. Cet analyseur en masse est représenté par la cavité se situant après l'analyseur électrostatique ou un champ électrique quasi-linéaire est présent. Un détecteur se trouvant au bas de l'instrument (ST) se trouve dans une région où le potentiel est proche de +15kV (les particules chargées négativement viendront principalement impacter ce détecteur), le détecteur se trouvant au dessus (LEF) est situé dans une région où le potentiel est proche de -15kV (seul les ions positifs peuvent impacter ce détecteur).

Analyseur à temps de vol de CAPS-CASSINI
CAPS_schema_IMS.png
Représentation schématique du spectromètre de masse de type temps de vol de l'expérience Cassini CAPS. Le trajet d'un ion est représenté par la courbe rouge
Crédit : NASA, image modifiée et commentée par R. Modolo

exemplePrincipe de fonctionnement du spectromètre TOF

Le principe de fonctionnement est le suivant :

  • Les ions rentrent dans le collimateur du top hat et sont dirigés vers l'entrée de l'analyseur électrostatique
  • Une tension est appliquée à l'électrode intérieure de l'analyseur électrostatique qui crée un champ électrique qui va modifier les trajectoires des particules. C'est la sélection en énergie : seules les particules autour d'une énergie donnée pourront ressortir de l'analyseur électrostatique. En sortie de l'analyseur, les ions sont accélérés par une tension de post-accélération (U_a\sim 15\,\mathrm{kV}).
  • Les ions viennent impacter une feuille de carbone avec l'énergie \mathcal{E}/Q+U_A, où \mathcal{E}/Q est l'énergie des particules en sortie de l'analyseur électrostatique.
  • Les ions (atomiques et moléculaires) se fragmentent en particules plus élémentaires (électron, atome neutre, ion atomique de charge positive ou négative,...).
  • Lors de l'impact sur la feuille de carbone, des électrons secondaires sont arrachés de celle-ci, attirés par le potentiel positif +15 kV ; ces électrons viendront impacter le détecteur ST. C'est le signal START du début de mesure du temps de vol.
  • Lorsque des ions positifs sont arrachés, et s'ils sont une énergie \mathcal{E}/Q+U_A < 15kV, ils viendront impacter le détecteur LEF et produiront un signal STOP. La différence de temps entre le signal de départ et le signal d'arrivée permettra d'en déduire le temps de vol. Dans ce cas de figure le champ électrostatique agit sur la trajectoire de la particule (F=-qkz) et l'équation de mouvement suivant la direction z est celle d'un oscillateur harmonique. On en déduit le temps de vol tel que t=\pi\sqrt{\frac{m}{qk}}.
  • Si les ions en sortie de feuille de carbone ont une énergie supérieure à 15 kV alors le champ électrostatique ne fera que ralentir l'ion et il viendra impacter le détecteur ST.
  • Les autres ions négatifs sortant de la feuille de carbone seront attirés par le potentiel +15 kV et impacteront le détecteur ST tandis que les neutres, qui sont insensibles au champ électrique, continueront leur trajectoire initiale et impacteront également le détecteur ST

Théorie simplifiée d'un analyseur à temps de vol

On se place dans un cas de figure simple d'un analyseur à temps de vol linéaire (Wiley and McLaren, 1955). Le montage est présenté à la figure suivante. On applique une tension d'accélération connue. La vitesse de la particule est liée à cette tension d'accélération (l'énergie potentielle électrostatique est transformée en énergie cinétique) qU_A = \frac{1}{2}mv^2 Dans la région de champ libre, l'énergie de la particule n'évolue pas. Le temps t pour parcourir la distance d est lié à sa vitesse v.

Soit qU_A=\frac{1}{2}m\left(\frac{d}{t}\right)^2 On en déduit le temps de vol t=d\sqrt{\frac{m}{2qU_A}}

Schéma d'un analyseur à temps de vol linéaire
schame_tof_lineaire.png
Représentation schématique d'un analyseur à temps de vol linéaire.
Crédit : Reproduction simplifiée de Wiley and McLaren, 1955.

Magnétomètre à vanne de flux

Auteur: Ronan Modolo

Un magnétomètre continu

Le mouvement des particules chargées est contraint par le champ magnétique, de ce fait, une connaissance des variations spatiales et temporelles du champ magnétique est primordiale. Les magnétomètres ont été largement utilisés à bord de missions spatiales d'exploration terrestres et planétaires. Nous nous intéressons ici aux mesures de champ magnétique continu obtenu à l'aide d'un magnétomètre de type magnétomètre à vanne de flux, également appelé fluxgate. Les mesures des fluxgate peuvent également fournir des informations sur les ondes basses fréquences.


Rappels et configuration du système

introductionPrincipe de base

Le principe de mesure du fluxgate repose sur une application directe de la loi de Lenz. La variation du flux champ magnétique \Phi à travers N spires induit une tension électrique e : e=-N\frac{d\Phi}{dt} On rappelle que le flux du champ d'induction magnétique \mathbf{B} traversant une surface fermée S est \Phi=\oint \mathbf{B}\cdot \mathbf{dS}, où \mathbf{dS} est un vecteur élémentaire de surface.

L'autre principe de fonctionnement d'un fluxgate est basé sur les caractéristiques de saturation non-linéaire d'un matériau ferromagnétique.

exempleMontage

Un fuxgate est donc constitué d'un tore en matériau ferromagnétique sur lequel on place deux bobinages :

Une représentation schématique d'un fluxgate est illustrée sur la figure suivante.

Schéma d'un fluxgate
fluxgate_schema.png
Crédit : Space and Atmospheric Physics group Londres, Angleterre , Imperial College, (commentaires de la figure traduit en français)

Principe de fonctionnement

objectifsPrincipe de base

L'ensemble doit servir à mesurer la direction et l'amplitude du champ magnétique \mathbf{H}_{ext}. Le bobinage d'excitation a pour effet de saturer le matériau magnétique périodiquement à la fréquence fondamentale f_0 (une dizaine de kHz). Le bobinage d'excitation crée un champ alternatif dans le matériau ferromagnétique. L'induction générée est limitée par la saturation du matériau. Le second bobinage est utilisé comme élément de détection et est appelé sense winding ou bobinage de mesure. À ces bornes, une tension est induite par la variation temporelle du flux magnétique total.

Dans le schéma précédent le tore a été séparé en un demi-tore de couleur bleue et un demi-tore de couleur verte. Lorsque le vecteur \mathbf{H}_{ext} se trouve dans le plan du tore, on va pouvoir déterminer sa direction. Lorsque le courant traverse le bobinage d'excitation, la moitié va générer un champ avec une composante dans la même direction que \mathbf{H}_{ext} et l'autre moitié dans la direction opposée.

Lorsque le champ externe est nul (\mathbf{H}_{ext} = \mathbf{0}), les deux demi-tores entrent dans la région de saturation (cf figure ) en même temps. Les champs générés s'annulent (le champ du tore vert vient annuler le champ du tore bleu). Il n'y a pas de changement de flux magnétique et donc de courant n'est induit qui peut être mesurer par le second bobinage.

Caractéristique d'un matériau ferromagnétique
schema_ferromagnetisme.png

En présence d'un champ externe, le tore générant un champ magnétique dans la direction opposée au champ externe (le demi-tore vert) sort de la région de saturation avant le demi-tore orienté dans la même direction que le champ externe. Pendant ce lapse de temps les champs ne s'annulent pas, et créent une variation de flux magnétique qui induira une tension induite dans la bobine de mesure.

L'électronique de mesure permet d'extraire la valeur du champ magnétique du signal mesuré à travers le bobinage de mesure. L'application d'un champ magnétique continu \mathbf{H}_{ext} provoque l'apparation d'harmoniques pairs dans la tension induite en raison du comportement non-linéaire du matériau magnétique. On extrait l'amplitude et la phase pour déterminer l'amplitude et la direction du champ. On utilise la mesure du champ magnétique d'induction qui est contenue dans les harmoniques du signal. Le second harmonique 2f_0 est généralement utilisé.


Théorie simplifiée (1)

rappelRappels sur les matériaux ferromagnétiques

Les matériaux réagissent au champ magnétique de manière différente en fonction de leur propriété magnétique. Sous l'effet d'un champ magnétique, un matériau peu s'aimanter. Cette aimantation \mathbf{M} est liée au champ magnétique d'excitation \mathbf{H} par la relation \mathbf{M}=\chi \mathbf{H}=(1+\mu_r)\mathbf{H}\chi et \mu_r sont respectivement la susceptibilité et perméabilité magnétique (\mu=\mu_0\mu_r).

Les matériaux ferromagnétiques possèdent une caractéristique B(H) présentée à la figure précédente, où B est le champ d'induction magnétique (en T) et H est le champ magnétique (en \mathrm{A.m^{-1}}).

Le champ magnétique d'induction \mathbf{B}, le champ magnétique \mathbf{H} et l'aimantation \mathbf{M} sont reliés par la relation : \mathbf{B} = \mu\left(\mathbf{H}+\mathbf{M}\right)

Une applet Java illustrant et expliquant le phénomène d'hystérésis est disponible sur le site suivant

Par ailleurs, lorsque la géométrie du corps ferromagnétique est différente de la topologie du champ magnétique, une interaction magnétostatique apparaît qui contrarie l'aimantation du corps ferromagnétique. Il s'agit de l'effet démagnétisant. Le champ démagnétisant \mathbf{H}_d a la même direction que le champ qui lui a donné naissance mais est de sens opposé : \mathbf{H}_d = -D\mathbf{M}D est le coefficient démagnétisant.

definitionChamp magnétique apparent

En combinant les expressions précédentes on peut exprimer une relation entre champ d'induction magnétique apparent et le champ d'induction externe au noyau \mathbf{B} = \mu_{app}\mathbf{B}_e = \frac{\mu_r}{1+D(\mu_r-1)}\mathbf{B}_e\mu_{app} est la perméabilité apparente (tenant en compte l'effet démagnétisant). On rappelle que la perméablité magnétique du matériau est une fonction du champ magnétique : \mu_r = \mu_r\left[H(t)\right].


Théorie simplifiée (2)

demonstrationDéraivation de l'équation de base des fluxgate

En utilisant la loi de Lenz, la tension électrique induite dans le bobinage secondaire est donnée par e=-N\frac{d\Phi}{dt} = -NS\frac{dB}{dt} = -NSB_e\frac{d\mu_{app}}{dt} (si B_e est constant). Soit, en utilisant l'expression de \mu_{app} déterminée précédemment : e = -NSB_e\frac{(1-D)}{\left( 1+D(\mu_r-1)\right)^2}\frac{d\mu_r}{dt} Il s'agit de l'équation basique des magnétomètres à vanne de flux.

demonstrationMesure du champ externe- utilisation de la "seconde harmonique"

La courbe caractéristique B(H) présentée à la figure suivante peut être modélisée par une fonction polynomiale du troisième ordre B(H) = a_1H - a_3H^3

où le champ magnétique H comprend à la fois le champ externe à mesurer H_{ext} et le champ ''interne'' H_{int} induit par le courant imposé dans le bobinage d'excitation (H = H_{ext}+H_{int}).

Si on impose un courant sinusoïdal au bobinage d'excitation de la forme i_e = I_{max}\sin(\omega_0 t), on induit un champ magnétique de la forme sinusoïdale H_{int} = \frac{N}{l}I_{max}\sin(\omega_0 t)=H_{max}\sin(\omega_0 t)

La tension induite dans le bobinage secondaire (le bobinage de mesure) vaut donc \begin{eqnarray}e & = & -NS\frac{dB}{dt} = -NS\frac{d}{dt}\left(a_1H-a_3H^3\right)\\& = & -NS\left(a_1\frac{dH}{dt} - 3a_3H^2\frac{dH}{dt}\right)\end{eqnarray}

en remplaçant H par son expression H_{ext}+H_{max}\sin(\omega_0t) , et en développant puis en linéarisant les fonctions trigonomériques, on montre (après quelques lignes de calculs laissées à la discrétion du lecteur) que la tension induite peut s'écrire : e = -NS(H_{max}\omega_0\cos(\omega_0t)(a_1-3a_3H_{ext}) -3a_3H_{ext}H^2_{max}\omega_0\sin(2\omega_0t) +\frac{3}{2}a_3H^3_{max}\omega_0\cos(3\omega_0t))

On identifie un terme modulé en \sin(2\omega_0t) qui dépend de H_{ext}, la deuxième harmonique (de fréquence 2f_0). On cherchera donc à extraire cette information. D'autres harmoniques peuvent être présentes (dans cette démonstration nous avons modélisé la courbe B(H) par un polynôme de troisième degré, si l'on considère un polynôme de degré plus élevé d'autres harmoniques apparaîtront dans les calculs).


En résumé ... et en savoir plus

conclusionCe qu'il faut retenir

Les magnétomètres à vannes de flux, ou fluxgate, utilisent les propriétés des matériaux ferromagnétiques pour mesurer un champ d'induction externe. Le système consiste en un tore ferromagnétique entouré d'un premier bobinage parcouru par un courant d'intensité sinusoïdale (ou triangulaire). Ce courant génère un champ magnétique qui va s'ajouter au champ externe à mesurer. De façon liée à la géométrie du système, une partie du champ généré va avoir une composante parallèle au champ externe, l'autre anti-parallèle. Cette différence de champ va provoquer une variation de flux magnétique et induira une tension induite dans un deuxième bobinage. Cette tension induite contient les harmoniques de la tension d'excitation. Le filtrage de la seconde harmonique permet de retrouver l'information sur le champ externe à mesurer.

bibliographieUn peu de lecture

Pour approfondir le sujet nous recommandons les lectures suivantes :


Se Tester

Auteur: Ronan Modolo

Se Tester


QCM

Les questions suivantes portent sur des questions en lien direct avec le cours. La solution ne nécessite que quelques lignes de calcul si elle ne se trouve pas déjà exprimée dans les pages du chapitre.

qcmQCM#1

Difficulté :    Temps : 15s

1)  Que permet de quantifier une sonde de Langmuir ?




qcmQCM#2

On considère un analyseur à temps de vol linéaire pour caractériser une espèce ionique. Les caractéristiques de l'analyseur sont : région de champ libre d=50cm, tension d'accélération U_A=15kV. La particule impacte le détecteur après un temps de vol de t=0.57\mu s.

Difficulté :    Temps : 30 s

1)  Quelle type d'information peut-on déduire de ce type d'instrument ?



2)  Quelle est la caractéristique de cette particule ?





Exercices

exerciceEcrantage dans un plasma

Difficulté : ☆☆  

On considère une charge test q_T située en un point O placée dans un plasma dont le densité particulaire, à la distance r de O, peut s'écrire pour les ions :

n_i(r) = n_{i0}\exp\left(_q_i\frac{\Phi(r)}{k_BT}\right)

et pour les électrons :

n_i(r) = n_{e0}\exp\left(_q_e\frac{\phi(r)}{k_BT}\right)

n_{i0}=n_{e0}=n_0 (hypothèse de quasi-neutralité du plasma) est la densité particulaire moyenne, k_B est la constante de Boltzmann, T est la température, q_i=-q_e=e est la chage des particules, et \Phi(r) est le potentiel qui règne à la distance r de O.

Question 1)

Déterminer la densité voulumique \rho(r)

Question 2)

En appliquant le théorème de Gauss entre deux sphères de rayons r et r+dr, donner l'équation satisfaite par le champ électrostatique. En déduire une équation différentielle de deuxième ordre sur le potentiel \Phi(r)

Question 3)

On se place dans le cas de haute températures k_BT \gg e\Phi(r). Simplifier l'équation précédente et la résoudre. La solution approche le potentiel de Coulomb de q_T quand r\longrightarrow 0 et reste finie à toutes les distances.

exerciceQuantité macroscopique

Difficulté :   

On considère une fonction de distribution de vitesse Maxwellienne de la forme :

f(\vec{v}) = A\exp\left(-\frac{v^2}{2k_BT}\right)

avec v^2=v_x^2+v_y^2+v_z^2, m la masse des particules, k_B la constante de Boltzamnn, T la température et A une quantité réelle.

Question 1)

Déterminer A telle que

\int_{-\infty}^{+\infty}f(\vec{v})dv_xdv_ydv_z = n_0

n_0 est la densité des particules

Question 2)

Montrer que :

<\frac{1}{2}mv_x^2 > = \frac{1}{2}k_B_T

Question 3)

Montrer que :

<\frac{1}{2}mv^2> = \frac{3}{2}k_B_T

Question 4)

Comment représenter mathématiquement une distribution de vistesse Maxwellienne avec une vitesse de dérive \vec{v_0}

Question 5)

Déterminer la distribution en énergie de la fonction de distribution de vitesse précédente

Auteur: R. Modolo

exerciceMouvement d'une particule chargée dans un champ électromagnétique

Difficulté :    Temps : 15 min

On considère une particule de charge électrique q et de masse m plongée dans un champ magnétique uniforme \vec{B}=B_0\vec{e_z}. On cherche à déterminer le mouvement de la particule dans ce champ magnétique. On se place dans un repère cartésien orthonormé (O,\vec{e_x},\vec{e_y},\vec{e_z}). A t=0 la position de la particule est telle que x_0=y_0=z_0=0 et sa vitesse intiale est définie par v_{x0}=v_0, v_{y0} = 0, v_{z0}=a.

Question 1)

Dans un premier temps on considère que le champ électrique est nul. Ecrire les équations de mouvement de la particule

Question 2)

Résoudre ces équations en utilisant les conditions initiales

Question 3)

Quelle est la trajectoire de cette particule ? La tracer.

Question 4)

On considère maintenant que la particule est toujours plangé dans le magnétique \vec{B}=B_0\vec{e_z} mais qu'un champ électrique est désormais présent tel que \vec{E}=E_0\vec{e_x}. Comment la trajectoire est-elle modifiée ?

Auteur: R. Modolo

exerciceChamp magnétique créé par une bobine torique

Difficulté :    Temps : 15 min

Soit une bobine sphérique constituée d'un enroulement de N spires circulaires de rayon r parcourue par le même courant I. Ces N spires entourent réglièrement un tore de rayon R de section circulaire de rayon r<R.

Question 1)

Montrer que le champ magnétique est nul en dehors du tore et déterminer son expression à l'intérieur de celui-ci en fonction de la distance \rho à l'axe du tore.

Question 2)

Déterminer les valeurs extrêmes du champ magnétique pour N=500, I=0.1 mA, R=10cm et r=1cm. Quel courant devrait-on faire passer dans un fil rectiligne unique pour obtenir le même champ à la même distance ?

Auteur: Ronan Modolo

exerciceEtude d'un analyseur électrostatique à plaque parallèle

Difficulté :   

On considère le montage de la figure suivante. Une particule chargée de charge q (>0) entre dans le dispositif en (0,0) avec une vitesse v_0, et avec un angle \theta entre le vecteur vitesse de la particule et l'axe x du montage. On cherche à caractériser le mouvement de cetteparticule chargée.

Question 1)

Dans quelle sens est dirigée le champ électrique E qui apparait entre les deux plaques parallèles? Quelle relation a-t-on entre le potentiel Va et le champ électrique E ?

Question 2)

Déterminer les conditions initiales du problème pour la position et la vitesse de la particule.

Question 3)

Déterminer les forces qui s'appliquent à cette particule et simplifier éventuellement le problème. On pourra prendre les valeurs numériques suivantes : g = 9.8 m/s^2, q = 1.6\times 10^{-19} C, m=1.6\times 10^{-27} kg, E=4\times 10^4 V/m

Question 4)

Déterminer l'équation paramétrique de la trajectoire (x(t), y(t)).

Question 5)

Dans l'hypothèse où la particule n'atteint pas la plaque supérieure, déterminer le temps auquel la particule chargée atteint le sommet de sa trajectoire puis sa coordonée y.

Question 6)

Au bout de combien de teps la particule impacte-t-elle la plaque du bas ? A quelle distance de la position d'entrée ?


Projet

Auteur: Ronan Modolo

Projet

L'objectif de se projet est de se familiariser avec les expériences et les mesures spatiales. Pour cela nous prenons comme contexte la mission Cassini et nous nous intéressons à un survol de Titan (T21) ayant eu lieu le 12/12/2006. Une vue d'ensemble des observations obtenus au cours de ce survol est présenté à la figure ci-joint.

Survol T21 de Titan par la sonde Cassini.
Plot_projet_survol_T21.png
Le premier panneau présente les observations du spectromètre de masse ionique (CAPS-IMS), le second les observations du spectromètre électronique (CAPS-ELS), le troisième panneau montre les observations du champ magnétique (MAG) tandis que les quatrième et cinquième panneau sont la densité et la température électronique. Les informations déduites de la sonde de Langmuir (RPW-LP) sont indiqués en bleu et les courbes noirs représentent les informations déduites du spectromètre électronique.
Crédit : La figure a été réalisé à partir d'AMDA. Les données sont en accès libre et archivé à la base du "Planetary Data System" de la NASA.

Données

Les données que l'on utilise pour ce projet sont celles mesurées par la sonde de Langmuir (RPWS-LP) et celles du spectromètre électronique (CAPS-ELS)

  1. Pour la sonde de Langmuir : Le fichier de données est accessible via l'URL suivante
  2. Pour le spectromètre électronique : Le fichier pré-traité (par rapport aux données du PDS qui sont des données brutes nous avons étalonné les mesures) est accessible via l'URL suivante

Instructions

Il s'agit de déterminer la densité et la température électronique dans deux régions distcinctes de l'environnement de Titan avec les deux instruments.

  1. Une première étape consiste à lire les deux fichiers et tracer les valeurs à l'aide d'un logiciel de visualisation (de votre choix). Les courbes à reproduire sont présentées à la page suivante
  2. Pour la sonde de Langmuir : - il faut utiliser les relations vues dans ce chapitre, I(U), et ajuster les paramètres libres (n_e,T_e, ...). L'ajustement peu se faire par exemple par une méthode de moindre carrés. On en déduira les valeurs de n_e et T_e à trouver et on comparera notre résultat à celui produit par les équipes de Cassini (valeurs vers 11h40 de la figure suivante)
  3. Pour le spectromètre électronique : la aussi il faudra utiliser les notions vues dans ce chapitre. On essaiera d'ajuster deux Maxwellienne pour représenter les données. Une Maxwellienne représentera la population électronique de basse énergie (quelques eV) et une autre Maxwellienne pour la population de plus haute énergie (autour de quelques centaines d'eV). Une fois l'ajustement effectué, on déterminera la densité et la température électronique des électrons du plamsa ambaint (ceux d quelques centaines d'eV). On pourra comparer les résultats de nos calculs aux résultats produit par les équipes Cassini (valeurs vers 11h00 de la figure suivante).

Représentations des données

Une fois les fichiers de données téléchargées et lues, vous devez obtenir des graphiques similaires à ceux de cette page.

Donnees_LP
CASSINI_RPWS_LP_figure_projet.png
Données de la sonde de Langmuir tension-intensité représenté en échelle linéaire (panneau du haut) et échelle logarithmique (panneau du bas). CASSINI 2006/12/12 à 11:40:00
Crédit : Les données sont extraites du NASA Planetary Data System.
Données CAPS ELS
CAPS_ELS_figure_projet.png
Données du spectromètre électronique CAPS ELS. Les données représente un flux différentiel. (CASSINI 2006/12/12 à 11:00:00)
Crédit : Les données sont extraites du PDS puis retravaillées pour être converties en unité physique.

-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Techniques et méthodes


Techniques et méthodes

Ces chapitres décrivent les techniques et méthodes de détection et d'étude des planètes et des exoplanètes.

La recheche d'exoplanètes se fait avec des méthodes diverses et complémentaires, en particulier :

L'étude des (exo)planètes s'appuie aussi sur une grande diversité de techniques et d'outils, en particulier numériques ou mathématiques, par exemple ;

Les CubeSats sont un technique plus rapide à mettre en oeuvre que les missions spatiales classiques pour observer un phénomène.


Les CubeSats

Auteur: Gary Quinsac

Les CubeSats

Ce cours est une introduction aux problématiques liées à la réalisation d'une mission spatiale. Pour ce-faire, nous vous proposons d'aborder un format bien particulier de petits satellites : les CubeSats. D'une manière générale, le bon fonctionnement d'un satellite est garanti par de nombreux domaines qui seront introduits dans ce cours. Dans un second temps, nous nous focaliserons sur un aspect en particulier, la nécessité de fournir un contrôle d'attitude et d'orbite pour mener à bien une mission spatiale. Des exercices vous permettront de vous exercer sur de nombreux points du cours. Enfin, vous pourrez utiliser les connaissances acquises pour pré-dimensionner quatre missions spatiales qui vous sont proposées sous la forme de mini-projets.

prerequisPrérequis

La partie Découvrir s'adresse à toute personne, pas nécessairement scientifique, qui souhaiterait découvrir brièvement les aspects et enjeux d'une mission spatiale. Pour aborder la partie Comprendre, un bagage scientifique de niveau licence est requis, à savoir :

Tout au long de ce cours le lecteur doit garder à l'esprit que de nombreuses notions abordées pourraient faire l'objet d'un cours à part entière. Des liens vers d'autres cours issus de ce site ou de Fenêtre sur l'univers seront proposés autant que possible. Voici également des références qui pourront lui permettre d'approfondir les sujets souhaités :

bibliographieLivres conseillés

[Début du cours]


Découvrir

Auteur: Gary Quinsac

Projet spatial

Auteur: Gary Quinsac

Intérêt des satellites

Besoin scientifique

L'astronomie est science d'observation. Dans l'Antiquité, l'observation des objets célestes visibles à l’œil nu permet d'abord la mesure du temps. Ensuite, elle s'attache à prédire les mouvements des objets observés. Les observations étaient menées par des astrologues (qui parlent des astres) qui, au fil du temps, ont évolué pour travailler comme astronomes (qui étudient le mouvement des astres) et, aujourd'hui, astrophysiciens (qui utilisent la physique pour comprendre les astres). Au cours des siècles les instruments utilisés s'améliorent, permettant des observations toujours plus fines. Le XXème siècle marque un tournant, les astronomes se retrouvant confrontés à des limitations difficilement surmontables ainsi qu'à des besoins nouveaux :

Pour certains objectifs, il apparaît alors nécessaire de satelliser les instruments d'observation.

Différentes applications actuelles

Dès le début de l'ère spatiale, les industriels emboîtent le pas des scientifiques et imaginent des applications commerciales. On retrouve ainsi, de nos jours, de nombreux types de satellites différents :

complementAller plus loin

Opacité atmosphérique
images/opacite-atmospherique.png
Pourcentage d'absorption du spectre électromagnétique par l'atmosphère terrestre. Si l'atmosphère est opaque à une grande partie du spectre électromagnétique, parmi les exceptions se trouve le domaine du visible.
Crédit : NASA
Turbulence atmosphérique et optique adaptative
images/Star_HIC59206_VLT_AO.jpg
Effets liés à turbulence atmosphérique. L'image de gauche est l'étoile HIC 59206 capturée par le VLT, tandis que celle de droite est la même image corrigée par optique adaptative.
Crédit : European Southern Observatory
Météorologie
images/ouragan-matthew-eumetsat.jpg
L'ouragan Matthew vu dans l'infrarouge par le satellite Metop-A, le 7 octobre 2016. Les observations dans plusieurs bandes spectrales conduisent, une fois compilées, à une carte de température.
Crédit : Eumetsat

Classes de satellites

Les satellites sont généralement classés en fonction de leur masse au lancement. Alors que dans les années 60, lorsque l'affrontement politique entre les États-Unis et l'Union soviétique s'exprimait sur le terrain de la course à la Lune, les engins spatiaux n'étaient limités que par les progrès techniques de l'époque, ce sont actuellement des critères économiques qui prévalent lors du développement des satellites. Une relation à peu près linéaire existe entre la masse d'un satellite et son coût. Une classification typique des satellites est présentée dans le tableau suivant.

Classification des satellites
DénominationMasseCoûtExamples
Gros satellites> 1 t> 150 M€Station Spatiale Internationale (500 t)
Sondes spatiales : Cassini Huygens autour de Saturne (NASA, 5,7 t) / Rosetta autour d'une comète (ESA ,3 t)
Satellites GEO de 3 à plusieurs dizaines de tonnes
Satellites LEO, MEO et GEO de 1 à 3 tonnes
Satellites moyens<1 t< 150 M€Constellation de télécommunication Iridium en LEO (66 satellites, 700 kg)
Télescope spatial CoRoT pour l'étude des étoiles (CNES, 668 kg)
Constellation Galileo, système de positionnement par satellites (ESA, 700 kg)
Minisatellites< 500 kg< 50 M€Sondes spatiales : New Horizons vers Pluton (NASA, 478 kg, ~600 M€) / SMART-1 vers la Lune (ESA, 366 kg, ~110 M€)
Plateforme PROTEUS (Thalès)
Microsatellites< 100-150 kg< 8 M€Plateforme Myriade (CNES, 100-150 kg) : PARASOL pour l'étude de l'atmosphère terrestre / MICROSCOPE pour le test du principe d'équivalence
PROBA-1 : démonstrateur technologique (ESA, 94 kg)
Nanosatellites< 10 kg< 3 M€Constellation Planet Labs (60 CubeSats 3U de 5 kg début 2017), observation de la Terre
GOMX-1 : CubeSat 2U (GomSpace 2,66 kg), démonstrateur technologique
ROBUSTA-1A (CNES / Université de Montpellier 2) : CubeSAT 1U (1 kg) développé par des étudiants
Picosatellites, femtosatellites...< 1 kg< 300 k€WREN (STADIKO) : femtosatellite de démonstration technologique financé participativement

complementSource d'information

Masse et coûts de quelques satellites
images/comparaison_mass_cout_satellites.png
Comparaison de la masse et du coût de certains satellites. Les deux paramètres sont reliés par une relation presque linéaire, les satellites scientifiques apparaissant plus coûteux.
Crédit : Gary Quinsac
Hubble
images/hubble-in-orbit.jpg
Télescope spatial Hubble. Sa masse est de 11 tonnes, il fait la taille d'un bus (13 x 4 x 4 m3) et consomme 2,8 kW. Son orbite relativement basse (550 km d'altitude) a permis aux navettes spatiales américaines de venir effectuer des réparations et des remplacements d'équipements.
Crédit : ESA
Station Spatiale Internationale
images/ISS.jpg
Plus grand objet artificiel placé dans l'espace (110 m de longueur, 74 m de largeur et 30 m de hauteur), la Station Spatiale Internationale fait environ 400 tonnes. Chacune de ses 16 ailes de panneaux solaires mesure 35 m de long pour 12 m de large, produisant un maximum de 120 kW. Son altitude varie entre 330 et 420 km et a été choisie pour faciliter son assemblage/ravitaillement en orbite par les différents pays impliqués dans son exploitation.
Crédit : CNES
Satellite GPS
images/GPS-satellite.jpg
Un satellite GPS de 1,5 tonne pour 2.5 x 2 x 2 m3. Il consomme 1,9 kW et orbite à 20000 km d'altitude. De nombreux satellites de ce type composent ce qu'on appelle une constellation GPS, l'objectif étant d'avoir toujours au moins 4 satellites en visibilité depuis une zone donnée à la surface de la Terre.
Crédit : GPS.gov
Satellite de télécommunication
images/KA-sat.jpg
Satellite de télécommunication KA-SAT d'une masse de 6 tonnes (dont 3 pour le carburant) et mesurant 5 x 2 x 2 m3. Comme de nombreux satellites de télécommunication il se trouve sur l'orbite géostationnaire (GEO), c'est à dire à 36000 km d'altitude. Ses panneaux solaires de 40 m d'envergure lui permettent de produire 14,4 kW.
Crédit : J. Huart/ ESA

Système spatial

Un système spatial se décompose en trois éléments :

Segment spatial

Le segment spatial est décomposé en deux sous-ensembles principaux : la charge utile et la plateforme. La charge utile regroupe les instruments nécessaires à la réussite de la mission. Cela va du montage optique pour un satellite d'observation tel que Hubble aux antennes et amplificateurs associés pour un satellite de télécommunication. Il est important de remarquer que c'est la charge utile d'un satellite qui définit sa mission. La plate-forme assure les servitudes, c'est-à-dire l'ensemble des fonctions génériques nécessaires à l'activité en orbite. Ses différentes fonctions sont :

Ces aspects sont developpés plus en détail dans la partie consacrée aux sous-systèmes.

Segment sol

Le segment sol se compose des stations de poursuite, des moyens d'opération et de commande/contrôle et des moyens de programmation de la charge utile, de réception, pré-traitement, archivage et diffusion des informations de cette même charge utile (centre de mission).

Lancement

Le lancement est l'étape permettant la mise en orbite d'un objet. C'est une étape dimensionnante en termes d'orbite atteinte, de masse et de volume disponibles sous coiffe. Le lanceur le plus lourd jamais créé a permis à un homme de marcher sur la Lune pour la première fois en 1969 et se nomme Saturn V. Depuis, de très nombreux types de lanceurs ont été développés pour permettre à des charges utiles plus ou moins importantes d'atteindre différentes orbites.

Les différentes orbites terrestres sont classées en fonction de leurs altitude, inclinaison et excentricité. En voici quelques unes :

complementCeintures de Van Allen

Les ceintures de Van Allen, ainsi nommées en l'honneur du physicien les ayant découvertes, sont des zones de la magnétosphère terrestre contenant une grande densité de particules énergétiques, pour la plupart d'origine solaire. Leurs deux principaux effets sont la création d'aurores polaires lorsque les particules énergétiques rencontrent l'atmosphère terrestre et la mise en danger des satellites les traversant (des blindages sont nécessaires pour protéger les équipements sensibles de satellites passant une longue période dans les ceintures). On a pour habitude de considérer qu'elles sont au nombre de deux, la première s'étendant entre 700 km et 10 000 km d'altitude et la seconde entre 13 000 km et 65 000 km. D'autres ceintures sont susceptibles d'apparaître mais ne semblent pas permanentes.

Station sol de PicSat
images/station-sol-picsat.jpg
Station sol UHF/VHF installée à l'Observatoire de Meudon pour communiquer avec le CubeSat PicSat.
Crédit : PicSat
Comparaison de lanceurs
images/taille-comparative-fusees.jpg
Comparaison de lanceurs utilisés depuis le début de l'ère spatiale. La masse de carburant embarqué par un lanceur pour satelliser un objet représente la majeure partie de sa masse au lancement. Par exemple, l'Ariane 5 GS est capable d'emporter plus de 6 tonnes en orbite GTO, elle mesure à peu près 50 m de hauteur pour une masse au décollage de 750 tonnes composée à 90% de carburant.
Crédit : NASA
Orbites terrestres
images/orbites_terrestres.png
Orbites terrestres les plus utilisées.
Crédit : Gary Quinsac
Aurore boréale
images/aurore-boreale.jpg
Photo d'une aurore boréale en Alaska. Ces phénomènes lumineux sont provoqués par la rencontre entre des particules énergétiques provenant du Soleil ou du rayonnement cosmique et de l'atmosphère. Ces particules ont été préalablement piégées par le champ magnétique terrestre dans une zone que l'on nomme ceinture de Van Allen.

Conception, exigences et contraintes

Tout projet spatial répond à un enjeu : objectif scientifique, démonstration technologique... Il doit donc faire face à son lot d'exigences et de contraintes. Les exigences définissent les fonctions qu'un système ou un composant doit remplir. Elles répondent à la question "que fait ce système/composant ?". Les contraintes spécifient, quant à elles, ce que le système doit être. Elles sont généralement des limitations du système.

Cette situation est encore plus vraie pour les projets spatiaux. Les erreurs commises sont le plus souvent irréversibles et irratrapables une fois que le système est lancé. Il faut ainsi :

Les exigences mission dépendent du type de satellite considéré, mais le principe est toujours le même : un besoin est exprimé auquel le satellite va essayer de répondre. Se faisant, un type d'orbite va être identifié :

De ce choix découle un système de lancement, ou lanceur. La charge utile embarquée doit ensuite répondre aux exigences mission tout en prenant en compte les contraintes imposées par le système de lancement (volume et masse disponibles, interfaces) et l'environnement orbital. Toutes ces questions se posent bien entendues également pour la plate-forme, qui devra s'adapter à la charge utile choisie (ou inversement, si le choix est fait d'utiliser une plate-forme standardisée).

L'environnement spatial présente de nombreuses spécificités qui doivent être prises en compte dès le début du développement :

Outre ces aspects négatifs, l'environnement peut également être mis à profit pour certaines fonctions :

Que le programme soit public ou privé, la question du coût reste centrale. Ce coût doit prendre en compte le lancement, le segment spatial (durée de fabrication, des essais…), le système sol et des opérations. Il est ensuite amorti sur la durée de vie du système.

Des règlements nationaux et internationaux imposent des restrictions, notamment en termes de fréquences de télécommunication. La bande de fréquence utilisée doit avoir été définie en amont. Dans certains cas (satellite GEO) la notion de compatibilité électromagnétique implique de ne pas perturber les satellites voisins. La gestion d'un satellite en fin de vie est de plus en plus importante du fait de la prolifération des débris en orbite terrestre. Ainsi en France, la Loi sur les Opérations Spatiales (LOS) réglemente ces aspects.

exempleExemple : pollution orbitale

En orbite autour de la Terre, les objets sont animés de vitesses relatives qui peuvent atteindre 15 à 20 km/s. À de telles vitesses, les énergies cinétiques qui sont en jeu peuvent engendrer de très importants dégâts. Chaque collision, au même titre que le délitement des vieux satellites, crée de nouveaux débris qui viennent augmenter le nombre d'objets orbitant la Terre. Cette pollution orbitale croît très fortement et impose aux États et aux entreprises de mettre en place des stratégies de réduction du nombre de débris.

Classification des débris orbitaux et risques associés
Taille de l'objetNombre d'objetsRépertoriés ?Risques associés à l'objet
> 10 cm20 000OuiCollisions catastrophiques, production de débris
1 cm < objet < 10 cm500 000NonPerte de la mission, aucun blindage ne résiste à des objets > 2 cm
< 1 cm> 10 000 000NonPerforations, risque de perte d'équipement critique
Arbre fonctionnel
images/arbre-fonctionnel.jpg
Exemple d'arbre fonctionnel. A partir des fonctions principales sont dérivées des fonctions secondaires, jusqu'à pouvoir identifier des solutions exécutant ces fonctions.
Crédit : Gary Quinsac
Nombre mensuel d'objets en orbite terrestre par type d'objets
images/nombre-debrits.jpg
Résumé de tous les objets en orbite terrestre officiellement répertoriés par l'U.S. Space Surveillance Network. Les "débris issuent de la fragmentation" regroupent les débris produits par des anomalies (explosions, casses...), tandis que les "débris fonctionnels" regroupent l'ensemble des objets libérés, distribués ou séparés dans le cadre d'une mission. Les "morceaux de fusée" quant à eux sont des pièces ou des ensembles de pièces appartenant à la fusée (tels que les différents étages de poussée). Le pic observé en 2007 correspond à la destruction par la Chine de l'un de leurs satellites météorologiques (Fengyun-1C) dans le cadre d'un test de missile anti-satellite. Le second, en 2009, est dû à la collision entre un satellite militaire russe hors de service (Cosmos 2251) et un satellite de télécommunication américain (Iridium 33).
Crédit : NASA - Orbital Debris Quarterly News, February 2017

Déroulement d'un projet spatial

Cycle de vie d'un système

Au cours d'un projet, un système va être amené à évoluer, d'un premier état conceptuel à un état physique. Des tests doivent alors êtres effectués pour s'assurer que le système répond aux exigences identifiées précédemment, ce sont les étapes de validation. Les états successifs du système et les activités le concernant constituent ce que l'on appelle le cycle de vie. S'il existe différentes façons de représenter ce-dernier, le cycle en V reste le modèle le plus suivi. Ce cycle est parcouru de gauche à droite, d'abord du haut vers le bas puis du bas vers le haut. Aux phases de conception succèdent les phases d'assemblage, d'intégration et de test. Le cycle en V permet d'identifier facilement l'étape de validation correspondant à chaque étape de conception.

Dans certains projets, tels que des projets étudiants, on utilise des méthodes agiles. Elles ont pour origine le manifeste Agile et reposent sur un cycle de développement itératif, incrémental et adaptatif. Ces méthodes autorisent une plus grande flexibilité et réactivité, nécessaires à ces projets.

Phases d'un projet spatial

Dans le cas d'un projet spatial, on divise le déroulement du projet en 7 phases successives. Chacune d'entre-elles correspond à un état du système et se conclut par une revue de projet. On peut remarquer que les premières phases correspondent aux étapes de conception (0-A-B), avant de passer à la réalisation (C-D), à l'utilisation et au retrait.

Cycle en V
images/Cycle_en_V.png
Cycle en V d'un produit. Chaque étape de conception correspond à une étape de validation, de la même couleur.
Crédit : Gary Quinsac
Phases d'un projet spatial
images/Phases_projet.png
Phases d'un projet spatial. Chaque phase correspond à un état d'avancement du système et se conclut par une revue de projet.
Crédit : Gary Quinsac

Nanosatellites

Auteur: Gary Quinsac

Standard CubeSat

Le standard CubeSat a été défini en 1999 par l'Université polytechnique de Californie (Cal Poly) et l'Université de Stanford comme un format de nanosatellites. Ce standard définit une unité de base, appelée "U", qui est un cube de 10 cm d’arête pour une masse d'environ 1,3 kg. Ces unités peuvent être assemblées de manière à obtenir des satellites plus volumineux, appelés "2U", "3U", "6U", "12U" ou même "27U" en fonction du nombre d'unités utilisé. Outre son format réduit, ce standard permet une importante réduction des coûts financiers et opérationnels :

Illustration du standard CubeSat
images/standard-cubesats.jpg
Chaque unité ("U) est un cube de 10 cm d’arête pour une masse d'environ 1,3 kg. Il est possible d'assembler plusieurs unités.
Crédit : C²ERES, Campus et Centre spatial de PSL

Applications pour les CubeSats

Adopté dans différents secteurs

Il est possible de classer les CubeSats en différents secteurs et par extension tous les satellites de moins de 50 kg (échelles "nano" et en partie "micro"), dont les CubeSats forment la majeure partie :

De nombreuses applications

Le même classement peut être fait concernant les familles d'applications :

Une tendance à l'embonpoint

Depuis la création de ce standard, le nombre de lancements a fortement augmenté au fil des ans. Cette tendance ne fait que se confirmer avec les nombreux nouveaux acteurs du marché, qu'ils se placent du côté de la conception de CubeSats ou de leur lancement. Il est intéressant de noter que si les CubeSats de petit format (1U, 2U et 3U) ont été privilégiés jusqu'à présent, des formats 12U et 27U sont maintenant envisagés afin d'offrir des profils de mission plus flexibles (missions interplanétaires, plus grosse charge utile) tout en préservant les avantages offerts par la standardisation, faisant varier le profil des CubeSats envoyés.

Nano/microsatellites par secteur (1 - 50 kg)
images/cubesats-tendance-par-secteur.png
Le secteur commercial est en très forte augmentation, devenant bientôt le secteur dominant les satellites de 1 à 50 kg.
Crédit : Gary Quinsac / Données de SpaceWorks - Nano/Microsatellite Market Forecast, 2018
Nano/microsatellites par application (1 - 50 kg)
images/cubesats-tendance-par-application.png
Le format de ces satellites est particulèrement intéressant pour la réalisation de constellations d'observation de la Terre. Les progrès réalisés sur la miniaturisation et les retours d'expérience des premières missions poussent les acteurs à considérer sérieusement leur utilisation dans un but scientifique.
Crédit : Gary Quinsac / Données de SpaceWorks - Nano/Microsatellite Market Forecast, 2018
Lancements des nano/microsatellites
images/cubesats-historique-lancements.png
Après deux années de stagnation majoritairement due à des retards de lancement, l'année 2017 a vu une forte augmentation du nombre de lancements. Cela correspond à la croissance attendue pour ce marché, avec près de 2600 lancements attendus d'ici 5 ans.
Crédit : Gary Quinsac / Données de SpaceWorks - Nano/Microsatellite Market Forecast, 2018
Evolution de la taille des nanosatellites
images/cubesats-tendance-par-taille.png
On constate une augmentation de la taille des nanosatellites afin de répondre aux demandes de charges utiles plus complexes. Néanmoins, le format 3U devrait rester le plus populaire dans les 5 années à venir.
Crédit : Gary Quinsac / Données de SpaceWorks - Nano/Microsatellite Market Forecast, 2018

Sous-systèmes

Comme nous l'avons vu précédemment, un satellite se décompose en différents sous-systèmes essentiels à son bon fonctionnement :

Charge utile

La charge utile est le sous-système qui réalise les fonctions correspondant à l'objectif de la mission. Si celle-ci varie fortement d'une mission à l'autre, les éléments suivants qui forment la plate-forme sont généralement présents sur tous les satellites.

Structure porteuse

La structure porteuse a pour but d'assurer l'interface avec le lanceur, la cohésion mécanique du satellite et le support des équipements. Elle est aussi appelée "architecture mécanique". L'intégrité du satellite doit être assurée dans les différents environnements qu'il rencontrera au cours de sa vie, c'est-à-dire le sol, le lancement et l'orbite.

Contrôle thermique

Le contrôle thermique a pour fonction de maintenir les équipements dans leur plage de température de fonctionnement, quelle que soit la phase de la mission, et ce durant toute la durée de vie du satellite. Dans le cas de missions nécessitant une grande précision astrométrique, le contrôle thermique permet également d'uniformiser les températures afin d'assurer une stabilité dimensionnelle (et ainsi éviter des phénomènes de dilatation/contraction par exemple). Pour ce faire, on peut faciliter ou interdire certains échanges thermiques de façon passive, ou utiliser des actionneurs (des réchauffeurs pour réchauffer ou des radiateurs pour refroidir) pour réguler la température. Ce contrôle thermique s'effectue dans des conditions très particulières, celles du milieu spatial, qui limitent le nombre d'acteurs. Nous pouvons classer les acteurs en deux catégories : les sources froides et les sources chaudes.

complementComplément : modes de transfert d'énergie

Il existe trois modes de transfert d'énergie :

  • Le transfert par conduction est l'échange d'énergie, sous l'effet d'une différence de température, entre deux corps en contact physique ou au sein d'un même corps solide.
  • La convection thermique désigne l'échange d'énergie à l'interface d'un fluide en mouvement sous l'effet d'une différence de température. L'absence de fluide conducteur (air) dans l'espace empêche ce type de transfert thermique vers l'extérieur du satellite.
  • Le transfert radiatif (ou transfert par rayonnement) représente l'unique transfert possible avec l'espace. Il représente le transfert d'énergie par radiation et implique l'interaction du rayonnement avec la matière.

Génération d'énergie

La génération d'énergie permet le fonctionnement de l'engin spatial en lui fournissant l'énergie électrique dont il a besoin. En effet, ce dernier étant mobile et autonome, il a besoin de produire son électricité. Le système d'alimentation électrique est découpé en quatre éléments qui sont la production (ou source primaire), le stockage (ou source secondaire), la régulation et la distribution.

Ce sous-système occupe usuellement entre 20 % et 30 % de la masse sèche (réservoirs vides d'ergols) d'un satellite classique.

Télécommunication

Le sous-système de télécommunication utilise des émetteurs, des récepteurs ou des transpondeurs afin de gérer l'ensemble des fonctions de communication. S'il s'agit d'un satellite de communication, ce sous-système peut alors devenir la charge utile du satellite.

Télémesure, télécommande et localisation

Les équipements de télémesure, télécommande et localisation constituent un ensemble de télécommunications de servitude transmettant au sol les télémesures de différents paramètres soumis à contrôle (température d'un équipement, charge d'une batterie) et recevant les télécommandes pour les équipements à opérer (plate-forme et charge utile).

Chaîne de traitement, de stockage et de gestion bord

Les informations transitant dans le satellite sont prises en charge par la chaîne de traitement, de stockage et de gestion bord. Ce sous-système s'assure de la bonne distribution des données vers les équipements. Il est également en charge du stockage des données avant que celles-ci soient transmises, généralement à une station sol.

Système de contrôle d'attitude et d'orbite

Le système de contrôle d'attitude et d'orbite (SCAO) assure deux types de mouvement : celui autour de son centre de gravité (attitude) et celui de son centre de gravité (orbite). En d'autres termes, il est responsable de l'orientation et de la position du satellite dans l'espace. En fonction de l'attitude recherchée, les commandes d'attitude impriment les corrections d'orientation autour du centre de gravité. Le maintien du satellite sur l'orbite prévue est indispensable à la plupart des missions. Le sous-système de propulsion crée les incréments de vitesse nécessités par les manœuvres d'orbite. Celles-ci sont commandées depuis le sol, ou déterminées à bord, la détermination d'orbite à bord étant aujourd'hui rendue possible par les navigateurs embarqués qui permettent d'accroître l'autonomie des satellites.

Propulsion

La propulsion, enfin, fonctionne de pair avec le SCAO. Elle est un actionneur du SCAO, assez complexe pour être traité séparément, qui a pour fonction de créer les variations de vitesse nécessaires aux manœuvres du satellite.

complementAller plus loin

Schéma éclaté du CubeSat ArduSat3
ArduSat3.png
On retrouve une partie des sous-systèmes classiques d'un satellite sur ce CubeSat 1U. On remarque également qu'ils se présentent généralement sous la forme de cartes disposées les unes après les autres dans la structure du CubeSat.
Crédit : Wikipedia

Exemples de missions CubeSats

GOMX-3 un satellite de démonstration téchnologique

GOMX-3 est une collaboration entre l'ESA et GOMspace (Danemark) embarquant différentes charges utiles de démonstration technologique :

complementFocus sur l'émetteur bande-X

De nombreux types de missions sont maintenant rendus possibles par la miniaturisation des charges utiles, qu'elles soient scientifiques ou technologiques. L'une des principales limitations de ces missions en orbite basse est le volume de données pouvant être téléchargées par orbite. Actuellement, les CubeSats embarquent des sous-systèmes de télémétrie UHF et bande-S qui permettent de télécharger jusqu'à quelques centaines de mégaoctets (Mo) par jour. Ce volume de données est limité par la durée de visibilité entre la station sol et l'antenne du satellite ainsi que le débit (~100 ko/s en UHF et ~1Mo/s en bande-S). Afin d'augmenter les taux de transmission tout en restant compatible avec les stations sol existantes, le CNES et l'ESA ont voulu tester un émetteur-récepteur en bande-S et un émetteur en bande-X, tous deux miniaturisés pour le format CubeSat. L'émetteur en bande-X permet des débits de l'ordre de plusieurs Go par survol d'une station sol compatible bande-X (entre 3,4 et 5 m dans ce cas), tout en étant adapté aux dimensions d'un CubeSat-3U (< 10 W et 300 g pour le sous-système).

Après une année d'opération, le satellite a effectué sa ré-entrée atmosphérique. Tous les objectifs ont été atteints et la mission nominale a même été dépassée, permettant de démontrer d'autres capacités.

QB50 une flotte de CubeSats scientifiques universitaires

L'objectif de la mission QB50 est de démontrer la possibilité de lancer un réseau de satellites construits par des équipes universitaires à travers le monde pour effectuer une étude scientifique de la basse thermosphère. De nombreux enjeux du standard CubeSat se retrouvent à travers les différents objectifs de cette mission :

complementFocus sur l'étude scientifique de la thermosphère

La majeure partie des CubeSats de QB50 a comme objectif scientifique d'effectuer des mesures in-situ en de nombreux points de la thermosphère. Par le passé, cette région a été étudiée par des satellites aux orbites très elliptiques (périgée à 200 km et apogée à 3000 km), ne permettant de passer que quelques dizaines de minutes dans la zone d'étude. Les différentes techniques actuelles sont limitées. Les fusée-sondes ("sounding rockets") permettent d'obtenir des mesures durant quelques minutes et le long d'une unique colonne. Des mesures à distance sont faites depuis le sol et des orbites plus élevées, typiquement entre 600 et 800 km. L'environnement est sondé grâce à la diffusion d'un signal de référence. De telles mesures sont rendues difficiles par la raréfaction de l'atmosphère dans la basse thermosphère qui empêche d'obtenir des signaux de retour de qualité. Le moindre coût des CubeSats permet d'accepter la très courte durée de vie inhérente à une orbite très basse, offrant une étude in-situ d'une période de plusieurs mois. Trois types d'instruments sont répartis parmi les satellites (un type par CubeSat), offrant ainsi une étude poussée des différents paramètres régissant le comportement de cette région de l'espace.

Autres missions

De nombreux projets de CubeSats sont développés dans le cadre de C2ERES (Campus et Centre de Recherche pour l’Exploration Spatiale), le pôle spatial de l'Université de Recherche PSL conjointement piloté par le LabEx ESEP et le Master OSAE. En août 2017, on en dénombre pas moins de 8, à des stades de développement différents :

complementAller plus loin

GomX-3
images/GomX3.png
Illustration du CubeSat GomX-3 (3U) développé par GOMspace.
Crédit : GomSpace
Lancements des CubeSats du programme QB50
images/QB50_launchs.png
En août 2017, 36 CubeSats du programme QB50 ont été lancés : 28 depuis la station spatiale internationale et 8 par le lanceur indien PSLV.
Crédit : QB50

Système de Contrôle d'Attitude et d'Orbite

Auteur: Gary Quinsac

Introduction au Système de Contrôle d'Attitude et d'Orbite

Le contrôle d'attitude et d'orbite concerne tous les aspects nécessaires à la maîtrise de l'orientation et de la trajectoire du satellite. Il comprend :

L'ensemble s'appelle le système de contrôle d'attitude et d'orbite (SCAO). Il se compose de différents éléments :

Le SCAO est l'un des sous-systèmes essentiels de la plupart des satellites. L'une de ses raisons d'être est l'existence de perturbations agissant sur un satellite via des couples ou forces extrêmement faibles qu'il faut utiliser ou compenser. Si rien n'entrave ces phénomènes, les conséquences de ces effets deviennent rapidement significatives. Ces perturbations peuvent être externes (c'est-à-dire causées par des phénomènes extérieurs au satellite) ou internes (c'est-à-dire liées à des mécanismes ou déplacements propres au satellite).

Au sein du SCAO, on a pour habitude de distinguer le contrôle d'attitude du contrôle d'orbite de la manière suivante :

Dans la suite de ce cours nous insisterons sur le SCA, même si nous reviendrons par moments sur le système GNC. Il faut bien comprendre que les deux sont généralement développés de manière indépendante et gérés de façon autonome. Le SCAO dans son ensemble est en interaction avec les autres éléments du satellite. Ces interactions sont à l'origine de nombreuses contraintes essentielles lors du développement du SCAO.

definitionDéfinitions

Quelques définitions sont importantes à ce stade.

Digramme en bloc d'un SCAO
images/diagramme-block-scao.png
Diagramme en bloc d'un système de contrôle d'attitude et d'orbite.
Crédit : Gary Quinsac
Relations fonctionnelles du SCAO
images/scao_relations-fonctionnelles.png
Schéma des relations fonctionnelles entre le système de contrôle d'attitude et d'orbite et les autres sous-systèmes du satellite.
Crédit : Gary Quinsac

Système de Contrôle d'Attitude

Le sous-système en charge de l'attitude du satellite se nomme le système de détermination et de contrôle d'attitude (SCA). Il a différents rôles en fonction des modes du satellite. Il doit :

La détermination et le contrôle d'attitude nécessitent plusieurs outils qui seront développés dans la suite du cours.

Représentation d'attitude

L'attitude du satellite est exprimée par l'orientation de son repère par rapport à un référentiel standard (inertiel, orbital, fixé par rapport à un objet...), comme détaillé dans le chapitre sur la représentation d'attitude. Plusieurs outils existent, de la matrice du cosinus directeur aux quaternions, en passant par les angles d'Euler.

Détermination d'attitude

La détermination ou estimation d'attitude fait le liant entre les mesures fournies par les différents capteurs présents à bord du satellite et la connaissance de l'attitude. La détermination d'attitude nécessite au moins deux mesures de directions bien séparées. Il faut ici différencier les techniques de détermination directe d'attitude des techniques d'estimation :

Contrôle d'attitude

Le contrôle d'attitude rentre dans le domaine de la théorie du contrôle. Des lois de contrôle doivent être implémentées afin d'amener le système d'un état initial donné à un état final souhaité, tout en respectant certains temps de réponse. Les asservissements mis en oeuvre doivent être les moins sensibles possible vis-à-vis des perturbations, qu'elles soient internes ou externes. Des actionneurs sont enfin chargés d'appliquer les corrections d'attitude ainsi déterminées.

Une distinction importante doit être effectuée entre les contrôles d'attitude passif et actif.

Boucle SCA
images/boucle-SCA.png
Boucle de contrôle d'attitude.
Crédit : Gary Quinsac

Système de Guidage, Navigation et Contrôle

Lorsque l'on s'intéresse à l'orbite du satellite, on parle alors de guidage, navigation et contrôle (GNC). C'est une branche de l'ingénierie consacrée à la conception des systèmes de contrôle des véhicules (automobiles, bateaux, avions et satellites). La navigation répond à la question "où sommes-nous ?", le guidage à la question "comment aller à notre destination ?" et le contrôle "quelle commande donner au véhicule ?". En somme, cela concerne la détermination d'orbite et la majeure partie du contrôle, à l'exception de la réalisation du contrôle qui est prise en charge par le sous-système de propulsion. Ce sous-système joue un rôle essentiel dans le succès des missions qui impliquent un rendez-vous, de l'arrimage ("docking") et des opérations de proximité. Le logiciel de GNC se compose d'un filtre de navigation, d'un algorithme de guidage et d'un algorithme de contrôle. Ce sous-système doit ainsi :

Il ne faut pas confondre le système GNC embarqué avec le système de dynamique de vol qui fait partie du segment sol. Le GNC doit faire face à des contraintes temporelles et de calcul beaucoup plus fortes, ce qui conduit généralement à des performances des logiciels en vol insuffisantes. Un suivi depuis le sol peut se faire a posteriori et ainsi fournir une mise à jour de paramètres tels que la trajectoire de référence. Les exigences du système GNC dépendent fortement du niveau d'autonomie attendu. L'autonomie à bord permet au segment spatial de continuer les opérations de mission et de survivre à des situations critiques sans avoir recours au segment sol. Plus l'autonomie est importante plus les coûts de développement sont importants, mais les coûts d'opération diminuent. De même, dans le cas de missions interplanétaires, la rareté des canaux de communication peut être une motivation pour limiter les interactions avec le segment sol. Rares ont été les satellites autonomes sur ce plan, même si nous pouvons citer SMART-1 de l'ESA et Deep Space 1 de la NASA. Dans la plupart des cas, une majeure partie des étapes nécessaires au contrôle d'orbite sont effectuées par le segment sol avant que des télécommandes soient transmises au satellite.

Navigation

À la manière de l'estimation d'attitude, l'objectif est d'obtenir une estimation de la position orbitale satisfaisant les exigences de la mission. La navigation est généralement implémentée sous la forme d'un filtre numérique joué par l'ordinateur de bord.

Guidage

Le guidage se sert de l'estimation fournie par la navigation et de la consigne mission pour calculer certains des points suivants :

La trajectoire de référence est calculée par le segment sol et peut être mise à jour durant la mission. Les écarts à cette référence doivent rester suffisamment faibles afin que le guidage puisse les compenser au moyen de faibles variations du profil de poussée. Ces écarts peuvent être dus à des perturbations extérieures, des erreurs d'exécution de manœuvre, des incertitudes de navigation ou des délais opérationnels.

Contrôle

En s'appuyant sur l'estimation de l'état du véhicule (position, vitesse) fournie par le filtre de navigation et sur la trajectoire de référence calculée par la fonction de guidage, la fonction de contrôle s'assure de la bonne exécution de la manœuvre et corrige les erreurs résiduelles. La fonction de contrôle traduit donc les manœuvres reçues en entrée dans le format exigé par la fonction qui s'occupe de la gestion des actionneurs.

Dans le cas de propulseurs, le contrôle établit des forces dans le référentiel du satellite qui seront obtenues en contrôlant le niveau de poussée durant une durée déterminée ou en contrôlant la durée d'une poussée de puissance constante. Une fonction de gestion de la propulsion se chargera de sélectionner le propulseur optimal pour fournir la force ainsi que de fournir les couples réclamés par la fonction de contrôle de l'attitude du satellite.

Digramme en bloc d'un SCAO
images/diagramme-block-gnc.png
Boucle de contrôle d'un système GNC.
Crédit : Gary Quinsac
Sonde SMART-1
images/SMART-1_ESA.jpg
Vue d'artiste de la sonde spatiale SMART-1 sur le chemin de la Lune. Elle était équipée d'un système de propulsion ionique et d'un système de GNC autonome.
Crédit : ESA

Modes SCAO

Une fois séparé du lanceur, le satellite va parcourir une série de modes jusqu’à la fin de la mission. Des modes nominaux vont lui permettre de maintenir son attitude, atteindre son poste, déployer ses panneaux solaires et son antenne, le tout afin de se mettre en ordre de marche pour sa mission. Si nécessaire, ces modes d’opération peuvent être interrompus afin de réaliser son maintien à poste, la décharge du moment cinétique des roues à inertie ou répondre à un incident. Différents équipements sont utilisés en fonction de ces modes et certains sont cités en exemple dans la figure 1. On associe aux modes des exigences qui découlent des exigences mission, par exemple :

Modes SCAO
images/modes_SCAO.png
Modes SCAO typiques avec des exemples associés. Après une phase d'initialisation débutée par la séparation et le déploiement et conclue par le transfert d'orbite, le satellite entre dans un mode d'opérations nominales.
Crédit : Gary Quinsac

Comprendre

Auteur: Gary Quinsac

Réferentiels et transformations

Auteur: Gary Quinsac

Systèmes de coordonnées

Auteur: Gary Quinsac

Généralités

Afin de déterminer la position et l'orientation d'un objet dans l'espace, on fait appel aux systèmes de coordonnées. Dans cette partie, il ne faudra pas confondre les notions de référentiel et système de coordonnées. Un système de coordonnées est notamment défini par son centre (on parle de référentiels géocentrique ou héliocentrique), son plan de référence (équatorial, écliptique) et ses axes. En ce qui concerne les systèmes de coordonnées, on a pour habitude d'utiliser les suivants :

Système de coordonnées inertiel

Un référentiel inertiel (ou galiléen) est un référentiel dans lequel le principe d'inertie est vérifié. Tout corps libre est en mouvement de translation rectiligne uniforme ou au repos. Tout référentiel en mouvement de translation rectiligne et uniforme par rapport à un référentiel inertiel est lui-même inertiel. Les lois de la mécanique sont invariantes par changement de référentiel inertiel. On a l'habitude de distinguer un référentiel considéré comme fixe par rapport à un objet en rotation, comme le repère terrestre, avec un repère dont les axes sont fixés par rapport à une position absolue.

remarqueTermes d'inertie

Dans un référentiel non inertiel, par exemple animé d’un mouvement accéléré par rapport à un référentiel galiléen, il faut faire intervenir les termes d’inertie (comme détaillé par la suite). Ces termes se traduisent par des pseudo-forces, qui se distinguent des forces prises en compte dans un référentiel galiléen car elles ne sont pas associées à une interaction entre le corps dont on étudie le mouvement et un autre corps.


Systèmes de coordonnées célestes

En astronomie, on utilise habituellement les repères cylindriques et sphériques amputés de leur coordonnée de distance. Pour des raisons pratiques, on suppose souvent que les objets observés se situent à des positions fixes à l'intérieur de la sphère céleste, à condition que leur distance soit suffisante.

Un système de coordonnées céleste a pour fonction de déterminer une position dans le ciel. Il existe plusieurs systèmes, utilisant une grille de coordonnées projetée sur la sphère céleste, de manière analogue aux systèmes de coordonnées géographiques utilisés à la surface de la Terre. Les systèmes de coordonnées célestes diffèrent seulement dans le choix du plan de référence, qui divise le ciel en deux hémisphères le long d'un grand cercle (le plan de référence du système de coordonnées géographiques est l'équateur terrestre). Chaque système est nommé d'après son plan de référence.

Système de coordonnées horizontales

Coordonnées horizontales
images/coordonnees-horizontales.jpg
Les coordonnées horizontales locales sont la hauteur (h) et l'azimut (A). La hauteur varie de 0° (horizon) jusqu'à 90° (zénith) et l'azimut est mesuré sur le plan horizontal à partir du Nord (N). Un objet de hauteur négative n'est pas visible depuis le lieu d'observation.
Crédit : Wikipedia

Le système de cordonnées horizontales, également appelé système local ou système de coordonnées alt-azimutales, est un système de coordonnées célestes utilisé en astronomie par un observateur au sol. Le système, centré sur l'observateur, sépare le ciel en deux hémisphères : l'un situé au-dessus de l'observateur et l'autre situé au-dessous, caché par le sol. Le cercle séparant les deux hémisphères, appelé horizon céleste, situe le plan horizontal. L'altitude (ou élévation, "h") et l'azimut (A), qui constituent les deux principales coordonnées de ce système, sont définis à partir de ce plan.

Ce système de coordonnées présente l'avantage d'être simple et local. Il est facile à établir à un endroit donné à partir du moment où l'observateur sait où se trouve l'un des points cardinaux. C'est la raison pour laquelle il est particulièrement utilisé par les télescopes au sol à monture azimutale, c'est à dire l'essentiel des télescopes les plus récents.

Système de coordonnées équatoriales

Coordonnées équatoriales projetées sur la sphère céleste
images/coordonnees-equatoriales-sphere-celeste.PNG
Un système équatorial est projeté sur la sphère céleste. Les longitude (α) et latitude (δ) d'un objet sont indiquées.
Crédit : Gary Quinsac

Le système de coordonnées équatoriales est un système de coordonnées célestes dont les valeurs sont indépendantes de la position de l'observateur. Ceci est également vrai pour les systèmes de coordoonées écliptiques et galactiques. Ce système utilise comme plan de référence la projection de l'équateur de la Terre sur la sphère céleste. Cette projection s'appelle l'équateur céleste. Elle divise le ciel en deux hémisphères, chacun ayant comme axe de référence la projection d'un pôle terrestre, perpendiculaire à l'équateur céleste. À partir de ces divisions, le système permet d'établir deux coordonnées angulaires : l'ascension droite et la déclinaison.

Système de coordonnées écliptiques

Coordonnées écliptiques projetées sur la sphère céleste-
images/coordonnees-ecliptiques-sphere-celeste.PNG
Un système écliptique est projeté sur la sphère céleste. Les longitude (λ) et latitude (β) d'un objet sont indiquées.
Crédit : Gary Quinsac

Le système de coordonnées écliptiques est un système de coordonnées adapté aux objets célestes : il utilise le plan de l'écliptique (plan de l'orbite de la Terre autour du Soleil) comme plan de référence. Ce plan fait un angle d'approximativement 23° avec le plan équatorial terrestre, du fait de l'inclinaison de l'axe de rotation de la Terre. Ce repère est un système sphérique à deux dimensions.

Ce système peut être centré sur la Terre, le Soleil ou tout autre corps. Il est particulièrement utile pour les objets situés dans le système solaire.

Système de coordonnées galactiques

Coordonnées galactiques projetées sur la sphère céleste
images/coordonnees-galactiques-sphere-celeste.PNG
Un système galactique est projeté sur la sphère céleste. Les longitude (l) et latitude (b) d'un objet sont indiquées.

Les coordonnées galactiques sont adaptées aux objets situés dans notre galaxie et non situés dans le voisinage proche du Soleil. Les coordonnées galactiques sont un repérage effectué à l'aide d'une latitude et d'une longitude définies de telle sorte que le plan galactique correspond à l'équateur, et l'origine des longitudes corresponde au centre galactique. Le système de coordonnées galactiques est un système de coordonnées célestes qui prend en compte la rotation de la Galaxie sur elle-même. On parle ici aussi de longitude et de latitude galactiques. Le plan de référence de ce système est le plan de la Galaxie centré sur le centre galactique. Le pôle nord galactique a été défini par convention dans le repère équatorial par une ascension droite de 12 h 51 min 26,282 s et une déclinaison de 27°07′42.01″. Dans ce plan, la direction de référence de la mesure est la direction du centre de la Galaxie.

activiteAppliquette interactive

Une appliquette interactive est disponible ici. Elle permet d'afficher les trois principaux systèmes de coordonnées célestes en 3D.

Résumé des propriétés des systèmes de coordonnées usuels
Système de coordonnéesOriginePlan fondamentalPôlesCoordonnéesDirection principale
LatitudeLongitude
HorizontalObservateurHorizonZénith / NadirÉlévationAzimuth (A)Point nord
ÉquatorialCentre de la Terre (géocentrique) / du Soleil (héliocentrique)Équateur célestePôles célestesDéclinaison (δ)Ascension droite (α)Point vernal
ÉcliptiqueÉcliptiquePôles écliptiquesLatitude écliptique (β)Longitude écliptique (λ)
GalactiqueCentre du SoleilPlan galactiquePôles galactiquesLatitude galactique (b)Longitude galactique (l)Centre galactique

Systèmes de coordonnées spatiaux

Dans le cadre de l'analyse de l'attitude et de l'orbite d'un satellite, certains référentiels sont particulièrement utilisés. Les plus importants d'entre eux sont présentés dans cette partie.

activiteAppliquette interactive

Une appliquette interactive est disponible ici. Elle permet de visualiser dans l'espace une partie des repères spatiaux qui vous sont présentés dans cette partie.

Référentiel héliocentrique

Le référentiel de Kepler (ou référentiel héliocentrique) est le référentiel centré sur le centre de masse du Soleil et dont les axes pointent vers des étoiles fixes. Ce référentiel inertiel est utilisé pour les missions interplanétaires. Ces étoiles sont suffisamment lointaines pour qu'elles apparaissent fixes aux échelles de temps considérées.

Référentiel géocentrique (ECI)

Le référentiel géocentrique ("Earth Centered Inertial"ou ECI en anglais) est un référentiel dont l'origine est le centre de la Terre et dont les trois axes pointent également vers des étoiles fixes. L'origine du système se situe au centre géométrique de la Terre, l'axe Z est aligné avec le pôle nord, l'axe X pointe vers le point vernal et l'axe Y complète le trièdre. D'autres systèmes de ce type existent, définis par rapport à d'autres directions. La bonne connaissance de la position des étoiles permet de déterminer l'orientation du satellite dans ce référentiel par observation de ces étoiles.

complementPoint vernal "vrai"

Le point vernal "vrai" se déplace chaque année en raison de la précession des équinoxes (mouvement de l'axe de rotation de la Terre) et du lent déplacement des étoiles. De ce fait on définit un point vernal fixe conventionnel (celui du 1er janvier 2000 pour le repère J2000).

Référentiel terrestre (ECEF)

Le référentiel terrestre ("Earth-Centered, Earth-Fixed" ou ECEF en anglais) est un référentiel centré sur le centre de masse de la Terre et dont les trois axes sont liés au globe terrestre. Ce référentiel est en mouvement de rotation pure dans le référentiel géocentrique. L'axe vecteur(Z) coïncide avec l'axe de rotation de la Terre et les axes vecteur(X) et vecteur(Y) sont fixés par rapport à la Terre.

remarqueRemarque

Le référentiel géocentrique se distingue du référentiel terrestre, dont l'origine est prise au centre de la Terre, mais dont les axes sont attachés au globe terrestre. Il est également différent du référentiel héliocentrique, dont les axes pointent vers des étoiles lointaines mais dont l'origine est prise au centre du Soleil. Ainsi, le référentiel terrestre est en rotation dans le référentiel géocentrique, lui-même en translation circulaire dans le référentiel héliocentrique. La position et l'orientation d'un satellite par rapport à un tel système doivent être connues afin de maintenir une communication avec le sol ou de réaliser de la détection terrestre.

Repère orbital

Les repères orbitaux sont liés à l'orbite du satellite et à sa position sur cette orbite. Ils tournent à mesure que le satellite orbite autour de la Terre afin qu'un axe pointe dans une direction particulière, tandis que les deux autres sont normaux. On peut citer différents repères orbitaux. Généralement, l'axe vecteur(Z) pointe vers le nadir et l'axe vecteur(Y) est normal au plan orbital.

Pour les satellites pointant la terre, l'orientation/vitesse angulaire du corps du satellite est définie par rapport à un repère fixé sur l'orbite.

Référentiel satellite

Le référentiel du satellite est défini par le corps du satellite. On a l'habitude de définir le repère satellite avec l'orientation d'un élément de navigation essentiel comprenant les capteurs d'attitude les plus critiques et les instruments de la charge utile. Le SCA utilise une combinaison de capteurs et d'actionneurs pour maintenir l'orientation et la vitesse angulaire du référentiel du satellite par rapport à un repère extérieur de référence. Celui-ci dépend généralement du type de pointage requis par la mission (inertiel, solaire, nadir etc).

Repère instruments

Un repère instrument est aligné suivant les directions caractéristiques de l'instrument. Ces repères sont définis par rapport au repère satellite ou par rapport à un repère secondaire, lui-même défini par rapport au repère satellite. L'alignement entre les différents référentiels est mesuré sur le sol mais peut évoluer pendant le lancement, mais également à cause du changement de gravité et des distorsions thermiques. Un instrument peut d'ailleurs être positionné sur un bras articulé (cela se rencontre surtout sur les sondes planétaires). La connaissance précise de l'attitude nécessite un étalonnage en vol de ces changements d'alignement et distorsions. Les données et les commandes de la charge utile et des capteurs sont paramétrées par rapport aux systèmes de coordonnées locaux.


Représentation d'attitude

Auteur: Gary Quinsac

Introduction

L'orientation d'un satellite dans l'espace correspond à l'orientation du repère fixé sur son corps par rapport à un autre repère, tel que ceux vus précédemment. Ainsi, la détermination d'attitude d'un satellite en particulier requiert des méthodes d'estimation de la matrice orthogonale transformant des vecteurs d'un référentiel de référence fixé dans l'espace à un référentiel fixé par rapport au corps du satellite. De plus, une mission spatiale ne peut être définie par un unique référentiel. En fonction des besoins, de l'échelle à laquelle on se place, il est nécessaire d'utiliser tel ou tel référentiel. Dès lors, le passage d'un référentiel à un autre devient un aspect crucial du SCAO. L'une des plus importantes propriétés des matrices d'attitude est énoncée par le théorème d'Euler.

definitionThéorème d'Euler

L'orientation instantanée d'un objet peut toujours être décrite par une unique rotation autour d'un axe fixe.

On peut parler de pôle eulérien pour nommer le centre de rotation. Il doit son nom au mathématicien et physicien suisse Leonhard Euler. Dès lors qu'un point d'un solide reste fixe lors d'un déplacement, ce déplacement est équivalent à une rotation autour d'un axe passant par le point fixe (pôle eulérien). En algèbre linéaire, ce théorème implique que deux référentiels cartésiens partageant la même origine sont reliés par une rotation autour d'un axe fixe.

Leonhard Euler
images/Leonhar-Euler.jpg
Portrait par Johann Georg Brucker (1756).
Crédit : Domaine public

Les relations permettant de jongler entre les systèmes de coordonnées peuvent être charactérisées de différentes manières, comportant chacune leurs lots d'avantages et inconvénients. Certaines d'entre elles sont présentées dans la partie suivante :

Les démonstrations des principales relations sont proposées en exercices.


Matrice du cosinus directeur

La façon la plus évidente de donner l'orientation d'un référentiel par rapport à un autre est d'exprimer leurs vecteurs de base dans l'autre repère.

Changement de repère en 2D

Une introduction simple à ce changement de repère peut être faite en 2D. Prenons un référentiel R, avec les axes X_R et Y_R, incliné par rapport à un référentiel B, d'axes X_B et Y_B, d'un angle \theta. Le vecteur \bold {OP} peut être exprimé dans ces deux systèmes sous forme matricielle :{\bold {OP}}_R = \binom{x_R}{y_R} et {\bold {OP}}_B = \binom{x_B}{y_B}.

La relation entre les deux systèmes de coordonnées peut être décrite par une matrice de cosinus directeur (MCD), ou matrice de rotation, variant avec \theta. Cette matrice transforme le vecteur \bold{OP} du premier référentiel R vers le second B.

\binom{x_B}{y_B} = \begin{pmatrix} cos \theta & sin \theta \\ 0 & 0 \end{pmatrix} \binom{x_R}{y_R}

Les éléments de la MCD correspondent aux produits scalaires des vecteurs de base. Le produit scalaire entre deux vecteurs unitaires correspond au cosinus de l'angle formé par ces vecteurs.

activiteAppliquette interactive

Une appliquette interactive est disponible ici. Elle revient sur le changement de repère en 2D en permettant de projeter les coordonnées d'un point dans un référentiel en rotation par rapport à un autre.

Généralisation à l'espace à 3 dimensions

En 3 dimensions la MCD est une matrice de passage 3x3. L'expression d'un vecteur \bold v_B dans B à partir de son expression \bold v_R dans R s'écrit :

\bold v_B = [T]_{B|R} \bold v_R avec [T]_{B|R} = \begin{pmatrix} \bold B_x \cdot \bold R_x & \bold B_x \cdot \bold R_y & \bold B_x \cdot \bold R_z \\ \bold B_y \cdot \bold R_x & \bold B_y \cdot \bold R_y & \bold B_y \cdot \bold R_z \\ \bold B_z \cdot \bold R_x & \bold B_z \cdot \bold R_y & \bold B_z \cdot \bold R_z \end{pmatrix}

On dit que la MCD décrit l'orientation de B par rapport à R. On l'appelle également matrice de rotation ou matrice de transformation des coordonnées de R vers B.

Rotations élémentaires

Trois rotations élémentaires de R autour de chacun de ses trois axes se retrouvent décrites par les matrices de rotation suivantes :

[T(\theta_1)]_1 = \begin{pmatrix} 1 & 0 & 0 \\ 0 & c_{\theta_1} & s_{\theta_1} \\ 0 & -s_{\theta_1} & c_{\theta_1} \end{pmatrix}, [T(\theta_2)]_2 = \begin{pmatrix} c_{\theta_2} & 0 & -s_{\theta_2} \\ 0 & 1 & 0 \\ s_{\theta_2} & 0 & c_{\theta_2} \end{pmatrix} et [T(\theta_3)]_3 = \begin{pmatrix} c_{\theta_3} & s_{\theta_3} & 0 \\ -s_{\theta_3} & c_{\theta_3} & 0 \\ 0 & 0 & 1 \end{pmatrix}

[T(\theta_i)]_i indique une rotation d'angle \theta_i autour du i-ème axe du référentiel fixé sur le corps.

Propriétés de la MCD

La MCD est une matrice orthogonale, ce qui signifie que son inverse est égal à sa transposée :

[T]^{-1} = [T]^T et [T][T]^T = [I] = [T]^T[T]

\bold v_R = [T]_{R|B}^T \bold v_B = \begin{pmatrix} \bold B_x \cdot \bold R_x & \bold B_y \cdot \bold R_x & \bold B_z \cdot \bold R_x \\ \bold B_x \cdot \bold R_y & \bold B_y \cdot \bold R_y & \bold B_z \cdot \bold R_y \\ \bold B_x \cdot \bold R_z & \bold B_y \cdot \bold R_z & \bold B_z \cdot \bold R_z \end{pmatrix}

Les transformations successives entre référentiels peuvent être déterminées par une série de multiplications matricielles. Par exemple, la transformation du référentiel inertiel au référentiel du satellite peut être décomposée de la manière suivante : transformation du référentiel inertiel au référentiel fixé sur la Terre multipliée par la transformation du référentiel fixé sur la Terre au référentiel orbital, le tout multiplié par la transformation du repère orbital au repère du satellite.

[T]_{sat|inertiel} = [T]_{sat|orbite} [T]_{orbite|Terre} [T]_{Terre|inertiel}

Limitations de cette représentation

Malgré certains avantages, la MCD n'est pas toujours la représentation la plus adaptée. Elle utilise 9 paramètres pour décrire une orientation, parmi lesquels seulement 3 sont indépendants.


Angles d'Euler

Présentation des angles d'Euler

Les angles d'Euler sont les angles introduits par Leonhard Euler pour décrire l'orientation d'un solide. Ils peuvent être utilisés pour définir l'orientation d'un référentiel par rapport à un autre. On obtient une rotation en faisant varier l'un des trois angles d'Euler et une séquence de 3 rotations est suffisante pour décrire n'importe quelle transformation. La première rotation est effectuée selon n'importe quel axe, tandis que les deux suivantes ne peuvent jamais être effectuées autour d'un axe utilisé par la rotation précédente. Au total, 12 jeux d'angles d'Euler existent : (1,2,1), (1,2,3), (1,3,1), (1,3,2), (2,1,2), (2,1,3), (2,3,1), (2,3,2), (3,1,2), (3,1,3), (3,2,1), (3,2,3). L'ordre des rotations et la valeur des angles ne sont pas uniques et sont sujets à des singularités mathématiques.

Exemples

activiteAppliquette interactive

Une appliquette interactive est disponible ici. Elle permet de visualiser dans l'espace les séquences d'Euler qui sont introduites dans cette section à titre d'exemple.

Les angles d'Euler décrivent une rotation unique, ce qui est généralement un avantage par rapport à la MCD. Cependant, à une orientation donnée correspondent plusieurs jeux d'angles d'Euler.

De la séquence d'Euler à la MCD

Quelle que soit la séquence d'Euler, la MCD peut facilement être obtenue en multipliant les matrices de rotation élémentaires. Soit la séquence particulière suivante, décrivant l'orientation du référentiel B par rapport au référentiel A :

[T(\theta_1)]_1 \leftarrow [T(\theta_2)]_2 \leftarrow [T(\theta_3)]_3

[T]_{B|A} = [T(\theta_1)]_1 [T(\theta_2)]_2 [T(\theta_3)]_3, donc : [T]_{B|A} = \begin{pmatrix} c_{\theta_2} c_{\theta_3} & c_{\theta_2} s_{\theta_3} & -s_{\theta_2} \\ s_{\theta_1} s_{\theta_2} c_{\theta_3} - c_{\theta_1} s_{\theta_3} & s_{\theta_1} s_{\theta_2} s_{\theta_3} + c_{\theta_1} c_{\theta_3} & s_{\theta_1} c_{\theta_2} \\ c_{\theta_1} s_{\theta_2} c_{\theta_3} +s_{\theta_1} s_{\theta_3} & c_{\theta_1} s_{\theta_2} s_{\theta_3} - s_{\theta_1} c_{\theta_3} & c_{\theta_1} c_{\theta_2} \end{pmatrix}

Nous avons utilisé les notations c_{\theta} = cos \ \theta et s_{\theta} = sin \ \theta.

Limites de cette représentation

D'une manière générale, les angles d'Euler déterminent une orientation unique, ce qui est un avantage sur la MCD. Des singularités apparaissent lorsque le deuxième angle d'Euler aligne les premier et troisième axes de rotation. Dans ce cas, cette description d'attitude à 3 degrés dégénère en une description à seulement 2 degrés de liberté. Cette condition est réalisée lorsque l'angle vaut 90 et 270 degrés pour les 6 rotations où les premier et troisième axes sont différents, et lorsque l'angle vaut 0 et 190 degrés pour les 6 rotations où les premier et troisième axes sont identiques.

Séquence d'Euler pour les paramètre orbitaux
images/euler-313.png
La séquence d'Euler (3-1-3) correspond aux paramètres orbitaux habituellement utilisés pour un satellite en orbite terrestre : le nœud ascendant (\Omega), l'inclinaison (i) et l'anomalie vraie (\nu).
Crédit : Gary Quinsac
Séquence d'Euler pour les roulis, tangage et lacet
images/Satellite-roulis-tangage-lacet.png
La séquence d'Euler (3-1-2) correspond aux angles de roulis, tangage et lacet. Ils sont illustrés avec le satellite d'observation de la Terre SPOT 3.
Crédit : Gary Quinsac

Quaternions

Auteur: Gary Quinsac

Représentation 3D

Afin de s'affranchir du problème de singularité rencontré avec les angles d'Euler, une représentation de l'attitude composée de 4 éléments est introduite sous le nom de quaternion (dont les éléments sont appelés paramètres d'Euler). Cette construction mathématique est présentée plus en détail dans la partie suivante.

Présentation des quaternions

Considérons l'axe fixe de la rotation présentée dans le théorème d'Euler, ou vecteur propre \bold e. C'est un vecteur unité possédant les mêmes composantes dans les référentiels de départ et d'arrivée : \bold e_r = \bold e_b. Ainsi, 4 grandeurs sont requises pour décrire de façon non-ambigüe l'orientation par rapport à un référenciel : les 3 composantes de \bold e et l'angle de la rotation, \theta.

Les quaternions sont une combinaison de ces éléments disposés dans un vecteur de 4 éléments \bold q. Le quaternion contient la même information qu'une MCD à 9 éléments, tout en s'affranchissant des problèmes de singularité rencontrés avec les angles d'Euler. Ils sont à la fois compacts et une représentation efficace de l'orientation pour la détermination d'attitude. Une même rotation est représentée par les quaternions \bold q et - \bold q. On note également que les quatre paramètres d'Euler ne sont pas indépendants, mais contraints par la relation suivante :

\bold q^T \bold q = q_0^2 + q_1^2 + q_2^2 + q_3^2

Pour le vecteur propre \bold e_R = \bold e_B = \begin{pmatrix} e_1 \\ e_2 \\ e_3 \end{pmatrix}, les paramètres d'Euler sont : \bold q = \begin{pmatrix} q_0 \\ q_1 \\ q_2 \\ q_3 \end{pmatrix}, avec q_0 = cos({\theta \over 2}), q_1 = e_1 sin({\theta \over 2}), q_2 = e_2 sin({\theta \over 2}) et q_3 = e_3 sin({\theta \over 2}).

Des quaternions à la MCD

De la même façon que l'on peut exprimer la MCD en fonction des angles d'Euler, elle peut être paramétrée en fonction d'un quaternion de la manière suivante :

[T]_{B|R} = [T(\bold q)] = \begin{pmatrix} 1-2(q_2^2+q_3^2) & 2(q_1q_2+q_3q_0) & 2(q_1 q_3 - q_2 q_0) \\ 2(q_2q_1-q_3q_0) & 1-2(q_1^2+q_3^2) & 2(q_2q_3+q_1q_0) \\ 2(q_3q_1+q_2q_0) & 2(q_3q_2-q_1q_0) & 1-2(q_1^2+q_2^2) \end{pmatrix}

Propriétés des quaternions

Avantage des quaternions

Un avantage inhérent à cette représentation est que les équations de la cinématique deviennent purement algébriques et ne contiennent plus de fonctions trigonométriques.


Présentation mathématique

Les quaternions sont un système de nombres premièrement décrits par William Rowan Hamilton en 1843 appliqué à la mécanique et à l'espace à 3 dimensions.

complementWilliam Rowan Hamilton

Sir William Rowan Hamilton (04/08/1805 - 02/09/1865) est un mathématicien, physicien et astronome irlandais (né et mort à Dublin). Outre sa découverte des quaternions, il contribua également au développement de l'optique, de la dynamique et de l'algèbre. Ses recherches se révélèrent importantes pour le développement de la mécanique quantique.

William Rowan Hamilton
images/Hamilton_painting.jpg
Peinture de Sir William Rowan Hamilton.
Crédit : Domaine public

Définition mathématique

Autre représentation

Une autre façon de présenter un quaternion consiste à dire que q_0 est la partie scalaire de vecteur(q) et q_1 i + q_2 j + q_3 k est la partie vectorielle. Ainsi, la partie scalaire est toujours réelle et la partie vectorielle toujours purement imaginaire. Bien que l'on ait dit qu'un quaternion est un vecteur dans un espace à 4 dimensions, il est courant de définir un vecteur pour la partie imaginaire d'un quaternion : \bold q_{1:3} = q_1 i + q_2 j + q_3 k et \bold q = q_0+\bold q_{1:3}


Equations du mouvement

Auteur: Gary Quinsac

Introduction à la cinématique et la dynamique

Maintenant que nous avons étudié les différentes façons de décrire l'orientation d'un repère à l'instant t, nous pouvons introduire la notion de mouvement. Les équations du mouvement sont un aspect essentiel de la conception et de la réalisation d'un système de contrôle d'attitude car elles régissent la position au cours du temps des objets considérés. Ces équations peuvent être séparées en deux catégories :

Afin de clarifier les choses, prenons une particule ponctuelle de la physique newtonienne. Si \bold{r} représente sa position, \bold v sa vitesse et que les dérivées temporelles sont indiquées par un point, alors l'équation cinématique du mouvement s'écrit \dot{\bold{r}} = \bold{v}. L'équation dynamique du mouvement quant à elle s'écrit dans un repère galiléen m \dot{\bold{v}} = \bold{F} ou \dot{\bold{p}} = \bold F, avec \dot{\bold{p}} = m \dot{\bold{v}} la quantité de mouvement, \bold F la résultante des forces appliquées et m la masse de la particule. Comme vous le verrez par la suite, dès lors que l'on s'intéresse aux mouvement d'attitude (autour du centre d'inertie), les vecteur de position et de vitesse sont respectivement remplacés par la matrice d'attitude et le vecteur de vitesse angulaire \boldsymbol\omega. Les forces et quantités de mouvement sont quant à elles remplacées par le couple \bold C et le moment angulaire \bold H. La cinématique et la dynamique du mouvement rotationnel, ou d'attitude, sont plus compliquées que celles du mouvement de translation. Elles sont détaillées dans la section suivante.

complementAller plus loin


Cinématique du satellite

Auteur: Gary Quinsac

Cinématique du point

La cinématique est l'étude du mouvement en fonction du temps indépendammant des causes produisant ce mouvement. Elle est utilisée pour décrire la trajectoire du centre de masse d'un satellite dans l'espace.

Bases de la cinématique

Des cours sur ce sujet existent un peu partout, nous rappellerons simplement quelques notions de base ici :

Dans le cas d'un mouvement circulaire, chaque point du corps tourne dans un cercle.

Cinématique et changement de référentiels

Dans notre domaine, nous sommes constamment contraints de passer d'un repère à un autre pour décrire la trajectoire d'un objet. En cas de référentiels en rotation, tels qu'un référentiel fixé par rapport à la Terre et un référentiel inertiel, passer de l'un à l'autre nécessite d'introduire des termes supplémentaires. Par exemple, si l'on veut décrire la position, la vitesse et l'accélération d'une particule dans un référentiel inertiel noté I à partir de sa position dans un référentiel terrestre (fixé par rapport à la Terre) noté F, on peut écrire :


Cinématique d'attitude

La simulation et l'estimation d'attitude nécessitent généralement des représentations simples de l'attitude, telles que celles présentées dans le chapitre du même nom. Les équations différentielles de la cinématique peuvent ainsi être obtenues pour ces différentes représentations. Les démonstrations de ces équations sont proposées en exercices.

La cinématique d'attitude relie des vitesses angulaires à des orientations dans l'espace. Si cela peut sembler simple dans le cas d'une rotation autour d'un axe fixe, cela devient beaucoup moins intuitif dans le cas d'un mouvement plus général, où l'axe de rotation varie au cours du temps. Pour un corps en rotation autour d'un axe fixe, l'orientation par rapport à cet axe peut être déterminée en intégrant la vitesse angulaire ω, puisque \omega = \frac{d}{dt}(\theta).

MCD

Dans le cas général, la matrice exprimant le taux de variation de l'attitude est plus complexe. Considérons un référentiel B en rotation par rapport à un référentiel A avec une vitesse angulaire \boldsymbol\omega_{B|A}. Si la matrice d'attitude s'exprime [T]_{B|A}, alors :

\frac{d}{dt} \left( [T]_{B|A} \right) = -[\Omega] \ [T]_{B|A} avec [\Omega] = \begin{pmatrix} 0 & -\omega_z & \omega_y \\ \omega_z & 0 & -\omega_x \\ -\omega_y & \omega_x & 0 \end{pmatrix}

La matrice d'attitude se retrouve multipliée par une matrice anti-symétrique qui est définie à partir du vecteur \boldsymbol\omega_{B|A} représentant la vitesse angulaire du référentiel B par rapport au référentiel A, avec \boldsymbol\omega_{B|A} = \begin{pmatrix} \omega_x \\ \omega_y \\ \omega_z \end{pmatrix}.

Dans ce cas, nous avons utilisé une MCD.

Angles d'Euler

Il est également possible d'exprimer cette équation différentielle en utilisant les angles d'Euler. En reprenant la séquence de rotations [T(\theta_1)]_1 \leftarrow [T(\theta_2)]_2 \leftarrow [T(\theta_3)]_3 conduisant du référentiel A au référentiel B l'équation de la cinématique est réécrite :

\begin{pmatrix} \dot{\theta_1} \\ \dot{\theta_2} \\ \dot{\theta_3} \end{pmatrix} = \frac{1}{\textup{cos}(\theta_2)} \begin{pmatrix} \textup{cos}(\theta_2) & \textup{sin}(\theta_1) \ \textup{sin}(\theta_2) & \textup{cos}(\theta_1) \ \textup{sin}(\theta_2) \\ 0 & \textup{cos}(\theta_1) \ \textup{cos}(\theta_2) & -\textup{sin}(\theta_1) \ \textup{cos}(\theta_2) \\ 0 & \textup{sin}(\theta_1) & \textup{cos}(\theta_1) \end{pmatrix} \begin{pmatrix} \omega_1 \\ \omega_2 \\ \omega_3 \end{pmatrix}

En connaissant la vitesse angulaire d'un référentiel par rapport à l'autre en fonction du temps il est possible de déterminer la position au cours du temps d'un référentiel par rapport à l'autre. Néanmoins, l'intégration nécessite le calcul de fonctions trigonométriques ainsi que des singularités (ici \theta_2 = \pm \frac{\pi}{2}).

Quaternions

Dans le cas des quaternions, l'expression de l'équation de la cinématique se retrouve simplifiée :

\dot{\bold q} = \begin{pmatrix} \dot{q_0} \\ \dot{q_1} \\ \dot{q_2} \\ \dot{q_3} \end{pmatrix} = \frac{1}{2} \begin{pmatrix} 0 & -\omega_1 & -\omega_2 & -\omega_3 \\ \omega_1 & 0 & \omega_3 & -\omega_2 \\ \omega_2 & -\omega_3 & 0 & \omega_1 \\ \omega_3 & \omega_2 & -\omega_1 & 0 \end{pmatrix} \begin{pmatrix} q_0 \\ q_1 \\ q_2 \\ q_3 \end{pmatrix}

Une écriture plus compacte est possible :

\begin{cases} \dot{\bold q}_{1:3} = \frac{1}{2} \left(q_0 \ \boldsymbol\omega - \boldsymbol\omega \wedge \bold q_{1:3} \right) \\ \dot{q}_0 = -\frac{1}{2} \ \boldsymbol\omega^T \bold{q}_{1:3} \end{cases}

Contrairement aux angles d'Euler, les quaternions ne présentent pas de singularité géométrique. L'équation cinématique exprimée avec les quaternions ne possède pas de fonctions trigonométriques, ce qui rend les quaternions parfaitement adaptés aux calculs à bord réalisés en temps réel. Ainsi, les algorithmes de détermination d'attitude modernes sont généralement décrits en termes de quaternions.


Dynamique du satellite

Auteur: Gary Quinsac

Bases de la dynamique

Maintenant que nous nous tournons vers la dynamique d'attitude, il est important de bien différencier le mouvement de rotation d'un système du mouvement de son centre d'inertie. Nous allons nous concentrer sur le cas d'un corps rigide.

Force / Moment / Couple

Une force représente l'action d'un corps sur un autre. En revanche le moment d'une force par rapport à un point décrit l'aptitude de cette force à faire tourner un système autour de ce point. Le moment \bold \Gamma_O de la force \bold F par rapport à au point O est défini par :

\bold \Gamma_O = \bold{OM} \wedge \bold F

On parle de couple lorsqu'un ensemble de forces a une résultante nulle sur un système (leur somme vaut 0) alors que le moment résultant par rapport à un point O est non nul. Dans ce cas, il est possible de montrer que le moment global d'un tel couple par rapport à n'importe quel point est égal au produit vectoriel caractéristique du couple :

\bold C= \bold{r} \wedge \bold F

\bold r est le vecteur allant du centre de gravité du système au point d'application de la force \bold F. Si, pour un corps solide sans contraine, une force va accélérer son centre de masse, un couple aura lui pour effet d'induire un mouvement de rotation autour du centre de masse.

remarqueRemarque

On parle de couple pur lorsqu'une paire de forces d'intensité égale mais de directions opposées agissent à distance.

Propriétés d'inertie

Lorsque l'on parle du mouvement d'un solide autour de son centre d'inertie, il nous faut définir le tenseur d'inertie. Il s'exprime ainsi :

[I] = \begin{pmatrix} I_{xx} & -I_{xy} & -I_{xz} \\ -I_{xy} & I_{yy} & -I_{yz} \\ -I_{xz} & -I_{yz} & I_{zz} \end{pmatrix} = \begin{pmatrix} \sum_{i=1}^{n}{m_i \left(y_i^2+z_i^2 \right)} & -\sum_{i=1}^{n}{m_i \ x_i \ y_i} & -\sum_{i=1}^{n}{m_i \ x_i \ z_i} \\ -\sum_{i=1}^{n}{m_i \ x_i \ y_i} & \sum_{i=1}^{n}{m_i \left(x_i^2+z_i^2 \right)} & -\sum_{i=1}^{n}{m_i \ y_i \ z_i} \\ -\sum_{i=1}^{n}{m_i \ x_i \ z_i} & -\sum_{i=1}^{n}{m_i \ y_i \ z_i} & \sum_{i=1}^{n}{m_i \left(x_i^2+y_i^2 \right)} \end{pmatrix},

Les éléments diagonaux de ces expressions sont les moments d'inertie du solide par rapport aux divers axes, et les autres éléments sont les produits d'inertie. Les propriétés inertielles d'un solide sont donc totalement décrites par sa masse, la localisation de son centre d'inertie (ou centre de masse), et par les moments et produits d'inertie définis par rapport à des axes de références en un point particulier. Tous les solides ont un jeu d'axes principaux d'inertie dont l'origine se trouvent en son centre de masse et qui annule les produits d'inertie, rendant diagonale la matrice d'inertie.

activiteAppliquette interactive

Une appliquette interactive est disponible ici. Elle illustre l'importance du choix des axes d'inertie dans le calcul de la matrice d'inertie.

Moment cinétique

L'analogie avec l'étude du centre de masse est une nouvelle fois possible. Le moment linéaire d'un corps solide, produit de la masse de ce corps par la vitesse de son centre de masse, est appelé quantité de mouvement, m \ \bold v. Considérons un système matériel qui est la somme de n masses ponctuelles. Le moment angulaire, ou moment cinétique, par rapport à un point O est le moment de la quantité de mouvement \bold p par rapport à ce point O :

\bold L_O = \sum_{i=1}^{n}{\bold r_i \wedge \left( m_i \ \bold v_i \right)} = \sum_{i=1}^{n}{\bold r_i \wedge \bold p_i}

On a également pour habitude d'exprimer le moment angulaire à partir de la matrice de moment d'inertie [I] et de la vitesse angulaire \boldsymbol\omega :

\bold L = [I] \ \boldsymbol\omega

Le passage de l'une à l'autre des expressions se fait en considérant que :

rappelRappel


Dynamique du solide

Considérons un satellite solide avec un référentiel fixé sur son corps B dont l'origine se trouve au centre de masse du satellite. Notons \boldsymbol\omega_{B|I} le vecteur vitesse angulaire du référentiel B par rapport au référentiel inertiel I.

Equation d'Euler

D'après la 2ème loi de Newton, dans un référentiel galiléen, la dérivée de la quantité de mouvement est égale à la somme des forces extérieures qui s'exercent sur le solide. Dans le cas du moment angulaire, son principe de conservation stipule que sa dérivée est égale à la somme des couples extérieurs qui s'exercent sur le corps :

\dot{\bold L} = \sum_{i=1}^{n}{\bold r_i \wedge \bold F_i^{ext}} = \sum_{i=1}^{n}{\bold C_i^{ext}}

\bold L est le moment angulaire du corps solide par rapport à son centre de masse et \bold C_i^{ext} sont les couples extérieurs agissant sur ce corps. On appelle parfois cette équation l'équation d'Euler. Elle montre que seuls les couples extérieurs peuvent modifier le moment cinétique dans un système.

Facteurs impactant l'attitude d'un satellite

Il est maintenant possible de réécrire cette équation en reprenant l'expression du moment cinétique présentée précédemment complétée par le moment angulaire stocké par n'importe quel objet en rotation dans le satellite \bold L = [I] \boldsymbol\omega+ \bold h :

[I] \dot{\boldsymbol\omega} = \sum_{i=1}^{n}{\bold C_i^{ext} - \dot{\bold h} - \dot{[I]} \boldsymbol\omega}

Cette dernière équation permet de comprendre comment l'attitude d'un satellite peut être modifiée. En prenant les termes de cette équation de la gauche vers la droite, on retrouve d'abord les couples extérieurs, les objets embarqués en rotation (tels que les roues à inertie) et les modifications des moments d'inertie du satellite (qui peuvent notamment être dues à la perte de carburant au cours d'une mission).

En conclusion, les couples peuvent perturber l'attitude d'un satellite mais peuvent également être utilisés pour la contrôler. Les actionneurs doivent donc avoir une capacité suffisante pour contrer les couples perturbateurs tout au long de la mission si l'on veut un contrôle permanent de l'attitude du satellite.


Perturbations

Auteur: Gary Quinsac

Perturbations : introduction

Les faibles forces agissant sur un satellite sont connues pour dégrader la précision de pointage et engendrer des déformations mécaniques.

Des perturbations de différentes origines...

On peut distinguer les perturbations externes des perturbations internes au satellite. Dans la première catégorie on retrouve la pression de radiation solaire, la trainée atmosphérique ou pression dynamique, le couple magnétique dû au dipôle résiduel et le gradient de gravité. Les perturbations internes sont liées aux équipements présents dans le satellite. Si certains sont utilisés pour contrôler le satellite, comme les roues à inertie, la plupart sont à l'origine de couples perturbateurs. Parmi ces phénomènes, on retrouve les mécanismes tels que ceux utilisés pour les panneaux solaires ou les instruments mobiles, le désalignement et la quantification des actionneurs, le déplacement du carburant, l'incertitude sur le positionnement du centre de gravité, le frottement des roues à inertie ou encore le dégazage des polymères.

Les forces extérieures sont les plus importantes pour la majorité des CubeSats car ceux-ci sont généralement dépourvus de mécanismes ou de parties mobiles. On dénombre 4 sources environmentales de couples perturbateurs dont l'intensité varie grandement en fonction de la position du satellite dans l'espace :

Ayant différents effets

On remarque que les perturbations citées précédemment peuvent avoir deux types d'effets : séculaire ou cyclique. Les perturbations ayant un effet cyclique sont en moyenne nulles sur une orbite circulaire. Les perturbations séculaires s'accumulent durant une orbite et sont analogues à une force non-conservative. Or, on se souvient que les couples extérieurs sont proportionnels à la variation du moment cinétique du satellite. La gestion du moment cinétique va donc dépendre du type de perturbation auquel le satellite aura affaire. Suivant le pointage, certaines perturbations extérieures peuvent être cycliques ou séculaires. Dans le cas d'un pointage inertiel, on parle d'effets cycliques pour la traînée atmosphérique, le gradient de gravité et les couples magnétiques, alors qu'on parle d'effets séculaires pour les couples de pression de radiation solaire. Dans le cas d'un autre pointage classique, le pointage nadir, les couples magnétiques et de pression solaire ont des effets cycliques, à l'inverse de la trainée atmosphérique. Pour ce qui est des gradients de gravité, ils peuvent avoir les deux types d'effets.

Perturbations environmentales
images/perturbations-environmentales-fr1.png
Couples perturbateurs dus à l'environement du satellite.
Crédit : Gary Quinsac
Couples subis par un CubeSat de 3U
images/couples-perturbateurs.png
Les couples maximums subis par un CubeSat de 3U autour de la Terre et Mars sont représentés (respectivement en traits pleins et pointillés). Mars n'ayant pas ou peu de champ magnétique et une atmosphère très ténue, les couples associés ne sont pas représentés car trop faibles.
Crédit : Gary Quinsac
Couple cyclique ou séculaire : fonction du pointage
images/couples-seculaires-et-cycliques.png
Le couple de pression de radiation solaire est plus ou moins constant dans le cas d'un pointage inertiel, à l'origine d'une accumulation du moment cinétique : c'est un couple séculaire. Au contraire, ce couple est moyennement nul sur une orbite pour un satellite effectuant un pointage nadir : on dit alors que le couple est cyclique.
Crédit : Gary Quinsac
Gestion du moment cinétique
images/gestion-moment-cinetique.png
On peut voir l'accumulation du moment cinétique au cours d'une orbite dans le cas d'un couple séculaire, nécessitant de décharger celui-ci avec des actionneurs appropriés. En revanche le couple cyclique peut être stocké par un actionneur qui va se contenter de fournir un couple en opposition de phase tout au long de l'orbite.
Crédit : Gary Quinsac

Perturbations externes

Auteur: Gary Quinsac

Champ magnétique

Certains corps célestes, dont la Terre, ont des champs magnétiques assez puissants pour induire d'importants effets dans l'espace environnant. Ce champ interagit avec tout autre champ magnétique qu'il rencontre. En général, les satellites ont eux-mêmes un certain niveau de moment magnétique résiduel qui se traduit par un champ magnétique propre relativement faible. Ils se comportent comme des dipôles magnétiques car ils sont parcourus par des boucles de courant. Ainsi, un courant de I ampères circulant dans une boucle plane d'aire A produit le moment dipolaire (en A.m) :

\bold D = I \ A \ \bold n_A

Des méthodes de compensation sont généralement mises en œuvre à bord. Si le moment magnétique résiduel d'un satellite n'est pas aligné avec le champ magnétique local un couple magnétique apparaît et modifie l'attitude du satellite. Le couple magnétique \bold C_m est donné par :

\bold C_m = \bold D \wedge \bold B

\bold B (en T) représente le champ magnétique.

remarqueChamp magnétique terrestre

Bien que le champ magnétique de la Terre soit complexe, il est souvent suffisant de le modéliser tel un dipôle (30% d'erreur sont souvent considérés) et de déterminer la valeur maximum possible. Le couple maximum peut donc être estimé à partir du champ magnétique B = \frac{M}{r^3} \ \lambda, où M (en T.m3) est le moment magnétique terrestre multiplié par la constante magnétique, r la distance entre le satellite et le centre du corps , et enfin \lambda une fonction sans unité de la latitude magnétique qui prend des valeurs allant de 1 au niveau de l'équateur magnétique à 2 aux pôles magnétiques. Des modèles utilisant des harmoniques sphériques existent, à la manière du champ gravitationnel terrestre, mais la précision qu'ils permettent d'atteindre n'est pas nécessaire lors des premières phases de développement du projet spatial. L'un de ces modèles, le "12th generation of the International Geomagnetic Reference Field (IGRF)", est utilisé pour calculer le champ magnétique obtenu sur une trajectoire circulaire de 500 km d'altitude inclinée de 50°. Celui-ci est représenté par rapport au plan local tangent ou repère NED ("North East Down"). On remarque qu'il varie grandement au cours de l'orbite.

Dipôle magnétique terrestre
images/champ-magnetique.png
La Terre peut être assimilée à un dipôle magnétique dont l'axe est incliné d'à peu près 11° par rapport à l'axe nord-sud géographique. Attention, le pôle sud magnétique se trouve du coté du pôle nord géographique.
Crédit : Gary Quinsac
Champ magnétique terrestre sur une orbite
images/champ-magnetique-ned.png
Champ magnétique sur une orbite terrestre circulaire de 500 km d'altitude et 50° d'inclinaison dans le référentiel NED.
Crédit : Gary Quinsac

En dehors de quelques corps du système solaire, tels que la Terre et Jupiter, la plupart des régions de l'espace ne possèdent pas un champ magnétique suffisamment puissant et bien connu pour qu'un contrôle d'attitude magnétique puisse être utilisé par un satellite s'y trouvant.

complementAller plus loin


Gradient de gravité

Le gradient de gravité résulte de l'interaction du champ gravitationnel, lui-même proportionnel à l'inverse du carré de la distance, avec un satellite de masse non ponctuelle. L'accélération gravitationnelle est la plus forte sur la partie du satellite la plus proche du corps attracteur. Le gradient est à l'origine d'un couple qui peut être utilisé pour contrôler passivement l'attitude du satellite. Les couples de gradient de gravité apparaissent lorsque le centre de gravité d'un satellite en orbite n'est pas aligné avec le centre de masse par rapport à la verticale locale.

remarqueCentres de masse et de gravité

Le centre de masse, également appelé centre d'inertie, est le barycentre des masses d'un objet. Le centre de gravité, quant à lui, est le point d'application de la résultante des forces de gravité. Si ceux-ci sont souvent confondus, ce n'est plus le cas lorsque le champ de gravitation n'est plus uniforme dans le corps en question.

On exprime le gradient de gravité \bold C_{GG} de la manière suivante :

\bold C_{GG} = \int_{b}{\bold r_b \wedge d \bold F_{GG}}

\bold r_b est le vecteur position allant du centre de gravité du satellite à l'élément de masse et d \bold F_{GG} est la force de gravité s'appliquant sur ce même élément de masse :

d \bold F_{GG} = \frac{-G \ M}{|{\bold r_i}^3|} \ \bold r_i \ dm

G est la constante gravitationnelle, elle vaut 6,67259 \times 10^{-11} \ \textup{m}^{3}.\textup{kg}^{-1}.\textup{s}^{-2}, M est la masse du corps attracteur et \bold r_i est le vecteur position de l'élément de masse dm dans le référentiel inertiel (\bold r_i = \bold r_{CG} + \bold r_b). On peut finalement réécrire l'équation donnant le couple de gradient de gravité de la manière suivante :

\bold C_{GG} = \frac{3 \ G \ M}{|\bold r_{CG}|^5} \ \bold r_{CG} \wedge \left([I] \ \bold r_{CG} \right)

Ce couple dépend de la matrice d'inertie [I] du satellite. Différentes propriétés sont visibles dans cette équation : la magnitude est inversement proportionnelle au cube de la distance au centre du corps attracteur, sa direction est perpendiculaire au rayon vecteur et il disparaît lorsque l'un des axes principaux du satellite est aligné avec ce rayon vecteur.

complementStabilisation par gradient de gravité

Cette technique de contrôle d'attitude passive est assez utilisée pour des satellites en orbite terrestre devant pointer au nadir. Elle consiste à faire intéragir un satellite de forme particulière avec le champ gravitationnel afin de contraindre son orientation. Une masse peut être montée au bout d'un mât perpandiculaire à l'orbite afin de créer un moment d'inertie minimum selon cet axe. Cette masse étant plus proche, elle est plus attirée. Le satellite aura alors tendance à aligner cet axe d'inertie vers la verticale à l'orbite (qui est la direction d'attraction gravitationnelle).

complementAller plus loin

Gradient de gravité
images/gradient-gravite.png
Géométrie du couple de gradient de gravité.
Crédit : Gary Quinsac
Satellite stabilisé par gradient de gravité
images/stabilisation-gradient-gravite.png
Crédit : National Air and Space Museum, Smithsonian Institution.

Pression de radiation solaire

La pression de radiation solaire est la source dominante de couples perturbateurs dans l'espace interplanétaire (absence de traînée atmosphérique, faibles champs de gravité et magnétique). Même en orbite basse, on a pour habitude de considérer qu'il est dominant à des altitudes supérieures à 800 km. Il est important de noter que si le Soleil n'est pas l'unique source de radiation (il y a notamment l'albédo de la Terre et de la Lune, les rayons cosmiques...), il est de loin la plus importante. Le Soleil émet des photons, mais également des protons et des électrons (vent solaire). L'interaction entre la lumière du Soleil et la surface du satellite est habituellement modélisée comme une force de pression exercée sur un objet.

On modélise la surface du satellite comme une collection de N surfaces d'aire S_i, dont la normale orientée vers l'extérieur est notée \bold n_B^i dans le référentiel du satellite et de coefficient de réflexion C_R^i (on lui attribue généralement une valeur de 0,6 pour un petit satellite).

Le vecteur allant du satellite au Soleil dans le référentiel du satellite s'écrit vecteur(s). L'angle entre ce vecteur et et la normale à la ième surface s'écrit alors :

\textup{cos} \left(\theta_{PRS}^i \right) =  \bold n_B^i \cdot \bold s

La force de pression de radiation solaire exercée sur une surface peut alors s'exprimer de la manière suivante :

\bold F_{PRS}^i = - \bold P_S \ S_i \ C_R \ \textup{max} \left( \textup{cos} \left( \theta_{PRS}^i \right) \ ; \ 0 \right) avec P_S = \frac{\phi_S}{c}

\phi_S (en W.m) est l'irradiance solaire moyenne (fonction de la distance au Soleil) et c (en m/s) est la vitesse de la lumière.

La différence entre les positions des centres de pression solaire et de masse aboutit à un couple de radiation solaire. Une telle différence dépend des surfaces éclairées, de l'incidence des rayons lumineux et de la répartition de la masse à l'intérieur du satellite. On note \bold r_i le vecteur allant du centre de masse du satellite au centre de pression de radiation solaire de la ième surface. Le couple de radiation solaire s'écrit alors :

\bold C_{PRS} = \sum_{i=1}^{N}{\bold r_i \wedge \bold F_{PRS}^i}

complementComplément : coefficients de réflexion

Afin de gagner en précision, il est possible de détailler le coefficient de réflexion en une somme de trois coefficients dont le résultat vaut 1 :

La force de pression de radiation sur la ième surface s'exprime alors :

\bold F_{PRS}^i = -P_S \ S_i \left[ 2 \left( \frac{R_{diff}^i}{3} + R_{spec}^i \ \textup{cos} \left(\theta_{PRS}^i \right) \right) \bold n_B^i + \left( 1-R_{spec}^i \right) \bold s \right] \textup{max} \left( \textup{cos} \left( \theta_{PRS}^i \right) \ ; \ 0 \right)

complementComplément : irradiance solaire

L'irradiance solaire représente la quantité d'énergie solaire reçue par une surface de 1 m2 située à une certaine distance r du Soleil et exposée perpendiculairement. Afin de la calculer, il faut considérer la conservation de l'énergie rayonnée dans l'espace et écrire :

\phi_s = \phi_{\odot} \ \left( \frac{R_{\odot}}{r} \right)^2

avec \phi_{\odot} le flux émis à la surface du Soleil et R_{\odot} le rayon du Soleil. \phi_{\odot} est estimé en appliquant la loi de Stefan-Boltzmann au Soleil considéré comme un corps noir :

\phi_{\odot} = \sigma \ {T_{\odot}}^4

avec \sigma la constante de Stefan-Boltzmann et T_{\odot} la température thermodynamique du corps noir. À la distance moyenne Terre-Soleil (1 UA) l'irradiance solaire (ou constante solaire) vaut 1362 W.m-2.

remarqueZone d'ombre

Afin de simuler la pression de radiation solaire, il ne faut pas oublier les zones d'ombres dans lesquelles le satellite peut se retrouver. Par exemple, en orbite basse autour de la Terre, un satellite peut passer une partie importante de son orbite caché des rayons du Soleil. L'approche la plus simple est de considérer que l'ombre de la Terre est une projection cylindrique du diamètre de la Terre le long de l'axe Soleil-Terre. Sur cette figure on remarque qu'en faisant le produit scalaire de vecteur unitaire \bold e_{\odot \oplus} (Terre-Soleil) on obtient l'inégalité suivante lorsque le satellite se trouve dans la zone d'ombre :

\bold r \cdot \bold e_{\odot \oplus} < - \sqrt{r^2 - R_{\oplus}^2}

Géométrie du couple de pression de radiation solaire
images/geometrie-pression-radiation-solaire.png
Géométrie du couple de pression de radiation solaire. Chaque face du satellite exposée au Soleil subit une force qui, si elle est désaxée par rapport au centre de masse, engendre un couple.
Crédit : Gary Quinsac
Zones d'ombre
images/pression-radiation-solaire-zone-ombre.png
Géométrie simplifiée du problème de zone d'ombre en orbite terrestre.
Crédit : Gary Quinsac

Traînée atmosphérique

L'atmosphère ténue des corps célestes peut exercer une force de pression sur un satellite. Cela inclut toutes les interactions avec des particules non-chargées, comme les queues de comète, les poussières ou les éjectas. Dans le cas de la Terre, à quelques centaines de kilomètres d'altitude, ce couple peut être le plus important. De la même manière qu'avec le couple dû à la pression de radiation solaire, on calcule la force exercée par la traînée atmosphérique en considérant que le satellite est une collection de N surfaces d'aire Si. On définit de nouveau la normale orientée vers l'extérieur, notée \bold n_B^i, pour chacune des surfaces. La force s'exerçant sur chaque surface dépend de la vitesse relative du satellite par rapport à l'atmosphère. En première approximation, on considère que cette vitesse relative est égale à celle du satellite, mais en réalité ce n'est pas immédiatement la vitesse du satellite dans le référentiel inertiel, car l'atmosphère n'est pas stationnaire dans celui-ci. L'inclinaison de la ième surface par rapport à la vitesse relative du satellite s'exprime :

\textup{cos} \left( \theta_{aero}^i \right) = \frac{\bold n_B^i \cdot \bold v_{rel}}{||\bold v_{rel}||}

La force aérodynamique s'exerçant sur la ième surface est :

\bold F_{aero}^i = -\frac{1}{2} \ \rho \ C_x \ S_i \ ||\bold V_{rel}|| \ \bold V_{rel} \ \textup{max} \left( \textup{cos} \left( \theta_{aero}^i \right) ; 0 \right)

Dans cette équation, ρ est la densité atmosphérique et C_x est le coefficient de trainée. Ce coefficient est déterminé de manière empirique et se situe généralement entre 1.5 et 2.5. Un couple apparaît lorsque la force agissant sur le centre de la pression atmosphérique ne passe pas par le centre de masse. Une estimation de ce couple est donnée par l'équation suivante :

\bold C_{aero} = \sum_{i=1}^{N}{\bold r_i \wedge \bold F_{aero}^i}

\bold r_i est le vecteur allant du centre de masse du satellite au centre de pression de la ième surface.

En principe, les couples aérodynamiques peuvent être utilisés pour effectuer un contrôle passif de l'attitude, comme les plumes d'une flèche, et même pour un contrôle actif avec des surfaces amovibles.


Perturbations internes

Bien que les CubeSats puissent généralement être modélisés comme un simple corps solide, de nombreuses raisons peuvent rendre la situation beaucoup plus complexe :

On qualifie ces couples internes de couples d'échange de moment cinétique car ils correspondent à un échange de moment cinétique entre des composants d'un satellite complexe sans que le moment cinétique du satellite dans son ensemble ne soit modifié.


Matériel

Auteur: Gary Quinsac

Introduction aux capteurs et actionneurs

Capteurs

Les capteurs se trouvent en amont de la chaîne du SCAO. Historiquement, les progrès réalisés se sont concentrés sur leur résolution et leur précision, leur masse, leur taille et leur puissance. À partir d'une référence, un capteur déduit son orientation dans l'espace ou sa vitesse de rotation. Le choix d'un capteur dépend de nombreux paramètres techniques, parmi lesquels :

Les capteurs se basent sur différents types de mesures permettant ainsi de les classer :

Actionneurs

Les actionneurs sont des dispositifs conçus pour engendrer des forces ou couples capables de produire des mouvements du satellite. Les solutions existantes sont relativement variées et les principales peuvent être classées de la manière suivante :

Les actionneurs peuvent également être séparés en deux catégories. Ceux qui ne servent qu'au contrôle d'attitude, et ceux qui peuvent réaliser à la fois du contrôle d'attitude et du contrôle d'orbite.


Capteurs

Auteur: Gary Quinsac

Capteurs optiques

Les capteurs optiques fournissent l'orientation dans l'espace du repère du capteur, lui-même lié au repère du satellite, par rapport à des directions de références extérieures, telles que les étoiles, le Soleil et la Terre.

Capteurs stellaires

Un viseur d'étoiles ou capteur d'étoiles est un instrument optique qui repère les coordonnées d'une ou plusieurs étoiles et les compare ensuite aux éphémérides des étoiles enregistrées dans une bibliothèque inclue dans l'instrument. C'est l'instrument optique le plus précis (entre 1 et 10 secondes d'angle pour les plus performants). Il se compose d'un baffle afin d'éviter l'illumination par des éléments parasites tels que le Soleil, d'une partie optique chargée de collecter et focaliser la lumière sur un détecteur (CCD ou APS), d'une électronique de traitement du signal et d'un refroidisseur pour le détecteur. La matrice du détecteur est constituée de pixels qui permettent d'obtenir une image numérisée du champ de vue de l'instrument, chaque pixel étant repéré par ses coordonnées dans le repère lié au viseur stellaire. On détermine finalement la position d'une étoile en calculant le barycentre de l'énergie collectée sur les pixels éclairés. Les viseurs d'étoiles sont utilisés lorsqu'une connaissance fine de l'attitude est nécessaire. Ils ont besoin que la vitesse de rotation du véhicule soit contrôlée en amont afin de ne pas dépasser la vitesse de décrochage, vitesse au dessus de laquelle la lumière d'une étoile se trouve projetée sur de trop nombreux pixels durant la pose et ne permet plus la mesure.

Un capteur d'étoiles possède deux modes d'opération : le mode d'acquisition et le mode de suivi. Dans le premier, la position et la magnitude des objets brillants éclairant la matrice du détecteur sont comparées au catalogue d'étoiles afin de déterminer de façon grossière l'attitude du satellite sans information préalable. Une fois cette estimation de l'attitude intiale effectuée, le second mode permet le suivi sur la matrice des positions des étoiles identifiées. En sortie, un tel capteur est capable de fournir un quaternion d'attitude du repère capteur par rapport à un repère inertiel, tel que le repère J2000, et dans certains cas la vitesse de rotation du satellite.

Viseur d'étoile
images/capteur-stellaire.jpg
Viseur d'étoiles ASTROP APS développé par l'agence spatiale nationale allemande DLT et la compagnie Jena-Optronik en Allemagne. Il est équipé d'une technologie de protection de radiation permettant de longues missions.
Crédit : ESA, Jena-Optronik

Capteurs solaires

Les capteurs solaires permettent de déduire l'attitude du satellite de la mesure de l'angle d'incidence des rayons solaires sur le capteur. Ils sont classés en deux catégories : les capteurs analogiques et les capteurs digitaux. Dans les grosses missions satellitaires, ils permettent respectivement d'obtenir une précision de 1° à 0,1° et inférieure à 0,05°.

Capteur solaire digital
images/capteur-solaire-digital.jpg
Capteur solaire analogique pyramidal développé par NTO pour la plateforme de satellites de télécommunication Spacebus-4000. Il fournit la position du Soleil selon 2 axes avec une précision meilleure que 0,1°.
Crédit : ESA, NTO

Capteurs terrestres

Les capteurs terrestres sont utilisés pour déterminer l'orientation du satellite par rapport à la Terre. Plus précisément, c'est l'horizon de la Terre qui est utilisé, car la Terre elle-même peut couvrir jusqu'à 40% de l'espace environnant pour un satellite en orbite passe. Néanmoins, il est difficile de détecter précisément la limite de l'horizon à cause de l'atmosphère terrestre (jusqu'à 70 km), de la décroissance graduelle de l'énergie réémise par la Terre, des variations entre les régions illuminées ou à l'ombre, et enfin de la limite de précision des capteurs. Le principe de détection adopté est donc basé sur une variation thermique de l'élément sensible dans la bande spectrale infra-rouge où la Terre est vue comme un disque uniforme : la bande d'absorption du CO2 entre 14 et 16 μm. Ainsi, l'énergie émise par la Terre est plus homogène et l'horizon, précisément délimité, est visible de jour comme de nuit.

Ces capteurs peuvent être de deux types : les capteurs statiques, qui pointent dans une direction fixe, et les capteurs à balayage. Ils sont principalement utilisés sur des satellites en orbite basse et les satellites de télécommunication en orbite GEO ou MEO. Ils ont jusqu'à présent été assez peu utilisés sur CubeSats.


Capteurs magnétiques

Magnétomètres

Les magnétomètres convertissent un champ magnétique ambiant en tension électrique. Ils sont principalement constitués de bobines conductrices qui génèrent un courant ou une variation de courant lorsqu'elles sont placées dans un champ magnétique. Ils ne possèdent pas de partie mobile, n'ont pas besoin d'un champ de vue dégagé, consomment peu et sont faiblement encombrants. Ils peuvent néanmoins être contaminés par le champ magnétique local créé par des matériaux ferromagnétiques ou des boucles de courant dans les panneaux solaires. Ainsi, il faut compenser ces champs locaux s'ils sont connus, ou s'en affranchir en se plaçant à bonne distance (au bout d'un mât par exemple) dans le cas contraire. La technologie la plus utilisée, "flux gate", délivre directement la projection du champ magnétique selon l'axe de la bobine, contrairement aux magnétomètres à induction qui fournissent la dérivée temporelle de la projection du champ magnétique. Ces capteurs étant monoaxiaux, on associe généralement trois magnétomètres orientés orthogonalement afin de mesurer le vecteur champ magnétique instantané.

Les magnétomètres sont limités à des environnements possédant un champ magnétique suffisamment fort, et donc à l'orbite terrestre basse du fait de la décroissance en 1/r^3 de son champ magnétique (r étant l'altitude du satellite). On les utilise de différentes manières, l'une d'entre elles étant de calculer le champ magnétique instantané afin de mieux calibrer les couples à générer par les magnétocoupleurs. Ils servent surtout à restituer l'attitude du satellite avec une précision de quelques degrés du fait des erreurs de modélisation du champ magnétique, des erreurs d'orbitographie et de celles propres au capteur. Dans ce cas, seule la connaissance de deux axes est disponible, l'orientation autour du champ magnétique n'étant pas observable. Enfin, on peut utiliser la dérivée du champ magnétique afin d'obtenir une mesure sur 2 axes de la vitesse angulaire du satellite.

Magnétomètre monoaxial "fluxgate"
images/magnetometre-fluxgate.jpg
Un magnétomètre "fluxgate" génère son propre champ magnétique. En inversant régulièrement la direction du courant, on inverse le champ magnétique, ce qui permet d'obtenir un champ magnétique moyen nul. Dans le cas où la magnétomètre se trouve dans un champ magnétique ambiant, la moyenne n'est plus nulle et il est alors possible de connaître ce champ extérieur.
Crédit : Wikipedia

Capteurs inertiels

Les capteurs inertiels fournissent au satellite une mesure par rapport à une référence fixe dans l'espace. Les gyromètres délivrent l'attitude (vitesse angulaire) et les accéléromètres la position par rapport à cette référence. Pour les premiers, il y a détection du mouvement de rotation absolue, tandis que pour le second c'est le mouvement de translation accéléré qui est détecté. Nous ne nous intéresserons pas ici aux accéléromètres qui ne sont pas utiles à la détermination d'attitude.

Gyromètres

Les gyromètres mesurent donc les vitesses angulaires du satellite. On peut en déduire l'attitude de celui-ci en intégrant les vitesses calculées sur un temps donné. Ils sont très intéressants car ils permettent de fournir en permanence les mesures de vitesse de rotation sans se soucier du champ de vue et avec une très bonne précision à court terme. Ils fournissent également des informations à plus haute fréquence que les autres capteurs, ce qui est nécessaire pour certaines boucles de contrôle comme pour le contrôle du vecteur de poussée lors de phases de propulsion. On distingue plusieurs types de gyromètres : les gyromètres mécaniques, les gyromètres optiques et les gyromètres vibrants.

Gyromètres mécaniques

Les gyromètres mécaniques utilisent une toupie gyroscopique. Celle-ci possède une raideur gyroscopique du fait d'une vitesse de rotation élevée permettant de la maintenir selon une direction fixe. Tout couple s'exerçant celui-ci provoque l'écartement de cet axe par rapport à la direction initiale avec une vitesse faible du fait de la rigidité gyroscopique. Le principe consiste à estimer les mouvements du véhicule par rapport à la direction de référence que matérialise l'axe de rotation de la toupie.

Gyroscope
images/Gyroscope.png
Exemple de gyroscope. Tant que le rotor (plateau central) sera en rotation, il gardera son axe de rotation fixe quelles que soient les orientations des cercles extérieurs.
Crédit : Gary Quinsac

Gyromètres optiques

Les gyromètres optiques peuvent être des gyromètres laser ou à fibre optique. Dans les deux cas, ils présentent l'avantage de se dispenser de pièce mécanique en mouvement (pas d'usure), d'avoir de plus grande dynamique de mesure et bande passante, une insensibilité à l'accélération et moins de contraintes concernant la stabilité en température. Les gyromètres laser fonctionnent suivant le principe du laser à cavité résonnante. Les gyromètres à fibre optique reprennent l'effet Sagnac. Deux ondes parcourant un chemin fermé en rotation (par rapport à un référentiel inertiel) subissent un décalage temporel lorsqu'elles ont été émises et reçues par un émetteur/récepteur fixe par rapport au chemin optique. Le décalage temporel entre les deux rayons lumineux est ainsi proportionnel à la vitesse de rotation du système.

Gyromètre optique
images/Gyrometre-optique.png
La lumière émise par la source se propage dans la bobine de fibre optique dans deux directions opposées suite à une première traversée de la lame séparatrice (un quart de l'énergie émise initialement arrivera sur le détecteur selon chacune des directions de parcours). Du fait de la rotation de la plateforme, les signaux lumineux parcourant la bobine de fibre dans des directions opposées arriveront au récepteur dans des temps différents. C'est l'effet Sagnac.
Crédit : Gary Quinsac

Gyromètres vibrants

Les gyromètres vibrants quant à eux sont assez proches des gyromètres mécaniques, à la différence près qu'aucune pièce n'est ici en mouvement. Ils détectent le déplacement d'une onde vibratoire dans une structure, dû à la force de Coriolis.

Accéléromètres

Les accéléromètres sont principalement utilisés pour la navigation et le guidage des véhicules de rentrée atmosphérique ou dans l'identification de microvibrations. Une modification de leur tension de sortie est traduite en accélération. Le principe de base consiste à disposer d'une masse dans un boîtier fixée par des ressorts. Lorsque le boîtier est accéléré, la masse a tendance à rester fixe par inertie : elle est donc en mouvement par rapport au boîtier. Les ressorts ont alors pour effet de contrer le déplacement de la masse par rapport au boîtier, et ce déplacement devient alors proportionnel à l'accélération de ce dernier. Les accéléromètres sont capables de mesurer la résultante des forces de surface mais pas les accélérations d'origine gravitationnelle puisque la masse et son boîtier sont soumis au même champ gravitationnel.

Accéléromètre
images/accelerometre.png
Le déplacement de la masse par rapport à la boîte dans lequelle elle se trouve dépend de l'accélération de la boîte. \bold F= m \ \bold a = k \ \bold x, avec \bold a l'accélération, m la masse, k la constante de raideur du ressort et \bold x le déplacement du ressort.
Crédit : Gary Quinsac

Actionneurs

Auteur: Gary Quinsac

Actionneurs inertiels

Parmi les actionneurs inertiels, on distingue les roues d'inertie et les actionneurs gyroscopiques.

Roues à inertie

Les roues à inertie sont les actionneurs les plus utilisés pour le contrôle d'attitude des satellites. Elles permettent le stockage et la restitution du moment cinétique. Elles sont composées d'une masse en rotation autour d'un axe fixe ou volant d'inertie. Le couple créé par une roue à inertie est égal au changement du moment cinétique durant un temps donné (voir la page sur la dynamique d'attitude). Un couple est ainsi créé lorsque le moment cinétique de la roue à inertie est modifié, c'est-à-dire que sa vitesse de rotation change. Cette accélération ou décélération angulaire permet d'emmagasiner ou de libérer du moment cinétique. Ce type d'actionneur peut saturer, c'est-à-dire atteindre une limite supérieure ou inférieure en vitesse angulaire. Dans ce cas il lui devient impossible de fournir un couple selon cet axe (toute évolution possible est une décélération de la roue entraînant un couple dans le sens contraire à celui souhaité). Il faut alors utiliser un autre actionneur à bord pour ramener la vitesse dans une plage admissible tant pour le fonctionnement propre de la roue que pour les performances du contrôle d'attitude. Ces actions de réduction de la vitesse absolue du volant d'inertie, appelées "désaturation", se font lors de l'application d'un couple antagoniste, généralement à l'aide de magnéto-coupleurs ou de propulseurs.

Roues à inertie
images/roue-a-inertie-Kepler.jpg
Deux des quatre roues à inertie du télescope Kepler durant l'assemblage. Elles sont inclinées différemment afin de permettre un contrôle de l'attitude selon plusieurs axes. L'une de ces roues a été victime d'un problème que l'on rencontre parfois avec ce type d'actuateurs, c'est à dire une friction trop importante. Pour parer à la perte d'une roue à inertie, on se permet généralement des configurations redondantes sur les gros satellites.
Crédit : Ball Aerospace photo

Actionneurs gyroscopiques

Les roues à inertie sont limitées en termes de capacité de couple. C'est la raison pour laquelle les satellites nécessitant de rapides manœuvres ou possédant des fortes inerties (comme les stations orbitales) utilisent plutôt des actionneurs gyroscopiques, ou gyrocoupleurs. Contrairement aux roues à inertie, le principe n'est plus de produire un couple en faisant varier la vitesse de rotation de la roue, mais en modifiant l'axe de rotation d'une roue tournant à une vitesse constante. Une variation du moment cinétique est ainsi créée, se traduisant par un couple perpendiculaire au moment cinétique de la roue et au vecteur vitesse de rotation qui lui est appliqué (suivant le principe du couple gyroscopique). Les actionneurs gyroscopiques consomment moins d'énergie et possèdent une plus grande capacité de couple pour des masses et des tailles comparables. Néanmoins, leur utilisation est limitée par l'importance des couples appliqués aux articulations (risques de panne mécanique) et aux précisions requises dans les mesures de position et de vitesse angulaire.

Actionneur gyroscopique
images/actionneur-gyroscopique.png
Fonctionnement d'un actionneur gyroscopique.
Crédit : Gary Quinsac

Actionneurs magnétiques

Magnéto-coupleurs

Un magnéto-coupleur est une bobine qui, parcourue par un courant, génère un moment dipolaire \bold M (en A.m2). En présence d'un champ magnétique tel que le champ magnétique terrestre \bold B, le magnéto-coupleur fournit alors un couple \bold C_{MC} = \bold M \wedge \bold B. On distingue trois types de magnéto-coupleurs :

La principale limitation de cet actionneur est que le couple généré est toujours orthogonal au champ magnétique, limitant à seulement deux angles d'attitude le contrôle du satellite en un point donné de son orbite. À l'instar des magnétomètres, leur utilisation est limitée aux orbites terrestres basses. Ils peuvent être utilisés soit pour effectuer du contrôle d'attitude soit pour "désaturer" des actionneurs inertiels. La plupart des applications des magnéto-coupleurs utilisent trois appareils produisant des couples sur trois axes orthogonaux. Il n'est pas toujours nécessaire d'employer plus de magnéto-coupleurs pour la redondance puisqu'ils ont habituellement un "double enroulement" fournissant une redondance interne.

Magnéto-coupleurs
magneto-coupleur-cubesat.png
"SatBus MTQ" est un système composé de trois magnéto-coupleurs orthogonaux respectant le standard CubeSat. Les bobines 1 et 2 bénéficient d'un barreau ferromagnétique, contrairement à la bobine 3.
Crédit : Nano Avionics

Propulsion

Auteur: Gary Quinsac

Introduction à la propulsion

Spécificités de la propulsion

Parmi les fonctions couvertes par le SCAO il y a la réalisation des manœuvres de modification de la vitesse ainsi que le contrôle d'attitude associé (assurer le pointage des propulseurs lors de la poussée). Le ΔV nécessaire au contrôle d'orbite ne peut être fourni que par des propulseurs, néanmoins ceux-ci peuvent également être utilisés pour générer des couples. Contrairement aux magnéto-coupleurs, ce sont des actionneurs utilisables sur n'importe quelle orbite car ils n'ont pas besoin d'un environnement particulier pour fonctionner. Leur principal inconvénient est une durée de vie limitée inhérente à l'utilisation d'un carburant, lui-même en quantité finie.

Fonctions de la propulsion satellitaire

Il faut différencier la propulsion des lanceurs de celle des satellites. La première doit permettre des incréments de vitesse de l'ordre de 7 à 100 km/s et de très importants niveaux de poussée. Elle se caractérise par une faible capacité d'emport et se présente sous la forme de puissants propulseurs chimiques. La seconde, qui nous intéresse ici, sert à effectuer des transferts orbitaux et des voyages interplanétaires, du contrôle d'orbite et du contrôle d'attitude. Le sous-système propulsif d'un satellite remplit ainsi certaines fonctions :

Orientation du vecteur de poussée

Pour cela, il doit délivrer des forces et des couples. Les forces, ou poussées, sont obtenues par l'éjection de matière à grande vitesse et varient entre quelques μnewtons et quelques centaines de newtons. Suivant les axes de poussée, deux cas de figure sont possibles :

Moteur principal de la navette américaine
images/moteur-principal-navette.jpg
Test d'allumage du moteur principal de la navette spatiale.
Crédit : NASA
Système de propulsion de BepiColombo
images/BepiColombo_propulsion.jpg
Vue d'artiste du système de propulsion ionique qui sera utilisé pour la mission BepiColombo. Cette mission d'exploration de la planète Mercure doit être lancée en octobre 2018 et est développée conjointement par l'ESA et la JAXA.
Crédit : ESA

Fondamentaux de la propulsion

Conversion d'énergie

Tous les types de systèmes de propulsion sont basés sur un processus de conversion d'énergie. Du carburant est libéré à grande vitesse (vitesse d'expulsion notée v_e qui représente la vitesse relative entre le satellite et le carburant expulsé) avec une quantité de mouvement associée m \ \bold v_e, ce qui, par conservation de la quantité de mouvement, résulte en une quantité de mouvement opposée pour le véhicule. En partant de la troisième loi de Newton et en considérant que la vitesse d'expulsion est constante, on obtient : \bold F = \dot m \bold v_e \ \textup{[N]} .

Incrément de vitesse

Ecrivons que la variation de la quantité de mouvement du satellite est opposée à la variation de la quantité de mouvement du carburant expulsé : \Delta V \ m = -\Delta m \ v_e

On peut directement en déduire la capacité d'incrément de vitesse total (\Delta V) du satellite : \int_{0}^{v=\Delta V}{dv} = -v_e \ \int_{m_i}^{m_f}{\frac{1}{m} \ dm}

On en déduit l'équation de Tsiolkovski : \Delta V = -v_e \ \textup{ln} \left( \frac{m_f}{m_i} \right)

complementManœuvres orbitales

Voici quelques exemples d'incréments de vitesse associés à des lancements et à des manœuvres orbitales issus de "Spacecraft propulsion - A brief introduction" par Peter Erichsen :

Incréments de vitesses associés à des manœuvres spatiales et de décollage
ManœuvreΔV typique [m/s]
Kourou LEO (équatorial)9300
Kourou GTO 11443
Cap Canaveral LEO (équatorial)9500
Cap Canaveral GEO13600
LEO GEO (changement d'inclinaison de 28°)4260
GTO GEO (changement d'inclinaison de 9°)1500
GTO GEO (changement d'inclinaison de 28°)1800
Maintien à poste Nord/Sud50 / an
Maintien à poste Est/Ouest5 / an
LEO Orbite de libération terrestre3200
LEO Orbite lunaire3900
LEO Orbite martienne5700

Quantité de carburant

Si l'on veut déterminer la quantité de carburant nécessaire à la réalisation d'un manœuvre spatiale m_p = m_i - m_f, il ne reste plus qu'à déplacer les termes de l'équation précédente afin d'obtenir : m_p = m_i \left( 1 - exp \left( -\frac{\Delta V}{v_e} \right) \right)

Impulsions

Action-réaction
images/action-reaction.png
Illustration du principe d'action-réaction. Le carburant éjecté propulse le véhicule dans la direction opposée.

Systèmes de propulsion

Auteur: Gary Quinsac

Systèmes de propulsion

Le sous-système de propulsion est en interaction proche avec les sous-systèmes mécanique et thermique, notamment pour l'implantation des réservoirs et le contrôle thermique de la propulsion. Il doit également respecter les exigences du contrôle d'attitude et d'orbite (SCAO). Si son principe de fonctionnement est basique (une énergie emmagasinée est libérée afin de transmettre une énergie cinétique à un véhicule) il existe différents types de propulsion, eux-mêmes divisés en sous-groupes :

Dans le but de répondre aux exigences du SCAO, les systèmes de propulsion sont en particulier caractérisés par :

Certains de ces critères sont repris dans le tableau suivant pour les différents types de propulsion introduits dans ce cours.

Comparaison des différents types de propulsion
Type de propulsionFiabilitéCoûtIspPousséePuissance électrique
Gaz froidsGazTrès bonneTrès basTrès basseFaibleTrès faible
LiquideBonneTrès basTrès basseFaibleTrès faible
Gaz chaudsSolideBonneBasMoyenneTrès forteTrès faible
Mono-carburantBonneBasBasseFaibleTrès faible
Bi-carburantMoyenneHauteMoyenneTrès faible
ÉlectriqueÉlectrothermiqueMoyenneHauteTrès faibleForte
ÉlectromagnétiqueFaibleTrès hauteExtrêmement faibleForte
ÉlectrostatiqueFaibleExtrêmement hauteTrès faibleTrès forte

Une comparaison de la force de poussée et de l'impulsion spécifique de systèmes de propulsion adaptés aux nano.micro-satellites est proposée dans cette figure.

Classification des sous-systèmes de propulsion
images/classement-propulsion.png
Les principaux systèmes de propulsion sont ici classés par catégorie. Les couleurs indiquées sur cette figure correspondent au couleurs présentes dans la figure suivante.
Crédit : Gary Quinsac
Performances de systèmes de propulsion pour CubeSat
images/isp_thrust.png
Impulsion spécifique et force de poussée de systèmes de propulsion pour CubeSat (en développement pour la plupart en 2018). Des couleurs permettent de différencier les différents types de propulsion.
Crédit : Gary Quinsac

Propulsion chimique

La propulsion chimique utilise des gaz à haute température et/ou pression, accélérés à travers une tuyère. Les systèmes de propulsion chimique sont généralement associés à des impulsions spécifiques plus faibles que les propulsions électriques, mais de plus grandes poussées. On peut les diviser en deux catégories : les systèmes à gaz froid et à gaz chaud.

Systèmes de propulsion à gaz froid

Ces systèmes utilisent des gaz stockés sous haute pression ou sous forme liquide. Les gaz sont détendus dans une tuyère convergente-divergente pour obtenir la force de poussée. Ce sont les systèmes les plus simples à mettre en œuvre, mais cela s'accompagne d'une faible force de poussée et d'un faible rendement (impulsion spécifique). Ils présentent une bonne aptitude au fonctionnement en mode pulsé, du fait du faible temps de réponse, les rendant attrayant pour assurer le contrôle d'attitude. Ils ont également l'avantage de limiter les contaminations de l'environnement, ce qui est intéressant notamment pour les optiques des missions scientifiques.

La simplicité de ces systèmes les rend intéressants pour les CubeSats. Néanmoins, du fait de la nécessité de pressuriser le carburant, ils ne respectent pas le cahier des charges décrit par le CDS ("CubeSat Design Specification").

Systèmes de propulsion à gaz chauds

Pour les missions requérant des niveaux de poussée et d'impulsion supérieurs, les gaz froids ne sont plus adaptés et il est nécessaire d'utiliser des carburants plus énergétiques générant des gaz chauds. Les systèmes à gaz chaud sont le type le plus commun de propulsion spatiale. Les ergols des systèmes à gaz chaud sont stockés à l'état liquide ou solide. Une réaction de combustion exothermique de l'ergol est nécessaire pour obtenir des produits à haute température qui sont ensuite expulsés dans la tuyère. Ils nécessitent donc généralement une étape de plus que les gaz froids. On les classe en deux catégories en fonction de leur ergol :

Mono-ergols

Le mono-ergol le plus utilisé est l'hydrazine. Il se décompose dans le propulseur par catalyse. Les gaz chauds résultant sont explulsés par la tuyère. Il présente l'avantage d'être fiable tout en conservant de bonnes performances, mais sa haute toxicité a poussé les chercheurs à s'orienter vers des aternatives appelée "mono-ergols verts". Ces ergols sont des sels dérivés de l'acide nitrique, tels que le dinitramide d'amonium.

Bi-liquides

Dans les systèmes à bi-liquides, deux ergols, un comburant et un carburant, produisent une force de poussée par combustion. Ils sont introduits séparément dans la chambre de combustion où ils s'inflamment spontanément par contact et génèrent des gaz chauds, une nouvelle fois détendus dans la tuyère. Ces systèmes sont plus complexes et plus chers que les systèmes présentés précédemment, mais ils sont également plus efficaces (meilleure Isp) et plus puissants (meilleure poussée).

Schéma des systèmes de propulsion chimiques
images/schema-propulsion-chimique.png
Crédit : Gary Quinsac

Propulsion électrique

La propulsion électrique contourne la limitation fondamentale de la propulsion chimique, c'est-à-dire que l'énergie du carburant expulsé ne dépend que de son énergie chimique et du débit. Une énergie électrique ou électromagnétique est utilisée afin d'éjecter de la matière à des vitesses beaucoup plus élevées. En d'autres termes, on utilise la puissance électrique issue du sous-système électrique (panneaux solaires, batteries...) pour accélérer le carburant et produire une force de poussée. Ces vitesses d'éjection plus importantes se traduisent immédiatement par une plus grande efficacité (moins de carburant est nécessaire pour obtenir un même incrément de vitesse). Néanmoins, les forces de poussée produites sont nettement plus faibles que dans le cas de la propulsion chimique. Par conséquent, la propulsion électrique est préférée lorsque le ΔV à réaliser est important ou lorsque il est nécessaire des manœuvres avec des poussées très faibles (contrôle d'attitude très précis, etc.).

La propulsion électrique offre une grande gamme de performances en fonction du type de sous-système utilisé. On les classe ainsi en trois catégories : les systèmes électrothermaux, électromagnétiques et électrostatiques.

Systèmes de propulsion électrothermaux

Historiquement, ces systèmes sont une amélioration par rapport aux systèmes de propulsion chimiques. Le gaz est chauffé en passant le long d'une surface chauffée électriquement ou à travers un arc électrique afin de lui conférer plus d'énergie. Le gaz ainsi chauffé bénéficie d'une détente plus efficace.

Systèmes de propulsion électromagnétiques

La propulsion électromagnétique utilise la conversion d'un gaz en plasma. Le plasma est constitué d'électrons (de charge électrique négative), d'ions (pour la plupart de charge électrique positive) et d'atomes ou molécules neutres (non chargés électriquement). Les ions positifs résultants sont alors accélérés à de très grandes vitesses par l'énergie électrique grâce à la force de Laplace \bold j \wedge \bold B, où \bold j et \bold B sont respectivement le flux de courant ionique dans le plasma et le champ magnétique. Il en résulte une force de poussée sur le satellite dans la direction opposée.

Contrairement aux systèmes électrostatiques qui vont être présentés par la suite, les systèmes électromagnétiques expulsent un plasma globalement neutre, ce qui est intéressant pour éviter de charger électriquement le reste du satellite. Cette famille de propulseurs contient notamment les PPT (Pulsed Plasma Thrusters), les VAT (Vacuum Arc Thrusters) ou encore les MPDT (Magneto Plasma Dynamic Thrusters).

Systèmes de propulsion électrostatiques

À la manière de l'accélération électromagnétique, l'énergie électrique est dans un premier temps utilisée pour transformer le fluide propulsif en plasma. La différence se situe au niveau de l'accélération des ions qui n'est plus obtenue par les forces de Laplace mais par l'application d'un champ électrostatique \bold E créant une force de Coulomb (\bold F = q \ \bold E). Les systèmes de propulsion électrostatiques nécessitent généralement l'installation d'un neutraliseur (cathode) qui fournit des électrons au faisceau d'ions, afin de conserver la neutralité électrique du jet.

Parmi les propulseurs électrostatiques, on peut citer les propulseurs ioniques, les propulseurs à effet Hall et propulseurs FEEP (Field Emission Electric Propulsion).

Schéma des systèmes de propulsion électriques
images/schema-propulsion-electrique.png
Crédit : Gary Quinsac

Filtrage et lois de commande

Auteur: Gary Quinsac

Introduction

Le filtrage et les lois de commande sont présentés car ce spaont des aspects essentiels d'un SCAO. Néanmoins, ce cours a simplement pour ambition de vous en faire une brève introduction.

En mathématiques et en ingénierie, la théorie du contrôle a comme objet l’étude du comportement de systèmes dynamiques. En électronique et traitement du signal, un filtre est originellement un circuit qui rejette une partie indésirable d'un signal. On appelle également filtre un outil logiciel dont le but est la séparation des fréquences contenues dans un signal numérisé.


Estimation d'attitude

Auteur: Gary Quinsac

Principe

L'estimation d'attitude consiste à estimer l'état actuel de l'orientation d'un satellite à partir d'un jeu d'observations et de références obtenues à partir de modèles. Ces observations ont été préalablement effectuées par des capteurs fixés sur le satellite. L'objectif est ici de trouver la meilleure estimation de l'état réel du système sous forme de matrice de changement de repère ou de quaternion d'attitude. La résolution exacte du problème n'est généralement pas possible car les observations sont entachées d'erreurs (erreurs de mesure, d'orientation du capteur, de modélisation...). De plus, on dispose souvent d'une surabondance d'information puisque plusieurs capteurs fournissent des informations par rapport à des références différentes (Soleil, champ magnétique, étoile...). On cherche alors à exploiter de manière optimale ces sources d'information en leur associant des modèles d'erreur.

Les problèmes de détermination d'attitude font intervenir des observations (orientation d'objets) pris à certaines dates. La détermination d'attitude statique représente le cas le plus simple, dans lequel on considère que toutes les mesures sont effectuées au même instant. Au contraire, lorsque le temps est introduit, on parle de détermination d'attitude récursive.

La qualité de la connaissance d'attitude dépend des limitations des capteurs, de la quantification des données, du temps d'échantillonnage et du traitement numérique. La détermination d'attitude embarquée est limitée par les capacités de filtrage de l'ordinateur de bord. Il arrive que pour obtenir une meilleure connaissance de l'attitude a posteriori les données des capteurs soient transmises au segment sol où elles sont post-traitées puis exploitables (par le segment sol ou le satellite).

Boucle SCA
images/boucle-SCA.png
Boucle de contrôle d'attitude.
Crédit : Gary Quinsac

Cas statique

Le cas particulier de l'estimation d'attitude à partir de mesures simultanées de directions non parallèles est ici introduit. À chaque observation sont associés deux vecteurs. Le premier est un vecteur unitaire {\bold b}_i définissant la direction mesurée (observée) de la source (la Terre, le Soleil, une étoile, le champ magnétique terrestre...), exprimée dans le repère lié au satellite. Le second est un vecteur unitaire {\bold r}_i qui définit la direction de référence de la source, exprimée dans le repère origine (généralement inertiel). L'estimation d'attitude consiste ici à déterminer la matrice de transformation orthogonale \bold C satisfaisant pour chaque observation i :

{\bold b}_i = \bold C \ {\bold r}_i

Méthode TRIAD

La méthode TRIAD se base sur l'observation de deux directions non-parallèles. Il s'agit de déterminer la MCD \bold C permettant de transformer les vecteurs de référence {\bold r}_1 et {\bold r}_2 en vecteurs d'observation {\bold b}_1 et {\bold b}_2. Puisque l'on cherche à obtenir l'attitude suivant 3 axes, il nous faut créer deux bases orthonormées (y1, y2, y3) et (x1, x2, x3), respectivement associées aux vecteurs d'oservation et de référence. Il ne reste plus qu'à déduire la matrice de transformation orthogonale (ou MCD) \bold C(3,3) satisfaisant :

\bold y_i = [C] \ \bold x_i , \begin{cases} \bold x_1 = \bold r_1 \\ \bold x_2 = \frac{\bold r_1 \wedge \bold r_2}{|\bold r_1 \wedge \bold r_2|} \\ \bold x_3 = \bold x_1 \wedge \bold x_2 \end{cases} , \begin{cases} \bold y_1 = \bold b_1 \\ \bold y_2 = \frac{\bold b_a1\wedge \bold b_2}{\bold b_1 \wedge \bold b_2} \\ \bold y_3 = \bold y_1 \wedge \bold y_2 \end{cases}

Cette méthode présente l'avantage d'être extrêmement simple, d'où son utilisation dans de nombreuses missions passées. De nos jours, cette méthode n'est plus considérée comme suffisamment précise. En effet, les mesures d'observation sont entachées d'erreur, ce qui empêche d'obtenir le même résultat suivant le vecteur d'observation choisi au départ. C'est pour cette raison que l'on choisit généralement l'observation la plus précise. Des techniques de calcul de la covarience de l'erreur de l'estimation ont été développées pour parer à ces inconvénients.

Méthode QUEST

Un critère quadratique peut être utilisé pour déterminer la matrice d'attitude. Cela revient à chercher la matrice orthogonale vecteur(C) minimisant la fonction de moindres carrés :

L = \frac{1}{2} \ \sum_{i=1}^{n}{a_i \left| \bold b_i - [C] \bold r_i \right|^2}

La minimisation de ce critère n'a rien d'évident et de nombreuses méthodes ont été proposées. Il s'agit d'identifier les 9 paramètres de la MCD respectant les différentes contraintes énoncées précédemment (moindres carrés et règles de la MCD). L'algorithme QUEST (QUaternion ESTimation) offre une alternative intéressante. La forme quadratique est alors utilisée à la place de la MCD, permettant de réduire le nombre de paramètres. Nous ne rentrerons pas dans le détail de cette méthode dans le cadre de ce cours.


Cas général

Dans le cas général où nous ne disposons pas de plusieurs mesures de directions non parallèles effectuées au même instant, le problème d'estimation devient dépendant du temps. Bien que des méthodes récursives basées sur l'algorithme QUEST aient été développées et utilisées, le filtrage de Kalman est le moyen le plus utilisé pour estimer l'attitude d'un satellite en présence de bruits de mesure.

Filtre de Kalman

Le filtre de Kalman a été développé en 1960 comme une nouvelle approche pour le filtrage linéaire et les problèmes de prédiction. Il permet de maintenir une estimation de l'état d'un système dynamique en dehors des périodes d'observation, à partir d'un modèle de son erreur. Puisqu'il s'agit d'un filtre récursif, la quantité d'informations à traiter reste limitée, ce qui en fait un filtre très apprécié à bord des satellites. On a pour habitude de distinguer deux phases dans ce type de filtres, la prédiction et la mise à jour :

exempleFiltre de Kalman discret

C'est la version la plus simple du filtre de Kalman, seules l'estimation de l'état précédent et les mesures actuelles sont nécessaires.

Processus à estimer

Ici, le processus stochastique à estimer est gouverné par une équation différentielle linéaire :

\bold x_k = [A]_k \ \bold x_{k-1} + [B]_k \ \bold u_{k-1} + \bold w_{k-1}

La mesure devant permettre l'estimation s'écrit :

\bold z_k = [H]_k \ \bold x_k + \bold v_k

\bold w_k et \bold v_k représentent respectivement les bruits de processus et de mesure. On les suppose indépendants, blancs et de distribution de probabilité normale. [A] est la matrice qui relie l'état précédent k-1 à l'état actuel k, [B] est la matrice qui relie l'entrée de commande \bold u à l'état \bold x. [H] est la matrice reliant l'état \bold x à sa mesure \bold z.

Phase de prédiction

Durant la phase de prédiction, l'état et l'estimation de la covariance sont projetés dans le temps de l'état k-1 à l'état k :

  • \hat{\bold x}_{k|k-1} = [A]_k \ \hat{\bold x}_{k-1|k-1} + [B]_k \ \bold u_{k-1}
  • [P]_{k|k-1} = [A]_k \ [P]_{k-1|k-1} \ {[A]_k}^T + [Q]_k

[Q] est la matrice de covariance du bruit de processus \bold w, [P]_{k|k-1} est la matrice d'estimation a priori de la covariance de l'erreur.

Phase de mise à jour

Trois étapes se succèdent dans la phase de mise à jour. Il faut d'abord calculer le gain de Kalman [K], puis générer une estimation de l'état a posteriori en incorporant la mesure. Enfin, on obtient la matrice de covariance de l'erreur d'estimation a posteriori [P]_{k|k}.

  • [K]_k = [P]_{k|k-1} {[H]_k}^T \ {[S]_k}^{-1}
  • \hat{\bold x}_{k|k} = \hat{\bold x}_{k|k-1} + [K]_k \ \bold y_k
  • [P]_k = \left( [I] - [K]_k \ [H]_k \right) [P]_{k|k-1}

[I] est la matrice identité. Deux équations supplémentaires permettent d'obtenir l'innovation, ou résiduel, \bold y_k, et la covariance de l'innovation [S]_k :

  • \bold y_k = \bold z_k - [H]_k \ \hat{\bold x}_{k|k-1}
  • [S]_k = [H]_k \ [P]_{k|k-1} \ {[H]_k}^T + [R]_k

À chaque étape le processus est répété afin d'obtenir de nouvelles estimations a posteriori à partir des estimations a priori. En pratique, la matrice de covariance [R] du bruit de mesure est déterminée avant d'utiliser le filtre et peut être mise à jour par la suite. Il est plus compliqué de déterminer la matrice de covariance du bruit de processus [Q] car nous ne pouvons généralement pas directement observer le processus à estimer. Afin d'améliorer les performances du filtre, il est habituel de régler ces deux paramètres.

La plupart des systèmes physiques, et notamment ceux étudiés, sont non linéaires. Le filtre de Kalman classique n'est donc optimal que sur une faible portion des phénomènes pris en compte. Dans le cas de systèmes non-linéaires, nous utilisons donc un filtre de Kalman étendu, ou "Extended Kalman Filter".


Lois de contrôle

Auteur: Gary Quinsac

Introduction à la théorie du contrôle

La théorie du contrôle s'intéresse au comportement de systèmes dynamiques en fonction de leurs paramètres. Elle peut être vue comme une stratégie permettant de sélectionner la bonne entrée d'un système pour que le sortie soit celle désirée. Cela fait partie du domaine de l'automatique.

Boucles ouvertes et fermées

Un système de contrôle est un mécanisme altérant l'état futur d'un système. En l'absence de retour d'information concernant la sortie du système, on se trouve dans le cas d'une boucle ouverte. Prenons l'exemple d'un lave-vaisselle. Celui-ci est programmé pour tourner un certain temps, à une certaine température et avec une certaine quantité d'eau. Ces paramètres ne dépendent pas de l'état de la vaisselle qu'il contient.

Une boucle de rétroaction peut être ajoutée afin de modifier intelligemment la durée du cycle. On obtient alors ce que l'on appelle une boucle fermée, puisqu'une information sur l'état de sortie de notre système, obtenue à l'aide de capteurs, va être comparée à un signal de référence afin de nourir un contrôleur qui a la charge de choisir la bonne entrée. On peut ici parler d'asservissement.

Les boucles de contrôle d'attitude ont pour but d'assurer un contrôle stable de l'orientation du satellite, en prenant en compte les contraintes opérationnelles (temps de réponse aux commandes par exemple) et les perturbations externes et internes. On met en place un asservissement dans le but d'atteindre une valeur de consigne et de la maintenir. Pour ce faire, l'asservissement, ou correcteur, mesure en permanence l'écart entre la valeur réelle de la grandeur à asservir et la valeur de consigne. Il en déduit la commande appropriée que les actionneurs devront ensuite appliquer afin de réduire cet écart.

Systèmes linéaires

Un système linéaire est un objet qui peut être décrit par des équations linéaires. De tels systèmes sont essentiels car nous pouvons les résoudre. Pourtant, presque aucun système réel n'est un système linéaire. L'objectif est donc de simplifier l'objet étudié (actionneur, capteur, système dynamique...) afin de pouvoir l'approximer par un système linéaire. On parle alors de son domaine linéarité.

La réponse d'un système linéaire peut être obtenue en sommant ses réponses impulsionnelles. Cette sommation dans le domaine temporel est appelée convolution. Soit un signal d'entrée u(t) et une réponse impulsionnelle g(t), la sortie y(t) s'exprime :

y(t) = u(t) \ast g(t) = \int_0^t{u(\tau) \ g(t- \tau) \ d \tau}

Fonction de transfert

Afin de simplifier cette opération, on introduit la fonction de transfert. Une fonction de transfert est la transformée de Laplace de la réponse impulsionnelle d'un système linéaire lorsque ses conditions initiales (ou aux limites) sont nulles. Elle permet de transformer le produit de convolution en simple produit :

Y(p) = U(p) \cdot G(p)

definitionTransformée de Laplace

Soit f(t) une fonction du temps. Sa transformée de Laplace unilatérale F(p) est définie par L \left( f(t) \right) = F(p) = \int_{0}^{\infty}{f(t) \ exp(-p \ t) \ dt}p est la variable complexe.

Transformées de Laplace usuelles
f(t)F(p)
\delta (t) (Dirac)1
t\frac{1}{p^2}
x(t)X(p)
\dot x(t)p \cdot X(p) - X(0)
\ddot x(t)p^2 \cdot X(p) - p \cdot X(p) - \dot X(0)

Soit l'équation a x^n D \left( \frac{d}{dt} y \right) = N \left( \frac{d}{dt} u \right)u et y sont respectivement l'entrée et la sortie et D et N sont des polynômes à coefficients réels en (d/dt). Si l'on considère que les conditions initiales sont nulles, on peut réécrire l'équation différentielle précédente pour obtenir la fonction de transfert H :

D(p) \ Y(p) = N(p) \ U(p) \ \leftrightarrow \  \frac{Y(p)}{U(p)} = \frac{N(p)}{D(p)} = H(p)

Les pôles d'une fonction de transfert sont les valeurs pour lesquelles le dénominateur D, aussi appelé équation caractéristique, s'annule. Attention, tout ceci est vrai à condition que la fonction de transfert soit sous forme irréductible. Pour que le système soit stable, il faut que tous les pôles soient strictement à l'intérieur du cercle unité (\|p|<1).

Représentation de la boucle de contrôle d'attitude

On représente la boucle du SCA comme un contrôle en boucle fermée, avec le terme de rétroaction. On note R(p) le signal de référence, Y(p) le signal de sortie, D(p) la perturbation, U(p) le signal de contrôle, Gc(p) le contrôleur, E(p) l'erreur, Gp(p) le matériel à contrôler et C(p) la dynamique des capteurs. Si l'on considère que les perturbations sont nulles, la fonction de transfert s'écrit :

\frac{Y(p)}{R(p)} = \frac{G_c(p) \ G_p(p)}{1+G_c(p) \ G_p(p) \ C(p)}

Le dénominateur de cette équation est un polynome dont les racines déterminent le type de réponse. Le contrôleur peut être utilisé pour stabiliser le système ou lui donner des caractéristiques particulières.

Boucle ouverte ou fermée
images/boucles-ouverte-fermee.png
Dans la boucle ouverte, la durée du cycle de lavage ne dépend pas de la propreté de la vaisselle qu'il contient. Afin d'adapter cette durée à l'état des assiettes et verres, il faut qu'un capteur de propreté fournisse une information à comparer à la propretée désirée et qu'un contrôleur en déduise une nouvelle durée. C'est ce que l'on appelle une boucle fermée.
Crédit : Gary Quinsac
Fonction de transfert
images/fonction-transfert.png
Crédit : Gary Quinsac
Diagramme en bloc de la boucle de contrôle
images/boucle-SCA-fonction-transfert.png
Chaque élément de la boucle de contrôle d'attitude est représenté par sa fonction de transfert.
Crédit : "Fundamentals of Spacecraft Attitude Determination and Control", F. Landis Markley et John L. Crassidis.

Contrôleur

Le contrôleur a pour objectif de convertir l'erreur, c'est-à-dire l'écart entre la mesure de la sortie de la boucle et le signal de référence, en un signal de contrôle qui va finir par ramener l'erreur à 0.

Les performances du contrôleur et a fortiori de l'asservissement sont décrites par plusieurs paramètres :

L'asservissement doit ainsi assurer un compromis entre performance et stabilité. La performance est proportionnelle à la valeur du gain du correcteur, mais à partir d'une certaine valeur celui-ci a tendance à déstabiliser le système.

Contrôleur PID

Le contrôleur "Proportionnel-Intégral-Dérivé" est la logique de contrôle la plus utilisée pour les régulateurs avec boucle de rétroaction. Ce contrôleur agit de trois manières :

La fonction de transfert d'un régulateur PID s'exprime :

C(p) = K_p + \frac{1}{K_i} \ \frac{1}{p} +K_d \ p

Considérons un système de contrôle d'attitude mono-axe simple. L'équation d'Euler s'exprime :

[I] \ \ddot \theta (t) = u(t) + w(t)

[I] est la matrice d'inertie, \theta est l'angle, u est le couple de contrôle et w est le couple perturbateur extérieur.

Contrôleur PD

Un simple contrôle proportionnel ne pourrait pas atteindre une réponse asymptotiquement stable, nous introduisons donc un régulateur PD (proportionnel-dérivé) :

u(t) = -K_p \ \theta(t) - K_d \ \dot \theta (t)

K_p et K_d sont des gains qu'il faut déterminer. Le système en boucle fermée et son équation caractéristique s'écrivent alors :

[I] \ \ddot \theta (t) + [K_d] \ \dot \theta (t) + [K_p] \ \theta(t) = w(t) \ \leftrightarrow \ I \ p^2 + [K_d] \ p + [K_p] = 0

Dans le but d'identifier les valeurs des deux gains, nous introduisons \omega_n et \zeta, respectivement la fréquence propre (fréquence de la réponse sinusoïdale du système non amorti) et le facteur d'amortissement. L'équation caractéristique est réécrite en introduisant ces deux nouvelles grandeurs :

p^2 + 2 \ \zeta \ \omega_n \ p + {\omega_n}^2 = 0

Les gains du contrôleur s'expriment alors : [K_p] = [I] \ {\omega_n}^2 et [K_d] = 2 \ [I] \ \zeta \ \omega_n. On choisit généralement le facteur d'amortissement de tel sorte que 0,5 \leq \zeta \leq 0,707. Il est important de noter que l'information sur la dérivée provient de gyroscopes ou de différences finies de l'attitude.

Contrôleur PID

Pour une perturbation constante de valeur unitaire, le système asservi par le contrôleur PD produit une attitude en régime permanent non-nulle : \theta(\infty) = 1/K_p. Idéalement nous souhaitons que l'attitude en régime permanent soit nulle, c'est la raison pour laquelle nous introduisons le contrôleur PID (proportionnel-intégral-dérivé) :

u(t) = -K_p \ \theta(t) - K_i \int{\theta(t) \ dt} \ - K_d \ \dot \theta(t)

L'équation caractéristique s'écrit cette fois :

[I] \ p^3 + [K_d] \ p^2 + [K_p] \ p + [K_i] = 0 \ \leftrightarrow \ \left( p^2 + 2 \ \zeta \ \omega_n \ p + {\omega_n}^2 \right) \left( p + \frac{1}{T} \right) = 0

\omega_n et \zeta sont toujours la fréquence propre et le facteur d'amortissement, et T est la constante temporelle associée au contrôle intégral. Les gains du contrôleur PID s'expriment : [K_p] = [I] \left( {\omega_n}^2 + \frac{2 \ \zeta \ \omega_n}{T} \right), [K_i] = [I] \ \frac{{\omega_n}^2}{T} et [K_d] = [I] \left( 2 \ \zeta \ \omega_n + \frac{1}{T}\right). On choisit souvent la constante T telle que : T \approx \frac{10}{\zeta \ \omega_n}.

Facteur d'amortissement
images/facteur_amortissement.png
Réponse pour différents facteurs d'amortissement.
Crédit : "Fundamentals of Spacecraft Attitude Determination and Control", F. Landis Markley et John L. Crassidis.

Se tester

Auteur: Gary Quinsac

Présentation des exercices

Cette section doit vous permettre de vous exercer sur certaines des notions présentées dans ce cours. Un QCM reprend la première partie du cours, soit la découverte d'une mission spatiale, du standard CubeSat et du système de contrôle d'attitude et d'orbite. Des exercices plus poussés sont ensuite proposés, recouvrant la représentation d'attitude, les équations du mouvement, les couples perturbateurs et le contrôle d'attitude, la propulsion et enfin les lois de commande. La majeure partie des aspects abordés dans ce cours trouvent ainsi un écho dans ces exercices.


QCM sur la partie "découvrir"

Auteur: Gary Quinsac

qcmDécouvrir

Ce QCM reprend des notions de la partie "Découvrir". Pour certaines questions plusieurs réponses sont possibles.

Difficulté :   

1)  Comment nomme-t-on une orbite circulaire autour de la Terre à une altitude de 300 km ?




2)  Dans quelle classe de satellite se trouvent les CubeSats ?



3)  Quelle est la phase de construction d'un véhicule spatial ?







4)  Quels sont les avantages offerts par le standard CubeSat ?



5)  Quels sous-systèmes font partie de la plateforme du satellite ?





6)  Quels sont les domaines de longueur d'onde absorbés par l'atmosphère ?




7)  Quelle est la masse d'un CubeSat 6U d'après les standards qui vous ont été présentés ?




8)  Quel est le secteur d'utilisation des CubeSats montrant parfaitement l'adoption généralisée de ce standard ?



9)  Quel est le type de mouvement en jeu lorsque l'on parle de contrôle d'attitude ?


10)  Comment nomme-t-on le sous-système chargé de modifier la trajectoire du satellite ?




Exercices : Représentation d'attitude

Auteur: Gary Quinsac

exerciceMatrice du Cosinus Directeur

Difficulté :   

On souhaite montrer que la MCD est une matrice orthonormale, c'est-à-dire que [T] \ [T]^T = [I] = [T]^T \ [T].

Soit la MCD [T]_{B|A} entre deux référentiels orthogonaux décrits par les vecteurs unitaires \{ \bold a_1, \bold a_2, \bold a_3 \}^T et \{ \bold b_1, \bold b_2, \bold b_3 \}^T :

\begin{pmatrix} b_1 \\ b_2 \\ b_3 \end{pmatrix} = [T]_{B|A} \ \begin{pmatrix} a_1 \\ a_2 \\ a_3 \end{pmatrix}

Question 1)

Ecrire le vecteur transposé de \bold B = (B_i).

Question 2)

Calculer le produit \bold B \ {\bold B}^T et conclure.

Auteur: Gary Quinsac

exerciceAngles d'Euler

Difficulté :   

Cet exercice a pour but de démontrer l'expression de la MCD à partir d'une certaine séquence d'angles d'Euler. On reprend la notation du cours en nommant \theta_1, \theta_2 et \theta_3 les trois angles d'Euler.

Question 1)

Démontrer qu'en choisissant la séquence [T(\theta_1)]_1 \leftarrow [T(\theta_2)]_2 \leftarrow [T(\theta_3)]_3 afin de passer du référentiel A au référentiel B, on obtient bien la formule présentée dans le cours :

[T]_{B|A} = \begin{pmatrix} c_{\theta_2} c_{\theta_3} & c_{\theta_2} s_{\theta_3} & -s_{\theta_2} \\ s_{\theta_1} s_{\theta_2} c_{\theta_3} - c_{\theta_1} s_{\theta_3} & s_{\theta_1} s_{\theta_2} s_{\theta_3} + c_{\theta_1} c_{\theta_3} & s_{\theta_1} c_{\theta_2} \\ c_{\theta_1} s_{\theta_2} c_{\theta_3} +s_{\theta_1} s_{\theta_3} & c_{\theta_1} s_{\theta_2} s_{\theta_3} - s_{\theta_1} c_{\theta_3} & c_{\theta_1} c_{\theta_2} \end{pmatrix}

Question 2)

Considérons maintenant la séquence suivante : [T(\theta_1)]_1 \leftarrow [T(\theta_3)]_3 \leftarrow [T(\theta_2)]_2. Exprimer la MCD associée à cette séquence.

Auteur: Gary Quinsac inspiré de "Space Vehicle Dynamics and Control" de Bong Wie.

exerciceQuaternions

Difficulté :   

Considérons la séquence de rotations fixées par rapport à un satellite allant du référentiel A au référentiel B :

[T(\theta_1)]_1 \leftarrow [T(\theta_2)]_2 \leftarrow [T(\theta_3)]_3

Les quaternions associés à ces rotations sont :

[T(\theta_1)]_1 = \begin{pmatrix} sin(\theta_1 / 2) \\ 0 \\ 0 \\ cos(\theta_1 / 2) \end{pmatrix}, [T(\theta_1)]_1 = \begin{pmatrix} 0 \\ sin(\theta_2 / 2) \\ 0 \\ cos(\theta_2 / 2) \end{pmatrix}, [T(\theta_1)]_1 = \begin{pmatrix} 0 \\ 0 \\ sin(\theta_3 / 2) \\ cos(\theta_3 / 2) \end{pmatrix}

Question 1)

Montrer que les angles d'Euler de cette séquence de rotation sont reliés aux quaternions de la manière suivante :

\begin{pmatrix} q_0 \\ q_1 \\ q_2 \\ q_3 \end{pmatrix} = \begin{pmatrix} c_1 c_2 c_3 + s_1 s_2 s_3 \\ s_1 c_2 c_3 - c_1 s_2 s_3 \\ c_1 s_2 c_3 + s_1 c_2 s_3 \\ c_1 c_2 s_3 - s_1 s_2 c_3 \end{pmatrix}

s_i = sin(\theta_i / 2) et c_i = cos(\theta_i / 2)

Question 2)

Vérifier que pour des angles infinitésimaux on obtient un quaternion très simple.


Exercices : Equations du mouvement

Auteur: Gary Quinsac

exerciceCinématique d'attitude avec la MCD

Difficulté : ☆☆  

On souhaite démontrer l'équation de la cinématique exprimée avec la MCD.

\frac{d}{dt}([T]) = -[\Omega] \ [T] avec [\Omega] = \begin{pmatrix} 0 & -\omega_z & \omega_y \\ \omega_z & 0 & -\omega_x \\ -\omega_y & \omega_x & 0 \end{pmatrix} et [T] = \begin{pmatrix} T_{11} & T_{12} & T_{13} \\ T_{21} & T_{22} & T_{23} \\ T_{31} & T_{32} & T_{33} \end{pmatrix}

Soit la MCD [T] entre deux référentiels orthogonaux décrits par les vecteurs unitaires \{\bold{a}_1, \bold{a}_2, \bold{a}_3\}^T et \{\bold{b}_1, \bold{b}_2, \bold{b}_3\}^T.

Question 1)

Rappeler la propriété principale de la MCD [T] .

Question 2)

Exprimer la dérivée de l'équation exprimant un vecteur du référentiel (B) en fonction d'un vecteur du référentiel (A).

Question 3)

Obtenir l'équation de la cinématique exprimée avec la MCD.

Question 4)

À partir de l'équation de la cinématique que nous venons de démontrer, exprimer les différentes coordonnées du vecteur vitesse angulaire.

Auteur: Gary Quinsac

exerciceCinématique d'attitude avec les angles d'Euler

Difficulté : ☆☆  

Cet exercice cherche à établir les équations de la cinématique pour certaines représentations d'Euler. Les premières questions considèrent la séquence d'Euler permettant de passer du référentiel (A) au référentiel (B) suivante :[T(\theta_1)]_1 \leftarrow [T(\theta_2)]_2 \leftarrow [T(\theta_3)]_3.

Question 1)

Ecrire les trois vecteurs vitesse angulaire correspondant à chaque transformation élémentaire en fonction des dérivées des angles d'Euler.

Question 2)

Exprimer le vecteur de vitesse angulaire {\boldsymbol\omega}_{B|A} en fonction des vecteurs de vitesse angulaire précédents.

Question 3)

Reformuler cette équation afin de faire apparaître les vecteurs de base des différents repères.

Question 4)

Exprimer les vecteurs de base des repères A'' et A' en fonction de ceux de (B).

Question 5)

Montrer la relation de la cinématique pour cette séquence d'Euler :

\begin{pmatrix} \dot{\theta_1} \\ \dot{\theta_2} \\ \dot{\theta_3} \end{pmatrix} = \frac{1}{\textup{cos}(\theta_2)} \begin{pmatrix} \textup{cos}(\theta_2) & \textup{sin}(\theta_1) \ \textup{sin}(\theta_2) & \textup{cos}(\theta_1) \ \textup{sin}(\theta_2) \\ 0 & \textup{cos}(\theta_1) \ \textup{cos}(\theta_2) & -\textup{sin}(\theta_1) \ \textup{cos}(\theta_2) \\ 0 & \textup{sin}(\theta_1) & \textup{cos}(\theta_1) \end{pmatrix} \begin{pmatrix} \omega_1 \\ \omega_2 \\ \omega_3 \end{pmatrix}

Question 6)

Considérons maintenant la séquence suivante : [T(\theta_1)]_1 \leftarrow [T(\theta_3)]_3 \leftarrow [T(\theta_2)]_2. Exprimer alors l'équation de la cinématique.

Auteur: Gary Quinsac

exerciceCinématique d'attitude avec les quaternions

Difficulté : ☆☆  

Il est maintenant question de démontrer l'équation de la cinématique avec les quaternions.

Question 1)

Reprendre la forme de l'équation de la cinématique trouvée dans la dernière question du premier exercice sur les équations du mouvement :

\begin{cases} \omega_1 = \dot C_{21} C_{31} + \dot C_{22} C_{32} + \dot C_{23} C_{33} \\ \omega_2 =  \dot C_{31} C_{11} + \dot C_{32} C_{12} + \dot C_{33} C_{13} \\ \omega_3 = \dot C_{11} C_{21} + \dot C_{12} C_{22} + \dot C_{13} C_{23} \end{cases}

Substituer les coefficients de la MCD par leur forme avec les quaternons.

Question 2)

Exprimer la dérivée de l'équation contraignant les quaternions.

Question 3)

Regrouper ces 4 équations sous forme matricielle.

Question 4)

Utiliser une propriété remarquable de la matrice de quaternion obtenue dans la questions précédente pour exprimer la dérivée du quaternion.

Question 5)

Réécrire l'équation afin d'obtenir l'équation de la cinématique avec les quaternions.


Exercice : Couples perturbateurs sur un CubeSat

Auteur: Gary Quinsac

exerciceCouples perturbateurs agissant sur un CubeSat

Difficulté : ☆☆  

Une mission scientifique nécessite l'envoie d'un CubeSat 3U sur une orbite circulaire à 300km d'altitude (ce qui correspond à une vitesse de 7726 m/s). On considère que le centre de masse de satellite se trouve décalé du centre géométrique de + [1; 1; 2] cm et que la surface du satellite est homogène. Étant donnée l'altitude, il est possible d'utiliser le champ magnétique pour effectuer le contrôle de l'attitude du CubeSat. Une combinaison de trois magnétocoupleurs, chacun étant orienté selon un axe du satellite, est proposée. Le courant maximum parcourant les bobines est ±0,2 A et le rayon du fil mesure 10,4 mm.

Voici différentes données nécessaires :

Données
Masse volumique de l'atmosphère à 300 km\rho = 2 \times 10^{-11} \ \textup{kg}.\textup{m}^{-3}
Coefficient de trainéeC_x = 2
Constante gravitationnelle de la Terre\mu = 398,6 \times 10^3 \ \textup{km}^{3} . \textup{s}^{-2}
Rayon de la TerreR_{\oplus} = 6,371 \times 10^3 \ \textup{km}
Irradiance solaire moyenne\phi_s = 1362 \ \textup{W}. \textup{m}{-2}
Coefficient de réflexion moyen du satelliteq = 0,9
Champ magnétique terrestre à 300 kmB = 2,6 \times 10^{-5} \ \textup{Tesla}
Dipôle résiduel du satelliteD = 4 \times 10^{-4} \ \textup{A} . \textup{m}^2
Courant maximum dans magnéto-coupleursI_{MTQ} = 0,2 \ \textup{A}
Diamètre de la bobine des magnéto-coupleursD = 10 \ \textup{mm}
CubeSat 3U
images/exercice-cubesat.png
CubeSat 3U de longueur l, de côtés a et b et de moments d'inertie Ixx, Iyy et Izz.
Crédit : Gary Quinsac
Question 1)

Que signifie le fait que la surface du satellite est homogène ?

Question 2)

Estimer les dimensions et la masse totale du satellite.

Question 3)

Quels sont les principaux moments d'inertie du satellite ?

Question 4)

Identifier les couples perturbateurs.

Question 5)

Exprimer les couples perturbateurs maximums créés par les différentes perturbations agissant sur le satellite si son axe +Y est aligné avec sa vitesse. On utilisera les notations données en introduction de l'exercice.

Question 6)

Estimer l'ordre de grandeur de la somme de tous les couples perturbateurs agissant sur le satellite.

Question 7)

Combien de spires la bobine du magnétocoupleur doit-elle contenir pour contrebalancer le couple perturbateur précédemment estimé ?


Exercice : Propulsion

Auteur: Gary Quinsac

exerciceExercice

Difficulté :   

On reprend le CubeSat présenté lors de l'exercice précédent. Cette fois-ci, nous nous plaçons dans le cas où celui-ci doit effectuer une manœuvre orbitale nécessitant un incrément de vitesse de 50 m/s. Six systèmes de propulsion vous sont proposés, chacun étant défini par sa masse sèche Msèche (masse du système de propulsion sans le carburant), son impulsion spécifique Isp, sa force de poussée F et sa consommation électrique P.

Systèmes de propulsion
Type de propulsionModèleMsèche [kg]Isp [s]F [N]P [W]
Gaz froidPalomar MiPS0,89503,5.10-25
Mono-carburantBGT-X51,242205.10-120
Bi-carburantPM2001,102855.10-16
ÉlectromagnétiquePPTCUP0,286704.10-52
ÉlectrostatiqueIFM Nano0,6438003,5.10-432
Question 1)

Quel lien peut-on faire entre la vitesse d'expulsion du carburant l'impulsion spécifique Isp ?

Question 2)

Estimer la quantité de carburant nécessaire pour effectuer la manœuvre souhaitée avec chacun des systèmes de propulsion.

Question 3)

Sachant que l'on cherche généralement à éviter d'allouer plus de 33% de la masse d'un satellite au système de propulsion

Question 4)

La puissance électrique disponible à bord d'un CubeSat 3U recouvert de panneaux solaires en orbite autour de la Terre est estimée à 7 W. Qu'est-ce que cela change au niveau de vos choix ?

Question 5)

En supposant que l'efficacité de la manœuvre ne dépend pas du lieu où celle-ci est effectuée, c'est à dire du moment, combien durerait-elle pour chacun des systèmes de propulsion proposés ? Cette hypothèse est fausse dans de nombreux cas, notamment lorsque les forces de poussée en jeu sont faibles et les manœuvres importantes (ce qui est le cas ici).


Exercices : Lois de commande

Auteur: Gary Quinsac

exerciceÉtude d'un ressort

Difficulté :   

Cet exercice a pour but de vous entraîner à utiliser les transformations de Laplace pour résoudre une équation différentielle.

Considérons une masse m accrochée à un ressort de constante de rappel K. On mesure le déplacement vertical de la masse, provoqué par une stimulation u(t), par la grandeur x. L'installation est illustrée par cette figure.

Ressort
images/ressort.png
Crédit : Gary Quinsac
Question 1)

Quelle est l'équation de déplacement de la masse ?

Question 2)

On veut étudier le cas d'une stimulation impulsionnelle. Que devient u(t) ?

Question 3)

Exprimer la fonction de transfert du système.

Question 4)

Effectuer la transformée de Laplace inverse de la fonction de transfert afin d'exprimer le déplacement issu d'une stimulation impulsionnelle dans le domaine temporel.

Question 5)

Supposons maintenant que la stimulation n'est plus impulsionnelle mais une rampe u(t) =t. Afin d'obtenir la réponse dans le domaine temporel, il faudrait faire le produit de convolution de cette rampe avec la réponse impulsionnelle :

t \ast \frac{1}{\sqrt{K \ m}} sin(\sqrt{\frac{K}{m}} \ t)

Passer par la transformée de Foutier.

Auteur: Gary Quinsac

exerciceReprésentation de la boucle de contrôle d'attitude

Nous allons retrouver la fonction de transfert de la boucle de contrôle d'attitude :

\frac{Y(p)}{R(p)} = \frac{G_c(p) \ G_p(p)}{1+G_c(p) \ G_p(p) \ C(p)}

On note R(p) le signal de référence, Y(p) le signal de sortie, D(p) la perturbation, U(p) le signal de contrôle, Gc(p) le contrôleur, E(p) l'erreur, Gp(p) le matériel à contrôler et C(p) la dynamique des capteurs.

Question 1)

Exprimer le signal de sortie en fonction du signal de contrôle.

Question 2)

Sachant que l'on considère que les perturbations sont nulles, exprimer le signal de contrôle en fonction de l'erreur.

Question 3)

Appliquer la même approche pour trouver l'expression de l'erreur.

Question 4)

Réorganiser les résultats précédents afin de retrouver l'expression de la fonction de transfert.


Mini-projets

Auteur: Gary Quinsac

Présentation des mini-projets

objectifsObjectifs des mini-projets

Quatre mini-projets vous sont proposés afin de tester vos connaissances. Si certaines informations utiles peuvent être retrouvées dans le cours, il sera également nécessaire d'aller en chercher en dehors. Une liste de questions commune aux différents mini-projets vous est proposée, tâchez d'y répondre pour chacun des cas présentés. Ce cours n'étant qu'une introduction aux nanosatellites et au contrôle d'attitude et d'orbite, les questions sont avant tout qualitatives. De plus, face à la complexité d'une mission spatiale, une approche plus poussée nécessiterait de répondre à ces questions plusieurs fois, de manière itérative, afin de prendre en compte l'impact de chaque décision sur les choix effectués précédemment.

Le travail d'un ingénieur spatial est de développer une mission capable de répondre à des besoins. Dans notre cas, ces besoins sont spécifiés par des chercheurs. Quatre missions nous ont ainsi été proposées. Nous intervenons au tout début de ces projets puisque nous sommes chargés d'étudier leur faisabilité.

Étude de l'ionosphère terrestre

Il nous est demandé d'étudier l'ionosphère terrestre. L'ionosphère représente l'atmosphère supérieure d'une planète, de 85 à 600 km d'altitude, une région où le gaz est partiellement ionisé par les radiations solaires. Son fonctionnement est important car elle constitue la partie intérieure de la magnétosphère de notre planètre. Elle joue notamment un rôle essentiel dans les télécommunications et la géolocalisation par satellite, puisqu'elle a tendance à retarder voire même réfléchir certains signaux. Si de nombreux satellites ont déjà acquis des données sur ce milieu, son étude est plus que jamais d'actualité.

Afin d'effectuer des mesures du contenu de l'ionosphère terrestre, il nous est demandé d'utiliser une sonde de Langmuir. C'est un appareil capable de mesurer la température électronique, la densité électronique ainsi que le potentiel électrique du plasma. Une telle sonde permet d'étudier le plasma in-situ, c'est-à-dire à l'endroit où elle se trouve.

Démonstration technologique d'une nouvelle optique de télescope.

Une équipe de chercheurs est en train de développer une nouvelle optique permettant d'améliorer grandement la performance des télescopes d'observation de la Terre en orbite basse. Afin de qualifier en vol leur système, dernière étape de leur développement, ils souhaitent l'embarquer sur un CubeSat. L'ensemble du télescope avec son électronique de lecture doit faire 1,5 U de volume. La lecture se fait avec un capteur CMOS.

Observation d'un transit d'exo-planète

Suite à la première tentative initiée par la mission PICSAT de l'Observatoire de Paris, des scientifiques veulent observer un nouveau transit d'exoplanète. L'étoile autour de laquelle orbite cette exoplanète se trouve dans le plan de notre galaxie. Le même instrument scientifique que celui embarqué par Picsat est envisagé. Son utilisation permet d'effectuer la photométrie du transit, c'est-à-dire de mesurer la luminosité de l'étoile brillante.

Géodésie d'un astéroïde

Surfant sur la recrudescence de missions d'étude d'astéroïdes, un chercheur nous propose une mission d'accompagnement avec un CubeSat. La mission principale doit étudier le système d'astéroïdes géocroiseur nommé 65803 Didymos. Un CubeSat présente l'intérêt de pouvoir s'approcher beaucoup plus proche du système d'astéroïde (faibles risques associés à son faible coût). Les perturbations provoquées par les astéroïdes lors des survols doit permettre d'en déduire leur champ gravitationnel. Pour ce faire, une mesure précise de l'orbite du satellite est nécessaire. De l'astronomie radio-science est envisagée pour réaliser la mesure précise de la position du CubeSat au cours des survols.

Le CubeSat permet d'étudier les populations d'astéroïde (masse, composition...) et en particulier les nombreux astéroïdes doubles pourtant complexes à examiner. L'enjeu est de comprendre leur origine et leur contribution dans la formation du système solaire. D'une manière plus générale, cette étude doit également permettre d'identifier les lois régissant la formation des systèmes exo-planétaires. C'est cette technique qui a permis d'obtenir la majorité des informations concernant la structure interne des corps du système solaire.

L'utilisation d'un transpondeur similaire à ceux utilisés pour la télécommunication nous offre le suivi du CubeSat depuis le sol ou un autre satellite en effectuant des mesures d'effet Doppler et de distance. Ces mesures permettent d'obtenir la vitesse radiale et la distance entre le CubeSat et l'observateur, permettant de calculer son accélération et de déduire in fine le champ gravitationnel de l'astéroïde. Afin d'obtenir des mesures suffisamment précises, le transpondeur Iris, développé par le JPL, est proposé. Cela veut dire que le suivi peut se faire depuis la mission principale ou depuis le sol avec un réseau d'antennes tel que le Deep Space Network ou le ESA Tracking Network..

complementQuelques sources d'information

Sonde de Langmuir sur le satellite Demeter
demeter-sonde-langmuir.png
On peut voir une sonde de Langmuir embarquée par le satellite Demeter.
Crédit : CNRS
Télescope d'observation de la Terre
images/telescope-spatial-enmap.jpg
Télescope hyperspectral d'observation de la Terre EnMAP.
Crédit : DLR
Transit de Vénus
images/transit-venus.jpg
Photographie pris lors du dernier transit de Vénus devant le Soleil en 2012.
Crédit : ESA
Mission AIDA
images/didymos-aida.jpg
Vue d'artiste de la mission AIDA accompagnée d'un CubeSat autour du système d'astéroïdes Didymos. AIDA observe l'impact de la mission DART sur l'astéroïde principal.
Crédit : ESA/Science Office

Questions

Voici une liste de questions auxquelles vous devez essayer de répondre, en le justifiant, pour les quatre missions qui vous ont été proposées.

I - Considérations générales

  1. Étant donné le principe de fonctionnement de l'instrument que nous devons embarquer, quel type de mission envisagez-vous (orbite, nombre de CubeSats...) ?
  2. Qu'est-ce que cela implique concernant le lancement ?
  3. Que pensez-vous des besoins de télécommunication ?
  4. La gestion d'énergie sera-t-elle un aspect critique de cette mission ?
  5. Quel format de CubeSat proposez-vous ?

II - Focalisation sur le SCAO

  1. Que pouvez-vous dire des effets environnementaux sur le contrôle d'attitude ?
  2. Quels besoins identifiez-vous en termes de contrôle d'attitude ?
  3. Ces besoins nécéssitent-ils un contrôle fin de l'attitude des satellites ?
  4. Quels capteurs et actionneurs recommandez-vous ?
  5. Sera-t-il nécessaire d'effectuer des manœuvres orbitales ?
    1. Si oui, évaluez ce que cela représente en budget ΔV.
    2. Quel type de propulsion vous semble le plus adapté ?

Imagerie directe d'exoplanètes

Auteur: JLB

Imagerie directe d'exoplanètes

Bienvenue dans ce cours portant sur l'imagerie directe des exoplanètes.

Vous allez découvrir ici cette technique de prospection et d'étude, à la pointe de la technologie et qui fait partie des quelques méthodes pouvant prétendre à la découverte d'une planète jumelle de la Terre...

La première exoplanète découverte par imagerie directe
2M1207b_First_image_of_an_exoplanet_ESO.jpg
C'est en 2004 que Gaël Chauvin et ses collaborateurs publient dans Astronomy and Astrophysics la première image potentielle d'une exoplanète, autour de la naine brune 2M1207 (un étoile qui ne fusionne pas l'hydrogène car trop légère pour atteindre les condition extrêmes nécessaires, voir cours sur la Formation et évolution II.A.2. ) grâce à l'instrument NaCo du VLT. [Pour plus d'informations cliquez ici]
Crédit : ESO

[Cliquez ici pour commencer le cours]


Découvrir

Auteur: JLB

Introduction

Auteur: JLB

Prérequis

Pour pouvoir suivre ce cours dans les meilleurs conditions il vous faut maîtriser les bases des domaines suivants :

NewtonsPrincipia.jpg

Optique ondulatoire, pour pouvoir comprendre le fonctionnement des instruments :

Vous êtes invités à au moins parcourir les liens mis à disposition dans cette page pour pleinement bénéficier de ce cours.


Qu'est ce que c'est ?

L'imagerie directe d'exoplanètes se propose d'obtenir l'image d'une planète tournant autour d'une autre étoile que le soleil.

L'idée de base est de prendre des photographies comme on le fait pour les planètes du système solaire.

Le système que l'on observe
Beta_Pictoris_b_artists_impression.jpg
Une vue d'artiste de β Pictoris b
Crédit : ESO, Calçada

Malheureusement, à cause de leurs distances, il est exclu pour le moment de pouvoir distinguer le disque de n'importe laquelle des exoplanètes connues. Nous les voyons donc comme une source ponctuelle, et de plus, l'image de ce point est déformée par l'optique de l'instrument utilisé.

L'image que l'on obtient
betapictorisbLagrange2009.jpg
Une observation de β Pictoris b (dans les cases du bas, la planète est la tache blanche en haut à gauche du centre de l'image).

Première approche

Les planètes du système solaire sont facilement observables, la plupart le sont même à l'oeil nu ! Et pendant des siècles on les a étudiées uniquement par l'imagerie dans le visible, d'abord à l'oeil nu puis avec des lunettes et des télescopes.

Le système solaire
Systeme_solaire_fr.jpg
Schéma du système solaire. Les tailles des objets sont à l'échelle, mais pas les distances !

Chercher à faire l'image d'une planète tournant autour de son étoile peut sembler, de prime abord, la meilleure façon de découvrir une exoplanète.

À la différence des méthodes comme la vélocimétrie radiale ou l'étude des transits, l'idée n'est pas ici d'étudier une étoile perturbée par de la présence d'une planète mais bien d'étudier la lumière de la planète elle-même. Cette lumière comprend pour partie la lumière de l'étoile réfléchie par la surface de la planète et, pour partie, de la lumière émise par la planète elle-même.

Un exemple de transit
transit.jpg
Crédit : CNES

Des difficultés techniques importantes

Une planète possède une luminosité très faible par rapport à son étoile hôte, cette dernière est aveuglante en comparaison !

Et l'on doit pouvoir séparer, sur le détecteur, l'étoile et la planète, très proches l'une de l'autre (8 minutes-lumière pour une planète à une unité astronomique de son étoile) mais toutes deux situées à plusieurs années-lumière de nous !

Pour se faire une idée de la difficulté
Le_phare_de_Sein_sous_le_grain.jpg
Imaginez une gardien de phare avec une chandelle juste à coté de la lanterne du phare. Maintenant prenez la mer jusqu'à ne plus voir la lumière du phare que sous forme d'un point et trouvez un moyen de voir la lumière de la flamme de la chandelle ! Voilà une idée de la difficulté du travail à effectuer.

Buts

Auteur: JLB

Plusieurs finalités

Les techniques d'imageries directes ont plusieurs buts :

MassPeriod.png

Faire de nouvelles découvertes

L'imagerie directe permet d'accéder aux planètes situées loin de leur étoile et suffisamment grosses (de masse supérieure à celle de Jupiter). Ces planètes sont difficiles à déteminer par les méthodes indirectes (transits ou vitesses radiales) car elles demandent une étude sur au moins une période orbitale complète, soit plusieurs (dizaines d') années .

Répartion des planètes suivant les méthodes de détection
MassPeriod.png
Répartition des exoplanètes en masse/période, les points verts sont les planètes observées par imagerie directe.
Crédit : Données provenant du site exoplanet.eu .

Étudier l'atmosphère

Si on arrive à identifier la lumière émise par une planète, et que la quantité de lumière reçue est suffisante, on peut la décomposer par spectroscopie. Cette technique nous permet de déterminer la composition chimique de l'atmosphère de la planète, d'obtenir des informations, comme la température efficace (ou effective temperature en anglais).

Cette technique nous permettra peut être un jour prochain d'identifier la première exo-Terre dotée d'une atmosphère ressemblant à la nôtre...

Spectroscopie
em_abs.png

Comprendre la formation des planètes

La formation des planètes et la formation des systèmes planétaires sont des phénomènes encore mal compris, augmenter nos connaissances sur les planètes géantes, jeunes, éloignées de leur étoile, nous permettra de déterminer lesquels parmi les modèles actuels sont valides.

Image d'une planète en formation ?
apjl462949f2_lr.jpg
En 2013 Sascha Quanz et collaborateurs publient dans the Astrophysical Journal un article sur une potentielle planète en formation détectée par l'instrument NaCo au télescope VLT (Very Large Telescope). [Pour en savoir plus cliquez ici]

Or les jeunes Jupiter sont justement les cibles privilégiées de l'imagerie directe, voyons pourquoi dans les écrans suivants ...


Cibles

Auteur: JLB

Choisir des cibles

L'observation par imagerie directe nécessite certaines conditions sur les cibles observables :

solarSystemSeager2010.jpg

Contraste

Spectres dans le système solaire
solarSystemSeager2010.jpg
Comparaison de la distribution des flux spectraux lumineux émis (en échelle logarithmique) en fonction de la longueur d'onde dans le système solaire. La composante de gauche du spectre (autour d'un micron) correspond à la réflexion de la lumière du soleil sur la planète, la partie droite autour de 20 µm correspond au rayonnement thermique émis par chaque planète et dépendant de sa température.

C'est en comparant les flux lumineux du Soleil et de ses planètes que l'on peut remarquer au moins deux choses :

Attention : un contraste d'un facteur X correspond à un rapport de 10^(X)!


Luminosités

Comme vous pouvez facilement l'imaginer, pour pouvoir détecter/voir la planète, la différence de luminosité entre l'étoile et la planète doit être aussi faible que possible. Il est donc plus facile de chercher des exoplanète autour d'étoiles peu brillantes.

La luminosité de l'étoile dépend de sa température, cette dernière dépendant de sa masse, et la durée de vie d'une étoile st inversement proportionnelle à cette masse. Suivant sa position dans le diagramme HR (voir ci-dessous) l'étoile évolue donc plus ou moins vite.

Diagramme de Hertzsprung-Russell
H-R_diagram_-edited-3.gif
Le diagramme HR, pour diagramme Hertzsprung-Russell, permet de classer un étoile grâce à sa luminosité en fonction de sa température. Sur la séquence principale (Main sequence, V, ou MS) on trouve les étoiles fusionnant l'hydrogène (comme le Soleil). En haut à gauche donc à forte température et luminosité, on trouve les étoiles bleues, très jeunes, et en bas à droite les naines rouges qui sont peu brillantes et à faible température.

Si on cherche à étudier les exoplanètes autour d'une étoile de faible luminosité, on va donc être intéressé par des étoiles de faible masse et faible température, voire même par des naines brunes. Dans les faits, la première exoplanète imagée l'a été autour d'une naine brune.

Mais une planète comme β Pictoris b tourne autour d'une étoile A (blanc-bleutée) de la séquence principale ! Comment se fait-il que l'on puisse imager une planète autour d'une étoile aussi brillante ? Une étoile de type A est très massive, elle quitte donc rapidement la séquence principale. Une étoile A sur la séquence principale est donc jeune, et ses planètes le sont aussi : ainsi β Pictoris a un âge compris entre 10 et 20 millions d'années seulement. Pourquoi est-il intéressant de cibler un système planétaire si jeune ?

Les sources d'énergie permettant à une planète de rayonner peuvent être de deux types :

Courbes d'évolution de la luminosité d'une planète
LuminosTimeMordasini2012.jpg
En 2012 Christoph Mordasini et collaborateurs présentent dans Astronomy & Astrophysics, un modèle d'évolution planétaire. Vous pouvez voir ici l'évolution de la luminosité (comparée à la luminosité solaire, le tout en échelle logarithmique) de planètes de type géante gazeuse (comme Jupiter) en fonction du temps. Observez le pic autour d'un million d'années qui survient à la fin du processus de formation et à partir duquel la luminosité se met à chuter.

Distances

Comme nous l'avons présenté précédemment, notre problème est similaire à celui d'observer à plusieurs kilomètres de distance la lumière d'une chandelle posée à côté de la lampe d'un phare. Si vous collez la chandelle à la lampe du phare vous n'avez aucune chance de la voir car vous serez totalement éblouis. En revanche, si vous attachez la chandelle à un bras télescopique de plusieurs mètres, vous pourrez la détecter plus facilement.

De plus, si, avec votre bateau, vous vous éloignez trop du phare, vous êtes sûr de ne pas pouvoir observer la chandelle. Pour augmenter les chances d'observer directement une exoplanète, il faut donc que la séparation apparente entre l'étoile et l'exoplanète sur le ciel soit aussi grande que possible, ce qui nécessite :

Exemple de relation distance,orbite,distance angulaire
Primera_foto_planeta_extrasolar_ESO.jpg
La première planète imagée orbite à environ 55 fois la distance Terre-Soleil de son étoile hôte, qui elle-même se trouve à 70 pc de nous. Cela se traduit par une distance angulaire de 778 mas (milliarcsecondes), ce qui est accessible aux grands télescopes actuels.
Crédit : ESO

Exemples d'instrument

Auteur: JLB

Quelques instruments

Dans les écrans qui suivent vous trouverez quelques exemples d'instruments qui sont utilisés ou vont être utilisés dans un proche avenir pour imager les exoplanètes. Cette liste est loin d'être exhaustive mais se veut constituée d'exemples concrets d'instruments dédiés ou non à cette technique.

Dans l'espace

En premier lieu nous présentons deux satellites dont les archives (observations anciennes) regorgent peut-être de planètes à découvrir (avis aux amateurs) :

De nombreux concepts de satellites dédiés à l'imagerie directe ont été développés, que ce soit par coronographie ou interférométrie, à l'instar de SPICES, Darwin ou TPF. Les développements techniques pour permettre la réalisation de ces missions sont en cours au moment où sont rédigées ces lignes.

Au sol

Les deux instruments au sol que nous présentons ici sont des instruments européens (contrairement à Hubble et Spitzer qui sont pour leur part américains). Il s'agit de NaCo et de SPHERE.

Ce second instrument, SPHERE, fait partie d'une génération d'instruments pour grands télescopes qui comprend, entre autres, le Projet 1640, MagAO et GPI . L'arrivée de tous ces instruments, pour la plus part dédiés à l'imagerie directe d'exoplanètes, promet une moisson de découvertes dans les prochaines années.


Satellites

HST

Le télescope spatial Hubble (Hubble Space Telescope, HST en anglais) de la NASA est une des sources d'images d'exoplanètes. Son principal point fort est de se trouver hors de l'atmosphère et donc d'atteindre un pouvoir de séparation angulaire permettant la détection de l'exoplanète.

Remarque : nous verrons comment l'on tente de corriger les perturbations causées par l'atmosphère terrestres pour les instruments situés au sol, dans la partie sur l'optique adaptative.

Pour l'imagerie directe on utilise ACS (pour Advanced Camera for Surveys) qui possède un coronographe, permettant de masquer la lumière d'une étoile pour voir seulement celle provenant des planètes situées autour (voir suite du cours). Cette caméra, installée en 2002, est la plus utilisée pour l'imagerie astronomique en général. L'autre instrument utilisé est STIS (pour Space Telescope Imaging Spectrograph) qui nous donne par exemple l'image ci-dessous.

Fomalhaut b
fomalhaut_b.jpg

Un exemple de détection par HST : Fomalhaut b. Cette planète a été annoncée par Paul Kalas, James R. Graham et collaborateurs en 2008 dans la revue Science, autour d'une étoile âgée de 400 millions d'années et située à 7,7 pc de nous. Une non-détection par un autre satellite a jeté un doute sur son existence (voyez la page suivante)...

Hubble Space Telescope
HST_creditNASA.jpg
Crédit : NASA

Satellites (Suite)

Spitzer

Un autre satellite jouant un rôle important dans l'imagerie directe d'exoplanètes est le télescope spatial Spitzer. C'est le télescope spatial spécialisé dans l'infrarouge de la NASA, il est utilisé dans notre cas pour vérifier la présence de planètes ou pour contraindre leur rayon et leur masse.

C'est l'instrument IRAC (InfraRed Array Camera), qui est utilisé dans une de ses bandes dans le proche infrarouge pour rechercher les jeunes exoplanètes géantes.

Spitzer
Spitzer.jpg
Crédit : NASA

Certains chercheurs expliquent la non-détection par Spitzer de Fomalhaut b (voir la page précédente sur HST) par le fait que la planète serait de faible rayon. Dans ce cas, Spitzer nous donne une limite sur le rayon maximal de la planète.


Au sol

NaCo

NaCo est un instrument du Very Large Telescope (VLT) de l'Observatoire Européen Austral (ESO en anglais), il a permis de faire la première image d'une exoplanète confirmée en 2005 par Gaël Chauvin, Anne-Marie Lagrane et collaborateurs.

Son nom vient de la fusion de NAOS et de CONICA, qui sont respectivement un système d'optique adaptative (Nasmyth Adaptive Optics System) et un imageur, polarimètre, coronographe et spectrographe dans le proche infrarouge (Near-Infrared Imager and Spectrograph) et est utilisé par de nombreuses communautés d'astronomes.

NaCo
NACO_at_Yepun_small.jpg
Crédit : ESO
La première exoplanète découverte par imagerie directe
2M1207b_First_image_of_an_exoplanet_ESO.jpg
2M1207 b, observée par NaCo
Crédit : ESO

Au sol (suite)

SPHERE

Spectro Polarimetric High contrast Exoplanet REsearch (SPHERE) est un instrument de seconde génération du VLT, il doit permettre d'obtenir le spectre des planètes cibles et d'étendre le nombre de planètes étudiées en imagerie directe. Il conjugue une optique adaptative de pointe, la coronographie et l'imagerie différentielle spectrale, polarimétrique et angulaire. Ces concepts vont vous être présentés dans ce cours.

SPHERE
eso1417c.jpg
L'instrument SPHERE installé sur la plateforme d'un des télescope du VLT.
Crédit : ESO

Illustrations

Auteur: JLB

Quelques observations

Pour conclure cette partie d'introduction sur le sujet de l'imagerie directe des exoplanètes, voici deux exemples de systèmes planétaires, confirmés et étudiés.

Beta_Pictoris_b_artists_impression.jpg

Le système HR8799

Autour de l'étoile HR 8799 se trouve un système d'au moins 4 planètes géantes plus massives que Jupiter, c'est une étoile jeune (moins de 100 millions d'années), chaude (7230 K de température efficace) et plutôt proche de nous (40 pc).

HR8799
HR8799_Marois2010.jpg
En 2010 Christian Marois et collaborateurs ont publié dans Nature la découverte d'une quatrième planète (HR8799 e) autour de l'étoile HR 8799 observée avec le télescope Keck II.

Ce système de planètes nous permet de rappeler ici la nomenclature utilisée actuellement pour nommer une exoplanète : on commence par le nom de son étoile hôte suivi d'un lettre minuscule partant de "b", les lettres étant distribuées dans l'ordre de découverte des exoplanètes qui ne correspond pas forcément avec un ordre de taille ou de distance à l'étoile hôte. Ainsi, HR 8799 e a été la dernière à être découverte car la plus proche de son étoile et donc la moins facilement séparable.

Comparaison avec le système solaire
HR8799.png
Répartition en demi-grand axe (en unités astronomiques, avec une échelle logarithmique) des planètes dans le système HR8799 (en blanc) comparé au Système solaire (en jaune). Le diamètre de chaque point varie en fonction de la masse de la planète.

Beta Pictoris

Autour de la jeune (20 millions d'années) et chaude (8040 K de température efficace) étoile β Pictoris tourne la planète β Pictoris b, située à seulement 20 pc (60 années-lumière) de nous. C'est un jeune Jupiter massif qui perturbe le disque de gaz et de poussières gravitant autour de son étoile.

Beta Pictoris b
betapictorisbLagrange2009.jpg
En 2009 Anne-Marie Lagrange et collaborateurs publient dans Astronomy and Astrophysics la première image de β Pictoris b, prise avec NaCo au VLT.[Pour plus d'informations cliquez ici]
Une planète jeune et proche de son étoile
BetaPicb_JeuneProche.png
Voici la répartition des planètes observées par imagerie directe selon l'âge (en miliards d'années, Gyr) et le demi-grand axe (en unités astronomiques, AU). Vous trouverez, en rouge, l'exoplanète β Pictoris b.

Comprendre

Auteur: JLB

Plan

banniere_comprendre.jpg

Nous commencerons cette partie par quelques rappels sur la physique des objets que nous étudions.

Puis nous verrons les informations que nous donne la lumière provenant de ces objets.

Enfin nous verrons comment capturer cette lumière et extraire ces informations.


Physique de la cible

Auteur: JLB

Introduction

Fomalhaut b
Fomalhaut_planet-credit_ESA_NASA_L_Calcada-.jpg
Crédit : ESA/NASA

Commençons par étudier ce qui se passe d'un point de vue physique dans le système planétaire que l'on va chercher à imager:


Mécanique

La planètes suivent les lois de la mécanique découvertes par Newton. En particulier, elles sont soumises à la force de gravitation universelle qui définit des orbites képlériennes.

La position et le mouvement relatif de la planète par rapport à son étoile vont nous permettre de contraindre les éléments de l'orbite (demi grand axe, inclinaison, excentricité), sa période et donc les masses des corps.

Éléments d'une orbite
Angular_Parameters_of_Elliptical_Orbit.jpg
A – planète B – étoile C – plan de référence, l'écliptique D – Plan orbital de la planète E – noeud descendant F – Périapse G – noeud ascendant H – Apoapse i – Inclinaison J – Direction de référence (ligne de visée) Ω – Longitude du noeud ascendant ω – Argument du périapse

Pour aller plus loin.


Formation

Une planète commence sa formation sous la forme d'un noyau solide qui grossit par accrétion de matière. Si la masse de ce planétoïde dépasse quelques dizaines de M_Terre(1 M_Terre correspondant à une fois la masse Terre) , l'accrétion de gaz augmente brutalement pour former une planète géante.

Naissance d'une planète géante
aa18457-11-fig2.jpg
En 2012, Christoph Mordasini et collaborateurs publient dans Astronomy and Astrophysics une étude sur la formation des planètes, ici celle de Jupiter, de haut en bas et de gauche à droite, se trouvent l'évolution de la masse, du taux d'accrétion, du rayon et la luminosité de la planète en fonction du temps.

Remarque: Instabilités gravitationnelles

Le modèle précédent, dit de "core accretion" ou accrétion de coeur, n'est pas le seul existant pour expliquer la formation des planètes géantes, un autre modèle est basé sur les modèles de formation des étoiles. En effet les instabilités gravitationnelles dans le disque protoplanétaire provoquent une fragmentation de celui-ci suivi d'effondrements locaux menant à la formation directe d'astres principalement gazeux... Identifier le mode de formation est donc une tache complexe, et l'imagerie directe donne des pistes pour ce faire (notamment la luminosité ou la température en fonction de l'âge de la planète mais aussi sa position par rapport à l'étoile).

Pour en savoir plus, reportez-vous au cours sur la formation des planètes en cliquant ici.


Disque zodiacal

Lorsqu'une étoile vient de se former, elle est entourée d'un disque de poussière et de gaz comme β Pictoris par exemple RAJOUTER LE LIEN. C'est dans ce dernier que vont se former les planètes. Au fil de l'évolution du système planétaire, ce disque va être alimenté par les collisions entre les comètes et les astéroïdes. Ce disque de poussière est très lumineux dans les systèmes jeunes. Il absorbe le rayonnement de l'étoile et son émission (principalement dans l'infrarouge lointain) va avoir tendance à gêner l'observation directe des exoplanètes.

Dans le système solaire le contraste moyen entre la lumière zodiacale et la lumière solaire est de 7 ordres de grandeur. alors que le rapport des masses entre le disque de poussière et les planètes vaut 10^{-10} et que le disque s'étend de 5 à plusieurs centaines d'UA. Il existe des étoiles autour desquelles on trouve un disque plus de 1200 fois plus brillant, comme η Corvi !

On exprime l'intensité diffusée par la poussière interplanétaire en zodi, 1 zodi étant l'intensité diffusée par le disque de notre système solaire.

Disque
Exoplanet_caught_on_the_movecredit_ESO_A_M_Lagrange.jpg
Image composite combinant le disque et la planète en orbite autour de β pictoris (ici masquée, au centre du cercle) .
Crédit : ESO/Lagrange

Corps Noir

Tout corps, à une température donnée, émet un rayonnement particulier appelé rayonnement thermique (ou par abus, rayonnement de corps noir, un corps noir étant un corps parfaitement absorbant à toutes les longueurs d'onde).

Le spectre du rayonnement d'un corps noir ne dépend que de sa température T. La longueur d'onde \lambda_{\mathrm{max}} où ce spectre atteint son maximum est donnée par la loi de Wien:  \lambda_{\mathrm{max}} = \frac{hc}{4.965 k_B T}. h, c et k_B désignent respectivement les constantes de Planck, la vitesse de la lumière et la constante de Boltzmann. Un corps chaud présente donc un pic d'émission décalé vers les courtes longueurs d'onde par rapport à un corps plus froid. Aux températures ambiantes, ce pic est dans l'infrarouge (dit infrarouge thermique), mais pour des corps atteignant une température plusieurs milliers de Kelvins, ce maximum se décale dans le spectre visible : c'est le cas des étoiles par exemple, ou bien d'un tison chauffé à blanc.

Le flux total F (intégré sur toutes les longueurs d'onde) émis par un corps noir ne dépend également que de sa température, suivant la loi de Stefan-Boltzmann : F = \sigma T^4\sigma désigne la constante de Stefan-Boltzmann. Un corps chaud rayonne donc bien davantage qu'un corps froid.

La température du corps noir émettant autant de flux thermique que la planète est appelée température efficace (T_{\mathrm{eff}}) de la planète. Elle est en règle générale voisine de la température physique de la région de la planète d'où est principalement issue l'émission thermique (atmosphère, voire surface solide pour des planètes telluriques dotées d'une atmosphère mince).

Or, on a pu voir précédemment, que le processus de formation des planètes était un processus impliquant des chocs et autres phénomènes violents, ce qui provoque un dégagement d'énergie considérable sous forme de chaleur.

Evolution température
TempMordasini2012.jpg
En 2012, Christoph Mordasini et collaborateurs publient dans Astronomy & Astrophysics une étude sur la formation des planètes, ici celle de Jupiter. En rouge vous pouvez remarquer l'évolution de la température efficace de la planète en fonction du temps.

Vous pouvez remarquer que, une fois formée, plus la planète est jeune, plus elle est chaude, et donc plus important est le flux lumineux qu'elle émet. Mais aussi plus la longueur d'onde du maximum de luminosité est courte (et se rapproche du domaine visible) ! Ainsi Jupiter émet actuellement son maximum d'émission autour de 30 µm, tandis que β Pictoris b l'émet autour de 1,7 µm.

Pour en savoir plus.


L'infrarouge Proche

Le rayonnement de corps noir des jeunes exoplanètes géantes culmine généralement dans le proche infrarouge. C'est une chance car il y a de nombreuses raies moléculaires (méthane, monoxyde de carbone...) et atomiques (Na, K ...) dans ce domaine spectral, ce qui permet potentiellement d'analyser la composition chimique de ces planètes.

Pour observer depuis le sol dans ce domaine de longueurs d'onde, il faut hélas se restreindre aux fenêtres de transparence de l'atmosphère terrestre, comme les fenêtres J,H et K situées dans le proche infrarouge (voir l'image ci-dessous).

sofi_filters.png
Filtres J (1,1-1,4 μm), H(1,5-1,8 μm) et (2-2,5 μm)K (en rouge et vert) disponible dans le proche infrarouge à l'ESO, comparé à la transmission de l'atmosphère terrestre (bleu).

Age

La formation des planètes étant quasi-concomittante à celle de leur étoile hôte, on assimile souvent l'âge de la planète à celui de son étoile. Par exemple la Terre a terminé sa formation 20 millions d'années après le Soleil, ce qui est négligeable en comparaison des 4,6 milliards d'années du système solaire.

Fragmentation d'un nuage interstellaire
protoplanetDiskModel.jpg
Modèle de formation de disque protoplanétaire par fragmentations d'un nuage se situant dans le milieu interstellaire. Dans ce nuage un très grand nombre d'étoiles sont en formation en même temps, mais elles sont de masses différentes. Nous allons pouvoir répartir les étoiles résultantes sur un diagramme HR et, suivant leur emplacement, pouvoir dater le groupe d'étoiles et donc contraindre l'âge des exoplanètes possiblement présentes.
Crédit : Starplan

Groupe local

Pour déterminer l'âge d'une étoile on peut déterminer, par son mouvement propre, à quel groupe d'étoiles elle appartient. Le groupe d'étoiles, dont les étoiles ont été formées au même moment et se déplaçant dans la même direction, peut nous donner son âge grâce à sa répartition au sein du diagramme HR. http://astro.unl.edu/naap/hr/animations/hr.html

Activité

Age/Activité
Age_RHK_AgeEstim_Mamajek2012.gif
Eric E. Mamajek et Lynne A. Hillenbrand ont publié en 2008 dans the Astrophysical Journal une étude sur les estimateurs d'âge des étoiles de type solaire. Ce graphique nous présente la répartition des âges, en ordonnées (en années et en échelle logarithmique), en fonction d'un marqueur d'activité à savoir \log (R'_{HK}) : plus il est élevé, plus l'activité est grande. Les courbes représentes plusieurs tentatives pour déterminer une relation entre ces deux observables.

On peut aussi relier, pour un type stellaire donné, l'âge à l'activité et à la couleur de l'étoile. La couleur s'obtient en prenant deux mesures de flux photométriques dans deux domaines de longueur d'onde différents. Pour l'activité, l'observation de plusieurs marqueurs spectroscopiques est possible ainsi que l'émission dans le domaine des rayons X.

Activité/X
RHK_X_AgeEstim_Mamajek2012.gif
Dans le même article de Eric E. Mamajek et Lynne A. Hillenbrand, on trouve ce graphique qui nous présente une relation linéaire entre le marqueur spectroscopique qu'est le \log (R'_{HK}) et le rayonnement en X . B-V est l'indice de couleur des étoiles qui peut donc être relié à leur type spectral.

Rotation

La rotation de l'étoile est aussi liée à l'activité et donc à son âge, la comparaison de la rotation propre d'une étoile avec sa couleur va donc nous permettre de remonter à ce premier paramètre, pour un type spectral donné.

Rotation/Activité
Rotation_RHK_AgeEstim_Mamajek2012.gif
L'article de Eric E. Mamajek et Lynne A. Hillenbrand présente enfin ce graphique qui nous présente les relations linéaires entre le marqueur spectroscopique qu'est le log (R'_{HK}) et la rotation de l'étoile exprimée par le nombre de Rossby.

Source d'information

Auteur: JLB

Introduction

Les planètes et les étoiles émettent des photons dans l'espace et certains vont arriver jusqu'à la Terre... Notre seule source d'information, ce sont ces photons !

Les observations sont effectuées avec un ou plusieurs télescopes, qui vont collecter et envoyer un grand nombre de photons au foyer de l'instrument. L'image se forme alors sur un capteur CCD (Charge-Coupled Device, dispositif à transfert de charges), qui est un récepteur à photons transformant ces derniers par effet photoélectrique en courant électrique. Ceci permet donc l'enregistrement d'une image notamment pour être envoyée et traitée par un ordinateur.

Sont identifiables sur l'image obtenue par le capteur CCD :

Observation de Fomalhaut b
fomalhaut_b.jpg

Position

Pour voir la planète, il faut que son image et celle de l'étoile ne soient pas superposées, cela sous-entend que leur écartement angulaire sur le ciel soit suffisamment important. La mesure de cet angle se fait en seconde d'arc (aussi noté "), qui est une subdivision du degré, un degré correspondant à 60 minutes d'arc (60') et une minute d'arc à 60 secondes d'arc (60").

Cette séparation angulaire dépend de la distance séparant les deux corps a (voir la partie mécanique) et de la distance séparant le système exoplanétaire de l'observateur terrestre d. Or, si l'on prend un cas typique d'un planète à 100 UA autour d'un étoile située à 10 pc de nous, le rapport d/a vaut plus de cent mille ! La séparation angulaire i entre l'étoile et l'exoplanète vues depuis la Terre est alors donnée simplement par la formule trigonométrique \tan (i) = \frac{a}{d}. Comme \frac{a}{d} \ll 1, cette formule se simplifie en i \approx \frac{a}{d} si l'on mesure i en radians (il faudra alors le convertir en secondes d'arc : 1\,\mathrm{rad} \approx 206265^{''}).


Photométrie

La lumière qui nous permet d'identifier la planète provient de plusieurs mécanismes physiques. L'étoile émet de la lumière au niveau de sa photosphère, dont l'intensité et la couleur vont dépendre de sa température efficace (cf. corps noir). Mais la planète (suivant son éloignement par rapport à son étoile) va réfléchir une partie de la lumière stellaire suivant son albédo (littéralement sa capacité à réfléchir la lumière). Elle va aussi émettre sa propre émission thermique selon sa propre température efficace. AJOUTER LIEN.

On exprime la différence d'intensité lumineuse I entre l'étoile et la planète grâce au contraste, définit comme : c = \frac{I_{\'etoile} - I_{plan\`ete}}{I_{\'etoile} + I_{plan\`ete}}

Le contraste en magnitude est défini comme la différence de magnitude (LIEN VERS PAGE SUIVANTE) entre la planète et l'étoile.

solarSystemSeager2010_Modif.jpg
Comme nous l'avons vu précédemment, le flux lumineux émis par les planètes du système solaire se compose de deux parties, une partie (au niveau de la flèche rouge) dû à l'albédo de la planète qui va provoquer une réflexion de la lumière solaire (avec un maximum au même endroit que le maximum solaire, puisqu'il s'agit de la même lumière) et une partie d'émission thermique propre (au niveau de la flèche bleue). La température des planètes étant plus froide que celle de leur étoile, ce second maximum local se situe à de plus grandes longueurs d'onde.

Pour aller plus loin sur la photométrie, cliquer ici.


Magnitudes

Pour mesurer la luminosité d'un objet en astrophysique, on utilise les magnitudes.

Par définition la magnitude m est liée au flux spectral émis ou réfléchi E par la formule m = -2.5 \log_{10} \left( \frac{E}{E_0} \right)E_0 est le flux spectral d'une étoile de référence (par défaut Véga) qui correspond arbitrairement à une magnitude de 0.

En général on considère deux types de magnitudes :

[Pour aller plus loin.]

Les magnitudes sont d'usage courant en astronomie et très utiles. Elles permettent, entre autres choses, de construire des diagrammes couleur-magnitude ou couleur-couleur qui donnent des informations similaires au diagramme HR tout en pouvant être construits beaucoup plus facilement à partir des observations disponibles. Ici, une couleur désigne la différence entre deux magnitudes observées dans deux bandes spectrales différentes.

Diagramme couleur-couleur
HR8799_HRdiag.jpg
Diagramme couleur-couleur comparant les naines rouges (M dwarfs) naines brunes (L et T dwarfs) et les planètes HR8799 b,d et d. Ici on compare des observations dans l'infrarouge dans avec des filtres K',Ks,L' et M'..

[Pour aller plus loin.]


Acquérir l'information

Auteur: JLB

Introduction

SPHERE_fig2_detection.jpg
De gauche à droite : image de l’étoile corrigée par optique adaptative, image de l’étoile atténuée par coronographie, SDI, ADI (ces sigles recouvrent des techniques expliquées par la suite).
Crédit : LESIA

Une fois les photons observés, il faut trouver puis étudier les éventuelles planètes... Or ce n'est pas chose facile : les planètes ne sont pas du tout visibles directement dans les données brutes (les deux premières images en partant de la gauche de la figure ci-dessus).

Il faudra donc utiliser certains concepts avancés de traitement du signal :

Hubble space telescope
HST_creditNASA.jpg
Crédit : NASA

Optique ondulatoire

La lumière est une onde électromagnétique, et l'intensité lumineuse est proportionnelle au carré de l'amplitude de cette onde. Comme toute onde, elle est sujette aux phénomènes de diffraction et d'interférence, qui vont être particulièrement importants ici. Ainsi l'image de l'étoile hôte, que l'on assimile a une source ponctuelle vue depuis la Terre, va devenir une tache d'Airy (voir image ci-dessous) sur le récepteur du fait de l'utilisation d'instruments d'ouverture finie (l'ouverture est directement reliée au diamètre du miroir principal du télescope). La lumière de l'étoile va donc s'étaler sur l'ensemble du détecteur, compliquant la détection de la ou des planètes éventuellement présentes !

Il est important de remarquer que cette tache centrale a une taille caractéristique proportionnelle à la longueur d'onde et inversement proportionnelle à l'ouverture du télescope. Cela implique que pour avoir une résolution suffisante, il faut une ouverture en adéquation avec la longueur d'onde : pour pouvoir espérer observer une planète proche de son étoile dans l’infrarouge lointain, il faudrait ainsi un télescope de plusieurs dizaines de mètres d'ouverture !

Airy-pattern2.jpg
Image simulée d'une source ponctuelle à travers un instrument d'ouverture finie et circulaire : tache d'Airy

Mais cet aspect ondulatoire présente aussi des avantages : il permet de mettre en œuvre des techniques d'observation basées sur la combinaison de plusieurs télescopes. Ainsi, l'interférométrie permet ainsi de combiner plusieurs télescopes individuels et distants les uns des autres pour obtenir un gain de séparation angulaire. L'interférométrie permet aussi d'occulter l'étoile hôte en jouant sur les interférences destructives.

[Pour aller plus loin]


Coronographie

Comme constaté précédemment, l'image de l'étoile hôte formée sur le récepteur d'un instrument se présente sous la forme d'une tache qui recouvre les images des planètes tournant éventuellement autour d'elle. Notre but va donc être de retirer l'image de l'étoile et d'autres résidus parasites qui pourraient se former à cause des phénomènes de diffraction et d'interférence (les tavelures). Un moyen naturel de retirer la lumière d'une étoile, observable sur Terre depuis l'aube des temps, est le phénomène de l'éclipse solaire, où le Soleil est masqué par la Lune.

Coronographe de Lyot
Shemacoronographelyot_domainePublic.jpg
Schéma original du coronographe de Lyot, tel qu'il le présenta lui-même en 1932. La lentille placée en A forme l'image du soleil sur un disque en B, légerement moins large que l'image du soleil. Puis la lentille C produit une image A'A" sur un diaphragme dont le centre est occupé par le petit écran E. Les bords du diaphragme arrêtent la lumière diffractée par les bords de la première lentille, le petit écran arrête la lumière des images solaires produites par les réflexions parasites sur les faces de la lentille. L'image de la seule couronne solaire finit par apparaître en B'B".
Crédit : Domaine public

C'est sur ce principe que l'astrophysicien Bernard Lyot développa au début du vingtième siècle un coronographe, instrument qui permet de cacher la lumière du soleil par l'utilisation d'un masque disposé sur le chemin optique et d'un collimateur pour atténuer les résidus. Les instruments qui font de l'observation en imagerie directe d'exoplanète utilisent ce même concept, voire des versions plus évoluées : coronographie de phase, coronographie interférentielle achromatique, etc.

[Pour en savoir plus sur les coronographes actuels et futurs cliquez ici.]


Coronographe, diffraction

Corono_ShemaAvecInterference_2.png
Représentation du fonctionnement d'un coronographe de Lyot.
Crédit : JLB pour SESEP

Voici ce qui se passe dans un coronographe de Lyot, expliqué au moyen de l'optique géométrique. La lumière de l'étoile (vert) et celle de la planète (rouge), sont légerement décalées d'un certain angle sur le ciel. Si l'on place la lumière de l'étoile dans l'axe de l'instrument, celle de la planète arrive avec un certain angle, on dit que la planète est située hors-axe. Une lentille placée en A va donc faire converger en son foyer image les rayons de l'étoile mais pas ceux de la planète, il suffit alors de placer un petit écran au foyer image (dans le plan B) de la lentille (placée en A) pour arrêter toute la lumière provenant de l'étoile et ne garder que celle de la planète, dont on forme finalement l'image seule sur l'écran D.

Malheureusement cela ne fonctionne pas directement. En effet, il faut considérer ici le fait que l'ouverture de l'instrument est finie (le télescope a un certain diamètre), ce que l'on modélise ici par la présence d'un collimateur en A.

diffraction.gif
Dans le cadre de l'optique ondulatoire, si une onde plane passe à travers un trou, elle change de forme, le trou devient virtuellement l'emplacement d'une nouvelle source de lumière : c'est le phénomène de diffraction. Le principe de de Huygens présente qu'en optique ondulatoire, chaque point atteint par l'onde se comporte comme une nouvelle source ponctuelle)

En tenant compte du phénomène de diffraction par l'entrée de l'instrument (rayons en bleu), une partie importante des rayons difractés ne sont pas arrétés par l'écran en B. Il faut donc placer un autre diaphragme sur le chemin, en C, qui va bloquer la plus grande partie des rayons diffractés.

Dans une approche pleinement ondulatoire (on utilisera le formalisme complexe par la suite) : si l'on considère l'amplitude A_A de l'étoile avant l'entrée dans l'instrument de diamètre d et sa phase \varphi_A , alors la phase du rayon provenant de la position x_A sur le plan A, vu à la position angulaire \theta_B au niveau du plan B est donnée par \varphi_A(x_A) = 2 \pi x_A \frac{\sin(\theta_B)}{\lambda} \simeq 2 \pi x_A \frac{\theta_B}{\lambda} dans l'approximations de Gauss (petits angles hors-axe).

L'amplitude reçue au niveau du plan B depuis tous les points source virtuels dans l'ouverture en A est alors donnée par intégration : A_B (\theta_B) = \frac{\int_D A_A (x_A) e^{i \varphi_A (x_A)} dx_A }{d} ou, en omettant le facteur de normalisation : A_B (\theta_B) = \int_D A_A (x_A) e^{i 2 \pi x_A \frac{\theta_B}{\lambda}} dx_A . L'amplitude de lumière reçue dans l'instrument, venant de l'étoile, est donc dépendante du diamètre d de l'instrument et de la longueur d'onde d'observation \lambda .


Coronographe, convolution

Coronographie, effets
Principe_corono.jpg
Image de l'étoile, étape par étape, sur le trajet optique du coronographe.
Crédit : LESIA

En fait, à chaque étape, les images intermédiaires vont être convoluées (voir ici, partie Transformée de Fourier et de Laplace, et ) par la fonction de transmission de l'instrument (masque, diaphragmme ...) et va voir son intensité diminuer.

Au niveau du plan C (indiqué par stop dans le schéma ci-dessus), après le passage du masque (mask), on obtient une amplitude de formule : A_C (x_C) = \int_D M_B( \theta_B ) A_B (\theta_B) e^{i 2 \pi x_C \frac{\theta_B}{\lambda}} d\theta_B M_B est la fonction de transmission du masque placé en B. Dans le cadre d'un coronographe, M_B(\theta_B)=0 ~\mathrm{si}~\frac{-\theta_r}{2}\le\theta_B\le\frac{\theta_r}{2}~\mathrm{et}~1~\mathrm{sinon}. L'amplitude au niveau du plan C va être donc être atténuée par rapport à celle au niveau du plan B, ce rapport dépendant de celui entre la taille angulaire du masque \theta_r et l'ouverture d de l'instrument.

Au niveau où l'on place le détecteur, en D, l'amplitude finalement observée est donnée par : A_D (\theta_D) = \int_D M_C( x_C ) A_C (x_C) e^{i 2 \pi \theta_D \frac{x_C}{\lambda}} dx_C M_C est la fonction du transmission du Lyot-Stop, un diaphragme dont on considérera la fonction de tranmission également rectangulaire : M_C(x_C)=1 ~\mathrm{si}~\frac{-x_r}{2}\le x_C\le\frac{x_r}{2}~\mathrm{et}~0~\mathrm{sinon}.

On montre alors que l'amplitude de la lumière entrant dans l'axe de l'instrument (celle de l'étoile) va diminuer selon le rapport \frac{\theta_r x_r}{d^2} : plus le masque sera grand et le Lyot-Stop fermé, plus la lumière de l'étoile sera "éteinte" et donc plus facilement la planète sera visible. Attention toutefois, la lumière provenant d'une éventuelle planète doit quant à elle être transmise ! Il faut donc trouver un compromis entre la diminution d'intensité de la lumière de l'étoile et la conservation de l'intensité en provenance d'une éventuelle planète, dont on ne connaît pas a priori la séparation angulaire avec l'étoile...


Optique adaptative

Nous venons de voir que la coronographie permet de retirer la majorité de la lumière provenant de l'étoile... mais d'une étoile théorique, considérée comme ponctuelle ! Or il n'y a pas que les effets d'optique ondulatoire au sein de l'instrument qui entrent en jeu, mais aussi (dans le cas des instruments au sol) les effets de l'atmosphère terrestre. À elle seule cette dernière va modifier la forme de l'image de l'étoile, ce qui va accentuer les résidus et ce d'une façon très variable dans le temps, du fait notamment du vent. Ces effets atmosphériques se manifestent par la déformation des fronts d'onde, et dégradent la résolution angulaire de l'instrument au-delà des limites théoriques imposées par l'optique ondulatoire (dépendant de l'ouverture et de la longueur d'onde). Dans les cas les plus extrêmes, ces déformations optiques sont mêmes visibles à l'oeil nu : c'est le fourmillement apparent d'un objet observé au-dessus d'une route asphaltée en été, ou au-dessus d'un barbecue...

Correction
boucleretrooverteferme.jpg
À gauche, une observation sans optique adaptative. À droite la même cible avec optique adaptative, qui nous révèle que l'objet est une en fait une étoile binaire.
Crédit : ESO

Pour s'opposer à ces effets, on utilise l'optique adaptative. Cette technique analyse le front d'onde après réflexion sur un miroir déformable, puis modifie la forme du miroir pour compenser les effets de l'atmosphère en temps réel.

Fonctionnement
oaprincipe.png
Crédit : LESIA

Tavelures

Dans les précédentes parties nous avons vu les techniques utilisées pour retirer la lumière de l'étoile hôte et corriger les perturbations sur le chemin de la lumière... mais ces corrections ne sont pas parfaites ! Sur le détecteur, nous voyons des taches dispersées qui sont les résidus que la coronographie et l'optique adaptative n'ont pas réussi à corriger. Le problème est que ces taches peuvent être prises pour des planètes ou se superposer aux images de ces dernières. Nous allons donc devoir tenter de retirer ces résidus, aussi appelés artefacts.

Exemple de tavelures
Speckle_fiber.jpg
Image produite par un faisceau laser après passage dans une fibre optique. On voit des tavelures, les mêmes que l'on pourrait observer. Les causes possibles sont multiples : des fibres optiques (comme ici), mais aussi la turbulence atmosphérique imparfaitement corrigée, les imperfections des miroirs, etc.

Interferometrie

Présentation

Une manière différente d'aborder le problème est de passer par l'interférométrie, et en particulier l'interférométrie annulante. L'idée de base va être d'utiliser au moins deux télescopes assez éloignés pour augmenter la résolution angulaire (et donc bien distinguer l'étoile de l'éventuelle planète), et d'essayer de diminuer l'intensité en provenance de l'étoile (mais pas de la planète !) au moyen d'interférences destructives.

Acquisition

Au lieu d'avoir comme facteur limitant, en résolution angulaire, le diamètre D de l'instrument, l'interférométrie permet de passer d'une résolution proportionnelle à \frac{\lambda}{D} à un résolution proportionnelle à \frac{\lambda}{B}B est la ligne de base d'interférométrie (dans le cas de deux télescopes, il s'agit de la distance entre ces deux télescopes). Ces télescopes éloignés sont reliés entre eux par un chemin optique conçu de telle sorte que les interférences produites par la lumière arrivant dans l'axe des télescopes (la lumière de l'étoile) conduisent à une annulation des deux ondes en provenance des deux télescopes. On obtient donc sur le récepteur une figure de franges d'interférences centrées sur l'étoile au coeur d'une frange sombre. Mais la planète, elle, est située hors-axe : elle apparaît donc légèrement décalée et, si la figure d'interférences est correctement mis en place, échappe non seulement aux interférences destructives mais profite même d'interférences constructives pour augmenter le signal.

Interférométrie annulante
Nulling_interferometer.jpg
Représentation d'une observation par interférométrie annulante. Le disque blanc au centre est placé à l'endroit où se trouve l'étoile, qui se retrouve complètement masquée par les interférences (destructives : bandes noires) alors que les planètes en rouge ne sont pas masquées.

Intérêt

Nous avons parlé précédemment de la coronographie qui est utilisée sur des grands télescopes, notamment ceux de 8 m de diamètre du VLT. Ces instruments travaillent dans le proche infrarouge et le visible mais ne peuvent pas atteindre de plus grandes longueurs d'onde comme l'infrarouge moyen qui serait pourtant très intéressant pour étudier les raies spectrales des molécules, ou pour étudier des planètes plus froides émettant leur spectre thermique à de plus grandes longueurs d'onde. Le problème vient du fait qu'un télescope de 8 m de diamètre ne peut pas facilement séparer les sources à grandes longueurs d'onde, le pouvoir de résolution d'un télescope étant proportionnel à \frac{\lambda}{D}. Il faut donc augmenter la taille du télescope, ou combiner le flux de plusieurs télescopes comme nous le présentons ici. On peut alors aisément obtenir une ligne de base de 100 m en séparant 2 télescopes de cette distance.


Interférométrie annulante

Plusieurs étapes-clés sont à mettre en oeuvre pour l'interférométrie annulante :

Ce système annule alors la lumière située sur l'axe optique (celle de l'étoile) par interférences destructives mais pas la lumière hors axe (celle des planètes). Le déphasage en entrée de l'instrument sera donné par \varphi_E (x_E) = 2 \pi \frac{\vec{\theta}.\vec{r}}{\lambda}\vec{\theta} désigne l'écart sur le ciel entre la planète et l'étoile (donc dans une direction normale à l'axe optique), et \vec{r} est la séparation entre la planète et l'étoile dans la direction de l'axe optique.


L'exemple de Darwin/TPF-I

Deux satellites de recherche d'exoplanètes par interférométrie font partie des projets à long terme des agences spatiales européenne et américaine, ce sont respectivement les missions Darwin et TPF-I. Difficiles à mettre en oeuvre techniquement, ces missions nécessitent encore des développements technologiques pour envisager leur réalisation.

TPF_Xarray_w_credit.jpg
Crédit : NASA

Comme vous pouvez le voir sur l'illustration ci-dessus, l'idée et de faire voler en formation 4 quatres satellites "miroirs", combinant leurs faisceaux sur un cinquième satellite, la longue ligne de base étant négligeble devant la "distance focale" de l'instrument (le dernier satellite est très éloigné des 4 premiers). Pour être efficace, chaque faisceau va recevoir un déphasage précis selon deux configurations (appelées droite et gauche).

Configuration\varphi_A\varphi_B\varphi_C\varphi_DSignal attendu
Gauche180°90°270°étoile annulée + disque de poussière gauche + planète gauche
Droite180°270°90°étoile annulée + disque de poussière droite + planète droite
Simulation Darwin
DARWIN-Simulation.png
Simulation d'une observation Darwin de 60 h sur un système solaire à 10 pc de nous.
Crédit : Bertrand Mennesson

Imagerie différentielle

Présentation

L'idée de base de l'imagerie différentielle est de prendre plusieurs images de l'étoile et de sa planète (ou ses planètes) et de profiter des différences entre les images de ces objets pour les identifier et les distinguer. Après l'acquisition des données brutes par l'instrument, il faut commencer par les corriger des biais instrumentaux, de la réponse des pixels du capteur CCD, on obtient alors les images dites scientifiques. Il faut ensuite corriger les effets de l'instrument (on appelle cela déconvoluer l'image de l'étoile (selon la PSF, ou Point Spread Function de l'instrument, c'est-à-dire l'étalement d'un point source sur le détecteur). Pour ce faire, plusieurs méthodes sont possibles suivant l'instrument.

ADI

L'imagerie différentielle angulaire (ADI en anglais), va exploiter la rotation des objets sur la voûte céleste, comme vous pouvez le voir sur cette [ animation ]. Les étoiles présentent un déplacement apparent dans le ciel au cours de la nuit suivant des arcs de cercle centrés sur le pôle céleste. En général, un télescope moderne compense cette rotation automatiquement, mais ici nous bloquons cette rotation et suivons seulement le déplacement apparent de l'étoile sans rotation de l'instrument. Cela a pour effet d'appliquer une rotation de l'image de la planète (à ne pas confondre avec la révolution de la planète autour de son étoile) dans le ciel autour de l'axe de rotation de la Terre. Il "suffit" alors de faire la médiane des différentes images pour annuler les signaux non fixes (comme les éventuelles planètes), ce qui revient à ne garder que la PSF de l'étoile (ponctuelle) comme image médiane. Ensuite on soustrait cette PSF de toutes les images scientifiques, puis on applique une rotation de sens opposée à celle observée sur les images de façon à corriger la rotation sur le ciel, et finalement on additionne les images pour faire ressortir les planètes (si il y en a).

ADI
ADI_Lafreniere_2007.jpg
Exemple de ce que permet l'imagerie différentielle angulaire : (a) une des images prise de l'étoile HD 691 avec un coronographe. Les images (b) et (c) sont le résultat de l'ADI appliquée sur deux groupes d'images. (d) est l'image finale qui est la médiane de toute les images résiduelles (comme (b), (c)). Remarquez le point source au-dessus de l'étoile qui était complètement invisible dans l'image (a).

Polarisation

La lumière émise par les étoiles n'est pas polarisée, mais quand celle-ci est diffusée ou réfléchie par des disques ou des planètes elle peut acquérir une polarisation LIEN VERS GRAIN POLARISATION. Forts de ce constat, nous pouvons prendre deux images acquises avec deux polariseurs dans des directions perpendiculaires. L'étoile apparaît inchangée, tandis que les sources secondaire par réflexion ou diffusions présenteront des différences. On peut dont soustraire l'une des images à l'autre pour ne garder que les disques et les planètes proches.

Imagerie différentielle spectrale

Les planètes et les étoiles émettent des spectres caractéristiques, comportant des raies spectrales diverses selon la physico-chimie de ces objets (température, gravité, composition). Dans certaines bandes de longueurs d'onde, seul l'un des deux types de corps possède des absorbants : c'est par exemple le cas du méthane pour les planètes (du moins celles assez froides pour que des molécules puissent exister dans leurs atmosphères). Les tavelures, quant à elles, apparaissent à une distance angulaire proportionnelle à la longueur d'onde. L'imagerie différentielle spectrale (SDI en anglais) part du principe que l'on acquiert plusieurs images, simultanément, dans plusieurs bandes de longueurs d'onde judicieusement choisies. On ajuste ensuite leur échelle relative afin de pouvoir identifier et de retirer les tavelures. Ceci nous permet d'exploiter les différences entre étoiles et planètes pour extraire des informations sur ces dernières.


Spectroscopie

Pésentation

Acquérir une image de la planète, dans différentes bandes spectrales, permet d'obtenir quelques informations sur celle-ci. Mais ces informations sont dégénérées, c'est-à-dire que plusieurs jeux de paramètres physiques vont pouvoir correspondre aux différentes images observées. Ces dégénérescences peuvent être en partie levées si l'on obtient un véritable spectre de la planète (avec une résolution spectrale suffisante), ce qui explique pouquoi les instruments qui sont mis en service depuis 2013 (SPHERE, GPI, Project 1640, etc.) soient conçus pour en obtenir.

Acquisition

Pour ce faire, ces instruments comportent un IFS (Integral Field Spectrograph), qui va disperser spectralement la lumière censée arriver sur chaque pixel. Ainsi, au lieu d'avoir une image en deux dimensions comme pour l'imagerie pure, on obtient un cube spectral (une image en 3 dimensions) : les deux coordonnées de position sur la grille des pixels et la troisième coordonée selon la longueur d'onde observée. Une coupe du cube selon les dimensions horizontales donnera une image à la longueur d'onde de la "tranche" choisie, tandis qu'une ligne à position spatiale donnée suivant la dimension spectrale donnera le spectre observé en ce point de l'image. L'observable brut obtenu est donc un cube correspondant au flux reçu par le capteur CCD en fonction de la position du pixel et de la longueur d'onde.

Exemple de cube
psfcube.gif
Succession temporelle de différentes "tranches spectrales" correspondant aux différentes longueurs d'onde d'un cube spectral (les abscisses et les ordonnées correspondent aux coordonnées spatiales des pixels). Remarquez que le spectre de la planète (le point qui apparaît en bas à gauche à la moitié de l'animation) n'apparaît que à certaines longueurs d'ondes à une position spatiale donnée, alors que les autres éléments (artefacts, tavelures) s'éloignent en fonction de la longueur d'onde.
Crédit : GPI

Réduction des données

Il faut retirer des cubes spectraux les artefacts lumineux provenant de l'étoile et les tavelures pour pouvoir localiser les éventuelles planètes.

Déconvolution spectrale

Les artefacts proviennent des phénomènes d'interférence et de diffraction qui ont lieu le long du chemin optique, leurs positions vont changer proportionnellement à la longueur d'onde. Il est donc possible d'effectuer un changement d'échelle du cube suivant la longueur d'onde pour superposer toutes les images d'une tavelure en fonction de la longueur d'onde (dans ce nouveau cube où toutes les longueurs d'onde sont ramenées à la même échelle c'est désormais l'image de la planète qui va changer de position suivant la longueur d'onde). Il est alors possible de déterminer la forme exacte des tavelures et artefacts (indépendante de la longueur d'onde dans ce cube mis à l'échelle). On peut alors remettre les tavelures et artefacts seuls à lPuis on cherche quelle est la forme du flux en fonction de la longueur d'onde, et on retire les pixels où elle apparaît. Enfin on change à nouveau l'échelle du cube à sa valeur initiale pour toutes les longueurs d'onde.

DeconvolutionSpectrale_1.jpg
1. En décomposant un cube d'observation acquis par un IFS, on observe sur chaque tranche la planète (disque en bas à gauche de l'étoile jaune) noyée dans des tavelures (nuage rouge). La position d'un tavelure par rapport au centre va évoluer proportionnelement à la longueur d'onde. La position de la planète reste fixe. 2. Si on change l'échelle de chaque tranche en contractant chaque image proportionnelement à la longueur d'onde, les tavelures seront à position fixée d'une tranche à l'autre. C'est en revanche la planète qui va maintenant changer de position en fonction de la longueur d'onde.
DeconvolutionSpectrale_2.jpg
3. Si on calcule la médiane des images fabriquées à l'étape n°2, on va obtenir une image comportant les tavelures mais pas la planète car la position de la planète n'est pas la même sur toutes les images. 4. On peut alors effectuer une transformation d'échelle inverse de celle effectuée à l'étape n°2 pour obtenir la position des tavelures seules à chaque longueur d'onde. 5. On soustrait ces nouvelles images aux observations. 6. Il ne reste plus alors que l'image de la planète à chaque longueur d'onde.

Extraction du spectre

Dans ce cube, débarrassé des tavelures, on peut maintenant chercher les spectre d'une ou plusieurs planètes. Pour faire cela on effectue une corrélation croisée avec un jeu de spectres synthétiques sur chaque pixel et on se concentre sur les meilleurs coefficients de corrélations. On extrait ensuite le spectre de la planète identifié si elle existe.


Restrictions sur la séparation observable

On a déjà vu qu'il fallait une séparation angulaire minimale pour pouvoir imager une planète, du fait de la proximité de l'étoile bien plus brillante. En pratique, pour les instruments modernes, cette séparation minimale est de l'ordre du dixième de seconde d'arc. Attention cependant, la zone du capteur CCD où l'optique adaptative est efficace est restreinte à une petite partie du champ de vue. Les techniques de recherche d'objets se focalisent ainsi sur une zone restreinte... Pour l'instrument SPHERE, par exemple, on peut considérer que l'on recherche des planètes entre 0,1" et 3". Les planètes trop loin de leur étoile hôte sont donc difficiles à imager !


Confirmation

Auteur: JLB

Deux époques

Avoir une cible qui se comporte lors d'une observation comme une exoplanète ne suffit pas à annoncer la découverte d'une exoplanète. On recense avec le satellite Kepler 4234 candidats, en juillet 2014, et (seulement ?) 977 exoplanètes confirmées. Dans le cas de l'imagerie directe, une première détection ne suffit pas à annoncer la découverte d'une exoplanète, il en faut au moins deux pour prouver que l'objet en question est lié gravitationnellement‎ à une étoile, et cela permet de se faire une idée de l'orbite de l'objet. Le problème étant que les planètes détectées en imagerie directe sont éloignées de leurs étoiles et donc ont un mouvement autour de leur étoile très lent, il faut attendre plusieurs mois voire années pour obtenir des positions significativement différentes !

En effet, la source lumineuse que l'on observe à côté de l'étoile (un possible candidat planétaire), peut, en définitive, se révéler être une étoile située plus loin sur la ligne de visée (une étoile de champ), ou bien une zone plus dense que la moyenne dans le disque autour de l'étoile. En imagerie directe il faut au moins deux observations de l'objet, avec des images différentes, cohérentes avec une orbite képlérienne et un masse minimale inférieure à 13 masses de Jupiter, pour confirmer la présence d'une exoplanète. On peut alors déclarer la détection d'un objet lié à l'étoile et de masse planétaire (au dessus de 13 masses de Jupiter on entre dans le domaine des naines brunes).

Une planète tournant autour d'une étoile
beta_pic_Chauvain2012.jpg
Gaël Chauvin et collaborateurs dans un article de 2012 de Astronomy and Astrophysics présente une étude de l'orbite de β Pictoris b Ici nous avons une compilation de huit observations qui montre bien que l'objet tourne autour de l'étoile. Remarquez la différence de date et de position entre les point 1 et 2 : en 2003 les chercheurs ont découvert un objet proche de l'étoile mais ils ont dû attendre 2009 pour avoir la preuve que c'était bien une planète.

Autres méthodes

Une autre grande inconnue laissée par l'imagerie directe est la masse de la planète, paramètre essentiel qui va déterminer si l'objet est une planète ou une naine brune ! Or, si l'on se restreint à l'imagerie directe, seule l'utilisation de modèles plus ou moins bien contraints permettent d'en estimer une.

ESO_-_The_Radial_Velocity_Method_.jpg
Représentation de la modification du spectre d'une étoile, décalé vers le bleu ou vers le rouge, suivant que la planète s'éloigne ou s'approche de nous, c'est ce décalage qui est utilisé par la méthode de vélocimétrie radiale.
Crédit : ESO

Une mesure, indirecte, en vitesse radiale ou en astrométrie, si celles-ci sont possibles, permettraient de contraindre la masse de la cible ainsi que sa période de révolution autour de l'étoile..

astrometrie-courbe.jpg
Crédit : Évolution de la position d'une étoile dans le ciel, les petits écarts (au chemin en pointillés) viennent de la présence d'un planète, ce sont ces écart que recherche l'astrométrie pour les exoplanètes. Michael Perryman,arxiv:1209.3563

[Cours sur la technique des vitesses radiales.]

[Cours sur la technique des vitesses radiales.]


Le cas de Fomalhaut b

C'est autour de l'étoile Fomalhaut que se trouve un objet, peut-être encore sujet à controverse. En effet dans le disque d'accrétion de cette étoile, on a annoncé avoir trouvé dans des images visibles du HST une planète.

Kalas.jpg

Mais les images prises par Spitzer en infrarouge ne montrent rien ! Pour les défenseurs de la "découverte", c'est que la planète est trop petite pour être vue par Spitzer. Pour les détracteurs de cette "découverte" un objet vu en visible mais pas en infrarouge, ne peut pas être une planète.

janson.jpg

Se tester

Auteur: JLB

QCM Lexique

Auteur: JLB

Objets observés

qcmParamètres

Voici quelques questions sur les paramètres importants à prendre en compte dans l'imagerie directe des exoplanètes :

1)  Pourquoi est-il plus facile de détecter une planète (sans considération sur son âge) plutôt éloignée de son étoile ?



2)  Pour l'imagerie directe, quel est le plus important ?



qcmCibles

Voici quelques questions sur les cibles de l'imagerie directe :

1)  A priori, une jeune naine M est une cible intéressante, pourquoi ?



2)  Plusieurs exoplanètes ont été imagées autour d'étoiles de type A, pourquoi ?




Atmosphère

qcmAtmosphère

Voici quelques questions sur les effets de l'atmosphère terrestre, et comment on tente de les corriger.

1)  L'atmosphère est très absorbante dans :


2)  Quel effet va avoir l'atmosphère sur les observations dans des gammes de longueurs d'onde où elle est transparente ?




Instruments

qcmSéparer

Hors atmosphère, avec un optique parfaite, il n'est toujours pas simple de séparer les planètes de leurs étoiles. Voici quelques questions sur ces techniques :

1)  Dans le principe du coronographe de Lyot, seul le fait placer un masque unique sur la trajectoire de la lumière par l'étoile est important.



2)  L'imagerie différentielle angulaire (ADI) utilise un mouvement de rotation pour séparer la lumière provenant de l'étoile de la lumière provenant de la planète, lequel ?



3)  L'imagerie différentielle spectrale utilise des bandes spectrales calibrées pour profiter des raies d'absorptions de l'étoile et ainsi pouvoir retirer la lumière de de celle-ci.



qcmCorriger

Au sol, nous devons corriger les effets de l'atmosphère terrestre et le fait que l'optique n'est pas parfaite. Voici quelques questions sur la correction de ces effets:

1)  Qu'est-ce qu'une tavelure (speckle) ?



2)  Comment fonctionne l'optique adaptative ?



Exercices

Auteur: JLB

Astronomie

exerciceAstronomie

L'une des données les plus importantes pour l'imagerie directe d'exoplanète est l'angle sur le ciel entre la planète et son étoile, les questions qui suivent vont vous permettre de comprendre les liens entre la dynamique du système observé et cette importante observable.

Unités et constantes
\mathcal{G}6.67384 \times 10^{-11}\,\mathrm{m^3/kg/s^2}}constante de la gravitation universelle
L_soleil3.846 \times 10^{26}\,\mathrm{W}luminosité solaire
M_terre5.9742 \times 10^{24}\,\mathrm{kg}masse de la Terre
M_jupiter1.8987 \times 10^{27}\,\mathrm{kg}masse de Jupiter
M_soleil1.9891 \times 10^{30}\,\mathrm{kg}masse du Soleil
N_A6.02214129 \times 10^{23} \, \mathrm{mol^{-1}}nombre d'Avogadro
R8.3144621\,\mathrm{J/K/mol}constante des gaz parfaits
R_terre6378.136\,\mathrm{km}rayon terrestre équatorial
R_jupiter71492\,\mathrm{km}rayon jovien équatorial
R_soleil695508\,\mathrm{km}rayon solaire équatorial
Ryd10973737.6\,\mathrm{m^{-1}}constante de Rydberg
UA1.49597871 \times 10^{11}\,\mathrm{m}unité astronomique
c299792458\,\mathrm{m/s}vitesse de la lumière dans le vide
e1.60217657 \times 10^{-19}\,\mathrm{C}charge électrique élémentaire
h6.62606957 \times 10^{-34}\,\mathrm{J \cdot s}constante de Planck
k_B1.3806488 \times 10^{-23}\,\mathrm{J/K}constante de Boltzmann
pc3.08567758 \times 10^{16}\,\mathrm{m}parsec
\sigma5.670373 \times 10^{-8}\,\mathrm{W/m^2/K^4}constante de Stefan-Boltzmann
T_{\mathrm{eff}_{\odot}}5780\,\mathrm{K}température efficace du Soleil

Crédits

Question 1)

51 Peg b est la première exoplanète découverte autour d'une étoile de type solaire, elle a été découverte par la méthode des vitesses radiales.

Elle est en orbite à 52 millièmes d'unités astronomiques autour de l'étoile 51 Peg, qui se situe à 14,7 parsec de nous.

Quel est l'ordre de grandeur de la séparation angulaire entre la planète de son étoile ?

Question 2)

Corot 7 b est une planète de type super-Terre, d'un rayon inférieur à 2 fois le rayon terrestre, découverte par le satellite du CNES CoRot grâce à la technique des transits.

Elle est en orbite à 17 millièmes d'unités astronomiques autour de l'étoile Corot 7, qui se situe à 150 parsec de nous.

Quel est l'ordre de grandeur de la séparation angulaire entre la planète de son étoile ?

Question 3)

2M1207 b est la première planète imagée, autour d'une naine brune.

Elle est en orbite à 46 unités astronomiques autour de la naine brune 2M1207 qui se situe à 52 parsec de nous.

Quel est l'ordre de grandeur de la séparation angulaire entre la planète de son étoile ?

Question 4)

Les deux premières questions de cette page portent sur des planètes découvertes par les techniques des vitesses radiales et par celle des transits.

Au vu des résultats que vous avez obtenu, pensez-vous qu'il soit possible d'imager facilement ces deux planètes ?


Détectabilité

exerciceDétectabilité

Pouvoir observer un objet va dépendre de plusieurs facteurs.

Question 1)

Pour faire de l'imagerie directe, on utilise soit des instruments au sol, soit des satellites. Ces deux méthodes ont leurs avantages et leurs inconvénients... Quels sont-ils ?

Question 2)

La gamme de longueur d'onde que vous utilisez pour observer est essentielle. Pour observer un planète, il faut que le flux qui en provient soit suffisant en comparaison de celui de son étoile hôte. La sélection du domaine spectral va dépendre de l'âge de la planète, de sa distance à l'étoile et des domaines spectraux accessibles.

Déterminez pour les trois planètes qui suivent, à quelle longueur d'onde se trouve le maximum spectral de leur émission, et calculez leur flux surfacique.

  • Jupiter, dont la température efficace est de 124 K et qui tourne autour du soleil en 12 ans.
  • 2M1207 b (voir page précédente), dont la température efficace est de 1600 K.
  • Osiris, de son nom scientifique HD 209458 b, planète découverte et très étudiée par la méthode des transits, avec une température effective de 1130 K et qui tourne en 85 heures autour de son étoile.

Concluez sur la facilité de détecter ces planètes.


Visibilité du système solaire depuis AlphaCen b

Auteur: JLB

Présentation

Fin 2012, une planète ressemblant à la Terre et tournant autour de l'étoile α Centauri B (faisant partie du système stellaire le plus proche de nous) a été annoncée. Elle a été découverte par vélocimétrie radiale. [Pour plus d'information cliquez ici]

the_planet_around_Alpha_Centauri_B.jpg
Crédit : ESO

Le système α Centauri est constitué des 3 étoiles :

Alpha du Centaure
Alpha_Centauri_and_its_surroundings.jpg
Crédit : ESO

Imaginons qu'une forme de vie intelligente, au même niveau technologique que nous, y habite et cherche à étudier notre système solaire. Auraient ils la possibilité de détecter la Terre ? Ou au moins Jupiter ? Pour le savoir répondons aux quelques questions des pages suivantes...

Quelques Grandeurs

MassePériodeVitesse orbitaleRayonTempérature efficace
Terre5.97 \times 10^{24}\,\mathrm{kg}d'après vous ?30 km/s6371\,\mathrm{km}254\,\mathrm{K}
Jupiter320 M_{\oplus} soit 9.55 \times 10^{-4}\,M_{\odot}11.86\,\mathrm{ans}à calculer11\,R_{\oplus} soit environ 0.1\,R_{\odot}124\,\mathrm{K}

α Cen B a une parallaxe de 796,92 milliarcsecondes.

Remarque: la distance en parsec est par définition l'inverse de la parallaxe en arcsec, "parsec" étant d'ailleurs l'abréviation de "par seconde" (d'arc) .


Questions

exerciceDistances

Question 1)

Quel la distance entre la Terre et le Soleil ? Entre Jupiter et le Soleil ?

Sous quel angle apparent dans le ciel de α Cen Bb observerait-t-on la distance Terre-Soleil ? la distance Jupiter-Soleil ?

exerciceLuminosité

Question 1)

Dans quelle gamme de longueur d'onde rechercher ces planètes ?

solarSystemSeager2010_Modif.jpg

Quel est le contraste entre la Terre et le soleil, entre Jupiter et le soleil ?

exerciceTechnique

Question 1)

Si ces extraterrestres ont un petit peu d'avance sur nous et ont à disposition les télescopes au sol que nous prévoyons d'avoir au cours des décennies à venir. Peuvent-ils observer, voire étudier la Terre ou Jupiter ? Si oui est-ce une tache facile ?

DirectImagingContrast_final.png
Voici les courbes des capacités de détection des instrument actuels (GPI 2013, SPHERE 2014) et futur avec les ELT, télescopes de plus de 20 m de diamètre (TMT,GMT et E-ELT, arrivant après 2020). Si une planète a un contraste avec son étoile, à séparation angulaire donnée, supérieur à la courbe, alors elle est détectable. Ces instruments ciblent le domaine du proche infrarouge (1 à 5 µm) particulièrement les bandes J (1,25 µm), H (1,75 µm) et L (3,75 µm) qui sont des fenêtres de transparence de l'atmosphère terrestre (l'eau absorbe beaucoup dans le proche infrarouge en dehors de ces fenêtres).

Question 2)

Sachant que le contraste entre la lumière zodiacale et la lumière solaire dans le système solaire est de 10-7 entre 5 et plusieurs centaines d'UA, cela change-t-il vos conclusions ?


Mini-projet

Auteur: JLB

Présentation

Ce projet va vous confronter au travail que les astrophysiciens effectuent pour étudier les planètes extra-solaires par la technique de l'imagerie directe.

Jupiter dans le proche infrarouge
aa20838-12-fig1.jpg
Image de β Pictoris b, prise dans les bandes J, H et M'. Vous pouvez remarquer que la magnitude de la planète (au bout de la flèche) varie en fonction de la longueur d'onde.

Pour ce faire, vous allez partir des contrastes photométriques obtenus pour une planète, déterminer les magnitudes de l'objet, et comparer ces caractéristiques à celles des naines brunes. Pourquoi les naines brunes ? Parce que ce sont de objets étudiés de façon similaire aux jeunes exoplanètes géantes et que l'on a beaucoup plus d'observations sur ces étoiles avortées.


Données

Les données qui suivent proviennent d'un article scientifique, et d'observations par imagerie directe coronographique. Le premier tableau donne des informations sur la date des observations, les filtres utilisés (ici J, H, et M') et le contraste entre l'objet et l'étoile, en magnitude.

Observations
Dates :FiltreContraste en magnitude
16/12/2011J10,4plusoumoins0,5
16/12/2011J10,5 plusoumoins 0,3
16/12/2011J10,8 plusoumoins 0,3
18/12/2011H9,9 plusoumoins 0,3
18/12/2011H10,2 plusoumoins 0,4
18/12/2011H9,9 plusoumoins 0,3
11/01/2012H10,1 plusoumoins 0,3
11/01/2012H10,0 plusoumoins 0,2
11/01/2012H9,9 plusoumoins 0,2
11/01/2012H10,0 plusoumoins 0,3
26/11/2012M'7,5 plusoumoins 0,3
26/11/2012M'7,5 plusoumoins0,3
26/11/2012M'7,6 plusoumoins 0,3
26/11/2012M'7,8 plusoumoins 0,3

Le second tableau, extrait du même article, vous donne des informations sur les caractéristiques de l'étoile.

L'étoile
ParamètresValeur
Distance depuis la Terre (pc)19,44 plusoumoins 0,05
m_J3,524 plusoumoins 0,013
m_H3,491 plusoumoins 0,009
m_Ks3,451 plusoumoins 0,009
m_L'3,454 plusoumoins 0,003
m_M'3,458 plusoumoins 0,009
Type spectralA6V
Température efficace (K)[8052, 8036]
Luminosité : \log_{10}(L/L_{\odot})0,91 plusoumoins 0,01
Masse (en masse solaire)1,70 plusoumoins 0,05

Une base de données contenant des informations sur les naines brunes est disponible ici : DwarfArchives


Travail à effectuer

  1. Calculer les magnitudes apparentes et absolues de la planète.
  2. Comparer la température de l'étoile et de la planète par rapport à la répartition des magnitudes en longueur d'onde.
  3. Construire des diagrammes couleur-magnitude pour comparer la planète avec les naines brunes.

Question subsidiaire : Quel type de naine brune est le plus proche de ces observations?


Magnitudes de la planète

Les observations présentées ici consistent en des contrastes entre la planète et l'étoile. Il vous faut donc utiliser les magnitudes de l'étoile et la distance nous séparant du système pour déterminer les magnitudes de la planète.


Liens entre températures et magnitudes

Pour comparer la température de l'étoile et la planète il est préférable d'utiliser les flux émis par ces deux corps.


Diagramme couleur-magnitude

La table suivante réunit des informations sur les naines brunes connues.

Couleur magnitude naines brunes application.png

Construire un diagramme magnitude - couleur des naines brunes en utilisant l'application et en choisissant judicieusement les bandes spectrales. Placer la planète dans la diagramme.


Comparaison exoplanète-naines brunes

En comparant les types spectraux (L, T) des naines brunes et leur position dans le diagramme, conclure sur le type spectral de la planète.


Un exemple de résultat

Référez vous à l'article de Mickael Bonnefoy et collaborateur dans Astronomy & Astrophysics en 2013 pour une étude détaillée de ce qui est demandé ici.


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Vitesses radiales et astrométrie

Auteurs: Nathan Hara, Jacques Laskar

Vitesses radiales et astrométrie

introductionPrésentation

L'observation directe d'exoplanètes est délicate à cause du grand contraste entre l'étoile et la planète. La plupart des détections sont faites en utilisant un effet de la planète sur l'étoile. Par exemple, la technique des transits consiste à mesurer une baisse de luminosité reçue, éventuellement due à une planète passant devant l'étoile observée.

Les techniques d'observations dont il est question dans ce cours reposent sur un principe simple: si des planètes orbitent autour d'une étoile, alors celle-ci aura un mouvement dépendant des planètes. En l'analysant, on infère la présence ou non de planètes et si oui, leurs orbites.

En effet, en astrométrie on mesure les variations de position angulaire de l'étoile et la détection par vitesse radiale consiste à mesurer la vitesse de l'étoile sur la ligne de visée. Le phénomène physique exploité et la réduction des données est similaire, c'est pourquoi ces deux méthodes seront présentées conjointement. Ce cours a deux objectifs:

On présentera un modèle d'observations "sans bruit" relativement réaliste, les principales sources d'incertitude, le principe des instruments utilisés et des éléments de traitement de données.

prerequisPrérequis


Décrire

Auteur: Nathan Hara & Jacques Laskar

Vitesses radiales

Lorsque la distance entre une source d'onde et un observateur varie dans le temps, la longueur d'onde vue par l'observateur varie aussi. Ce phénomène, appelé effet doppler, est ce qui permet la détection du mouvement radial de l'étoile. Cet effet est géométrique, et présent pour tous les types d'ondes. Un exemple bien connu est celui de la sirène d'ambulance: le son qu'elle émet a l'air plus grave une fois qu'elle est passée devant nous. Pour le comprendre, considérons une personne qui se baigne sur une plage (suffisament loin pour que les vagues se brisent derrière elle). Si elle reste statique les vagues vont l'atteindre avec une certaine période. Selon qu'elle s'avance vers le large ou revient vers la plage elle rencontrera les vagues plus fréquemment ou moins fréquemment. De la même manière, plus vite l'étoile s'avance vers la Terre, plus la lumière reçue est décalée vers les hautes fréquences.

L'énergie par longueur d'onde d'une source lumineuse, ou de manière équivalente, le nombre de photons reçus par longueur d'onde, est appelé le spectre de cette source. Cette définition fait intervenir une mesure, le spectre dépend donc de l'observateur. La lumière provenant d'une étoile est composée à priori d'une infinité de longueurs d'ondes. Certaines d'entre elles sont absorbées par l'atmosphère de l'étoile, de sorte qu'elles sont absentes du spectre mesuré. On parle de raies d'absorption. Le spectre d'une étoile a un aspect proche de la figure 1. Si la source lumineuse et l'observateur sont immobiles l'un par rapport à l'autre, l'observateur verra un certain profil spectral I_0(\lambda) (intensité par longueur d'onde \lambda). Si maintenant la source et l'observateur ont une vitesse relative \delta V(t) au temps t, l'observateur verra un spectre décalé I_t(\lambda) = I_0(\lambda-\delta \lambda(t)) avec \frac{\delta \lambda(t)} \lambda \approx \frac{\delta V(t)}{c}c est la vitesse de la lumière, dans l'hypothèse où \delta V est très petit par rapport à c. En mesurant \delta \lambda on peut remonter à \delta V. La présence d'une planète autour d'une étoile engendre un mouvement périodique de celle-ci, donc un décalage périodique du spectre (voir figure 2).

La mesure du décalage du spectre est utilisée depuis la fin du XIXe siècle pour détecter des étoiles binaires. La vitesse de l'étoile dont on observe le spectre (étoile cible) diminue avec le rapport de masse du compagnon et de l'étoile cible. Plus faible est la masse du compagnon plus il est difficile de le détecter. Les techniques ont été perfectionnées pour détecter des compagnons de masses de plus en plus faible.

Remarque: Une des limitations des mesures de vitesse radiale est qu'on ne mesure qu'une masse minimale car on mesure la projection du mouvement selon une direction. En notant i l'angle entre la ligne de visée et le plan orbital d'un objet de masse m, on mesure m sin(i).

En 1989, Latham trouve un objet d'une masse minimale de 11 masses de Jupiter (notée M_J) en orbite autour d'une étoile de type solaire. Etant donné que la limite admise à la masse d'une planète (au delà de laquelle le deutérium entre en fusion) est de 13 M_J, la conclusion de l'article est encore valide: il est possible que ce compagnon soit une Naine brune ou une super Jupiter, selon la valeur de sin(i). La première planète confirmée comme telle est découverte en 1995 par Michel Mayor et Didier Queloz à l'observatoire de Haute Provence.

Pour donner une idée des ordres de grandeur considérées, la Terre engendre un déplacement du Soleil d'environ 9 cm/s, Jupiter de 12.5 m/s. Un déplacement d'1 m par seconde correspond à un décalage relatif de longueurs d'onde \frac{\Delta \lambda}{\lambda} = 3 . 10^{-9}. La précision attendue doit être maintenue sur plusieurs mois, voire plusieurs années.

Spectre du Soleil dans le visible
spectre_soleil.gif
Représentation de la lumière du Soleil diffractée dans le visible. Pour une exploration plus précise du spectre du Soleil, voir cette page.
Crédit : Observatoire de Paris
Décalage du spectre
exoplanet_spectro.gif
L'étoile et la planète orbitent autour de leur centre de gravité. L'observateur (représenté par une lunette) voit le spectre reçu se décaler et en infère la vitesse V de l'étoile au cours du temps.
Crédit : Observatoire de Paris, ASM, E. Pécontal

Astrométrie

L'astrométrie désigne la mesure de la position des astres. Chronologiquement, l'astrométrie peut être considérée comme la première discipline de l'astronomie. Les anciens s'étaient déjà aperçus que certains astres semblent mobiles: les planètes, mais l'observation à l'oeil nu et avec les premiers instruments astronomiques sont trop imprécises pour détecter le mouvement des étoiles. Ils pensaient donc qu'elles sont fixes, mais ce n'est pas du tout le cas.

Plus précisément, on mesure la position des astres sur la Sphère céleste: Il s'agit d'une manière d'appeler l'ensemble des coordonnées angulaires d'un système de coordonnées sphériques. Selon le contexte, le centre de centre de ce repère est le barycentre du système solaire ou celui de la Terre, l'observateur, ou un autre point. Les directions du repère fixe peuvent être définies par rapport à des étoiles très lointaines (quasars), ou l'intersection du plan de l'orbite de la Terre (l'ecliptique) et de l'équateur.

Les observations doivent être exprimées dans un même système de référence. En l'occurrence, le repère fixe choisi est le référentiel barycentrique du système solaire qui est un référentiel galiléen. De ce fait, on peut modéliser simplement la trajectoire de l'étoile dans ce référentiel. Si l'étoile a des compagnons planétaires, le mouvement dû aux planètes projeté aura l'aspect d'ellipses imbriquées les unes dans les autres (voire figure). Le mouvement rectiligne uniforme a une amplitude bien supérieure au mouvement dû aux planètes, il n'est pas représenté sur la figure pour cette raison.

Une mesure astrométrique comporte toujours plusieurs étoiles dans le champ, de sorte que l'on peut mesurer le déplacement de l'étoile cible par rapport aux étoiles du champ. Ce qui nous intéresse est en effet un mouvement différentiel (on compare les mesures les unes aux autres, on ne cherche pas une position absolue). Un mouvement global des étoiles du champ provient des turbulences atmosphériques ou de bruits instrumentaux, qui peuvent être corrigés.

En mars 2015, deux planètes on été découvertes par astrométrie (DE0823-49 b et HD 176051 b). La résolution nécessaire à la détection de planètes est difficilement atteignable à cause des perturbations atmosphériques. Pour les corriger, il est possible d'utiliser une technique appelée astrométrie différentielle. Sa présentation sort du cadre de ce cours. Il est probable que la mission astrométrique spatiale GAIA, dont la précision est de l'ordre de 20 μas permettra de faire de nombreuses découvertes.

Les mouvements de l'étoile autour du centre de gravité du système planétaire sont de l'ordre du rayon de l'étoile en général. Par exemple, le mouvement de Jupiter entraine un mouvement quasi circulaire du Soleil dont le rayon est environ 1.06 rayon solaire.

L'ordre de grandeur du déplacement observé dépend de la distance de l'étoile, des masses de l'étoile et de la planète et du demi-grand axe de l'orbite.

ordres de grandeur
Type de planète Distance à l'étoileAmplitude du mouvement
Jupiter10 parsec500 µas
100 parsec50 µas
Terre 10 parsec0.3 µas
100 parsec0.03 µas
Projection du mouvement de deux planètes sur la sphère céleste
HIP116745_planetarysignal_withreal-ConvertImage.png
Observations idéales (sans bruit, mouvement de l'étoile uniquement dû aux planètes) d'un système à deux planètes sur cinq ans. En bleu on représente tout le parcours de la planète et en rouge les quarante-cinq mesures de position.

Exercices

Auteur: Nathan Hara

exerciceQuestions générales

Difficulté :   

Question 1)
  1. Pourquoi peut-on dire que la vitesse radiale et l'astrométrie se basent sur des effets dynamiques ?
  2. Le système étoile + planètes tourne autour de son centre de masse G (ou centre de gravité). Si une seule planète de masse m orbite autour d'une étoile de masse M à une distance r de G que vaut la distance de l'étoile à G, notée r^\star ? Que pensez vous de l'affirmation: "à orbite fixée, plus une planète est massive plus elle est facile à détecter" ?

Auteur: Nathan Hara

exerciceVitesses radiales

Difficulté :   

Question 1)
  1. L'effet Doppler existe-t-il seulement pour la lumière ou pour tous les types d'ondes ?
  2. Est-il dû au déplacement de la source, du receveur, ou à leur vitesse relative ?

Auteur: Nathan Hara

exerciceAstrométrie

Difficulté :   

Question 1)

Une seconde d'arc est égale à un degré divisé par 3600. Une micro seconde d'arc (µas) est un millionième d'une seconde d'arc.

  1. Exprimer une micro seconde d'arc en radians
  2. On considère un bâton de jonglage à extrémités enflammées de 50cm. A quelle distance doit se trouver le jongleur pour que les deux extrémités apparaissent à une une microseconde d'arc l'une de l'autre dans notre champ de vision ? Comparer avec les ordres de grandeurs des mouvements donnés page précédente.

Notez que si on observait uniquement l'effet de la planète si petit soit-il, on aurait toujours accès à toute l'information. Malheureusement, de nombreuses autre sources perturbent le signal, comme on va le voir dans les pages suivantes.


Que mesure-t-on ?

Le principe de ces techniques de détection est simple, mais pour obtenir la précision désirée il faut prendre en compte une grande quantité d'effets affectant les observations. Les mesures sont issues in fine de capteurs CCD, situés au plan focal d'un télescope ou en sortie d'un spectrographe, respectivement dans les cas de l'astrométrie et de la mesure de vitesses radiales. Ces capteurs fonctionnent par effet photoélectrique: lorsqu'un photon les percute, un électron est émis (si le photon a une énergie supérieure à une certaine limite). Ils sont exposés à la lumière pendant un certain temps appelé temps d'intégration. Le nombre d'électrons reçus pendant ce temps est ensuite compté pixel par pixel. Finalement, on obtient un tableau de nombre: le nombre de photons reçus par pixel de la caméra CCD. A chaque mesure est attachée une erreur, calculée selon une méthode explicitée par l'observateur. On effectue ensuite une série d'opérations mathématiques sur les mesures obtenues pour en extraire l'information souhaitée.

Avant d'arriver sur ces capteurs, les photons passent par les instruments, par l'atmosphère, par le milieu interstellaire. De plus, le mécanisme d'émission des photons par les étoiles est complexe: même si l'étoile était fixe par rapport à l'observateur, son spectre et sa position sembleraient variables. Comme les instruments ne permettent pas de résoudre angulairement l'étoile (elle n'apparait que sur un pixel), on mesure la lumière moyenne de sa photosphère, c'est à dire la fine partie de son enveloppe dont la lumière nous parvient. L'astrométrie est sensible à son photocentre. Enfin, il est possible que la lumière reçue provienne partiellement d'une autre source céleste située à proximité de l'étoile, ou du Soleil.

Chacune de ces étapes affecte le signal reçu, de sorte que l'information recherchée n'en représente qu'une petite partie. Par exemple, la vitese radiale apparente d'une étoile est de l'ordre de quelques dizaines de km/s, les techniques actuelles permettent de réduire le bruit instrumental à un peu moins de 0.3-0.5 m/s, qui est aussi l'ordre de grandeur de l'erreur due à une étoile de type solaire. Le signal d'une planète tellurique est de l'ordre de 0.5 m/s, c'est à dire moins que l'ordre de grandeur du bruit. Pour chercher des signaux de plus en plus faibles, il faut améliorer à la fois la modélisation du signal, des instruments, et des méthodes de traitement de données.

Représentation du trajet de la lumière
trajet_lumiere.png
En mauve, les sources de lumière et en bleu les milieux traversés.

Signal et bruit

Idéalement, on voudrait directement avoir accès aux orbites et aux masses exactes des planètes autour d'une étoile donnée. C'est jusqu'à présent impossible, et probablement pour longtemps ! Les techniques dont il est question ici visent à mesurer la position ou la vitesse de l'étoile, ce sont lessignaux recherchés. Cependant, comme on l'a vu page précédente, la quantité effectivement mesurée contient non seulement le signal mais aussi de nombreux processus aléatoires qu'on appelle bruits. Notre problématique est d'extraire les paramètres du signal (les paramètres des orbites) dans des mesures entachées de bruits.

Pour savoir si un signal sera détectable à priori, on calcule le rapport signal sur bruit qui est le rapport de "la puissance du signal" sur "la puissance du bruit". Ce rapport est fondamental. Le sens précis de cette expression varie selon le contexte mais typiquement, si un signal x \in \mathbb{R} et un bruit b \in R forment une mesure y = x + b, le rapport signal sur bruit est \frac{x}{b}. Plus ce rapport est grand, plus la mesure est précise.

Supposons que l'on veuille estimer une variation de position angulaire ou de vitesse (resp. \Delta x et \Delta V) d'une étoile de type solaire à 10 parsec autour de laquelle une planète de type jupiter orbite. On a \Delta x  \approx 50 \; \mu as et \Delta V \approx 12 \;m/s Les mesures sont contaminées par des variations aléatoires d'amplitudes x_b \approx 20 \muas (précision de la mission Gaia, mission astrométrique la plus précise) et V_b \approx 0.5 m/s (ordre de grandeur pour les meilleurs spectrographes actuels) . Le rapport signal sur bruit est de l'ordre de \frac{\Delta x}{x_b} = \frac{50}{20} = 2.5 et \frac{\Delta V}{V_b} = \frac{12}{0.5} = 24. La technique par vitesse radiale est pour l'instant plus précise.

Lorsqu'on mesure une quantité modélisée par une variable alétoire (par exemple le nombre de photons reçus pendant une seconde), le rapport signal sur bruit peut être défini comme le rapport de la moyenne et de l'écart-type.

Attention: il ne faut pas confondre l'amplitude d'un effet indésirable et le bruit qui lui est associé. Par exemple, le mouvement de la Terre dans le système solaire induit une vitesse apparente de plusieurs dizaines de km par secondes. Cependant, sa position est connue avec une très bonne précision, de sorte que l'incertitude liée à la soustraction du mouvement de la Terre est de l'ordre d'1 m/s. Remarque: On distingue en général la précision et l'exactitude. On peut disposer d'un instrument très précis mais comme d'autres effets perturbent la mesure, la mesure donne une valeur inexacte de ce que l'on cherche à mesurer. Dans l'exemple précédent, si on ne soustrait pas la vitesse de la Terre, l'instrument peut être aussi précis qu'on veut on aura un signal parasite entre 1000 et 60000 fois plus gros que celui qu'on cherche à mesurer.


Un problème d'estimation

La problématique de la détection par vitesse radiale et astrométrie est la suivante: quelles sont les orbites et les masses des planètes compagnons de l'étoile cible ? Comme les mesures sont entachées de bruit, on ne peut pas donner des paramètres orbitaux exacts. On estime aussi la "confiance" dans les valeurs des paramètres, souvent donnée sous forme de probabilités. On est aussi amené à se demander si toutes les planètes ont été détectées, et si les détections annoncées sont vraisemblables. En particulier, on étudie la stabilité du système trouvé.

La détection de planètes extrasolaires, comme d'autres problématiques de détection peut être subdivisé comme suit:

Ce cours se focalisera sur les trois premières problématiques, car la quatrième est transverse à toutes les techniques d'observation et fait l'objet d'un cours à part entière.


Exercices

exerciceModélisation

Difficulté :   

Question 1)
  1. Quelles sont les précisions annoncées des spectrographes européens ELODIE, HARPS et de celui à venir ESPRESSO ?
  2. Les observateurs attendent que le Soleil soit couché depuis plusieurs dizaines de minutes avant de commencer leurs observations, pourquoi ?
  3. Quel désavantages a-t-on à observer une étoile proche de la Lune ?
  4. Pourquoi observer en altitude ?


Effets à prendre en compte

Les observations traitées sont des mesures de position sur le plan focal d'un télescope et des mesures de spectres lumineux; respectivement pour l'astrométrie et les vitesses radiales. Faire l'hypothèse que les mesures ne sont que le résultat du mouvement d'une étoile parfaitement homogène donnerait des résultats invraisemblables. La fonction f de la page précédente prend en général en compte plusieurs effets présentés ici. Compte tenu du format du cours, seuls certains d'entre eux seront développés dans la suite.

Intensité globale
etoile3.png
L'intensité dépend de la composition, de la température T et de la vitesse \overrightarrow{v} en chaque point du disque apparent de l'étoile
Effet de la rotation de l'étoile sur le spectre
star.png
La lumière provenant de la moitié de l'étoile ayant un mouvement vers l'observateur est décalé vers les hautes fréquences (vers le bleu). L'autre moitié est décalée vers les basses fréquences (vers le rouge). Dans l'hypothèse où l'étoile est sphérique, et a une luminosité identique partout sur sa surface, le décalage vers le rouge et celui vers le bleu ne fait qu'élargir les raies spectrales. Si une tache est présente, ici sur la partie bleue, la symétrie est brisée et le déficit de lumière entraine un décalage du spectre vers le rouge.

Effets à prendre en compte (2)


Quantifier l'incertitude

Pour pouvoir annoncer qu'une planète a été découverte, il faut avoir une certaine confiance dans le résultat. Cependant, comme on vient de le voir, les mesures sont contaminées par de nombreuses sources qui peuvent être aléatoires. La détection d'exoplanète, comme toutes les problématiques de détection en astronomie, donne l'occasion de présenter des modélisations de phénomènes aléatoires. Introduire ces outils permettra en particulier de définir proprement ce que sont les barres d'erreurs. On donnera un sens à une phrase comme: la période d'une orbite estimée est 100 jours, plus ou moins 10 jours à trois sigmas.

Le cadre mathématique utilisé pour les prendre en compte est la théorie des statistiques. Les quantités physiques dont le comportement est imprévisible sont modélisées par des variables aléatoires qui prennent une certaine valeur à chaque mesure. Etant donné que cette notion intervient dans:

On donnera une description fonctionnelle, permettant de comprendre le cours sans avoir besoin de rentrer dans les détails des statistiques. Le lecteur intéressé pourra se référer à un ouvrage spécialisé, par exemple le cours de Didier Pelat (en libre accès), cité dans la bibliographie.

Une variable alétoire X peut être vue comme un programme informatique donnant une valeur réelle à chaque fois qu'on lui demande. La valeur retournée dépendra de la distribution de probabilité de cette variable aléatoire, notée f(x). Par exemple, si on veut modéliser le lancer d'une pièce de monnaie, chaque lancé correspond à une requête au programme qui retournera "face" ou "pile" avec une probabilité 1/2. Dans le cas de distributions continues, X prendra une valeur entre x_1 et x_2 avec une probabilité \int_{x_1}^{x_2} f(x) dx. La distribution la plus utilisée est la gaussienne (parfois appelée courbe en cloche), elle vérifie f(x) = \frac{1}{\sqrt{2 \pi} \sigma} e^{-\frac{(x-\mu)^2}{\sigma^2}}\mu est sa moyenne et \sigma^2 est sa variance. L'analyse des données repose sur l'hypothèse que nous observations des réalisations d'une variable aléatoire. Comme si réaliser une expérience consistait à demander à un ordinateur de sortir une valeur (la mesure) avec une certaine loi de probabilité.

Les variables aléatoires ont deux caractéristiques particulièrement importantes: leur moyenne et leur variance, définie respectivement comme \mu = \int_{-\infty}^\infty xf(x)dx et \sigma^2 = \int_{-\infty}^\infty (x-\mu)^2f(x)dx. La racine carére de la variance est appelée l'écart-type. Cette quantité donne "l'écart-typique" à la moyenne des réalisations. Dans la plupart des cas et en particulier dans le cas gaussien, l'écart-type a une interprétation univoque: il quantifie les déviations à la moyenne. Plus il est petit, plus les valeurs éloignées de la moyenne seront improbables. Dans la limite ou l'écart-type tend vers 0, on aura une variable aléatoire certaine, qui prend la valeur \mu avec une probabilité 1. En physique, on manipule souvent des incertitudes, qui sont implicitement modélisées comme des écart-types de variables aléatoires. Si un observateur dit "j'ai mesuré une vitesse radiale de y = 30.28781 km/s avec une incertitude de  0.00115 km/s", implicitement on suppose qu'il existe une variable aléatoire dont la moyenne correspond à la "vraie" valeur de la vitesse radiale et dont l'écart-type vaut  0.00115 km/s.

Remarque: nous utilisons une terminologie vague, pour des définitions précises voir les références.


Exercices

Auteur: Nathan Hara

exerciceModélisation des vitesses radiales

Difficulté :   

Question 1)

Citer des éléments à prendre en compte dans la modélisation des mesures de vitesses radiales ou astrométriques (on ne demande pas une liste très précise, encore moins exhaustive).

exerciceModélisations

Difficulté : ☆☆  

Question 1)

La démarche consistant à écrire un problème direct comportant une partie déterministe et une partie aléatoire n'est pas propre à la détection d'exoplanète. En majorité - si ce n'est en totalité - les détections reposent sur la même démarche. Dans chaque item de la liste suivante, on donne un phénomène à observer et un moyen d'observation. Dans chaque cas, lister des effets déterministes et/ou aléatoires à prendre en compte dans le modèle. Par exemple: "Mesurer une tension avec un voltmètre" peut se modéliser par u = u_v + b, où u est la tension mesurée, u_v la tension vraie et b un bruit gaussien dû aux fluctuations intrinsèques de la tension et aux erreurs de mesure. On peut aussi supposer que le voltmètre réalise en réalité une moyenne de tensions sur un certain intervalle de temps.

  1. Un lancé de dé
  2. Le point d'impact d'un tir ballistique (projectile sans système de propulsion propre) mesuré au gps
  3. Des tendances de ventes de vêtement dans un magasin à partir du livre des comptes tenu par un employé
  4. La mesure de position des corps du système solaire (attention ils ne peuvent pas être modélisés par des sources ponctuelles).


Comprendre

Auteur: Nathan Hara & Jacques Laskar

Modélisation - Problème direct


Présentation du modèle

Dans cette section on répond à la question suivante: pour un système planétaire donné, quelles seront les observations ? Dans la section précédente on a introduit la fonction f: \theta \in \mathbf{R}^n,t \in \mathbf{R}^m , \epsilon \in X^p \rightarrow y \in \mathbf{R}^m, où X désigne un espace de variables aléatoires, qui donne des observations y en fonction d'instants d'observation t, d'erreurs alétoires \epsilon et de paramètre du modèle \theta incluant masse de la planète, de l'étoile, paramètres de l'orbites, etc. qui seront précisés. En l'occurrence, l'erreur est bien représentée par un "bruit additif", c'est à dire les observations y sont de la forme y=f(\theta,t) + \epsilon, où f désigne une fonction modélisant la physique du phénomène observée, celle qui donnerait les observations "parfaites", sans aucune source d'erreur aléatoire. L'erreur \epsilon modélise tous les phénomènes aléatoires intervenant dans les mesures. Selon la distinction adoptée ici, les paramètres du modèle peuvent inclure une source indésirable mais non aléatoire.

L'objet de ce chapitre est de construire cette fonction f_p avec une modélisation physique. La modélisation la plus précise, utilisant tout ce que l'on sait de la physique serait ici inutilement complexe, car compte tenu des erreurs de mesures la différence avec certains modèles plus simples serait si faible qu'il serait impossible de la détecter avec un niveau de confiance acceptable. Le niveau de précision du modèle présenté ici est couramment utilisé par les observateurs.

Remarque: En pratique, les algorithmes d'estimation de paramètres sont des algorithmes d'optimisation, qui nécessitent tous de donner un ou plusieurs points de départs pour la recherche. Lorsque des modèles plus complexes sont utilisés, les estimations précises peuvent être utilisées comme tels.

On présentera d'abord une modélisation physique de l'objet étudié, puis d'autres effets physiques à prendre en compte. Les bruits instrumentaux seront traités dans le chapitre suivant. Les effets physiques "indépendants de l'observateur" qui seront pris en compte sont:

Ensuite, on modélise "comment" la lumière émise par l'étoile nous parvient, ce qui amènera à présenter:


Problème à deux corps

Auteur: Nathan Hara & Jacques Laskar

Problème à deux corps newtonien

Equation de Newton

Les planètes et l'étoile ont un certain volume. Cependant, on peut montrer que lorsque la distance entre deux corps en intéraction gravitationnelle augmente, leur comportement se rapproche de plus en plus de celui de deux points matériels. On néglige aussi les effets relativistes, de sorte que l'on est ramené à la modélisation de l'intéraction de deux points matériels, dont la résolution va suivre. Considérons deux points matériels P (planète) et S (pour "star" de sorte à éviter un conflit de notation avec l'anomalie excentrique E) de masses respectives m et M et O l'origine d'un repère Galiléen. Le principe fondamental de la dynamique s'écrit: m \frac{d^2\overrightarrow{OP}}{dt^2} = -GmM \frac{\overrightarrow{S P}}{S P^3}G est la constante universelle de gravitation.. En posant \overrightarrow{r} = \overrightarrow{SP} et \mu = G(M+m) on obtient:

\frac{d^2 \overrightarrow{r}}{dt^2} = -G(m+M) \frac{ \overrightarrow{r}}{r^3} = -\mu \frac{\overrightarrow{r}}{r^3}

On va montrer que la solution de cette équation décrit une conique plane, une ellipse dans le cas des planètes liées à une étoile. On suppose que le système est isolé, on peut donc choisir comme origine du repère le barycentre du système, ce qui permet d'obtenir facilement \overrightarrow{OP} et \overrightarrow{OS} par la relation m\overrightarrow{OP} + M\overrightarrow{OS} = \overrightarrow{0}.

On suppose que le système est isolé, donc le mouvement du barycentre du système {Etoile+planètes} est rectiligne uniforme dans un référentiel galiléen (par exemple le référentiel barycentrique du système solaire).

Quantités conservées

L'équation de Newton est une équation différentielle de degré deux sur des vecteurs de \mathbf{R}^3. Pour la résoudre il faut trouver six quantités conservées au cours du mouvement (ou intégrales premières du mouvement) indépendantes. En l'occurrence on peut facilement montrer que deux vecteurs sont conservés au cours du mouvement (ce qui fait deux fois trois composantes, on a bien six scalaires conservés). Notons \overrightarrow{r}} = r \overrightarrow{u}, où \overrightarrow{u} est un vecteur unitaire (et donc r est la norme de \overrightarrow{r}) et \dot{\overrightarrow{a}} la dérivée par rapport au temps d'un vecteur \overrightarrow{a}. On a la conservation du moment cinétique par unité de masse \overrightarrow{G} = \overrightarrow{r} \wedge \dot{\overrightarrow{r}} et du vecteur excentricité \overrightarrow{P} = \frac{ \dot{\overrightarrow{r}} \wedge \overrightarrow{G} }{\mu} - \overrightarrow{u} au cours du mouvement c'est à dire leur dérivée temporelle est nulle

En effet, soit \overrightarrow{r}(t) une solution de l'équation de Newton. Alors \frac{d \overrightarrow{G}}{dt}(t) = \frac{d( \overrightarrow{r}(t) \wedge \dot{\overrightarrow{r}(t)})}{dt} = \dot{\overightarrow{r}}(t) \wedge \dot{\overightarrow{r}}(t) + \overightarrow{r}(t) \wedge \ddot{\overightarrow{r}(t)} =0 car d'après l'équation de Newton, \ddot{\overrightarrow{r} est colinéaire à \overrightarrow{r}. D'autre part, \frac{d\overrightarrow{P}}{dt}(t) = \frac{\ddot{\overrightarrow{r}}(t)  \wedge \overrightarrow{G}(t) }{\mu} - \dot{\overrightarrow{u}}(t) , or

\ddot{\overrightarrow{r}} \wedge \overrightarrow{G} = - \frac{\mu}{r^3} \overrightarrow{r} \wedge (\overrightarrow{r} \wedge \dot{\overrightarrow{r}}) = -  \frac{\mu}{r^3} \overrightarrow{r} \wedge (\overrightarrow{r} \wedge r \dot{\overrightarrow{u}}) = -  \frac{\mu}{r^3}  r \overrightarrow{u} \wedge (r \overrightarrow{u} \wedge r \dot{\overrightarrow{u}}) = \mu \dot{\overrightarrow{u}}

Donc \frac{d\overrightarrow{P}}{dt} = \overrightarrow{0} .


Géométrie de l'orbite

Les quantités conservées définies page précédente permettent de donner une description géométrique de l'évolution de \overrightarrow{r}.

On déduit de la conservation du moment cinétique que le mouvement est plan. En effet, \overrightarrow{r}\cdot\overrightarrow{G} = \overrightarrow{r} \cdot (\overrightarrow{r} \wedge \dot{ \overrightarrow{r}) } et comme \overrightarrow{r} \cdot (\overrightarrow{r} \wedge \dot{ \overrightarrow{r}) } est un produit mixte, il est invariant par permutation circulaire: \overrightarrow{r} \cdot (\overrightarrow{r} \wedge \dot{ \overrightarrow{r}) } =  \dot{\overrightarrow{r}} \cdot (\overrightarrow{r} \wedge \overrightarrow{r}) } = \overrightarrow{0} car le produit vectoriel de deux vecteurs colinéaires est nul. Le vecteur \overrightarrow{r} est orthogonal à \overrightarrow{G} à tout instant, autrement dit le mouvement est dans un plan orthogonal à \overrightarrow{G}.

Notons v l'angle entre \overrightarrow{r} et \overrightarrow{P} et posons e = \|\overrightarrow{P} \| . Alors comme \overrightarrow{u} est unitaire, \overrightarrow{P} \cdot \overrightarrow{u} = e \cos v d'autre part en remplaçant \overrightarrow{P} par sa définition, on a \overrightarrow{P} \cdot \overrightarrow{u} = \frac{\overrightrarrow{r} \cdot ( \dot{\overrightarrow{r}} \wedge \overrightarrow{G} )}{r \mu} -1 et comme \overrightarrow{r} \cdot ( \dot{\overrightarrow{r}} \wedge \overrightarrow{G} ) est un produit mixte, \overrightarrow{r} \cdot ( \dot{\overrightarrow{r}} \wedge \overrightarrow{G} ) = \overrightarrow{G} \cdot ( \overrightarrow{r}   \wedge \dot{\overrightarrow{r}} ) = \overrightarrow{G} \cdot \overrightarrow{G} = G^2. où G est la norme de \overrightarrow{G}. On obtient alors r en fonction de v:

r(v) = \frac{p}{1+e \cos v}

p  = \frac{G^2}{\mu} , qui est l'équation polaire d'une conique du plan. Cette équation donne une paramétrisation de la solution en fonction de v, appelée anomalie vraie. Cependant, nous voulons exprimer la solution en fonction du temps, l'objet de la page suivante est d'exhiber une relation entre v et le temps. On sait que lorsque e < 1, il s'agit de l'équation d'une ellipse. On peut montrer géométriquement que p = a(1-e^2)a est le demi-grand axe de l'ellipse. Si e = 1 ou e>1, la trajectoire est respectivement parabolique ou hyperbolique. Dans ces deux cas le mouvement n'est pas borné, il concernerait une planète en phase d'éjection, événement dont l'observation est très improbable et indiscernable d'une planète à très longue période ou du mouvement propre sur les données actuelles.

L'orbite est dans un plan perpendiculaire à \overrightarrow{G}, et le vecteur \overrightarrow{P} est parallèle à \overrightarrow{FA}. Notons\overrightarrow{I}= \frac{\overrightarrow{P}}{\|\overrightarrow{P} \|} et \overrightarrow{K}= \frac{\overrightarrow{G}}{\|\overrightarrow{G} \|}. On introduit un vecteur \overrightarrow{J}de sorte que (\overrightarrow{I}, \overrightarrow{J},  \overrightarrow{K}) forme une base orthonormale.

Géométrie du mouvement elliptique
Geometrie_orbite2.png
Le mouvement est dans le plan (\overrightarrow{P}, \overrightarrow{Y})

Loi des aires

Nous avons montré que la solution au problème des deux corps est plane, et peut s'exprimer en fonction de l'anomalie vraie v, angle entre le vecteur excentricité et le vecteur \overrightarrow{r}.

r(v) = \frac{a(1-e^2)}{1+e \cos v}

Afin d'exprimer r en fonction du temps on va introduire successivement deux variables, M et E appelées respectivement 'anomalie moyenne et 'anomalie excentrique.

Loi des Aires

Avec les notations précédentes, \overrightarrow{u}(v) = \cos v \overrightarrow{I} + \sin v \overrightarrow{J}, donc\dot{\overrightarrow{u}}(v) = -\sin v \overrightarrow{I} + \cos v \overrightarrow{J} en remplaçant dans, \overrightarrow{G} = r \overrightarrow{u} \wedge (\dot{r}\overrightarrow{u}} + r \dot{\overrightarrow{u}}) on obtient:

r^2 \frac{dv}{dt}=G

Cette équation s'appelle la Loi des aires et signifie que \overrightarrow{r} balaie les aires à vitesse constant G. En particulier l'aire totale de l'ellipse est parcourue en un certain temps T fixe: le mouvement est périodique. L'aire de l'ellipse vaut:

\pi a b = \pi a^2 \sqrt{1-e^2} = \int_{0}^{2\pi} \frac{1}{2} r^2 dv = \int_{0}^T \frac{G}{2}dt = \frac{T}{2} \sqrt{\mu a (1-e^2)}

On retrouve bien la troisième loi de Kepler : n^2 a^3 = \mu avec n = \frac{2 \pi}{T}. On définit alors l'anomalie moyenne par M = n(t-t_0)t_0 est le temps de passage au périastre (A sur la figure), qui est proportionnelle à l'aire FAC (voir figure).


Exercices

exerciceConservation de l'énergie

Difficulté : ☆☆  

Question 1)

Pour établir l'équation du mouvement, les conservations du moment cinétique et du vecteur eccentricité suffisent. On a une autre intégrale du mouvement: l'énergie. Considérons deux points matériels S et P de masses respectives M et m. On pose \overrightarrow{r} = \overrightarrow{SP} , r = \|\overrightarrow{r}\| et \mu = \mathcal{G}(m+M) \mathcal{G} est la constante universelle de gravitation.

  1. Montrer que \frac{d^2\overrightarrow{r}}{dt^2} = -\mu \frac{\overrightarrow{r}}{r^3}
  2. Calculer l'énergie potentielle associée à la force de gravitation
  3. On note v = \left\| \frac{d \overrightarrow{r}}{dt}  \right\|. Déduire du théorème de l'énergie mécanique que \frac{1}{2} v^2 - \frac{\mu}{r} est une quantité constante au cours du mouvement
  4. Quel est le point de l'orbite où la vitesse de l'étoile est la plus élevée ? la moins élevée ?


Equation de Kepler

Equation de Kepler

L'équation de Kepler est une relation entre l'anomalie excentrique et l'anomalie moyenne, cette page présente un moyen de l'établir. L'aire \mathcal{A}(FAC) est proportionnelle à l'anomalie moyenne M.

\mathcal{A} (AFC) = \frac{M}{2 \pi} \pi a^2 \sqrt{1-e^2} = \frac{1}{2} a^2 \sqrt{1-e^2} M

L'ellipse de la trajectoire est obtenue par une affinité sur l'axe \overrightarrow{Y} de rapport \frac{b}{a} = \sqrt{1-e^2}. Donc

\mathcal{A}(AFC') = \frac{\mathcal{A}(AFC)}{\sqrt{1-e^2}} = \frac{a^2 M}{2}

Par ailleurs en notant E l'angle \widehat{AOC'}

\mathcal{A}(AOC') = \frac{1}{2} a^2 E = \mathcal{A}(FOC') + \mathcal{A}(AFC')

L'aire du triangle FOC' s'obtient facilement car HC' = HC / \sqrt{1-e^2}

\mathcal{A}(FOC') = \frac{1}{2} a^2e \sin E

On a finalement l'équation de Kepler

E - e\sin E = M

Cette équation est "transcendante", en conqéquence il n'existe pas d'expression analytique de E en fonction de M. Cependant, on peut développer E en puissances de M.

Anomalies
anomalies2.png
Représentation de l'anomalie vraie v, excentrique E et moyenne M.

Solutions en fonction du temps

Il reste à trouver une relation entre E et v, ce qui s'obtient aisément en exprimant la position (X,Y) de C dans le plan (\overrightarrow{I}, \overrightarrow{J}):

\left\{   \begin{array}{l l l}  X =&  r \cos v =& a(\cos E - e)  \\  Y =&  r \sin v =& a \sqrt{1-e^2} \sin E\end{array}

On en déduit les relations utiles:\begin{array}{l l}  \cos v = \frac{\cos E - e}{1 - e \cos E},  \quad & \sin v = \frac{\sqrt{1-e^2} \sin E}{1 - e \cos E}  \end{array}

A ce point, rappelons que l'objectif est d'exprimer la position et la vitesse de l'étoile comme des observables. En exprimant M en fonction de t puis E en fonction deM on a la position du corps à un instant quelconque. En ce qui concerne l'astrométrie, on peut s'arrêter aux équations ci-dessus et simplement faire un changement de référentiel, c'ést à dire exprimer la projection de X(t)\overrightarrow{I} + Y(t)\overrightarrow{J} sur la sphère céleste et choisir un jeu de paramètres \theta à ajuster. Pour les vitesses radiales nous avons besoin de \frac{dX}{dt} = \frac{dX}{dE} \frac{dE}{dM} \frac{dM}{dt}. En dérivant l'équation de Kepler par rapport à M on obtient:

\frac{dE}{dM} = \frac{a}{r}

D'où:

\left\{   \begin{array}{l l l}  \dot{X} =&  -na\frac{\sin E}{1-e \cos E} &= -\frac{na}{\sqrt{1-e^2}} \sin v  \\  \dot{Y} =&  na\sqrt{1-e^2}\frac{\cos E}{1-e \cos E} &= \frac{na}{\sqrt{1-e^2}} (e+\cos v) \end{array}

En pratique, il n'est pas nécessaire de calculer v en fonction de E. Les expressions ci-dessus suffisent. Pour mémoire, en remplaçant \cos v dans la formule trigonométrique  \tan^2 \frac{v}{2} = \frac{1-\cos v}{1+\cos v} , on obtient:

\tan \frac{v}{2} = \sqrt{\frac{1+e}{1-e}} \tan \frac{E}{2}


Changement de référentiel

Les observations sont disponibles dans un référentiel (\overrightarrow{i}, \overrightarrow{j}, \overrightarrow{k})\overrightarrow{k} est la direction d'observation et (\overrightarrow{i}, \overrightarrow{j}) sont choisis de sorte que le repère est orthonormé direct. Le repère (\overrightarrow{I}, \overrightarrow{J}, \overrightarrow{K}) est lui aussi orthormé direct. La matrice de passage du repère orbital au repère d'observation est donc une rotation, que l'on décompose en trois rotations dont les angles ont des noms usuels.

\left( \begin{array}{cc} x & \dot{x} \\ y & \dot{y} \\ z & \dot{z}  \end{array}  \right) = \mathcal{R}_3(\Omega) \mathcal{R}_1(i) \mathcal{R}_3(\omega)   \left( \begin{array}{cc} X & \dot{X} \\  Y & \dot{Y} \\ Z & \dot{Z}  \end{array}  \right)

Où:

\mathcal{R}_1(\theta) = \left( \begin{array}{ccc} 1 & 0 & 0 \\ 0 & \cos \theta & -\sin \theta \\ 0 & \sin \theta & \cos \theta \end{array} \right) \quad ; \quad \mathcal{R}_3(\theta) = \left( \begin{array}{ccc} \cos \theta & -\sin \theta & 0 \\ \sin \theta & \cos \theta &  0 \\ 0 & 0 &  1 \end{array} \right)

Soit B le barycentre du système {planète+étoile}, on note \mathcal{R}_3(\Omega) \mathcal{R}_1(i) \mathcal{R}_3(\omega) = \left( \begin{array}{ccc}  B &  G  & \star  \\ A &  F & \star  \\ C & D & \star  \end{array} \right)A, B, F, G sont appelées les constantes de Thiele-Innes. On conserve la notation classique pour ces constantes, qui sautent quelques lettres de l'alphabet pour une raison inconnue des auteurs. La notation C,D n'est en revanche qu'une convention pour ce cours et ne se trouve pas spécialement dans la littérature. On ne donne pas de nom particulier aux éléments de la dernière colonne de la matrice car étant donné que Z=0, ils n'apparaissent jamais dans les calculs

Paramètres d'un mouvement à deux corps newtonien
500px-Orbit1.svg.png
Le plan de référence est ici le plan d'observation.

Paramètres orbitaux classiques

On peut caractériser l'orbite par les éléments suivants:

Ces éléments donnent la géométrie de l'orbite. Pour déterminer la position de la planète à un instant t donné, il faut de plus connaître l'instant de son passage au périastre t_p. On peut alors calculer M = 2\pi \frac{t-t_p}{P} connaisant e on peut calculer l'anomalie excentrique E par l'équation de Kepler, puis l'anomalie vraie v. On en déduit la position sur l'ellipse par l'équation donnée page "Loi des aires", r(v) = \frac{a(1-e^2)}{1+e \cos v} . Enfin, la position sur l'orbite est donnée par les rotations explicitées ci-dessus.


Conclusion pour le problème à deux corps

Dans un référentiel galiléen quelconque de centre O, le mouvement de l'étoile S en fonction du temps peut s'écrire:

\begin{array}{ccc}\overrightarrow{OS}(t) &= \left( \begin{array}{c} x(t) \\ y(t) \\ z(t)   \end{array}\right) &= \overrightarrow{OB}_0 + \alpha t \overrightarrow{u} + \overrightarrow{BS}(t) \\ \dot{\overrightarrow{OS}}(t) &= \left( \begin{array}{c} \dot{x}(t) \\ \dot{y}(t) \\ \dot{z} (t)  \end{array}\right) &= \alpha  \overrightarrow{u} + \dot{\overrightarrow{BS}}(t) \end{array}

\overrightarrow{OB}_0 est la position du barycentre B du système {Etoile, Planète} à t=0, \overrightarrow{u} est la direction du mouvement de B et \alpha son module.\overrightarrow{BS}(t) = - \frac{m}{m+M} \overrightarrow{r} \overrightarrow{r} vérifiel'équation de Newton \frac{d^2 \overrightarrow{r}}{dt^2} =  -\mu \frac{\overrightarrow{r}}{r^3} , qui est une équation différentielle de degré deux sur l'espace. Lorsque \mu est fixé et la position et la vitesse à t=0, (\overrightarrow{r}_0, \dot{\overrightarrow{r}}_0) sont connus, la position et la vitesse sont données par le flot: \begin{array}{cccc } \Phi_{\mu}:& \mathbb{R} \times \mathbb{R}^3 \times \mathbb{R}^3 & \rightarrow &  \mathbb{R}^3 \times \mathbb{R}^3 \\   & (t,\overrightarrow{r}_0, \dot{\overrightarrow{r}}_0)& \rightarrow &(\overrightarrow{r}(t), \dot{\overrightarrow{r}}(t))\end{array} . En d'autres termes, les sept paramètres (\mu, X_0, Y_0, Z_0, \dot{X}_0, \dot{Y}_0,\dot{Z}_0) définissent une orbite de manière univoque. On peut faire un changement de variables pour décrire l'orbite par un autre jeu de sept paramètres, par exemple a, e, P, \omega, i, \Omega et t_p, qui sont les paramètres classiques présentés dans la section précédente. La plupart des auteurs les utilisent pour ajuster le mouvement des planètes, mais ils ont l'inconvénient d'être très sensibles aux erreurs pour de faibles excentricités et inclinaisons. Pour palier à ce problème on définit:

Ces éléments sont des fonctions continues de l'inclinaison et de l'excentricité.


Exercices

Auteur: Nathan Hara

exerciceBonnes et mauvaises configurations d'observation

Difficulté : ☆☆  

Question 1)

On définit un repère (x,y,z) où la direction z est selon la droite observateur - étoile. Avec les notations des pages précédentes, pour quelles valeurs de l'inclinaison  i les observations de vitesses radiales ne donnent aucune information sur le système ? lequelles rendent la configuration optimale ? Même question pour les angles i et \Omega en astrométrie.

Auteur: Nathan Hara

exerciceQu'est-ce que les vitesses radiales permettent de mesurer ?

Difficulté : ☆☆☆  

Question 1)

On définit un repère (x,y,z) où la direction z est selon la droite observateur - étoile. On note \left(  \begin{array}{c} \dot{X} \\ \dot{Y} \\ 0 \end{array} \right) les composantes du mouvement dans le plan orbital. Calculer la composante du mouvement de l'étoile selon la direction d'observation. On mettra les observations sous la forme K ( \cos(\omega+\nu) + e\cos(\omega)), où K est une constante à déterminer. Quels paramètres de l'orbite peut-on observer par vitesse radiale ? Montrer en particulier qu'on ne peut pas déterminer la masse exacte de la planète.


Modèle de la trajectoire

Les expressions établies jusqu'ici permettent de paramétrer le mouvement d'une étoile autour de laquelle une planète orbite, en faisant l'hypothèse que les deux corps sont ponctuels, forment un système isolé. Nous allons utiliser ces expressions pour donner un modèle général, lorsque n_p planètes orbitent autour de l'étoile.

En notant \overrightarrow{r}_0 et M respectivement la position et la masse de l'étoile et \overrightarrow{r_k}, m_k, k = \mathbf{1}..n_p les positions et masses des n_p planètes , les équations de la mécanique (classique) dans le référentiel barycentrique de ce système sont:

\begin{array}{cccccc} \ddot{\overrightarrow{r}_0} & = &-G\sum\limits_{k=1}^{n_p} m_k \frac{\overrightarrow{r_0}-\overrightarrow{r_k}}{\|\overrightarrow{r_0}-\overrightarrow{r_k}\|^3} & &=& -GM\left(\sum\limits_{k=1}^{n_p} \frac{m_k}{M} \frac{\overrightarrow{r_0}-\overrightarrow{r_k}}{\|\overrightarrow{r_0}-\overrightarrow{r_k}\|^3 \right)                \\              \vdots &  & & & &   \\        \ddot{\overrightarrow{r}_j} & = &-GM\frac{\overrightarrow{r_j}-\overrightarrow{r_0}}{\|\overrightarrow{r_j}-\overrightarrow{r_0}\|^3}& -G\sum\limits_{k=1, k\not=j}^{n_p} m_k \frac{\overrightarrow{r_j}-\overrightarrow{r_k}}{\|\overrightarrow{r_j}-\overrightarrow{r_k}\|^3}& = &-GM \left(\frac{\overrightarrow{r_j}-\overrightarrow{r_0}}{\|\overrightarrow{r_j}-\overrightarrow{r_0}\|^3}  - \sum\limits_{k=1,k\not=j}^{n_p} \frac{m_k}{M} \frac{\overrightarrow{r_j}-\overrightarrow{r_k}}{\|\overrightarrow{r_j}-\overrightarrow{r_k}\|^3}    \right)          \\        \vdots &  & & & &      \\          \ddot{\overrightarrow{r}_{n_p}} & = &-GM\frac{\overrightarrow{r_{n_p}}-\overrightarrow{r_0}}{\|\overrightarrow{r_{n_p}}-\overrightarrow{r_0}\|^3}& -G\sum\limits_{k=1}^{n_p-1} m_k \frac{\overrightarrow{r_{n_p}}-\overrightarrow{r_k}}{\|\overrightarrow{r_{n_p}}-\overrightarrow{r_k}\|^3} &=& -GM \left(\frac{\overrightarrow{r_{n_p}}-\overrightarrow{r_0}}{\|\overrightarrow{r_{n_p}}-\overrightarrow{r_0}\|^3}  - \sum\limits_{k=1}^{n_p-1} \frac{m_k}{M} \frac{\overrightarrow{r_{n_p}}-\overrightarrow{r_k}}{\|\overrightarrow{r_{n_p}}-\overrightarrow{r_k}\|^3}    \right)     \end{array}

En négligeant tous les termes du type \frac{m_k}{M} \frac{\overrightarrow{r_j} - \overrightarrow{r_k}}{\|\overrightarrow{r_j} - \overrightarrow{r_k} \|^3} , c'est à dire l'intéraction entre les planètes, on obtient:

\begin{array}{cccc} \ddot{\overrightarrow{r}_0} & =& -GM\left(\sum\limits_{k=1}^{n_p} \frac{m_k}{M} \frac{\overrightarrow{r_0}-\overrightarrow{r_k}}{\|\overrightarrow{r_0}-\overrightarrow{r_k}\|^3 \right) = -\sum\limits_{k=1}^{n_p} \frac{m_k}{M} \ddot{\overrightarrow{r_k}}               \\              \vdots &  & &    \\        \ddot{\overrightarrow{r}_j} & = &-GM\frac{\overrightarrow{r_j}-\overrightarrow{r_0}}{\|\overrightarrow{r_j}-\overrightarrow{r_0}\|^3}&         \\        \vdots &  & &       \\          \ddot{\overrightarrow{r}_{n_p}} & = &-GM\frac{\overrightarrow{r_{n_p}}-\overrightarrow{r_0}}{\|\overrightarrow{r_{n_p}}-\overrightarrow{r_0}\|^3}&    \end{array}

En résolvant les n_p problèmes à deux corps associés à chacune des planètes, par M \overrightarrow{r}_0 + \sum\limits_{k=1}^{n_p} m_k \overrightarrow{r_k} = \overrightarrow{0} (dont la première équation du système ci-dessus est la dérivée seconde) on obtient le mouvement de l'étoile. Le modèle de trajectoire complet dans un référentiel galiléen est:

\begin{array}{ccccccc}\overrightarrow{OS}(t) &=& \left( \begin{array}{c} x(t) \\ y(t) \\ z(t)   \end{array}\right) &=& \overrightarrow{OB}_0 + \alpha t \overrightarrow{u} + \overrightarrow{BS}(t) & =& \overrightarrow{OB}_0 + \alpha t \overrightarrow{u} - \frac{1}{M}\sum\limits_{k=1}^{n_p} m_k \overrightarrow{r_k} \\              \dot{\overrightarrow{OS}}(t) &= &\left( \begin{array}{c} \dot{x}(t) \\ \dot{y}(t) \\ \dot{z} (t)  \end{array}\right) &=& \alpha  \overrightarrow{u} + \dot{\overrightarrow{BS}}(t)&=& \alpha  \overrightarrow{u} - \frac{1}{M}\sum\limits_{k=1}^{n_p} m_k \dot{\overrightarrow{r_k}}  \end{array}


Trajectoire observée depuis le barycentre du système solaire

Le modèle précédent donne le mouvement de l'étoile observée dans un référentiel galiléen, en particulier le référentiel barycentrique du système solaire (O,\overrightarrow{I},\overrightarrow{J},\overrightarrow{K}), que l'on munit d'un repère de coordonnées sphériques (O, \rho, \alpha, \delta) repérant l'étoile S. Supposons que l'observateur est situé en O. A un instant t il mesure:

On peut facilement montrer avec un développement limité qu'au premier ordre en \frac{\| \overrightarrow{BS} \|}{\| \overrightarrow{OS}\|}, \rho(t) = \rho_B(t)+ \overrightarrow{e_{\rho}} \cdot \overrightarrow{BS}(t), \alpha(t) \cos \delta(t) = \alpha_B(t)\cos \delta(t)+ \frac{1}{\rho_B} \overrightarrow{e_{\alpha}} \cdot \overrightarrow{BS}(t), de même \delta(t) = \delta_B(t)+ \frac{1}{\rho_B} \overrightarrow{e_{\delta}} \cdot \overrightarrow{BS}(t) (à faire en exercice). Supposons que n_p planètes indéxées par k gravitent autour de l'étoile en S et (\overrightarrow{I_k}, \overrightarrow{J_k}, \overrightarrow{K_k}) le repère orbital de la planète k. On projette le mouvement \left( \begin{array}{c}  X_k(t) \\ Y_k(t) \\ 0\end{array} \right) dans le repère orthonormé direct (\overrightarrow{e_{\rho}}, \overrightarrow{e_{\alpha}}, \overrightarrow{e_{\delta}}) associé aux coordonnées sphériques (O, \rho_B, \alpha_B, \delta_B) (voir figure). Avec les notations de la page Changement de référentiel:

\Large \left( \begin{array}{c} \alpha(t) \cos \delta_B \\ \delta(t) \\ \rho(t) \end{array} \right) = \left( \begin{array}{c} \alpha_B(t)\cos \delta_B \\ \delta_B(t) \\ \rho_B(t) \end{array} \right) - \frac{1}{M} \sum\limits_{k=1}^{n_p} m_k \left( \begin{array}{ccc} \frac{A_k}{\rho} & \frac{F_k}{\rho} & \star \\ \frac{B_k}{\rho} & \frac{G_k}{\rho} & \star \\ C_k & D_k & \star \end{array} \right) \left( \begin{array}{c} X_k(t) \\ Y_k(t) \\ 0 \end{array} \right)

Observation depuis le barycentre du système solaire
referentiel_obs.png
Position de l'étoile en coordonnées sphériques dans le référérentiel barycentrique du système solaire et dans le référentiel translaté au centre de masse de la Terre. Les observations sont disponibles dans le référentiel terrestre, représenté en rouge, qui dépend de l'instant de mesure t.

Trajectoire observée depuis la Terre

Le modèle précédent donne l'évolution de l'étoile dans le repère barycentrique du système solaire (RBSS). Or les observations sont disponibles depuis la Terre. Si T est la position de l'observateur, S l'étoile cible on a \overrightarrow{TS} = \overrightarrow{TO} + \overrightarrow{OS}

La dérivée temporelle des vecteur est toujours définie par rapport à un référentiel. Ici la notation \dot{a} désigne la dérivée temporelle par rapport au RBSS.

La détermination de la position du centre de masse de la Terre par rapport au barycentre du système solaire est un sujet à part entière. La trajectoire d'un corps céleste au cours du temps dans un référentiel donné est appelée une éphéméride. Les principaux laboratoires de calcul des éphémérides sont le JPL (NASA) et l'IMCCE (Observatoire de Paris). Les liens envoient sur les générateurs en lignes d'éphémérides respectifs des deux laboratoires. .

Vitesses radiales

La vitesse de l'observateur T par rapport au barycentre du système solaire peut se décomposer en \dot{\overrightarrow{OT}} = \dot{\overrightarrow{OC}} + \dot{\overrightarrow{CT}} . La partie \overrightarrow{OC} est donné par les éphémérides, comme expliqué plus haut. La correction de la deuxième partie est essentielle: l'observateur parcourt deux fois le rayon terrestre en une nuit, ce qui donne une vitesse d'environ 300 m/s. Si M(t) désigne la matrice de changement de repère entre le référentiel lié à la Terre et le référentiel barycentrique du système solaire, on a \dot{\overrightarrow{CT}} = \dot{M}(t) \overrightarrow{CT}_{R_t}\overrightarrow{CT}_{R_t} désigne la position de l'observateur dans le référentiel terrestre.

La détermination de M est aussi un sujet à part entière, appelé "rotation de la Terre". Les paramètres de rotations officiels sont donnés par le Service de rotation de la Terre au SYRTE (Observatoire de Paris).

Parallaxe (astrométrie)

En ce qui concerne l'astrométrie, il faut exprimer la relation entre les positions mesurées et la position dans le RBSS, ce qui peut se décomposer en deux étapes: passer du référentiel terrestre au RBS translaté au centre de masse de la Terre (passer du référentiel rouge au référentiel noir à droite sur la figure), puis passer du référentiel translaté au RBS. Comme on le verra plus tard, il est aussi possible de se passer de cette étape en prenant un champ contenant des étoiles de référence.

Notons (x,y,z) la position de la Terre dans le RBS. En exprimant \overrightarrow{OS} dans le RBSS de deux manières on obtient une relation entre les coordonnées (\rho_B, \alpha_B, \delta_B) et (\rho_T, \alpha_T, \delta_T) : \begin{array}{lll} \rho_T \cos \delta_T \cos \alpha_T & = & \rho_T \cos \delta_S \cos \alpha_S -x\\           \rho_T \cos \delta_T \sin \alpha_T & = & \rho_T \cos \delta_S \sin \alpha_S - y \\   \rho_T \sin \delta_T & = & \rho_B \sin \delta_B -z\end{array}

Lorsque S est suffisamment loin, ces expressions différenciées au voisinage de (\rho_B, \alpha_B, \delta_B) donnent au premier ordre en \Delta \alpha = \alpha_T - \alpha_B, \Delta \delta = \delta_T - \delta_B et \Delta \rho = \rho_T - \rho_B

\begin{array}{lll}  \Delta \alpha \cos \delta &=& \frac{x}{\rho_B} \sin \alpha - \frac{y}{\rho_B} \cos \alpha  \\  \Delta \delta &=& \left( \frac{x}{\rho_B} \cos \alpha + \frac{y}{\rho_B} \sin \alpha \left) \sin \delta - \frac{z}{\rho_B} \cos \delta \\  \Delta \rho &= &-x \cos \alpha \cos \delta - y\sin \alpha \cos \delta + z \sin \delta \end{array}

On appelle la quantité \varphi = \frac{1}{\rho_B} \approx \frac{1}{\rho} la parallaxe de l'étoile (en général notée \pi ou \varpi, qui sont des symboles déjà utilisés dans le cours). Elle considérée comme constante au cours des observations et est ajustée aux observations en astrométrie.

Remarque: la procédure de changement de référentiel passe par des changements d'échelle de temps (UTC, UT1, TDB...) qui ne seront pas détaillés ici.

Changement de coordonnées
parallaxe.png
Position de l'étoile en coordonnées sphériques dans le référérentiel barycentrique du système solaire et dans le référentiel translaté au centre de masse de la Terre. Les observations sont disponibles dans le référentiel terrestre, représenté en rouge, qui dépend de l'instant de mesure t.

Accélération de perspective et changement de parallaxe (astrométrie)

Accélération de perspective

L'accélération de perspective est un effet purement géométrique, qui tient à la définition du mouvement propre d'une étoile. Le mouvement propre est en effet défini comme \mu = \frac{V\sin \theta}{\rho}V est la vitesse du système observé, \rho la distance entre l'observateur et le système, \theta est l'angle entre la ligne de visée et la vitesse du système observé. Nous supposons que les mesures astrométriques sont sur un plan. Cependant, on mesure la projection du mouvement sur une sphère, donc \theta n'est pas constant au cours du temps. En dérivant par rapport au temps, comme V est constant:

\frac{d \mu }{dt} = - \frac{V}{\rho^2} \sin \theta \frac{d\rho}{dt}+\frac{V}{\rho} \cos \theta \frac{d\theta}{dt}

On voit sur le triangle OSP que \frac{d\theta}{dt} = - \mu et V \cos\theta =V_r=\frac{d\rho}{dt}. D'où:

\frac{d\mu}{dt} = - \frac{\mu}{\rho} \frac{d\rho}{dt} - \frac{\mu}{\rho} V_r = -\frac{2\mu}{\rho} V_r

En pratique on ajuste un terme quadratique \eta, où le mouvement angulaire sur la sphère céleste est donné par \mu (t) = \mu_0 t + \eta t^2.

Variation de parallaxe

La variation de parallaxe vaut: \dot{\varphi}= -\frac{1}{\rho^2} \frac{d\rho}{dt} = -\frac{1}{\rho^2} V_r= - \varphi^2 V_r . Comme elle est du deuxième ordre en \varphi, elle n'est en général pas prise en compte.

Changement de coordonnées
acceleration_perspective.png
Définition de \theta

Etoile

Auteur: Nathan Hara & Jacques Laskar

Etoile

L'ajustement des paramètres orbitaux permet de connaître \mu = G(m+M) ou bien \mu \sin i dans le cas des vitesses radiales. Il est impossible de distinguer les masses m etM séparément a priori. Cependant, on peut mesurer la masse de l'étoile de sorte à lever l'indetermination.

La modélisation des étoiles permet de distinguer les effets sur le spectre de la variation de leur flux lumineux de la présence de compagnons planétaires. Ces variations sont modélisées par des variables aléatoires suivant une certaine loi de probabilité, dont l'amplitude varie de plusieurs ordres de grandeur selon le type d'étoile. Plus l'étoile est active, plus l'amplitude du mouvement dû à la planète doit être grande pour distinguer la planète du bruit. En particulier certains types d'étoiles sont trop actives pour pouvoir détecter des potentielles super-Terres compagnon.

La description physique des étoiles est complexe car de nombreux phénomènes, tous interdépendants, ont lieu: convection, radiation, magnétisme... Les modèles utilisés en détection par vitesses radiales comprennent trois phénomènes

L'impact de ces effets sur les mesures n'est pas simple à quantifier. Selon le type d'étoile et les instants d'observations, l'effet peut être très variable. Certains auteurs estiment les incertitudes par des simulations numérique, d'autres par des modèles théoriques. Nous donnons une description qualitative de ces phénomènes et une modélisation possible, mais il faut garder à l'esprit que c'est un sujet de recherche ouvert. Dans le cas des vitesses radiales, ces bruits sont classiquement modélisées par un processus stochastique d'une certaine densité spectrale de puissance, notion importante en statistique, qui est définie dans cette page.


Masse de l'étoile

La mesure de la masse de l'étoile peut se faire de deux manières

Dans le premier cas, si la distance à l'étoile est connue (par exemple par mesure de parallaxe), on peut mesurer sa luminosité intrinsèque L (si on ne connaît pas la distance on ne mesure évidemment que la luminosité apparente). Par son spectre, on peut mesurer sa température effective T_{eff}. Des modèles d'intérieurs stellaires permettent ensuite d'évaluer la masse. Cette estimation peut être rafinée avec un modèle d'atmosphère stellaire. On peut alors avoir la gravité à la surface de l'étoile g. Comme L \approx T_{eff}^4 R^2 et g \approx \frac{M}{R^2}, on peut avoir une estimation de la masse.

Dans le cas des étoiles binaires (systèmes de deux étoiles), le spectre présente des raies des deux étoiles. Le mouvement de ces raies se fait à la même fréquence, mais dans des directions opposées (lorsqu'une étoile approche l'autre s'éloigne). La période de ces mouvements est liée à la masse du système par l'équation de Kepler. L'amplitude relative de ces mouvements permet de déterminer la masse des deux étoiles séparément. Comme dans le cas de la détermination des orbites des planètes, la masse n'est connue qu'à un faceteur \sin i près. Pour lever cette indetermination, il faut déterminer l'inclinaison de l'orbite par rapport à l'observateur i. Si on observe des eclipses (une binaire passe devant l'autre), i \approx 0. Si le système n'est pas dans cette configuration, on peut séparer angulairement les deux étoiles par des techniques d'interférométrie.


Processus stochastique et Densité spectrale de puissance

Processus stochastique

La notion de densité spectrale de puissance (DSP) n'est pas simple à définir, cependant très utilisée dans la littérature de traitement du signal. Nous donnons une définition mathématique pour qu'il n'y ait pas d'ambiguités mais compte tenu de la sophistication des notions introduites, le lecteur pourra se référer à la description qualitative suivante.

La densité spectrale de puissance est une propriété relative à plusieurs variables aléatoires. Les familles de variables aléatoires peuvent par exemple représenter des mesures sur lesquelles on a une incertitude. A chaque instant de mesure on associe une variable alétoire qui a une certaine densité de probabilité. En physique théorique ou en économie, on rencontre des processus stochastiques continus - typiquement le mouvement brownien, qui représente des mouvements d'atomes ou des fluctuations de prix. Formellement, un processus stochastique est une famille de variables aléatoires indexées par un ensemble totalement ordonné T, toutes définies sur le même espace de probabilité (\forall t \in T, X_t \in (\Omega,\mathcal{F},\mathbb{P}) ). Dans ce cours on aura seulement besoin de T=\mathbb{R} ou \mathbb{N}. On note \mathbb{E} l'espérance mathématique.

Dans le cas général, la densité de probabilité de la variable aléatoire X_{t} (pour t \in \mathbb{R}) dépend des valeurs prises à d'autres "instants" par les autres variables aléatoires. En particulier on peut s'intéresser à une éventuelle probabilité de périodicité. Par exemple si on modélise un nombre de ventes de vêtement par jour, on verra des ventes plus importantes au moment des soldes (à peu près tous les six mois). La densité spectrale de puissance est un outil qui permet de visualiser ce genre de périodicité. Dans la section suivante, on voit que si on prend une famille de variables aléatoires certaines, c'est à dire que X_t vaut une certaine valeur réelle x(t) avec la probabilité 1, la DSP en une fréquence \omega est égale à |\hat{x}(\omega)|^2, où \hat{x} est la transformée de Fourier de x. Si maintenant X_t est une variable alétoire, la DSP sera la "transformée de Fourier typique" d'une réalisation de X_t.

Pour définir cette notion mathématiquement, on doit d'abord introduire les notions de convergences et intégrales en moyenne quadratique. Pour plus de précision le lecteur peut se référer au cours de Timo Koski à KTH.

Intégrale en moyenne quadratique (Mean Square Integral)

Rappelons d'abord que si Y_1, ..., Y_n sont des variables aléatoires et \phi: \mathbb{R}^n\rightarrow \mathbb{R}^m une fonction mesurable alors \phi(Y_1,...,Y_n) est une variable aléatoire. En particulier, si \lambda est un scalaire, \lambda Y_1 et Y_1 + Y_2 +...+Y_n sont des variables aléatoires. Pour un rappel sur les variables aléatoires, voir le cours de Didier Pelat.

Soit (\Omega,\mathcal{F},\mathbb{P}) un espace de probabilités, on dit que la suite de variables aléatoires (Y_n)_{n \in \mathbb{N}} telle que E\{Y_n\} < + \infty, définies sur cet espace converge en moyenne quadratique si et seulement si:

\lim\limits_{n \rightarrow \infty} \mathbb{E}\{|Y_n-Y |^2\}=0

Soit (X_t)_{\mathbf{t \in \mathbb{R}}} un processus stochastique continu (T=\mathbb{R}) tel que chacune des variables aléatoires X_t a une espérance finie (E\{X_t\} < + \infty). L'intégrale en moyenne quadratique du processus (X_t)_{t \in T} sur l'intervalle [a,b] est définie comme la limite en moyenne quadratique (lorsqu'elle existe) de:

\sum\limits_{k=1}^n X_{t_k} (t_k-t_{k-1}})

Pour a=t_0 < t_1 <... <t_n=b et \lim\limts_{n\rightarrow\infty}\max (t_k-t_{k-1}) = 0. On la note alors \int_b^b X_t dt.

On définit alors la densité spectrale de puissance comme:

P_X(\omega) = \lim\limits_{T\rightarrow \infty} \mathbb{E} \{|\hat{x}_T(\omega)|^2\}

\hat{x}_T(\omega) = \frac{1}{\sqrt{T}} \int_0^T X_t e^{-i \omega t} dt

Cette définition un peu complexe peut être vue comme une généralisation de la transformée de Fourier à des processus stochastiques. En effet, lorsque le processus X_t est telle que X_t = x(t) avec une probabilité 1, l'intégrale en moyenne quadratique se comporte comme l'intérale de Riemann, alors P(\omega) est le carré du module de la transformée de Fourier de la fonction réelle d'une variable réelle x(t). Dans le cas où les X_t sont aléatoire, P est le carré de la transformée de Fourier "en moyenne" des réalisations de X_t. Par exemple si X_t modélise une tension mesurée au cours du temps dans une expérience d'électronique réalisée un grand nombre de fois, donnant n profils de tension u_k(t) à l'expérience k (des réalisations du processus stochastique U_t), la moyenne des carrés du module des transformées de Fourier des u_k(t) notée \tilde{P}_n(\omega) sera approximativement égal à P_U(\omega). Si le nombre d'expérience n tend vers l'infini \tilde{P_n} \rightarrow P_U en norme 2.

Dans le cas d'un processus stationnaire discret (T= \mathbb{Z}), on peut directement définir \hat{x}_n(\omega)=\frac{1}{\sqrt{2n+1}} \sum\limits_{k=-n}^n X_ke^{-i\omega t_k} et P_X(\omega) = \lim\limits_{n\rightarrow \infty} \mathbb{E} \{|\hat{x}_n(\omega)|^2\}.

Processus stationnaires au sens large

La densité spectrale de puissance a une définition plus simple lorsque le processus est stationnaire, c'est à dire lorsque le processus (X_t)_{t\in T} vérifié:

Les processus stationnaires modélisent des phénomènes qui ont une certaine invariance dans le temps, en particulier la covariance ne dépend pas de t de manière absolue, mais de manière relative à un autre instant. Dans ce cas, la densité spectrale de puissance est égale au carré du module de la transformée de Fourier de la fonction R. L'équivalence avec la définition de la densité spectrale de puissance donnée plus haut est établie par le théorème de Wiener-Khinchin.


Granulation

Le phénomène de granulation est lié à la convection du gaz dans l'étoile. La lumière rayonnée par le gaz chaud remontant à la surface va vers l'observateur, la longueur d'onde reçue est donc décalée vers le bleu. En rayonnant, le gaz se refroidit, puis repart vers le centre de l'étoile. Etant moins chaud, il émet moins de lumière, si bien que la lumière est globalement décalée vers le bleu. Ce phénomène est variable dans le temps, donc le décalage vers le bleu aussi. Cette variation peut apparaître dans le spectre et créer des fréquences parasites. La nature aléatoire du phénomène fait que même après ajustement, il reste un bruit résiduel. Pour une étoile de type solaire, il est de l'ordre de 0.5 - 1 m/s sur une observation.

La granulation est en général modélisée par un processus stochastique dits de bruits en créneaui (popcorn noise ou burst noise en anglais). Il s'agit de processus stochastiques pouvant prendre deux valeurs, par exemple -1 ou 1 avec une probabilité de changement suivant une loi de Poisson (loi exponentielle). Si à t la valeur passe de 1 à -1, la densité de probabilité pour que la valeur passe à 1 à t+ \Delta t est e^{-\frac{t}{\tau}}\tau est un réel positif. Pour les vitesses radiales, la densité spectrale de puissance de ces bruits peut être modélisée par::

P(\nu) = \frac{4 \sigma ^2 \tau}{1+(2\pi\nu\tau)^2}}

Cette modélisation, due à Harvey (1985) a depuis été revue et d'autres densités spectrales de puissances ont été proposée à partir de simulations 3d de convection au sein d'une étoile. En pratique, le bruit dû à la granulation apparaitra comme un signal périodique de l'ordre de cinq minutes. Cependant, on observe aussi des phénomènes appelés meso-granulation et super-granulation sur des échelles de temps plus longues. La contribution totale de ces bruits est:

P(\nu) = \frac{4 \sigma_g ^2 \tau_g}{1+(2\pi\nu\tau_g)^2}}+\frac{4 \sigma_{mg} ^2 \tau_{mg}}{1+(2\pi\nu\tau_{mg})^2}}+\frac{4 \sigma_{sg} ^2 \tau_{sg}}{1+(2\pi\nu\tau_{sg})^2}}

Où les indices g, mg et sg se réfèrent respectivement à la granulation, la méso granulation et la super-granulation. En anticipant un peu sur le troisième chapitre, lorsque ces bruits sont pris en compte, les valeurs des \sigma et \tau sont ajustés sur le spectre de puissance du signal.


Activité magnétique

La formation d'arcs de champ magnétique à la surface de l'étoile inhibe le mouvement des particules, donc réduit la température et provoque donc des tâches sombres. Cet effet à des effets à court termes (à la fréquence de rotation de l'étoile \approx 1 mois), et à plus long terme à travers des cycles d'activité magnétique.

A court trerme, la tache introduit une dissymétrie entre la partie de l'étoile tournant vers l'observateur, et la partie s'en éloignant, ce qui engendre un décalage du spectre mesuré. D'autre part, la tache engendre un déplacement du photocentre de l'étoile périodique, pouvant être confondu avec la présence d'une planète. Pour éviter ces confusions, on estime la période de rotation de l'étoile par spectroscopie, et on ajuste des sinusoïdes à cette période et ses premières harmoniques.

L'activité magnétique peut se mesurer à travers divers indicateurs, dont on analyse les corrélations.

Toujours selon le modèle de Harvey (1985), la densité spectrale de puissance du bruit de vitesse radiale induit par une tache solaire est:

P(\nu) = \frac{4 \sigma_{am} ^2 \tau_{am}}{1+(2\pi\nu\tau_{am})^2}}

Effet de la rotation de l'étoile sur le spectre
star.png
La lumière provenant de la moitié de l'étoile ayant un mouvement vers l'observateur est décalé vers les hautes fréquences (vers le bleu). L'autre moitié est décalée vers les basses fréquences (vers le rouge). Dans l'hypothèse où l'étoile est sphérique, et a une luminosité identique partout sur sa surface, le décalage vers le rouge et celui vers le bleu ne fait qu'élargir les raies spectrales. Si une tache est présente, ici sur la partie bleue, la symétrie est brisée et le déficit de lumière entraine un décalage du spectre vers le rouge.

Oscillations radiales (vitesses radiales)

Des inhomogénéités de densité dues aux mouvements convectifs font que des ondes mécaniques se propagent au sein des étoiles. Certaines de ces ondes sont radiales, ce qui provoque un mouvement d'ensemble de la photosphère qui a une signature sur le décalage du spectre mesuré. L'étude de ces ondes est un domaine de la physique stellaire appelé "astérosismologie". Etant donné que la théorie est accessible au niveau licence, nous en donnons des principes généraux.

La théorie procède comme suit: on écrit localement 1) l'équation du mouvement linéarisée au premier ordre au voisinage d'un état d'équilibre, 2) la conservation de la masse ou équation de continuité, 3) l'équation de Poisson, liant le potentiel gravitationnel et la densité, 4) Le premier principe de la thermodynamique. On néglige l'effet du champ magnétique. En général, on fait l'hypothèse que le terme de transfert thermique dans le 1er principe est nul.


Perturbations atmosphériques

Vitesses radiales

L'atmosphère peut influencer la mesure de vitesses radiales de deux manières:

La présence de lignes spectrales d'émission ou d'absorption est difficile à corriger. C'est pourquoi on ne considère que des plages de fréquences où l'intensité des raies atmosphériques est inférieure à 1/10000 de l'intensité de la cible. De plus, la réponse de l'atmosphère dépend de la longueur d'onde. Le spectre obtenu est pondéré de sorte à corriger ces inhomogénéités.

Astrométrie

Avant de parvenir au télescope, la lumière issue de l'étoile traverse l'atmosphère. Les turbulences aux hautes altitudes créent des inhomogénéités de densité, donc d'indice optique, qui distordent le front d'onde de la lumière pénétrant dans l'atmosphère. La modélisation classique de ce phénomène passe par l'introduction de "Structure functions" qui modélisent la densité de probabilité des champs de vitesses, densité etc.

Afin de ne pas surcharger le cours, nous ne donnerons qu'un modèle très simple de ce phénomène. Les mouvements de turbulence forment des "cellules" de composition homogène et d'une taille typique d_0. Vue du dessus, l'atmosphère se comporte approximativement comme un tableau de pixels de taille d_0 dont chaque cellule introduit une déviation angulaire du faisceau incident. Cette déviation est de l'ordre de \approx \frac{\lambda}{d_0} . Dans le cas limite où une cellule a un indice 0 et les cellules avoisinantes ont un indice 1 (sont opaques), on retrouve l'ordre de grandeur de la diffraction. Les fronts d'ondes issus de ces différents pixels arrivent au télescope avec des angles différents, donc donnent chacun une image différente appelé "speckle". L'union de ces speckle forme une tache lumineuse élargie de taille environ égale à 1.22\frac{\lambda}{d_0}.


Récapitulation

Les effets expliqués précédemment sont pour la plupart périodiques, donc peuvent être confondus avec le signal d'une planète. Le tableau suivant récapitule ces effets, leurs amplitudes et périodes typiques pour des étoiles de type solaire.

Effets physiques
EffetDescriptionAmplitude (vitesse radiale)Amplitude (astrométrie)Echelle de temps
Mouvement des planètesLe mouvement des planètes autour de l'étoile engendre un mouvement périodique1 cm/s - 200 m/sTerre: 0.3, 0.03 \muas Jupiter: 500, 20 \muas à 1 et 10 parsec resp.de un jour à plusieurs centaines d'années
Mouvement propreMouvement rectiligne uniformeDizaines de kilomètres par seconde10 - 1000 mas pour les étoiles observablesMouvement non périodique
TachesLa présence de taches sombres ou lumineuses dues à l'activité magnétique provoque une disymétris entre la luminosité de la partie bleue et la partie rouge de l'étoile, engendrant un décalage du spectre ou du photocentre.1 m/sAvec ces trois effets, 0.5 - 10 \muUAPériode de rotation de l'étoile (quelques jours)
Activité magnétique (long terme)Le nombre de tâche à la surface de l'étoile peut varier de quelques unes à plusieurs centaines. Par exemple le soleil a une périodicité de 11 ans. L'effet précédent est modulé par ces variations à long terme.10 m/s1 - 10 ans
Granulation Le mouvement convectif à l'intérieur de l'étoile provoque un mouvement du gaz dans la photosphère0.5 - 1 m/sGranulation: quelques minutes, mesogranulation:
Oscillations radiales (p-modes)La propagations d'ondes acoustiques dans le manteau de l'étoile entraîne une oscillation de celui-ci0.5 - 1 m/sinconnu 5 - 10 minutes
Système multipleLa présence d'autres étoiles orbitant autour de l'étoile cible engendre un mouvement décrit par les mêmes équations que celles utilisées pour les planètes. Les autres étoiles étant beaucoup plus massives que des planètes, l'effet est plus important.1 - 30 km/s0.1 - 1 as/an10 - 100 ans
effets observationnels
EffetDescriptionAmplitude (vitesse radiale)Amplitude (astrométrie)Echelle de temps
Mouvement de l'observateur dans le RBSSComme l'observateur est en mouvement dans un référentiel galiléen,30 km/s (après soustraction, on a une erreur\approx 0.5 m/s à cause des incertitudes sur la rotation de la Terre et les éphémérides)0.01 - 0.1 as/anUne année
Perturbations atmosphériquesLa présence de raies spectrales atmosphériques peut perturber les observations par vitesses radiale, et les turbulences dévient les fronts d'ondes, engendrant un déplacement apparent des sources.0.5 m/s1 masQuelques minutes

Instrumentation & Observations


Objectifs

Jusqu'à présent, on a modélisé la lumière qui parvient à un observateur théorique situé au voisinage de la Terre. Dans cette section, on présentera l'aspect concret de l'observation, en particulier les instruments. En astrométrie on mesure la position sur le detecteur CCD sur le plan focal du télescope, pour les vitesses radiales on utilise un spectrographe dont l'entrée est située au point focal du télescope . Il est essentiel de bien comprendre le fonctionnement des instruments pour des raisons évidentes: ils constituent notre seule source d'information et leur étude permet de mieux modéliser les mesures, donc d'exploiter au mieux les données.

Dans le cas de l'astrométrie comme celui des vitesses radiales, deux conditions sont nécessaires pour obtenir des mesures suffisamment significatives:

En astrométrie comme en détection par vitesses radiales on place un dispositif sur le plan focal d'un télescope, respectivement des capteurs CCD et l'entrée d'un spectromètre (ou spectrographe). C'est pourquoi les principes généraux des télescopes seront présentés. On évoquera le fonctionnement des spectrographes utilisés pour les détections par mesures de vitesses radiales.

Spectrographe ELODIE
elodie2.jpg
Cet appareil a permis la détection de 51 Pegasi b en 1995 par Michel Mayor et Didier Queloz à l'Observatoire de Haute Provence
Crédit : Observatoire de Haute Provence

Télescope

Un télescope est un appareil permettant de recueillir un rayonnement eléctromagnétique. Pour observer un rayonneme nt dans le visible ou dans l'infrarouge proche, on utilise des télescopes à miroir parabolique. Pour éviter les ambiguités, on définira le plan focal comme le plan perpendiculaire à l'axe optique (ici l'axe de symétrie du télescope) passant par le foyer, et on fait l'hypothèse que les rayons reçus font un angle faible avec l'axe optique. Dans ces conditions, La relation donnant la distance au point focal de l'image d'un rayon arrivant avec un angle \alpha sur le plan focal est en première approximation FF_1 \approx f\tan \alpha \approx f \alpha, où f est la distance focale. Pour les angles faibles, on peut travailler avec une lentille équivalente au télescope, de même diamètre et distance focale. On va introduire trois notions de bases sur les télescopes: le champ, la résolution angulaire et la vitesse d'acquisition.

Le champ est la portion du ciel observée par le détecteur du télescope. Comme le détecteur est au plan focal, il est égal à \tan \frac{s}{f} \approx \frac{s}{f}

La résolution angulaireest l'angle minimal entre deux sources permettant de les séparer par le système de détection. Cette définition est vague, et Supposons qu'une source ponctuelle émettant à une longueur d'onde \lambda soit placée en un point du plan focal P. A cause du phénomène de diffraction, la lumière ne sera pas émise selon une direction unique, mais son énergie sera répartie sur certains angles centrés sur \alpha = \frac{FP}{f}. Comme la lumière suit le même trajet dans les deux sens, ce détecteur reçoit de la lumière provenant de ces angles.

Le rapport du diamètre et de la distance focale du télescope donne la "vitesse" de l'instrument. En effet, considérons une source circulaire de taille angulaire \alpha, son image sur le plan focal est un cercle d'aire 4\pi(f\alpha)^2. L'intensité observée est proportionnel à l'aire du télescope, donc l'énergie par unité de temps reçue est proportionnelle à \left(\frac{d}{f}\right)^2. On définit l'ouverture du télescope par R = \frac{f}{d} Le rapport signal sur bruit des mesures de CCD est égal à \frac{1}{\mu \Delta t}\mu est le nombre moyen d'électron par unité de temps et \Delta t est le temps d'intégration (voir Bruit de photon). On peut calculer le temps d'intégration minimal pour obtenir un certain signal sur bruit compte tenu de l'ouverture du télescope, de la taille de la source et de son intensité. Plus l'aire et grande, plus la distance focale est petite, et plus l'instrument collecte rapidement le nombre de photons requis.

Cependant, lorsque l'ouverture augmente, la résolution angulaire diminue.

Miroir parabolique
parabole.png
Les rayons perpendiculaires à l'axe de symétrie d'une parabole parviennent au point focal F.Ceux qui arrivent avec un certain angle arrivent légèrement décalés.

CCD

Un détecteur CCD est composé de trois partie: des électrodes en silicium, un isolant en SiO_2 et une jonction de semiconducteurs NP. Les électrodes en polysilicium sont reliées périodoquement par un fil conducteur (toutes les trois électrodes sur la figure) de sorte à créer un profil de potentiel électrique alternant puits et régions plates. Le principe d'un capteur CCD est le suivant (voir figure)

Le contrôle de l'erreur induite par la CCD est primordial et peut s'avérer très complexe. Nous ne rentrerons pas dans ces considérations.

Schéma de principe d'un capteur CCD
ccd.png

Bruit de photon

Le bruit de photon est une limitation fondammentale en astronomie car il est dû à la nature de l'émission de la lumière. En effet, les instants d'émission de deux photons sont indépendants les uns des autres.On peut montrer mathématiquement qu'une suite d'évènement indépendants, sans mémoire et stationnaire est nécessairement un flux de Poisson. Dans notre cas, si on note T le temps d'attente entre deux émission de photon, la probabilité que T soit supérieure à t+s sachant que T>s est e^{-\mu t}\mu est une constante.

Cette constante a une interprétation physique: plus elle est grande, plus e^{-\mu t} diminue rapidement à t donné, c'est à dire plus la probabilité que T soit long diminue. On peut montrer \mu est le nombre d'évènement par unité de temps moyen, proportionnelle à l'intensité. Rappelons que le détecteur capte des photons pendant le temps d'intégration \Delta t. Le nombre de photons reçus N pendant ce temps est une variable aléatoire suivant la loi:

\text{Pr}\{N=n\} = \frac{\mu \Delta t}{n!} e^{-\mu \Delta t}

Qui est appelée loi de Poisson. La moyenne et la variance d'une telle loi sont égales et valent \mu \Delta t. En conséquence, l'écart-type vaut \sqrt{\mu \Delta t} donc le rapport signal sur bruit (Signal-to-Noise Ratio) est:

SNR = \frac{\text{ecart-type}}{moyenne} = \frac{\sqrt{\mu \Delta t}}{\mu \Delta t} = \frac{1}{\sqrt{\mu \Delta t}}


Exercices

Auteur: Nathan Hara

exerciceMagnitude et temps d'observation

Difficulté : ☆☆  

Question 1)

Au deuxième siècle avant J.-C., l'astronome Hipparque a classé cinquante étoile par ordre de brillance en 6 catégories, les plus brillantes occupant la première. L'échelle de magniture apparente moderne est sous la forme m = -2.5 \log_{10} \frac{F}{F_0} F est le flux lumineux reçu et un flux de référence. Le choix de 2.5 et F_0 = 3.52 \times 10^{-23} Wm^{-2} Hz^{-1} fait que les étoiles de classe 1 d'Hipparque aient une magnitude comprise entre 0 et 1, les classes 2 on une magnitude entre 1 et 2 etc. De ce fait, il semble naturel que les objets les moins lumineux visibles à l'oeil nu soient environ de magnitude 6. On considère un télescope de diamètre D, on suppose qu'on observe dans le visible \Delta \lambda = [400,800] nm, et que le flux lumineux reçu ne dépend pas de la longueur d'onde sur cette plage.

  1. Sachant qu'un photon a une énergie h \frac{c}{\lambda}\lambda est la longueur d'onde et c la vitesse de la lumière, montrer que le flux de photon reçus \mu (photons par seconde) est lié au flux F par \mu = \pi \frac{D^2}{4} \frac{\Delta \lambda}{hc}  F
  2. Donner l'expression du temps d'intégration pour obtenir un rapport signal sur bruit r en fonction de la magnitude observée, de D et \Delta \lambda
  3. Le bruit de photon est il plus grand pour les étoiles peu lumineuses ou très lumineuses ?


Effet Doppler

On considère une source d'ondes et un observateur. Selon leur vitesse relative, la fréquence reçue par l'observateur varie: c'est ce qu'on appelle l'effet Doppler. Dans le cadre de la physique classique et d'une onde harmonique (purement sinusoidale), on peut le calculer simplement. En effet, notons x la distance entre la source et l'observateur, c la vitesse de l'onde et. Par définition d'une onde harmonique de pulsation \omega et d'amplitude A, l'amplitude mesurée à x et t vaut

A\cos \left( \omega\left(t-\frac{x}{c}\right) + \phi\right)

\phi donne en particulier la phase en t=x=0. Si la distance x varie avec le temps selon x=x_0+vt, alors en x et t on mesure

A\cos \left( \omega\left(1-\frac{v}{c}\right)t - \omega\frac{x_0}{c} +  \phi\right) = A\cos \left( \omega't + \phi'\right)

Donc pour l'observateur, tout se passe comme s'il recevait une onde de pulsation \omega' = \omega \left(1-\frac{v}{c} \right) ou de longueur d'onde \lambda' =   \frac{1}{1-\frac{v}{c} } \lambda \approx \left(1+\frac{v}{c} \right)\lambda et de phase \phi' =- \omega\frac{x_0}{c} +  \phi.

Cependant, lorsque c est la vitesse de la lumière, la relativité générale donne une description beaucoup plus précise du phénomène. Nous ne présenterons pas le calcul menant à l'expression de l'effet Doppler dans ce cadre mais en donnons l'expression:

\lambda' = \lambda \frac{1 + \frac{v}{c} \cos \theta}{\sqrt{1-\frac{v^2}{c^2}}}

\theta est l'angle entre la direction de la vitesse relative et la ligne de visée observateur-source. Remarquons que lorsque \theta tend vers \pi/2 et v/c tend vers 0, l'expression tend vers l'expression classique.


Spectrographe

L'observation des vitesses radiales nécessite de mesurer des longueurs d'onde très précisément, pour cela on utilise des spectrographe. Les équipes américaines et européennes utilisent des appareils différents, mais dans les deux cas ce sont des spectrographes d'échelle. Le principe d'un tel instrument est d'observer simultanément plusieurs ordres élevés de diffraction à l'aide de deux diffractions successives. La lumière est d'abord diffractée par un premier réseau. Un dispositif, appelé "echelle grating" est placé à un certain angle (blazing angle) du premier réseau de sorte à recevoir des ordres élevés de la première diffraction, qui sont diffractés à nouveau.

Ce dispositif permet "d'étaler" le spectre de sorte qu'une rangée de détecteurs CCD reçoit des longueurs d'ondes très proches, ce qui permet une haute résolution spectrale. En contrepartie, l'énergie est elle aussi répartie, ce qui augmente le temps d'intégration nécessaire pour recevoir suffisamment de lumière pour obtenir un certain rapport signal sur bruit.

D'une mesure à l'autre, à cause de variations internes à l'instrument (température, pression), une longueur d'onde donnée peut se décaler. Comme les mesures doivent pouvoir être comparées entre elles; ce problème doit être résolu efficacement: il faut étalonner l'instrument. Sur ce point, les instruments européens et américains diffèrent. Pour les premiers: ELODIE, CORALIE, HARPS, HARPS-N, l'étalonnage se fait en observant simultanément l'étoile cible est une source dont le spectre est connu. ELODIE observe le ciel, HARPS une lampe thorium-argon calibrée et HARPS-N utilise deux calibrations: un spectre de Fabry-Perot et un "laser frequency comb" (un laser dont le spectre est constitué de raies régulièrement espacées). Les instruments américains font passer la lumière par une cavité contenant de l'iode, dont la position des raies d'absorption est connue. Dans les deux cas on peut comparer Les raies du spectre de référence et celles de l'étoile observée. Si leur déplacement est corrélé (elles se décalent simultanément), il est dû à l'instrument.

La résolution spectrale de ces spectrographes, c'est à dire le rapport R=\frac{\lambda}{\delta \lambda} d'une longeur d'onde \lambda et de la sa variation détectable par le dispositi f \delta \lambda est de l'ordre de 100000. Des simulations numériques (Hatzes & Cochran 1992) ont montré que l'écart type sur la mesure finale de vitesse radiale \sigma_{rv} vérifie:

\sigma_{rv} = k I^{-\frac{1}{2}} {\Lambda}^{-\frac{1}{2}} R^{-1}

I est l'intensité reçue, \Lambda est la plage de fréquences considérées et k est une constante de proportionnalité. Comme certaines longueurs d'ondes jugées contaminées peuvent être exclues de certaines mesures, cette valeur varie d'une mesure à l'autre.

Principe du spectrographe d'échelle
Echelle_Principle.png
Le rayon incident est d'abord diffracté sur une grille standard (std. grating), puis à nouveau diffracté par le réseau d'échelle. Les trois spectres finalement obtenus sont reçus par des capteurs CCD.
Crédit : "Echelle Principle" by Boris Považay (Cardiff University) - Own work. Licensed under CC BY-SA 2.5 via Wikimedia Commons

Cross-correlation Function

Nous avons expliqué que la mesure des vitesses radiales se fait par mesure du déplacement du spectre. Cependant, nous n'avons pas précisé comment ce déplacement était mesuré. Il y a a priori beaucoup d'estimateurs classiques. La méthode majoritairement adoptée repose sur une "cross correlation function" (CCF) ou fonction de corrélation.

Les étoiles ont certains types de spectres que l'on sait reconnaître. Pour une étoile donnée, on définit un "masque" M(\lambda) valant 1 pour \lambda correspondant à une raie d'absorption de l'étoile et 0 ailleurs. Le spectre de l'étoile observée I(\lambda) est multiplié par ce masque décalé d'une valeur \delta \lambda et on mesure CCF(\delta \lambda) = \int_{\lambda_0+\delta \lambda}^{\lambda_1+\delta \lambda} M(\lambda + \delta \lambda) I(\lambda) d \lambda. Où \lambda_0 et \lambda_1 désignent les bornes inférieures et supérieures du spectre observé. Ensuite, une fonction gaussienne Ae^{\frac{(\lambda- \mu_{\lambda})^2}{\sigma^2}} est ajustée sur la CCF. La valeur \mu_\lambda correspondant au minimum de la fonction ajustée est prise comme valeur moyenne du déplacement. L'analyse consiste ensuite à comparer les \mu_\lambda issus d'observations différentes.

La CCF n'est elle même pas symétrique. Ses propriétés d'assymétrie sont analysées, car elles sont significatives d'effets physiques.


Réduction - Problème inverse


Objectif

La modélisation physique du phénomène nous a permis d'obtenir un modèle f(\theta,T)\theta \in \mathbb{R}^n sont les paramètres du modèle et T \in \mathbb{R}^m sont les instants d'observation. De nombreuses sources d'erreurs ont aussi été listées. On se pose maintenant la question suivante: comment estimer les paramètres du modèle compte tenu des observations ?

Après avoir listé diverses sources de signal et de bruits de l'émission de la lumière à la valeur donnée par le déteteur, nous allons maintenant donner une expression finale au modèle. Cette expression n'est pas universelle, et selon l'étoile observée, la précision recherchée, d'autres formulations peuvent être préférables.

Après avoir établi ce modèle, on donnera quelques principes d'analyse statistique et des moyens algorithmiques pour estimer les paramètres du modèle. On verra en particulier que l'analyse "dans le domaine fréquenciel" est particulièrement importante.


Modèle final

Le modèle comportera une partie déterministe et une partie aléatoire. Pour l'astrométrie, la position x(t) = \alpha(t) \cos \delta(t) y(t)) = \delta(t) sur la sphère céleste est

\begin{array}{ccc} x(t) = x_0 + \mu_x t + \eta_x t^2 + \sum\limits_{k=1}^{n_p} B_j X_j(t) + G_j Y_j(t) + \varphi \Pi_x(t)  + S_x(t) + \Delta x_{atm}+  \epsilon_{S_x} + \epsilon_{x,atm} + \epsilon_x\\ y(t)   = y_0 + \mu_y t + \eta_y t^2 + \sum\limits_{k=1}^{n_p}  A_j X_j(t) + F_j Y_j(t) + \varphi \Pi_y(t)  + S_y(t) + \Delta y_{atm} + \epsilon_{S_y}+ \epsilon_{y,atm} + \epsilon_y \end{array}

(x_0,y_0) est la position initiale de l'étoile, \mu_x, \mu_y sont les composantes du mouvement propre \eta_x, \eta_y sont des termes d'accélération de perspective, B_j, G_j, A_j, F_j sont les constantes de Thiele-Innes de la planète j, X_j et Y_j sont ses coordonnées sur son plan orbital, \varphi est la parallaxe, \Pi_x, \Pi_y sont les coefficients parametrant le mouvement de la Terre, Les \epsilon sont les bruits résiduels modélisés par des bruits gaussiens.: \epsilon_{S_x}, \epsilon_{S_y} sont les bruits stellaires, \epsilon_{x,atm}, \epsilon_{y,atm} sont les bruits atmosphériques et \epsilon_x, \epsilon_y représentent des bruits instrumentaux.

V(t) = \dot{\overrightarrow{OT}} + \mu_z + K\left( \cos(v+\omega) +  \cos \omega \right) +   S_z(t) + z_{atm}(t)+ \epsilon_{S} + \epsilon_{mes}

\dot{\overrightarrow{OT} est la vitesse de l'observateur dans le référentiel barycentrique du système solaire, \mu_z est la composante du mouvement propre dans la direction radiale, S_z(t) est le signal stellaire dû à la granulation, aux oscillations et à l'activité, \epsilon_S est le bruit stellaire résiduel et \epsilon_{mes} le bruit associé à la mesure.

Dans les deux cas, les techniques de réduction de données visent à trouver des paramètres qui sont "plausibles", en l'occurrence, qui reproduisent les observations.


Traitement statistique

Rappelons qu'une variable aléatoire peut être vue comme un programme informatique qui délivre des valeurs suivant une certaine distribution de probabilité lorsqu'on lui demande. Le problème que nous posons maintenant est équivalent au suivant. Supposons qu'un ordinateur ait en mémoire des paramètres \theta \in \mathbb{R}^p (nombre de planètes, leurs caractéristiques orbitales, la période de rotation de l'étoile etc.). S'il n'y avait pas de bruit, une mesure à l'instant t_k reviendrait à demander à l'ordinateur d'évaluer une fonction f(\theta,t_k). Nous connaissons t_k et f (c'est l'un des modèles de la page précédente), mais nous ne connaissons pas \theta. Notre but est de le déterminer à partir des mesures y_k = f (\theta,t_k). Ce principe est similaire à la résolution d'une énigme: quelqu'un connaît une information \theta et nous essayons de la deviner en posant une question. Dans le cas sans bruit, celui qui pose l'énigme ne nous induit pas en erreur, mais cela ne veut pas dire que la résolution est facile !

Exemple: on veut trouver les paramètres d'une fonction affine du temps f(a,b,t) = at+c (ici \theta = \left( \begin{array}{c} a \\c \end{array} \right) ). On évalue la valeur de f en t_1, on obtient y_1 = at_1+c : on a deux inconnues pour une équation, on ne peut pas résoudre. Si on a y_2 = at_2 + c, avec t_2 \neq t_1, alors on a a = \frac{y_2-y_1}{t_2-t_1} et c = y_1 - at_1 = y_2 - at_2.

Notre cas est plus compliqué. Les valeurs que nous obtenons sont y_k = f(\theta, t_k) + b_kb_k est la réalisation d'une variable aléatoire \epsilon_k. A l'appel numéro k du programme, l'ordinateur fait appel à un autre programme qui délivre une variable alétoire selon une certaine loi. En l'occurrence, nous supposons cette loi gaussienne. Si nous faisons m mesures, tout se passe comme si un programme principal évaluait la fonction f(\theta, t_k) et m programmes secondaires \epsilon_k, k=1..m retournent chacun une valeur b_k. Si nous pouvions remonter le temps et faire les mesures plusieurs fois aux mêmes instants, on aurait des des vecteurs de mesures y_1 = \left( \begin{array}{c} y_1 \\y_2 \\ \\y_m \end{array} \right) =  f(\theta,T) + b_1, puis y_2 = f(\theta,T) + b_2 etc. (notez qu'ici b_1 et b_2 sont des vecteurs.

Comme nous ne connaissons que la loi suivie par les variables \epsilon_k, ils nous est impossible de connaître les paramètres avec certitude. On leur attache une "erreur", qui quantifie l'incertitude que l'on a sur eux. En reprenant l'exemple précédent on mesure y_1 = at_1 + c +b_1 et y_2 =  at_2 + c +b_2. Si on estime a et c avec les mêmes formules, on fera une erreur \frac{\sqrt{\sigma_1^2 + \sigma_2^2}}{t_1-t_2} sur a et une erreur \sqrt{\left(\frac{t_1}{t_2-t_1} \sigma_2\left)^2 + \right((1-\frac{t_1}{t_2-t_1}) \sigma_1 \left)^2} sur c (admis).


Bruits

Dans le modèle f(\theta,T) + \epsilon, le symbole \epsilon désigne un bruit gaussien. Comme ils apparaissent constamment en détection de planètes extrasolaires et ailleurs, nous allons en donner quelques propriétés.

A une expérience donnée, \epsilon prendra une valeur b imprévisible. La probabilité que la valeur de b soit comprise entre b_1 et b_2 est \int_{b_1}^{b_2} f(x) dxf(x) est la densité de probabilité de \epsilon. Dire que \epsilon est un bruit gaussien veut dire que sa densité est de la forme f(x) = \frac{1}{\sqrt{2 \pi} \sigma} e^{-\frac{(x-\mu)^2}{\sigma^2}}\mu et \sigma sont des réels, qui sont égaux respectivement à la moyenne et à l'écart-type de \epsilon. On note souvent \epsilon \sim g(\mu, \sigma^2), qui signifie "\epsilon suit une loi gaussienne de moyenne \mu et de variance \sigma^2. Dans la plupart des cas, le bruit est de moyenne nulle (c'est le cas ici).

Dans le modèle, des bruits d'origines différentes s'additionnent. Sachant que le résidu de l'activité stellaire que nous n'avons pas ajusté \epsilon_S et le bruit de mesure \epsilon_{mes} suiven une certaine loi, quelle loi suivra \epsilon = \epsilon_{S} + \epsilon_{mes} ? Nous pouvons déjà dire que la moyenne de \epsilon sera égale à la somme des moyennes de \epsilon_S et \epsilon_{mes} car l'espérance est un opérateur linéaire. Peut-on dire plus ? Si ces bruits dépendaient l'un de l'autre, la réponse pourrait être complexe. En l'occurrence, la physique de l'étoile cible et les erreurs instrumentales sont totalement indépendantes. On peut montrer que dans ces conditions, la variance de \epsilon est égale à la somme des variances de \epsilon_S et \epsilon_{mes}. Nous pouvons même aller plus loin car la somme de deux variables gaussiennes indépendante est une variable gaussienne. En résumé, \epsilon \sim g\left(\mu_{S} +\mu_{mes}, \sigma_{S}^2+ \sigma_{mes}^2\right) en l'occurrence \mu_S et \mu_{mes} sont nulles.

Lorsqu'on dispose de plusieurs mesures, à l'expérience numéro k on a un certain bruit b_k réalisation d'une variable \epsilon_k de densité f_k. La plupart du temps, on fait l'hypothèse que les brutis \epsilon_k sont indépendants, c'est à dire que la probabilité d'obtenir le bruit b_k à l'expérience k ne dépend pas des valeurs prises aux expériences précédentes et suivantes. Lorsque ce n'est pas le cas on parle de bruits corrélés. Pour les caractériser, on utilise souvent leur densité spectrale de puissance. Un certain profil de densité spectrale correspond à une "couleur" du bruit.

A retenir: la somme de variables gaussienne indépendantes \epsilon = \sum\limits_{k=1}^n \epsilon_k\epsilon_k \sim g\left( \mu_k, \sigma_k^2) est une variable gaussienne suivant la loi g \left( \sum\limits_{k=1}^n \mu_k ,  \frac{1}{n} \sum\limits_{k=1}^n \sigma_k^2 \right).


Signification statistique

Il esiste plusieurs outils pour s'assurer qu'une détection possible n'est pas due au bruit. L'un des plus utilisé est le test de signification (significance en anglais), qui consiste à calculer la probabilité d'avoir le signal observé "au moins aussi grand" s'il n'y avait en réalité que du bruit. Par exemple, qupposons que l'on veuille mesurer une quantité a qui est perturbée par un bruit gaussien additif b de moyenne nulle et d'écart-type \sigma=1, donnant une mesure y = a+b.

Si il n'y avait en réalité pas de signal (a=0), les mesures seraient uniquement dues au bruit. On imagine deux cas de figures:

Ces valeurs ont une interprétation: si on réalisait exactement le même type de mesure alors qu'il n'y a pas de signal, on observerait |y| \geq 0.1 dans 81.8% des cas et |y| \geq 10 dans 2.06 \times 10^{-7} % des cas.Dans le premier cas, la probabilité d'avoir un signal aussi grand que celui que l'on a mesuré est grande. On ne peut pas assurer qu'un signal a été détecté. Par contre, dans le deuxième cas on serait dans un des deux cas sur un milliard où le signal serait dû au bruit. On peut alors dire qu'on a détecté un signal à 10 \;\sigma, car la valeur de l'écart-type du bruit est 1, sa moyenne est 0, donc on a \frac{y}{\sigma-0} = \frac{10}{1} = 10.

Détecter un signal "à 10 sigmas" est un luxe que l'on peut rarement se payer. Les détections sont annoncées plutôt pour des valeurs de 5 sigmas.

Remarque importante: on calcule la probabilité d'avoir les observations sachant qu'il n'y a pas de signal et non la probabilité d'avoir un signal sachant les observations qui est une quantité qui a davantage de sens. Le calcul de cette dernière quantité se fait dans le cadre du calcul bayésien, outil très puissant qui ne sera pas développé dans ce cours.


Exercices

Auteur: Nathan Hara

exerciceEspérance et variance de la moyenne empirique

Difficulté : ☆☆☆  

Question 1)

On rappelle que l'espérance et la variance d'une variable alétoire X de densité de probabilité f sont données par \mathbb{E}(X) = \int_{-\infty}^{+\infty} xf(x)dx et \text{Var}(X) = \mathbb{E}\left((X-\mathbb{E}(X))^2\right)= \int_{-\infty}^{+\infty} (x-\mathbb{E}(X))^2f(x)dx

  1. Soit X une variable aléatoire et a un réel. Montrer que \mathbb{E}(aX) = a \mathbb{E}(X) et \text{Var}(aX) = a^2 \text{Var}(X)
  2. Soient X et Y deux variables aléatoires indépendantes. Montrer que \mathbb{E}(X+Y) =  \mathbb{E}(X) + \mathbb{E}(Y).
  3. On définit la covariance par \text{Cov}(X,Y) = \mathbb{E}\{ (X-\mathbb{E}(X)) (Y-\mathbb{E}(Y))\}. Montrer que \text{Var}(X+Y) = \text{Var}(X) + \text{Var}(Y) + 2 \text{Cov}(X,Y)
  4. Nous allons maintenant voir un cas où la précision d'un estimateur est facilement calculable. On considère m mesures entachées de bruits gaussiens d'une quantité fixe K. Plus précisément, la mesure numéro j est modélisée par une variable aléatoire X_j = K + \epsilon_j\epsilon_j est un bruit gaussien de moyenne nulle et de variance \sigma^2. On suppose que les mesures sont indépendantes, ce qui implique en particulier que \text{Cov}(\epsilon_j,\epsilon_i) = 0 pour i \neq j. Pour obtenir une estimation de K, on fait la moyenne empirique des expériences, c'est à dire M = \frac{X_1 + X_2 +... X_m}{m}. Montrer que \mathbb{E}(M) = K  et \text{Var}(M) =  \frac{\sigma^2}{m}
  5. La précision de l'estimateur M augmente-t-elle avec le nombre de mesures ?


Loi du chi 2

Nous nous sommes toujours ramenés à des modèles du type: modèle déterministe + bruit gaussien. Afin de vérifier que les observations sont compatibles avec le modèle, on étudie les résidus, définis comme "les observation - le modèle ajusté".

La loi du \chi^2 est un outil commode pour étudier le comportement de plusieurs variables gaussiennes. Considérons d'abord une famille de m variables aléatoires gaussiennes indépendantes (\epsilon_k)_{k=1..m}, de moyenne nulle et de variance unité. On forme la quantité \chi^2_m= \epsilon_1^2 + \epsilon_2^2 +  ... + \epsilon_m^2 . Comme les \epsilon_k sont des variables aléatoires, les \epsilon_k^2 le sont aussi. La somme de variables alétoires étant toujours une variable alétoire, \chi^2_m suit une certaine loi de probabilité. Dans l'analogie avec un programme informatique, la variable alétoire \chi^2_m se comporte comme un programme qui appelle m programmes générant une variables gaussiennes, puis additionne leurs carrés. Elle est appelée loi du\chi^2 à m degrés de liberté. On peut montrer qu'en moyenne une variable gaussienne au carré \epsilon^2 a une moyenne de 1. En conséquence, \chi^2_m vaudra typiquement m.

Pourquoi cette loi serait utile pour notre cas ? Si le modèle est bien ajusté, les résidus doivent se comporter comme un bruit gaussien. En supposant que les erreurs sont toutes indépendantes, de moyenne nulle et de variance unité, les résidus r_k = y-f(\theta,t_k}) en sont une réalisation. Donc R^2=\sum\limits_{k=1}^m r_k^2 est une réalisation d'une loi du \chi^2 à m degrés de liberté. Si R^2 est de l'ordre de m, le modèle est cohérent. Sinon, le modèle ou les paramètres ajustés sont à revoir.

En pratique, les erreurs \epsilon__k ne sont évidemment pas de variance unité et parfois pas indépendantes. Par contre on peut à bon droit supposer qu'elles sont de moyenne nulle. Pour se ramener au cas précédent, on calcule non pas une réalisation de \epsilon_1^2+...+\epsilon_m^2 mais de \chi^2_m'=\epsilon^T \Sigma^{-1} \epsilon\epsilon = \left( \begin{array}{c} \epsilon_1 \\ \epsilon_2 \\ \\ \epsilon_m \end{array} \right) , \epsilon^T est sa transposée et \Sigma est la matrice des variances-covariances de \epsilon. Dans le cas où les \epsilon_k sont indépendantes, la matrice des variances-covariances est diagonale, son k-ème terme diagonal étant \frac{1}{\sigma_k^2}, soit l'inverse de la variance de \epsilon_k.


La vraisemblance

Etant donné des paramètres \theta, le modèle global f(\theta,T)+\epsilon est une variable aléatoire: il est somme d'une variable aléatoire valant f(\theta,T) avec une probabilité 1 et d'un vecteur de variables aléatoires gaussienne \epsilon. A ce titre, il a une certaine densité de probabilité que l'on note L(y|\theta). Le symbole | se lisant "sachant". La lettre L vient de Likelihood, qui veut dire vraisemblance en anglais. Il s'agit dans l'idée de la probabilité d'obtenir y = f(\theta,T)+\epsilon pour une valeur de \theta donnée..

La fonction \theta \rightarrow L(y|\theta) est souvent appelée "fonction de vraisemblance". La valeur de \theta maximisant L(y|\theta) est appelé l'estimateur du maximum de vraisemblance. Il a de bonnes propritétés statistiques. En effet, on peut montrer que c'est un estimateur:

Dans notre cas, si les \epsilon_k sont des variables indépendantes, leur densité de probabilité jointe est égale au produit de leurs densité de probabilité. L(y|\theta) = \prod\limits_{k=1}^m g_k(y-f(\theta,t_k))g_k est la densité de probabilité de la variable \epsilon_k. De plus, si ces varibles sont gaussiennes et indépendantes, on a: L(y|\theta) = \prod\limits_{k=1}^m \frac{1}{\sqrt{2\pi}\sigma_k} e^{-\frac{(y-f(\theta,t_k))^2}{\sigma_k^2}} = \frac{1}{(\sqrt{2\pi})^m \prod\limits_{k=1}^m \sigma_k} e^{-\sum\limits_{k=1}^m \frac{(y-f(\theta,t_k))^2}{\sigma_k^2}}}


Méthode des moindres carrés

Pour des bruits gaussiens indépendants, maximiser la vraisemblance, revient à minimiser \theta \rightarrow F(y,\theta)=-ln(L(y|\theta)) =\sum\limits_{k=1}^m \frac{(y-f(\theta,t_k))^2}{\sigma_k^2}} puisque x \rightarrow e^{-x} est une fonction décroissante. La méthode consistant à minimiser F(y,\theta) s'appelle la méthode des moindres carrés. C'est la méthode d'estimation de loin la plus utilisée dans tous les domaines. Elle est parfois utilisée quand les bruits ne sont pas gaussiens, mais il faut garder à l'esprit qu'elle n'a alors plus de propriétés statistiques sympathiques (sauf quand le modèle est linéaire en \theta).

Dans notre cas, les paramètres \theta sont les éléments des orbites, les paramètres du bruit stellaire, du mouvement propre, etc. La fonction F(y,\theta) a donc de nombreux paramètres, et trouver son minimum global est une tâche ardue qui fait l'objet d'une littérature très vaste.

Lorsque le modèle est linéaire en \theta i. e. f(T,\theta) = A \thetaA est une certaine matrice dépendant des instants d'observation T = (t_k)_{k=1..m}, l'ajustement est beaucoup plus simple car il a une solution explicite (voir mini-projet). On essaye de se ramener autant que possible à des ajustements linéaires. La plupart du temps, on estime les paramètre les uns après les autres, puis un ajustement global est réalisé. Une démarche classique consiste à:

Sur la figure, on représente les étapes d'un ajustement d'un signal astrométrique simulé (2 planètes, 45 observations). De gauche à droite et de haut en bas:

Exemple d'ajustement en astrométrie (données simulées)
fit_process.png
Six étapes d'ajustement aux données. Pour représenter la chronologie des mesures, on trace des segments reliant deux points de mesure consécutifs.

Périodogramme

Evaluer les résidus sur une grille d'un modèle à n paramètres, où chacun d'eux peut prendre p valeurs recquiert n^p évaluations, ce qui devient rapidement ingérable numériquement. Les planètes ont un mouvement périodique, donc il est raisonnable de checher des signaux périodiques dans le signal en ne faisant varier que la période du signal recherché. Pour des signaux échantillonnés à intervalles réguliers, on utilise la transformée de Fourier. Le périodogramme est un moyen de checher des signaux périodiques dans des données échantillonnées irrégulièrement. On les notera y. Le périodogramme de Lomb-Scargle d'un signal (y_k)_{k=1..m} échantillonné aux instants (t_j)_{j=1..m} est défini comme suit pour une fréquence quelconque \omega:

P_y(\omega) = \frac{1}{2} \left(  \frac{ \left( \sum\limits_{j=1}^m y_j \cos \omega(t_j-\tau) \right)^2}{ \sum\limits_{j=1}^m \cos^2 \omega(t_j-\tau)}} + \frac{ \left( \sum\limits_{j=1}^m y_j \sin \omega(t_j-\tau) \right)^2}{ \sum\limits_{j=1}^m \sin^2 \omega(t_j-\tau)}} \right) \tau vérifie:

\tan 2 \omega \tau = \frac{\sum\limits_{j=1}^m \sin 2\omega t_j}{\sum\limits_{j=1}^m \cos 2\omega t_j}

Cette expression est équivalente à P_y(\omega) = A^2 +B^2A et B sont les paramètres minimisant \sum\limits_{j=1}^m (y_j-A\cos(\omega t_j) - B\sin(\omega t_j))^2. Le modèle A,B, t \rightarrow A \cos \omega t + B \sin \omega t est linéaire en A, B, on a donc une solution explicite à la minimisation.

Le périodogramme a une propriété très intéressante: si le signal d'entrée est un bruit gaussien \epsilon de variance unité, p_0 une valeur réelle fixée et \omega une fréquence quelconque, la probabilité que P_{\epsilon}(\omega) dépasse p_0 est Pr\{P_\epsilon(\omega)>p_0\} = e^{-p_0}. En d'autres termes, la probabilité qu'une valeur du périodogramme à \omega fixée soit "au moins aussi grand que p_0" par hasard décroît exponentiellement. Supposons que l'on ait un signal y(t) = x(t) + b(t)b(t) est un bruit gaussien de variance unité et nous trouvons un pic de taille p_0, on calcule la probabilité de trouver un pic au moins aussi grand si le signal n'est composé que de bruit: e^{-p_0}. Si cette valeur est petite, on pourra confirmer la détection d'un signal avec une erreur de fausse alarme de e^{-p_0}. Ce procédé n'est autre qu'un test de signification statistique.

La figure montre un exemple de périodogramme. Il s'agit d'un périodogramme d'une des coordonnées d'un signal astrométrique simulé dont on a soustrait le mouvement propre et la parallaxe. En bleu, on représente un périodogramme idéal, sans bruit, avec 10000 observations. Le périodogramme représenté en rouge est lui calculé pour 45 observations. Le pic le plus haut correspond bien à une fréquence réelle. Par contre, le deuxième pic le plus important (à 0.37 rad/s) ne correspond pas à une sinusoïde. C'est ce qu'on appelle un alias de la fréquence principale.

En pratique, la variance du bruit n'est pas unitaire et dépend de l'instant de mesure. On peut corriger ce problème en minimisant un critère pondéré \sum\limits_{j=1}^m \frac{(y_j-A\cos(\omega t_j) - B\sin(\omega t_j))^2}{\sigma_j^2}\sigma_j est la variance du bruit à la mesure j.

Exemple de périodogramme
HIP116745_perio.png
En rouge: périodogramme d'un système simulé à deux planètes après soustraction du mouvement propre et de la parallaxe (signal très peu bruité), pour 45 mesures. En bleu: périodogramme du même système sans bruit et avec 10000 observations.

Se tester

Auteur: Nathan Hara & Jacques Laskar

Questions qualitatives


Mini projet


But

L'objectif de ce mini projet est de réaliser un code permettant de calculer un périodogramme. On commence par établir la formule des moindres carrés dans le cas d'un modèle linéaire.

Moindres carrés linéaires

On se donne des observations y et on considère une matrice réelleA de taille m,n avec m>n et de rang n. On veut calculer \hat{\theta}, minimisant F(\theta)=\sum\limits_{k=1}^m \left(\frac{y_k - A \theta}{\sigma_k}\right)^2. On pose W matrice diagonale dont les éléments diagonaux valent \frac{1}{\sigma_k} et \Sigma = W^2. En termes vectoriels, F(\theta) = \|W(AX-y) \|^2. Comme on veut trouver le minimum de F(\theta) et que cette fonction est différentiable, ce minimum vérifie dF(\theta)dF est la différentielle de F. Montrer que la solution de dF(\theta) = 0 est \hat{\theta} = (A^T \Sigma A)^{-1} A^T \SigmaT désigne la transposition. Montrer que c'est un minimum global. (On pourra utiliser le fait que \|W(AX-y) \|^2 = (y-AX)^T\Sigma (y-AX).

Périodogramme

Nous voulons trouver la sinusoïde qui a la distance minimale aux données y au sens des moindres carrés. En d'autres termes, on veut ajuster \theta_{\omega} = \left( \begin{array}{c} a_{\omega} \\ b_{\omega}  \end{array}  \right) F_\omega(\theta)=\sum\limits_{k=1}^m \left(\frac{y_k - a_{\omega} \cos \omega t_k - b_{\omega} \sin \omega t_k}{\sigma_k}\right)^2 où les t_k sont des instants d'observation. Calculer avec la formule précédente \theta minimisant F_\omega(\theta). On notera P(\omega) = a_{\omega}^2 + b_{\omega}^2

Implémentation

Dans le langage informatique de votre choix, écrire un programme permettant de:


Bibliographie


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Transits d'exoplanètes

Auteurs: Emmanuel Lellouch, Jean-Mathias Griessmeier, Quentin Kral

Transits d'exoplanètes

Ce chapitre présente la recherche et l'étude des exoplanètes par la méthode des transits. Il décrit les techniques d'observation, ainsi que les phénomènes observés et les paramètres déduits de ces observations concernant la planète, son environnement, sa structure interne et son atmosphère.

La lecture de ce cours demande quelques connaissances sur les atmopshères planétaires disponibles ici.


Décrire

Auteur: Emmanuel Lellouch

Définitions


Différents mots pour une variété de phénomènes

Vus depuis la Terre, les objets célestes peuvent passer les uns devant les autres, ce qui conduit à l’obscuration partielle ou totale de l'objet le plus lointain. Lorsque deux objets ont une taille apparente différente, le passage du plus petit devant le plus grand est appelé transit . Celui du plus grand devant le plus petit est appelé occultation ou plus improprement éclipse .


Dans le système solaire

Jupiter

Phénomènes mutuels des satellites de Jupiter
jup11.jpg

Dans le système solaire, les transits les plus courants sont ceux des satellites galiléens devant Jupiter, ainsi que leurs transits, occultations et éclipses mutuels. Dans le cas de Jupiter, lorsque la planète est proche de son équinoxe (tous les 5.5 ans environ), on peut observer les phénomènes mutuels de ses satellites galiléens, parmi lesquels on distingue entre transits, occultations et éclipses.

Mercure et Vénus

Transit de Vénus
VenusTransit2012_He.jpg
Transit de Vénus de 2012 observé dans une bande H alpha, qui montre les tâches solaires et le filaments.
Crédit : C. Hetlage, APOD

Moins fréquents mais plus connus sont les transits de Mercure (13 ou 14 fois par siècle) et Vénus (2 fois, séparées de 8 ans, tous les 243 ans) devant le Soleil.

Le Soleil et la Lune

En principe, le terme éclipse (littéralement : privation de lumière) devrait être réservé aux situations dans lesquelles un corps passe dans l’ombre d’un autre et non derrière lui. Il est ainsi employé correctement lorsqu’on parle d’une éclipse de Lune – la Lune passant dans l’ombre de la Terre – mais improprement lorsqu’on parle d’une éclipse de Soleil, ce phénomène devant en toute rigueur être appelé occultation du Soleil par la Lune .

Le système solaire extérieur

Les planètes et petits corps du système solaire extérieur, très peu lumineux, passent assez souvent devant des étoiles du fond de ciel plus brillantes qu'eux. Ces occultations d'étoiles, comme les "ombres chinoises" révèlent des informations inaccessibles autrement.

Quelques-uns des résultats obtenus grâce à ces phénomènes sont décrits ci-dessous.


Hors du système solaire

hst-hd209458.png
hst-hd209458.png
Transit de la planète HD 209458 b, observé par le Télecope Spatial
Crédit : NASA

En sciences exoplanétaires, la méthode des transits consiste à mesurer les timings et l’ensemble des phénomènes observables lors du passage apparent d’une planète devant (figure ci-jointe- et derrière son étoile-hôte, lorsque ceux-ci se produisent en raison d’une orientation favorable de l’orbite planétaire (nous parlerons ci-après d’une planète transitante). Comme on le verra en détail, ces observations fournissent des informations irremplaçables sur la taille de la planète, ses caractéristiques orbitales, la structure et la composition de son atmosphère, voire la présence éventuelle de planètes supplémentaires dans le système.

Le passage de la planète derrière l’étoile (stricto sensu son occultation) est dans la littérature le plus souvent désigné par « transit secondaire » voire « éclipse secondaire », ou «anti-transit». Dans ce qui suit, on utilisera les termes transit (ou transit primaire) et éclipse secondaire pour le passage d’une planète devant et derrière l’étoile. L’observation de la planète hors transit, c’est-à dire dans la période de temps située entre le transit et l'éclipse secondaire fournit elle aussi des renseignements très intéressants sur la planète.


Des phénomènes riches d'enseignements

Roemer
Roemer.jpg
Gravure de l'article de Rømer dans le JOURNAL DES SCAVANS de l'orbite de Io (en haut) observée de la Terre (en bas). L'article rapporte les 8 années d'observation et la conclusion que la lumière ne se propage pas instantanément.
Crédit : BNF-Gallica
Chariklo
chariklo.png
L'enregistrement du passage de l'astéroïde Chariklo devant une étoile a révélé la présente de deux anneaux.
Crédit : L. Maquet

Dans différentes branches de l’astrophysique, l’observation de ces phénomènes de masquage ont donné historiquement des résultats scientifiques majeurs. Il y a exactement 400 ans, la mesure du timing des éclipses de Io par Jupiter a conduit le Danois Ole Rømer à la première estimation de la vitesse de la lumière (figure ci-jointe).

L’observation des transits de Vénus depuis différents points de la Terre a permis de calibrer les distances dans le système solaire (c’est-à-dire de mesurer l’unité astronomique) en employant la méthode des parallaxes. Elle a aussi fourni les premières indications sur la présence d’une atmosphère autour de Vénus (transit de 1761).

Les observations des éclipses de Soleil, qui permettent d’isoler la chromosphère, ont fourni de très nombreux résultats, parmi lesquels on se bornera à citer ici la découverte de l’hélium (1868), et la confirmation de la prédiction d’Einstein sur la déflection gravitationnelle de la lumière (1919) en comparant la distance apparente entre des étoiles selon que le Soleil était absent du champ ou présent (i.e. pendant une éclipse de Soleil).

Même si on se limite au système solaire, ces phénomènes continuent à fournir des informations majeures. La mesure des positions précises des satellites de Jupiter grâce aux phénomènes mutuels a permis de reconstituer leur mouvement orbital avec une précision suffisante pour en déduire le taux de dissipation d’énergie lié aux forces de marée dans l’intérieur de Io.

Dans des situations géométriquement semblables à celle des exoplanètes, la spectroscopie de Mercure et Vénus lors des transits récents devant le Soleil, et de Io en transit devant Jupiter, ont fourni de nouvelles information sur la composition et la structure de leurs atmosphères.

Un outil puissant d’étude des objets du système solaire lointain (objets trans-neptuniens) est fourni par la méthode de l’occultation stellaire : elle permet, par mesure du temps d’occultation – c’est-à-dire le temps de disparition de l’étoile derrière l’objet – la détermination de leur taille avec une précision (de l’ordre du kilomètre) inégalable par d’autres techniques. Les systèmes d'anneaux d'Uranus, de Neptune, du Centaure Chariklo (figure ci-jointe) et du transneptunien Haumea ont été découverts grâce à de telles occultations stellaires. Cette même technique permet de mesurer et de suivre l’évolution temporelle de la pression à la surface d’un objet comme Pluton.


Paramètres planétaires accessibles


Paramètres planétaires

L'observation des transits donne accès à des informations sur


Taille de la planète

Rayon

Géométrie des transits
transit-fig1.png
Figure 1 : Géométrie de l’orbite d’une planète transitante. Nous utilisons ici le terme éclipse secondaire pour désigner le passage de la planète derrière l’étoile, i.e. l’occultation.
Crédit : A traduire

La figure ci-jointe montre schématiquement la géométrie d’observation d’une exoplanète transitante. L’observable la plus directe est la mesure de la variation de flux pendant le transit primaire et l'éclipse secondaire. Hors transit, le flux mesuré correspond à la somme du flux de l’étoile Phi_e et celui de la planète Phi_p. Pendant l'éclipse secondaire, le flux mesuré est restreint à Phi_e.

Pendant le transit primaire, une fois que la planète est entièrement devant le disque de l’étoile, une fraction de la surface de l'étoile est cachée, delta=k^2=(R_p/R_e)^2, où R_e et R_p sont respectivement le rayon de l'étoile et de la planète. Le flux de lumière de l'étoile est réduit d'une fraction δ. Comme la planète est devant l’étoile, elle nous présente sa face non-éclairée, donc sa contribution au flux observé est nulle. En conséquence, le rapport du flux mesuré pendant le transit primaire à celui mesuré pendant l'éclipse secondaire (ou en pratique à celui mesuré à n’importe quel moment hors du transit) donne directement le rapport du rayon de la planète à celui de l’étoile.

exerciceTransit de planètes du système solaire

Question 1)

Calculez la baisse de luminosité du Soleil dû à un transit de Jupiter, de la Terre.

Les petites étoiles favorisent la détection de transits

L'exercice ci-dessus montre que le transit de Jupiter devant le Soleil conduit à une baisse de luminosité de celui-ci de 1.05%. Pour la Terre passant devant le Soleil, l’assombrissement relatif n’est que de 0.0084%.

La perte de flux mesurée pendant l'éclipse secondaire dépend elle non seulement du rapport k=R_(pl)/R_(et) , mais également du rapport de l’intensité lumineuse spécifique (i.e. pour une surface donnée) émise par les deux objets. Comme on le verra plus loin, il dépend de de la longueur d’onde, et selon celle-ci, des températures de la planète et de l’étoile, ou de l’albédo de la planète.

L’expression de la perte de flux au moment du transit montre que la détection d’un transit d’une exoplanète de rayon donné autour d’une étoile naine (de type M) est plus favorable qu’autour d’une étoile de type solaire ou d’une étoile géante. Par exemple, l’étoile Kepler- 42 a un rayon égal à 0.17 rayon solaire (120 000 km). Elle abrite 3 planètes, dont la plus petite (Kepler-42 d), a un rayon de 0.57 rayon terrestre, ce qui donne un signal photométrique de l’ordre de 0.1%, plus de dix fois plus fort que la Terre devant le Soleil.


Orbite : Période et excentricité

La grande puissance de la méthode des transits résulte de la reproductibilité du phénomène. Un système transitant peut être observé autant de fois que l’on souhaite, avec à chaque fois les mêmes caractéristiques en termes de timing et de profondeur de transit, ce qui permet l’accumulation de la précision sur ces deux paramètres. La précision sur la mesure des instants de transits est riche d’enseignements.

Dans le cas d’une orbite circulaire de période P, un transit et l'éclipse secondaire adjacente sont séparés temporellement de P/2. Ce n’est plus le cas pour une orbite elliptique, et la mesure de ces séparations temporelles (transit-éclipse et éclipse-transit) donne une information sur l’excentricité de l’orbite; plus précisément, elle contraint le produit e cos (ω), où e est l’excentricité et ω l’argument du périastre. La mesure des durées relatives du transit et de l'éclipse secondaire fournissent aussi des contraintes sur ces paramètres, mais avec moins de précision, eu égard à la courte durée des transits par rapport à leur périodicité.

Au-delà même de la caractérisation statistique des orbites planétaires, l’intérêt physique de ces mesures d’excentricité est grand. Ainsi, pour les planètes proches de leur étoile, les effets de marée associés aux orbites elliptiques produisent un chauffage interne qu’il est possible d’estimer, fournissant des contraintes sur la structure thermique des objets.

Par ailleurs, s’agissant de la connaissance de la période orbitale et des instants de transit et d’éclipse, la méthode des transits est presque toujours plus précise que la méthode des vitesses radiales. Pour autant, ces paramètres interviennent dans l’interprétation des courbes de vitesse radiale (ce sont 3 des 6 paramètres libres associés à cette méthode), donc leur connaissance indépendante via les transits a un grand intérêt pour l’amélioration de la précision sur les autres.


Orbite : Orientation

Orientation de l'orbite
transit-fig2.png
Figure 2 : Transit d’une exoplanète en présence de rotation stellaire. La planète masque d’abord des régions émettant vers le bleu, puis vers le rouge. La dernière ligne montre l’évolution de la vitesse radiale mesurée pour l’étoile pour différentes orientations de l’orbite planétaire. Dans les trois situations montrées, la durée du transit est la même de sorte que la simple observation photométrique du transit ne pourrait les distinguer.
Crédit : A traduire

Une exoplanète qui transite devant son étoile possède une orientation favorable pour la spectroscopie des vitesses radiales : L'étoile et la planète tournent autour de leur centre de gravité. Au moment du transit planétaire, l'étoile est à son point le plus éloigné de la Terre (i.e. l'observateur) et sa vitesse Doppler s'annule.

S’y rajoute un effet subtil : en raison de sa rotation propre, le rayonnement d’une partie de l’étoile est décalé vers le bleu, l’autre vers le rouge (Fig. 2). Si la planète a une orbite prograde (dans le même sens que la rotation stellaire), elle masque d’abord des régions de l’étoile émettant un rayonnement décalé vers le bleu (zones grisées sur la Fig. 2), puis vers le rouge (zones claires). En conséquence, par rapport à sa valeur mesurée au centre du transit, la vitesse radiale globale de l’étoile est d’abord décalée vers le rouge, puis vers le bleu. C’est ce que l’on appelle l’effet Rossiter- McLaughlin. L’effet est loin d’être faible: en raison des fortes vitesses de rotation stellaires (typiquement 2 km/s pour le Soleil), il peut se chiffrer en quelques dizaines de mètre par seconde – soit souvent plus que la vitesse Doppler de l’étoile liée à la planète.

L’évolution du décalage Doppler de l’étoile pendant le transit permet alors non seulement de confirmer l’existence du transit, mais aussi de déterminer l’orientation de l’orbite planétaire, à savoir l’angle entre le plan orbital et l’axe de rotation de l’étoile (angle appelé obliquité de l’étoile).

Cette méthode a mis en évidence de nombreux cas de tels désalignements spin-orbite, voire d’orbites planétaires rétrogrades. L’origine de ces désalignements reste mal comprise, mais est sans doute liée à des phénomènes d’interaction, magnétique entre la jeune étoile et le disque proto-stellaire, ou gravitationnelle avec des compagnons stellaires au moment de la formation, qui auraient pu faire « basculer » l’axe de rotation stellaire. Une autre hypothèse serait que l’axe de rotation de l’étoile représente bien la direction perpendiculaire au plan du disque primordial, et que c’est le système planétaire dont le plan orbital a changé depuis sa formation.


Orbites perturbées

Orbites non kepleriennes et planètes additionnelles

TTV
ttv-forgan.png
TTV de l'étoile KOI 872 (Kepler-46)
Crédit : D. Forgan
Kepler-88
kepler-88b.png
La planète Kepler-88b transite devant l'étoile Kepler-88. La planète Kepler-88c a été décourverte par les perturbations induites sur les instants des transits.
Crédit : A. Santerne

De manière encore plus fine, la précision extraordinaire qui peut être atteinte sur les instants de transits peut révéler des cas d’orbites non-képleriennes. Ces situations peuvent résulter d’effets relativistes, de forces de marée liées à l’étoile, ou de perturbations associées à des forces gravitationnelles dues à des objets supplémentaires dans le système (deuxième étoile, planète additionnelle, etc.). Elles se manifestent par des variations sur les timings des transits primaire et secondaire, soit sur le long terme, ce qui peut indiquer une précession de l’orbite, soit à plus court terme, dans le cas de perturbations par des planètes non nécessairement transitantes dans le système.

Les planètes sur des orbites résonantes, c’est-à-dire présentant des commensurabilités de leurs périodes – produisent des variations particulièrement grandes des instants des temps de transit (figure ci-jointe). Cette effet est appelé TTV (transit time variation). L’ « inversion » des données de TTV en termes de propriétés (masse et orbite) des planètes perturbatrices est souvent « dégénérée » (i.e. n’a pas de solution unique), mais dans certains cas, une solution non-ambigüe peut être obtenue. Le plus souvent, l’ordre de grandeur des TTV est une très faible fraction de la période orbitale.

Un cas remarquable est celui de l’exoplanète Kepler-88b, une planète de 9 masses terrestres, qui présente des TTV de 12h d’amplitude, pour une période orbitale de 11 jours. Il a été prédit qu’ils étaient causés par une planète perturbatrice non-transitante de 0.7 masses de Jupiter, qui est ensuite été détectée par vélocimétrie radiale !


Un système extraordinaire : TRAPPIST-1

Transit triple de planètes de TRAPPIST-1
trappist-1.png
Courbe de lumière pour un transit triple des planètes TRAPPIST-1c, TRAPPIST-1e, et TRAPPIST-1f. La configuration des planètes (jaune, rouge, vert) à trois instants particuliers est indiquée en bas.
Crédit : Gillon et al. 2017.
TRAPPIST-1 versus Jupiter
trappist-2.png
Taille comparée du système de 7 planètes TRAPPIST-1 avec le système des lunes galiléennes de Jupiter et le système solaire interne.
Crédit : tréduire

Tout récemment (22 février 2017), un système exceptionnel de 7 planètes, toutes transitantes, a été découvert autour d’une étoile naine (rayon = 0.11 rayons solaires, masse= 0.08 masses solaires) ultra-froide (2550 K) appelée TRAPPIST-1 et située à 40 années-lumière. Les périodes orbitales (de 1.5 à 20 jours) sont telles que plusieurs de ces planètes peuvent transiter en même temps, et même s’occulter mutuellement pendant le transit, ce qui conduit à des courbes lumières d’une superbe complexité (Fig. ci-jointe).

Les tailles (Rp = 0.75 à 1.1 rayons terrestres) et masses (0.85 à 1.38 masses terrestres, mesurées par la méthode des TTV) indiquent clairement des planètes telluriques et trois d’entre elles pourraient avoir une température compatible avec l’eau liquide. Le système dans son ensemble (0.063 UA pour la planète la plus externe) tiendrait aisément dans l’orbite de Mercure, et apparaît comme un cas intermédiaire entre le système des satellites galiléens de Jupiter et celui du système solaire interne (Fig. ci-jointe).


Atmosphère: composition et dynamique - I

Structure verticale - transit primaire

Dans ce qui précède, nous n’avons parlé de d’observations photométriques des transits – c’est-à-dire dans une seule bande de longueur d’onde (outre la description de l’effet Rossiter-McLaughlin). Par ailleurs, nous avons implicitement supposé que la planète a un « bord net », de sorte qu’on pouvait parler de son « rayon » sans ambiguÏté. La réalité est plus floue. Les planètes géantes n’ont pas de surface solide bien définie, et même une planète tellurique peut posséder une atmosphère, qui influence la manière dont la lumière stellaire est absorbée pendant le transit. Concrètement, l’absorption préférentielle de la lumière à certaines longueurs d’onde par les gaz et/ou aérosols/nuages rend le « rayon d’absorption » de la planète plus grand à ces longueurs d’onde. Du coup, la mesure spectroscopique du transit, c’est-à-dire la variation de la profondeur d’absorption du transit en fonction de la longueur d’onde, permet d’obtenir des informations sur la composition de l’atmosphère, voire sa dynamique. Nous verrons plus loin les équations générales régissant ces principes. Notons que cette spectroscopie de transmission peut être effectuée dans tout l’infrarouge et jusqu’à l’ultraviolet, ce qui permet en principe de sonder une vaste gamme verticale de niveaux dans l’atmosphère, allant des troposphères (pression de plusieurs bars) jusqu’aux thermosphères/exosphères (nanobar).


Atmosphère: composition et dynamique - II

Structure verticale-transit secondaire

De même, il est extrêmement intéressant d’observer par spectroscopie l'éclipse secondaire. Comme on l’a vu, la différence entre le flux mesuré juste avant ou après le passage de la planète derrière l’étoile et celui mesuré pendant l'éclipse secondaire donne le rayonnement provenant de la planète elle-même (pour être précis, du côté éclairé de la planète). Selon le domaine de longueur d’onde, ce rayonnement planétaire peut-être de nature stellaire réfléchie ou thermique.

La première composante, qui domine dans le visible et le proche infrarouge, correspond à la lumière de l’étoile réfléchie par la planète. Le rayon étant approximativement connu par l’observation du transit, l’intensité de ce rayonnement réfléchi fournit l’albédo de la planète. Ce dernier résulte de la compétition entre les propriétés réfléchissantes/diffusantes et absorbantes de l’atmosphère (voire de sa surface). Pour une planète avec une atmosphère épaisse, les variations spectrales de l’albédo sont dues aux variations de ses propriétés de diffusion (par les gaz et/ou les nuages atmosphériques) avec la longueur d’onde, mais peuvent aussi faire intervenir la composition gazeuse (des espèces atomiques comme le sodium ou le potassium ont des raies d’absorption très fortes dans le visible). Comme on verra, la grande difficulté de la mise en œuvre de cette technique résulte dans la très faible intensité du signal planétaire à extraire.

Le domaine thermique, lui, correspond au rayonnement propre de l’atmosphère de la planète. Celui-ci dépend à la fois de la structure thermique verticale (la variation de la température avec la pression dans l’atmosphère de la planète) et des profils verticaux d’abondance des gaz – qui définissent le profil vertical de l’opacité atmosphérique. En termes de composition atmosphérique, la mesure du spectre thermique apparaît donc complémentaire de celle du spectre en transmission mesuré pendant le transit. Cette complémentarité reflète notamment le fait que les deux méthodes ne sondent pas les mêmes régions atmosphériques : le transit est sensible à la composition du limbe de la planète – i.e. les régions où la lumière stellaire est rasante (« terminateurs ») alors que l’émission thermique sonde le côté jour de la planète.

Par ailleurs, à une longueur d'onde donnée, le transit sonde des régions plus ténues de l'atmosphère que l'émission thermique.


Atmosphère: composition et dynamique - III

Chimie de l'atmosphère

A ce jour (janvier 2017), la spectroscopie des transits a permis de détecter un petit nombre d’espèces chimiques dans certaines exoplanètes (~20 objets en tout), parmi lesquelles les molécules H2O, CO2, CO, CH4, et les espèces atomiques H, C, O, Na, K. De manière très générale, l’intérêt de ces mesures est double, permettant (i) d’en déduire la composition élémentaire (par exemple le rapport C/O), qui donne des contraintes sur les processus de formation de ces objets (ii) de caractériser les processus physiques (photochimie, condensation, thermochimie à l’équilibre ou hors-équilibre, transport vertical, échappement atmosphérique...) qui gouvernent les atmosphères. L’étude des spectres exoplanétaires renseigne aussi sur la présence de nuages dans leurs atmosphères, dans la mesure où des nuages diffusants ou absorbants à haute altitude masquent les absorptions moléculaires attendues.


Atmosphère: composition et dynamique - IV

Courbe de phase

Transits et courbe de phase de HD189733 b
transit-fig3.png
Figure 3 : Transit, éclipse secondaire, et courbe de phase de la planète HD 189733 b, observés à une longueur d’onde de 8μm avec le télescope spatial infrarouge Spitzer. Les courbes sont normalisées au flux stellaire (1.000 pendant l'éclipse secondaire). Le transit (à la phase 0.0) fait environ 2.1% de profondeur, ce qui indique un rapport des rayons R_p/R_e de 1.0%. L'éclipse secondaire (phase 0.5) indique que le côté jour de la planète émet 0.3% du rayonnement stellaire à cette longueur d’onde, impliquant une température d’environ 1210 K. La figure du bas (zoom vertical de celle du haut) montre la courbe de phase. Après modélisation, celle-ci indique que la température du côté nuit est d’environ 970 K, « seulement » 240 K plus froid que sur le côté jour, ce qui implique une forte redistribution de la chaleur par la dynamique atmosphérique. D’après Knutson et al. 2007.
Crédit : à traduire

La figure montre qu’au cours de sa révolution autour de l’étoile, une exoplanète présente différentes phases : côté nuit au moment du transit, côté jour juste avant/après l'éclipse secondaire, et à l’instar de la Lune, des phases de croissant/quartier tout au long de l’orbite.

Le suivi de l’émission thermique avec la position de la planète sur son orbite – et ceci est vrai même pour une planète ne transitant pas – permet ainsi de mesurer les variations spatiales – en l’occurrence les variations avec l’heure locale pour une orbite circulaire – des propriétés atmosphériques. Ces courbes de phase renseignent principalement sur la variabilité diurne des températures atmosphériques. Par exemple, on pourrait s’attendre à ce que les Jupiter chauds, qui, dus aux effets de marée, sont en rotation synchrone autour de leur étoile, présentent des écarts de températures gigantesques entre les côtés éclairé et sombre. Ce n’est en fait souvent pas le cas (voir exemple sur la figure ci-jointe), ce qui implique une forte redistribution de la chaleur par des vents atmosphériques. Il est également généralement observé que le maximum de température ne se produit pas au midi local, mais est décalé vers les zones « de l’après-midi », ce qui s’explique par des effets d’inertie thermique.

Une méthode complémentaire consiste à résoudre temporellement l'éclipse secondaire dans le domaine thermique : la disparition progressive derrière l’étoile de la planète permet de déterminer successivement les températures de « tranches de planète » correspondant à des heures locales différentes, et ainsi d’établir une carte de températures.

La spectroscopie des transits donne enfin potentiellement un accès direct à la vitesse des vents atmosphériques. En effet si une molécule est détectée par spectroscopie du transit, la mesure précise de la longueur d’onde des raies planétaires peut éventuellement indiquer des décalages spectraux diagnostics de vitesses de vent. Ainsi, un décalage vers le bleu des raies de CO dans le cas de HD209458b a été interprété comme la signature de vents jour-nuit de l’ordre de 2 km/s. Des complications liées à la connaissance précise de l’orbite de la planète peuvent toutefois survenir. Dans un cas, il a aussi été possible de mesurer la période de rotation propre d’une exoplanète (β-Pictoris b) à partir de la largeur des raies de CO.


Environnement planétaire accessible


Transit de satellites

Nous n’avons ci-dessus parlé que de transits de planètes devant des étoiles. Le phénomène peut être généralisé au transit d’autres objets de nature planétaires, tels que : satellites, astéroïdes/comètes, anneaux. Un satellite d’une exoplanète transitante doit généralement lui-même transiter et peut donc en être détecté directement par une allure particulière des courbes ingress/egress. Même si le satellite est trop petit pour être observé directement, un autre effet potentiellement détectable serait la mesure de TTV, dues au fait que la position de la planète oscille autour du centre de masse planète-satellite. Les données de transit de la planète Kepler-1625 b ont montré la premiètre trace de présence d'un exo-satellite, appelé Kepler-1625 b I


Transit de comètes

En revanche, on connaît deux cas de systèmes exoplanétaires avec transits de comètes. Le plus célèbre et le premier découvert est celui du disque de débris de l’étoile β-Pictoris, dont le spectre présente des raies atomiques (Ca II par exemple) variables temporellement, qui sont interprétées comme la signature de comètes en évaporation passant devant l’étoile. L’analyse statistique de ces signatures prouve qu’il existe deux familles de comètes différant par leur type d’orbite. A noter que le système de β-Pictoris possède également une planète géante (β-Pictoris b), découverte par imagerie directe, d’environ 7 masses de Jupiter, de période 22 ans. La recherche de son éventuel transit n'a, pour le moment rien donné.

Des transits de comètes devant une étoile (transit par le noyau cométaire et pas signature spectrale du nuage comme dans le cas de β-Pictoris) ont été détectés par Kepler en 2017.


Transit d'anneaux

Transit d'anneaux
transit-fig4.png
Figur 4 : Modèle et courbe de transit du système SWASP-J1407. La planète (point au centre) est détectée par vitesse radiale mais ne transite pas. Elle est en revanche entourée d’anneaux géants qui transitent devant l’étoile en 56 jours. La bande verte indique le parcours de l’étoile relatif aux anneaux pendant le transit. Les anneaux présentent un « vide » aux 2/3 environ de leur extension, ce qui pourrait indiquer l’existence d’une lune.
Crédit : à traduire

Enfin, on a découvert le cas exceptionnel d’une exoplanète qui semble entourée d’anneaux (1SWASP J1407 b ; compte tenu de sa masse, environ 20 masses de Jupiter, il pourrait s’agir d’une naine brune). Ces anneaux, dont l’existence est attestée par leur transit devant l’étoile (Fig. 4), constituent un système géant (rayon ~90 millions de km, soit 200 fois les anneaux de Saturne) et pourraient abriter une masse totale d’environ 1 masse terrestre. Un modèle invoquant 37 anneaux distincts permet de reproduire la courbe du transit, qui dure 56 jours. A noter que le modèle présente une zone vide d’anneaux à environ les 2/3 du rayon total, peut-être la conséquence d’une lune de ~1 masse terrestre.


Comprendre

Auteur: E. Lellouch

Des événements rares


Probabilité de transit

L’une des limitations les plus importantes de la méthode est la faible probabilité qu’une exoplanète donnée passe devant ou derrière son étoile-hôte. Il faut en effet pour cela que l’observateur se trouve pratiquement dans le plan orbital de la planète (orbite vue « par la tranche »).

Considérons une planète découverte par vitesse radiale et dont l’orientation de l’orbite est inconnue. Pour qu’elle transite devant son étoile, en notant i l’inclinaison entre la normale au plan orbital et la ligne de visée, il faut que l’on ait la relation : cos(i)<(R_e+R_p)/a, où R_e et R_p sont les rayons de l'étoile et de la planète, a est la distance projetée entre l’étoile et planète au moment où celle-ci est au plus proche de l’observateur. Compte tenu que la planète est toujours beaucoup plus petite que l’étoile, et en se limitant pour simplifier au cas d’une orbite circulaire de demi-grand axe a, on peut montrer que la probabilité de transit et celle d'éclipse secondaire sont toutes deux égales à p=R_e/a. Ceci prouve le résultat intuitif que la probabilité de transit est plus grande pour les planètes les plus proches de leur étoile.


Recherche au hasard

exerciceDétectabilité des planètes par transit

Quelle est la probabilité, pour un extraterrestre, de détecter par transit,

Question 1)

- la Terre ? - Jupiter? - une planète à 0.05 UA d’une étoile de type solaire?

Cette probabilité peut se traduire en termes du nombre moyen d’étoiles qu’il faut observer pour espérer découvrir une exoplanète transitante à un rayon orbital donné. Si on note η la fraction des étoiles possédant une telle planète, ce nombre est de l’ordre de N 1/(p*eta). Par exemple, les « Jupiters chauds » ont une distance type à leur étoile de 0.05 UA, et concernent environ 1 % des étoiles. Ceci donne p 0.1 et N 1000.

Même dans ce cas très favorable (planète proche), on voit que la recherche d’exoplanètes nouvelles par transit nécessite l’observation en aveugle de grands échantillons.

L'exercice ci-dessus montre que la probabilité de détecter la Terre par transit n'est que de 0.45%. Pour Jupiter, la probabilité est de 0.09%. En revanche, pour une planète à 0.05 UA autour d’une étoile de type solaire, la probabilité atteint 9 %. Les probabilités de transit et d'éclipse secondaire peuvent différer lorsque l’orbite planétaire est d’excentricité non-nulle (elliptique) de sorte qu’il est en principe possible d’observer un transit primaire sans transit secondaire et vice-versa.


Temps des transits


Géometrie détaillée d'un transit

Temps
transit-fig5.png
Figure 5 : Géométrie d’un transit. δ est la profondeur du transit, b le paramètre d’impact, T la durée du transit et τ la durée de l’ingress.
Crédit : à traduire

La géométrie d’un transit est représentée sur la Fig. 5.

Appelons t_It_(IV) les 4 « temps de contact », c’est-à-dire les instants auxquels les disques de la planète et de l’étoile sont tangents. L’instant moyen de l’entrée (du disque planétaire devant le disque stellaire) est t_ent=(t_I+t_II)/2; de même l’instant moyen de la sortie (du disque planétaire) est t_sor=(t_III+t_IV)/2. L’intervalle de temps séparant ces deux instants, noté T, est par définition la « durée du transit », alors que tau_ent=t_II-t_I et tau_sor=t_IV-t_III sont respectivement la durée de l’entrée et de la sortie. On note également b le « paramètre d’impact », i.e. la distance minimale – exprimée en fraction de rayon stellaire – entre la position apparente de la planète et le centre de l’étoile.


Durée du transit

Avec ces définitions, en se limitant au cas des orbites circulaires et en faisant les approximations raisonnables suivantes : R_P<<R_e<<a, et b<<1 (transit non-rasant), on peut montrer que la durée du transit est égale à : T = T_0*racine(1-b^2)T_0=R_e*P/(pi*a), P étant la période orbitale.

Par ailleurs, tau_(ent)=tau_(sor)=(T_0*k/racine(1-b^2)), où k=R_p/R_e En combinant l’expression de T_0 ci-dessus avec la 3eme loi de Kepler, et en se ramenant au cas du système solaire, on obtient T_0=13*h*(P/1*an)^(1/3)*(rho_e/rho_sol)^( - 1/3) expression dans laquelle la seconde parenthèse représente le rapport de la densité de l’étoile à celle du Soleil. Ainsi, vu depuis une autre étoile, le transit de la Terre devant le Soleil ne dure que 13 h une fois tous les ans, et celui de Jupiter ne dure que 30 h une fois tous les douze ans, ce qui illustre à nouveau la rareté du phénomène. Bien évidemment, la mesure de la période requiert l’observation d’au moins deux transits.


Mise en oeuvre de la méthode


Différents objectifs scientifiques

Les expressions ci-dessus montrent que les transits sont des événements a priori rares, puisque seule, une faible fraction des exoplanètes transitent, et parmi celles-ci, seulement pendant une faible fraction de leur période orbitale.

Il faut donc distinguer entre les différents objectifs suivants: (i) la recherche d’exoplanètes, qui comme on l’a vu nécessite l’observation de grands échantillons (ii) le suivi photométrique de systèmes planétaires découverts en vélocimétrie radiale pour voir s’ils donnent lieu à des transits (iii) la caractérisation d’exoplanètes transitantes, notamment par spectroscopie.


Equipement

De par sa simplicité, la méthode est en principe accessible avec un équipement modeste, puisqu’au premier ordre il s’agit simplement (sauf pour le troisième objectif) de suivre photométriquement une étoile qui peut être relativement brillante. De fait, le premier transit d’exoplanète (celui de HD209458b, dont l’étoile a une magnitude 8) fut observé depuis le sol, en 2000, à l’aide d’un simple télescope de 25 cm, doté d’une caméra CCD. De nombreux programmes de recherche de transits au sol ont été développés, tels que TrES, XO, HAT, SuperWASP, avec des télescopes de 10 cm qui font des relevés sur des étoiles de magnitude 10 à 12, ou OGLE, avec un télescope de 1 m pour des étoiles de magnitude 14-16. A ce jour (fin 2016), ces relevés depuis le sol ont permis de découvrir environ 250 exoplanètes, notamment avec SuperWASP et HAT.

Comme on l’a vu plus haut, le transit d'une planète géante (resp. tellurique) autour d’une étoile de type solaire produit typiquement un signal photométrique de 1 % (resp. 0.01 %). En raison de la turbulence atmosphérique, les planètes telluriques ne sont pas à la portée des observations au sol, sauf autour des étoiles naines. Ce problème est éliminé par l’emploi d’observations depuis l’espace, qui ont en outre l’avantage de s’affranchir des aléas de la météo et des interruptions jour-nuit. Dans tous les cas, l’extraction des signaux planétaires requiert des techniques élaborées de photométrie de haute précision, excluant au maximum les erreurs systématiques éventuelles. Les projets spatiaux CoRoT et Kepler et leurs résultats sont décrits ci-après.


Difficultés de la méthode


Variabilité stellaire

La description faite plus haut de la perte de flux pendant un transit suppose que le flux stellaire est indépendant de la position sur l’étoile et constant dans le temps. Dans la réalité, le rayonnement stellaire est généralement caractérisé par un assombrissement centre-bord, lié au fait que le rayonnement au limbe provient d’un niveau plus élevé, et par conséquent plus froid, dans l’atmosphère de l’étoile, que celui au centre. En conséquence, l’atténuation du rayonnement de l’étoile lors d’un transit planétaire n’est pas purement géométrique.

Aux longueurs d’onde où l’assombrissement centre-bord est important, les courbes de lumière apparaissent ainsi plus « piquées » (c’est-à-dire moins plates) près de leur centre, puisque la planète masque alors une zone de rayonnement plus intense.

De manière plus générale, les étoiles présentent des hétérogénéités locales de flux, associées notamment aux tâches stellaires liées à l’activité de l’étoile. Leur masquage pendant le transit peut conduire à des irrégularités dans le profil d’atténuation de l’étoile, ce qui compliquera la détermination du rayon planétaire. Ces problèmes sont particulièrement sérieux dans le cas des étoiles géantes et sous-géantes. L’activité stellaire, qui induit une variation temporelle du flux total émis par l’étoile, peut aussi conduire à des courbes de lumières non parfaitement reproductibles dans le temps.


Faux positifs

Faux positifs
transit-fig6.png
Figure 6 :Transit d’une exoplanète devant son étoile (a), et trois types de « faux positifs » : (b) Transit d’une naine brune ou d’une étoile de très faible masse (c) transit d’une binaire à éclipse en présence d’une étoile brillante dans un système triple (d) transit rasant d’une binaire à éclipse. Au premier ordre, toutes ces situations donnent des courbes de lumières semblables.
Crédit : à traduire

Une faible atténuation temporaire et reproductible du flux stellaire peut sembler être la signature non-ambiguë d’un passage planétaire. Pourtant, il existe d’autres situations pouvant conduire au même type de signal (Fig. 6), telles que :

  1. le transit rasant d’une étoile dans un système binaire à éclipses

  2. le cas d’un système triple incluant une étoile brillante et une binaire à éclipses peu lumineuse : dans ce cas, l’effet du transit « normal » dans la binaire à éclipses est fortement dilué par la présence de l’étoile brillante, ce qui donne au phénomène l’apparence d’un transit planétaire de faible profondeur. Une variante de cette situation est le cas où la binaire à éclipse et l’étoile brillante ne font pas partie d’un système triple, mais se trouvent dans un alignement de circonstance.

  3. Enfin, même dans les cas où on peut établir qu’il s’agit bien du transit d’un objet unique devant l’étoile étudiée, il faut encore prouver que l’objet en transit est bien une planète : en effet, les étoiles de faible masse (<10% de la masse du Soleil) et les naines brunes ont des rayons comparables à celles d’une planète géante comme Jupiter, et ne s’en distinguent que par leur masse bien plus élevée.


Débusquer les faux positifs

Il y a différentes manière de débusquer ces « faux positifs ». Ainsi les cas des transits rasants peuvent être identifiés par leur forme plus piquée (en « V ») que celle des transits planétaires (en « U »). Par ailleurs, comme on l’a vu plus haut, la durée du transit donne une mesure de la densité de l’étoile-hôte ; une solution aberrante (c’est-à-dire incohérente avec celle que l’on peut estimer à partir de la température de l’étoile) indiquera qu’il ne s’agit pas d’un transit planétaire. Enfin, pour distinguer entre une véritable planète et un objet sous-stellaire de même rayon, le seul moyen est de déterminer la masse de l’objet par vélocimétrie radiale. L’étude (et l’élimination) des faux positifs est fondamental pour les études statistiques de population planétaire. Ce taux s’avère important et fortement dépendant des types de planètes. Par exemple, dans le cas des données Kepler, il est de l’ordre de 10 à 20 % globalement, mais peut atteindre 35-55% pour les planètes géantes, plus difficiles à distinguer des étoiles de faible masse et naines brunes. En revanche, le taux de faux positifs dans le cas des systèmes multi-planétaires (en particulier dans le cas des systèmes à TTV, voir ci-dessus) est faible.


Complémentarité des méthodes


Limites de la méthode des transits

L’observation photométrique du transit ne fournit que le rapport du rayon de la planète à celui de l’étoile, pas le rayon absolu de la planète. Par ailleurs, sauf dans les cas où des perturbations gravitationnelles entrent en jeu (TTV), les transits en eux-mêmes ne contraignent pas les masses planétaires.


Complémentarité des méthodes de transit et de vélocimétrie

En revanche, l’avantage majeur des transits est que les exoplanètes détectées par cette méthode le sont également en principe par vitesse radiale, puisque l’inclinaison de l’orbite i est alors favorable et bien connue (proche de 90°). L’amplitude du signal Doppler K_e sur l’étoile est relié à la masse planétaire par : M_p/(M_p+M_e)^(2/3)=((K_e*racine(1-e^2))/sin(i))*(P/2*pi*G)^(1/3) où M_p et M_e sont la masse planétaire et stellaire, e l’excentricité, P la période, et G la constante universelle de gravitation. L’avantage ici est qu’on peut écrire sin(i)=1.


Importance des données stellaire

Densité des exoplanètes
gillon2017.png
Diagramme masse-rayon des planètes TRAPPIST-1, comparées aux planètes telluriques du Système Solaire et quelques autres exoplanètes. Sont montrées aussi les courbes theoriques pour des planètes de différentes compositions
Crédit : Gillon et al. 2017

A nouveau, une limitation est que M_e n’est pas connue. Il faut donc combiner les mesures de transit et de vitesse radiale avec des informations indépendantes sur l’étoile, typiquement obtenues via les modèles d’évolution stellaire, qui donnent des relations entre âge, luminosité, rayon, masse et composition.

Par ailleurs, comme indiqué en 2.2, la profondeur du transit k^2=(R_p/R_e)^2, la durée du transit T et la durée de l’ingress/egress contraignent le rapport R_e/aet le paramètre d’impact b, ce qui permet de « calibrer » le rayon planétaire en absolu. Si les propriétés stellaires sont suffisamment bien connues, on peut donc obtenir des valeurs absolues du rayon et de la masse planétaire, donc de sa densité, ce qui a évidemment une importance énorme pour contraindre la nature (gazeuse, glacée, rocheuse) et la structure interne de la planète.

Finalement, en combinant la relation ci-dessous avec la 3e loi de Kepler, on peut déterminer la gravité planétaire g_p=G*M_p/R_p^2 indépendamment des propriétés de l’étoile : g_p=((2*pi)/P)*(racine(1-e^2)*K_e)/(R_p/a)^2*sin(i) La connaissance de g_p est nécessaire pour l’élaboration de modèles d’atmosphères.


Spectroscopie des transits et courbes de phase


Spectroscopie du transit

Spectre en transmission de HD 209458 b
transit-fig7.png
Figure 7 : Le spectre en transmission de HD 209458b, exprimé en termes de profondeur du transit. La partie visible (<1 micron) suggère l’effet de la diffusion Rayleigh et de l’absorption par le sodium à 0.58 micron. La présence de la vapeur d’eau est clairement visible à 1.4 microns (Deming et al. 2013).
Crédit : à traduire

Comme exposé plus haut, le principe de la spectroscopie du transit est de mesurer des variations spectrales de la profondeur du transit comme diagnostic de composition atmosphérique. A une longueur d’onde où l’atmosphère absorbe, le rayon "effectif" de la planète est augmenté d’une quantité alpha*H, où H est la hauteur d’échelle de l’atmosphère et α est généralement un nombre de l’ordre de quelques unités. La profondeur du transit δ est donc augmentée de : Delta*delta=((R_p+alpha*H)/R_e)^2-(Rp/R_e)^22*R_p*alpha*H/R_e^2=2*alpha*delta(H/R_p)

Cette relation montre fondamentalement que l’effet est d’autant plus grand que H est grande, i.e. que l’atmosphère est chaude, de faible masse moléculaire, et que la gravité est faible. Par exemple, pour un Jupiter chaud (T~=unité(1300;K), g=unité(25;g*s^(-2)), masse moléculaire = 2 amu (H_2), R_p=unité(70000;km)), on obtient H~=unité(210;km), ce qui fait Delta*delta/delta=0.02 en adoptant alpha=3. Pour une "Terre" (T~=unité(300;K), g=unité(10;m*s^(-2)), masse moléculaire = 28 amu (N_2), R_p=unité(6000;km)), on trouve H=unité(9;km) et Delta*delta/delta=0.008, en prenant toujours alpha=3.

Dans les deux cas, l’ordre de grandeur est donc une augmentation relative de la profondeur du transit de l’ordre de 1% de sa valeur. Pour la planète tellurique, compte tenu que le transit géométrique est déjà inférieur à 0.01%, le signal spectral Delta*delta est donc inférieur à 10^(-6), ce qui illustre l’extrême difficulté de ce type de mesures.

Echelle de hauteur

La spectroscopie du transit primaire permet d’estimer l’échelle de hauteur atmosphérique. Imaginons d’abord que le coefficient d’absorption intrinsèque de l’atmosphère varie avec la longueur d’onde λ, mais pas avec le niveau d’altitude dans l’atmosphère. Si on note sigma(lambda) la section efficace d’absorption à la longueur d’onde λ, l’opacité en visée verticale est tau(lambda;z)=sigma(lambda)*n(z)*H, où n(z) est la concentration de l’espèce absorbante à l’altitude z. Comme le transit sonde les couches au limbe, l’opacité le long de la ligne de visée est multipliée par le facteur géométrique d’augmentation du parcours racine(2*pi*R_p/H) , et vaut donc : tau(lambda;z)~=sigma(lambda)*n(z)*racine(2*pi*R_p*H) On peut montrer que le rayon planétaire effectif à la longueur d’onde λ est égal au rayon de la surface augmenté de la hauteur z(lambda) pour laquelle l’opacité en visée horizontale vaut environ 0.56 : R_(eff)=R_p+z(tau=0.56) Comme n(z) est relié à la concentration n_0 à la surface, selon n(z)=n_0*exp(-z/H), on peut en déduire z(lambda)=H*ln(sigma(lambda)*(n_0/(0.56))*racine(2*pi*R_p*H)) ce qui confirme que l’augmentation du rayon effectif est essentiellement proportionnelle à H (le terme dans le ln variant lentement avec H).

Cette expression montre que la variation du rayon effectif avec la longueur d’onde suit : d*z/d*lambda ~=H*(d*ln(sigma)/d*lambda) Si l’on connaît le mécanisme physique responsable de l’absorption (par exemple, la diffusion Rayleigh où σ varie comme une puissance de λ), la mesure de la variation du rayon effectif avec la longueur d’onde fournit directement la hauteur d’échelle de l’atmosphère H, donc une estimation de sa composition principale si la température peut être estimée indépendamment.

Le raisonnement précédent est valable en première approximation lorsque l’opacité atmosphérique est le fait des brumes, mais l’est moins pour une absorption par les gaz, car celle-ci dépend intrinsèquement fortement de la pression. Ce développement analytique doit donc être remplacé par des modèles numériques. Il n’en reste pas moins vrai que le spectre en transmission montre la planète « plus grosse » dans les bandes d’absorption gazeuse qu’en dehors de ces bandes, et qu’il est alors possible de contraindre la composition chimique (Fig. 7).

Les premières découvertes d’espèces chimiques dans les spectres d’exoplanètes en transmission datent des années 2002-2003 avec la détection d’espèces atomiques (Na, H, et plus tard K, C, O) dans le spectre visible. Le cas de l’hydrogène atomique est particulier car il donne lieu à des transits extrêmement profonds (15%), causés par des atmosphères d’hydrogène très étendues et en échappement rapide. Dans l’infrarouge, dû à la grande difficulté d’extraire les spectres, des controverses ont eu lieu sur la réalité et surtout la quantification des signatures spectrales en termes de paramètres atmosphériques. Il semble toutefois qu’un nombre important de ces spectres montrent les signatures spectrales de H2O, celles de CH4, CO2, et CO étant également présentes sur quelques objets. Une caractéristique très fréquente est le rôle des brumes ou nuages de haute altitude, qui contribuent à l’émission dans le spectre visible et tendent à masquer les signatures des gaz dans l’infrarouge.


Spectroscopie de l'éclipse secondaire

Comme on l’a vu plus haut, l’observation de l'éclipse secondaire permet en principe de déterminer par différence la quantité de radiation que nous envoie une exoplanètes, que ce soit sous forme de lumière stellaire réfléchie ou de rayonnement thermique propre. La difficulté est ici le contraste de luminosité entre la planète et l’étoile.

La profondeur de l'éclipse secondaire s'écrit :delta_ecl ~=k^2 *(I_p/I_e) où I_p et I_e sont les intensités (par élément de surface) émises par la planète et l’étoile et k est le rapport des rayons R_p/R_e.

Dans la composante stellaire réfléchie, juste avant l'éclipse secondaire, la planète – qui présente alors sa face entièrement éclairée – reçoit une fraction (R_e/a)^2du rayonnement I_e de l’étoile, et en réémet une fraction A(lambda)*(R_e/a)^2 où A(lambda)est appelé l’albédo géométrique. Ceci correspond donc à une profondeur de l'éclipse secondaire égale à : A(lambda)*(R_p/a)^2.

Comme A(lambda)<1(et peut être <<1) et que a>R_e(et normalement a>>R_e), ceci implique le résultat intuitif que l'éclipse secondaire est (beaucoup) moins profonde que le transit primaire. Pour un albédo caractéristique de 10%, la profondeur de l'éclipse secondaire dans la composante stellaire réfléchie est de ~10^(-5) pour un Jupiter chaud à 0.05 UA (contre 0,01 pour le transit). Pour une Terre à 1 UA de même albédo, elle vaudrait 2*10^(-10) ! Si elles sont complètement hors de portée dans ce dernier cas, les mesures d’albédo sont possibles pour des Jupiters chauds (voir plus loin les résultats de Kepler) mais requièrent une haute précision photométrique et l’accumulation de nombreuses mesures.

Le contraste devient progressivement moins défavorable dans la composante thermique. Dans ce cas, le rapport I_p/I_e s’écrit comme le rapport des fonctions de Planck aux températures caractéristiques de la planète T_pet de l’étoile T_e. Dans la limite des grandes longueurs d’onde, il tend vers le rapport T_p/T_e. Pour un Jupiter chaud (T_p~unité(1000-1500;K)) autour d’une étoile de type solaire, ce terme n’est plus pénalisant que d’un facteur ~1/6 à ~1/4). Ceci explique l’allure des courbes d'éclipse les plus favorables (cf. Fig. 3). Dans ce cas, il devient envisageable d’effectuer la spectroscopie de l’émission thermique.


Emission thermique de la planète

L’interprétation d’un spectre d’exoplanète dans le domaine thermique est très comparable à celle d’un objet du système solaire. Les paramètres libres sont essentiellement la structure thermique verticale, et les profils de composition qui stipulent la distribution verticale des gaz et des nuages. De manière générale, le rayonnement mesuré satisfait à l’équation dite du transfert radiatif, qui peut s’écrire (en négligeant les phénomènes de diffusion, et en supposant l’atmosphère suffisamment épaisse pour que la surface ne soit pas sondée) : I(lambda)=intégrale((B_lambda)(T(tau))*d(exp(-tau));tau) où I_lambda est l’intensité lumineuse sortante à la longueur d'onde λ, τ est l’opacité verticale intégrée sur la ligne de visée à cette même longueur d'onde, et B_lambda*((T(tau)))est la fonction de Planck à la température T(tau)du niveau atmosphérique d’opacité tau, et où l’intégrale porte sur l’ensemble de l’atmosphère. Essentiellement, l’information sur le profil de température est contenue dans la fonction de Planck, alors que le profil vertical d’opacité contraint la composition chimique.


Comment résoudre l'équation de transfert radiatif

GCM
gcm.png
Résultat d'un GCM
Crédit : M. Turbet, F. Forget

Une méthode dite d’inversion permet en principe de remonter aux deux paramètres, mais il est généralement impossible d’obtenir une solution unique ou même précise, compte tenu de la connaissance préalable très pauvre que l’on a des objets (contrairement aux atmosphères du Système Solaire), et le plus souvent de la qualité très modeste des spectres exoplanétaires (faibles résolution spectrale et signal-sur-bruit). Des contraintes supplémentaires peuvent être injectées pour aider à l’interprétation des spectres. Ainsi, on peut chercher des solutions physiquement cohérentes entre les profils de composition et de température, compte tenu des équilibres chimiques et de condensation entre les différents gaz et les nuages. Une autre complication est qu’on s’attend à ce que les profils atmosphériques présentent des variations horizontales considérables sur la planète (variations jour/nuit notamment), qui ne peuvent évidemment pas être appréhendées à partir d’un spectre planétaire unique.

Une approche alternative moderne est de construire des modèles atmosphériques auto-cohérents à 3 dimensions à l’aide d’outils de type MCG (modèles de circulation générale, GCM en anglais), puis de les tester en regard des observations. Il est aussi fructueux de combiner la mesure de l’émission thermique avec celle du spectre en transmission au moment du transit (cette dernière étant très sensible à la composition atmosphérique mais beaucoup moins aux détails du profil de température), tout en étant conscient que les deux mesures ne sondent pas les mêmes régions de la planète ; à nouveau le passage par un MCG peut s’avérer très utile.

Malgré tout, le plus souvent, au-delà de la présence avérée de certains gaz – H2O essentiellement – les interprétations du spectre d’un objet donné peuvent être diverses, avec des divergences sur les abondances gazeuses (parfois par des ordres de grandeurs), et sur la forme des profils de température – notamment la présence ou non de couches d’inversion (stratosphères).


Courbes de phase

La mesure de la courbe de phase est également une mesure de l’émission thermique d’une exoplanète, mais le focus est alors sur la variation photométrique de cette émission avec la position de la planète sur son orbite. Celle-ci renseigne sur les variations de la température « moyenne » (stricto sensu, la température au niveau d’émission dans l’atmosphère) le long de l’orbite. En général, comme indiqué plus haut, on a ainsi accès aux variations diurnes de température. Dans le cas d’une orbite de forte excentricité, les températures dépendent surtout de la distance à l’étoile, i.e. l’écart au périastre. Dans les deux cas, cela de permet de mesurer la constante de temps radiative de l’atmosphère, i.e. le temps caractéristique de réponse aux variations d’insolation.

Difficulté de la spectroscopie des exoplanètes

A de très rares exceptions près, la spectroscopie atmosphérique requiert une stabilité et une sensibilité qui ne peuvent être atteinte que par des moyens spatiaux. Dans l’infrarouge proche, les meilleurs spectres d’exoplanète en transit et en éclipse secondaire ont été obtenus par le télescope spatial Hubble (instruments NICMOS, STIS et surtout WFC3, couvrant 0.9 – 1.7 microns). A plus grande longueur d’onde, ces spectres ont été complétés par le spectromètre IRS (couvrant 5-14 microns) du télescope spatial Spitzer, alors que les courbes de phases proviennent le plus souvent du photomètre IRAC dans 4 bandes de longueur d’onde (3.6, 4.5, 5.8, 8.0 micron, cf Fig. 3). Dans un futur proche, les observations avec le télescope spatial JWST s'annoncent très prometteuses.


Les missions Corot et Kepler et leurs résultats


Deux missions de photométrie de haute précision

Nous terminerons par une description de deux missions spatiales dédiées (au moins partiellement) à la recherche et l’étude des transits exoplanétaires, et de leurs principaux résultats.


Corot

Corot
satellite-corot.png
le satellite Corot
Crédit : CNES
Courbe de lumière de Corot-7 b
corot-exo7b.png
Crédit : ESA

CoRoT (COnvection ROtation et Transits planétaires), un programme mené par le CNES en collaboration avec l’ESA, a fonctionné de janvier 2007 à décembre 2012. Ce télescope de 27 cm en orbite géocentrique polaire était équipé de 4 détecteurs CCD couvrant un champ d’environ 3.5°. CoRoT a suivi des milliers d’étoiles de magnitude 11 à 16 avec une sensibilité photométrique d’environ 0.01 %. CoRot a permis la découverte de 31 exoplanètes. Parmi celles-ci, on peut relever les cas particulièrement intéressants suivants :


Kepler

Kepler

Nombre d'exoplanètes
transit-fig8.png
Figure 8 : Nombre d’exo-planètes découvertes par année (jusqu’au 10 mai 2016). En bleu clair et ocre, la contribution de Kepler à ces découvertes.
Crédit : à traduire
Exoplanètes candidates de Kepler
transit-fig9a.png
Figure 9a : Candidats planétaires Kepler (en date du 23/07/2015) dans un diagramme période / rayon.
Crédit : à traduire
Taille des exoplanètes
transit-fig9b.png
Figure 9b : Distribution des exo-planètes confirmées en fonction de leur rayon
Crédit : à traduire
Exoplanètes dans la "zone habitable"
transit-fig10.png
Figure 10 : Les 21 planètes de rayon inférieur à 2 rayons terrestres et se trouvant dans la zone habitable. Elles sont placées dans un diagramme montrant l’énergie qu’elles reçoivent de leur étoile (normalisée à celle reçue par la Terre du Soleil) en fonction de la température de l’étoile. Les zones vertes indiquent l’extension probable de la zone habitable selon une estimation prudente (vert clair) et optimiste (vert foncé).

Kepler, une mission du programme « Discovery » de la NASA, a été lancée en mars 2009 et a fonctionné nominalement jusqu’en mai 2013. Malgré des avaries techniques, elle a pu poursuivre son programme exoplanètes après cette date, sous le nom de mission K2. Avec un télescope de 1.4 m en orbite héliocentrique, sa précision photométrique est de 3x10-5, ce qui permet d’atteindre les planètes sub-telluriques, même si de nombreux transits sont nécessaires pour garantir des détections sans ambiguïté. Avec un champ de 115 degrés carrés, Kepler surveille en permanence 150,000 étoiles, pour la plupart de magnitude 14-16, avec une mesure photométrique toutes les 30 minutes. Un traitement automatisé détecte les «candidats », appelés aussi les Kepler Objects of Interest (KOI), i.e. les signaux pouvant indiquer le transit d’une exoplanète, mais qui doivent ensuite être inspectés/validés pour éliminer les faux positifs.

Les résultats de Kepler sont annoncés sous forme de parution régulière de liste de candidats et de planètes confirmées. Le nombre de planètes Kepler confirmées a dépassé le millier en janvier 2015, et a atteint 2325 en mai 2016 (Fig. 8). La majorité est dans la gamme des « super-Terre » (1 à 2 rayons terrestres) et « mini-Neptune » (2 à 3 rayons terrestres) (Fig. 9a, 9b). A ce jour, le nombre total d’exoplanètes confirmées découvertes par la méthode des transits est de l’ordre de 2700 (correspondant à environ 2000 systèmes planétaires), sur un total de 4000 environ. La méthode des transits est devenue, et de loin, la plus prolifique.

Outre la richesse et les études statistiques que permettent ces découvertes, on peut, comme pour CoRoT, relever quelques cas de planètes ou systèmes Kepler remarquables :


Se tester

Auteur: F. Roques

Se tester

Auteur: J.M. Griessmayer

exerciceHD 189733

Temps :

En 2005, il n'y avait que 160 exoplanètes découvertes, la plupart par la méthode des vitesses radiales. La planète HD 189733 a été découverte par François Bouchy et son équipe au cours d'une campagne de recherche associant le spectrographe à fibres ELODIE et une caméra CDD.

Question 1)

La courbe de lumière de HD 189733 montre plusieurs phénomènes. Expliquer à quels phénomènes physiques chaque phase correspond et quels paramètres de la planète ils permettent d'estimer.

A quoi correspond le flux = 1?

Question 2)

L'appliquette montre les données de vitesse radiale de HD 189733. A l'aide des curseurs, retrouvez les paramètres de la sinusoide.

  • v_rest la vitesse radiale de l'étoile
  • v_0est la vitesse radiale du centre de gravité du système
  • a est la demi-amplitude de la sinusoïde
  • t est le temps en Jours Julien
  • T est la période de révolution de la planète autour de l'étoile
  • phi_0 est la phase

v_r = v_0 + a*sin(2*π*((t-2453610)/T) + φ_0)


Projet


Projet : Découverte de WASP-80

Ce projet a pour but de mettre en application tout votre nouveau savoir théorique pour l'appliquer à un cas pratique. Nous allons prendre des données réelles de transit, chercher si une planète s'y cache, et le cas échéant, déduire les paramètres de la planète associée, tels que son rayon et sa période. Vous comparerez alors vos résultats à ceux qui ont vraiment étaient publiés par l'équipe de recherche qui a traité ces données il y a quelques années.

Nous allons analyser des données provenant de SuperWASP qui est composé de 8 télescopes de 11cm chacun, ce qui permet de couvrir presque 500 degrés carrés sur le ciel (i.e. la surface d'environ 2500 pleines lunes à chaque prise). Il y a en fait un SuperWASP au Nord (La Palma) et un au Sud (Afrique du Sud) pour pouvoir couvrir tout le ciel (plus de détails ici ).

Voici les données historiques qui ont mené à la première détection de la planète autour de l'étoile WASP-80 en 2013. Dans ce fichier, vous trouverez les mesures photométriques de l'étoile WASP-80 (située dans la constellation de l'Aigle) à différentes dates. Les 3 colonnes indiquent respectivement la date du point photométrique (en BJD pour Barycentric Julian Date, qui donne le jour julien correspondant à l'observation), la magnitude de l'étoile mesurée à cette date, et l'erreur associée sur la magnitude.


WAST-80 : Les données

exerciceExercice

Nous allons utiliser python pour ce mini-projet. Vous pouvez aussi utiliser votre langage de prédilection si Python ressemble à des hiéroglyphes pour vous.

Question 1)

Commencez par charger le fichier wasp80data.txt qui contient les observations de WASP-80 et faites un graphe représentant la magnitude en fonction du temps, avec les barres d'erreurs associées à chaque point. En python, cela donne :

import numpy as np

import matplotlib.pyplot as plt

bjd, mag, err = np.loadtxt("wasp80data.txt", delimiter=' ', skiprows=1, unpack=True)

plt.errorbar(bjd,mag,err)

Question 2)

On pourrait travailler avec les magnitudes, mais il est plus commun de travailler directement en flux. En effet, un transit produit une baisse du flux total qui provient de l'étoile alors que ça provoque une augmentation de la magnitude et donc on ne verrait pas une baisse mais une croissance de la magnitude lors d'un transit en magnitude. Vous pourrez essayer plus loin de suivre la même procédure en travaillant sur les magnitudes (pour constater que l'on arrive aux mêmes résultats) mais pour le moment on travaillera en flux.

Reproduire le même graphique que précédemment en unité de flux

Que voyons-nous ? Est-ce ce à quoi l'on s'attend ? Voyons-nous un transit ? Pas vraiment ! Ça ne ressemble pas exactement aux courbes théoriques que l'on a vues dans le cours avec une belle chute de flux quand la planète passe devant son étoile. Pour cela il va falloir travailler un peu les données.

Un œil averti se rendra compte que ces données on été pré-traitées. On voit que la magnitude oscille autour de zéro, la composante de magnitude due à l'étoile a donc été retirée. On voit aussi que les données semblent suivre une ligne horizontale, sans qu'il y ait de variations linéaires ou polynomiales. En réalité, quand on obtient les données brutes, c'est beaucoup moins propre que cela, et il faut retirer les effets qui ne sont pas dûs au transit mais plutôt à l'observation en tant que telle. Il peut y avoir des déviations du signal dues à l'instrumentation (par exemple à cause de variations thermiques), ou même des variations de l’atmosphère au cours de l'observation. Il y a différentes méthodes pour réajuster les données afin de corriger ces variations qui ne sont pas dues au transit. De manière générale et simplifiée, cela revient à trouver une fonction polynomiale qui suit au mieux les variations à long terme et de retirer cette fonction du signal. On appelle cela le detrending. Les données que l'on traite ici ont déjà subi ce detrending et peuvent être maintenant exploitées pour chercher un transit potentiel et trouver les paramètres de la planète le cas échéant.


WASP-80 : Les transits

exerciceLa recherche des transits

Que faut-il faire pour essayer de voir un transit dans ces données ?

Ici, on a la magnitude (ou le flux) du système en fonction du temps. Pour pouvoir voir un transit, et c'est là toute la puissance de cette méthode de détection, il va falloir sommer les différents transits potentiels qu'il y a dans ces données. Pour cela, il faut trouver la bonne période sur laquelle sommer les données, et peut-être qu'alors avec une somme de plusieurs transits, on verra effectivement une courbe de lumière typique avec une baisse de flux quand la planète passe devant son étoile.

Question 1)

On peut essayer par exemple de sommer les signaux sur une période de 2 jours. En python cela donne :

from PyAstronomy.pyasl import foldAt

best_period=2#jours

phases = foldAt(bjd, best_period)

sortIndi = np.argsort(phases)

phases = phases[sortIndi]*best_period

mag = mag[sortIndi]

plt.plot(phases, mag)

Question 2)

On ne voit toujours rien. Idéalement, il faudrait pouvoir faire cela pour un très grand nombre de périodes et visualiser le résultat jusqu'à l'obtention potentielle d'une baisse de flux à un endroit de la courbe (i.e. voir le transit). C'est la méthode que l'on va utiliser, mais bien sûr, il est impossible de visualiser des millions de courbes à l'oeil et il faut trouver un bon indicateur que l'ordinateur puisse tester lui-même pour nous dire quand il y a effectivement une baisse de flux visible et donc un transit.

La méthode la plus couramment utilisée dans le domaine de la recherche est la méthode BLS (pour Box Least Square, développée par Kovacs et al. 2002). L'idée est de dire qu'un transit peut être en première approximation modélisé par une fonction porte (fonction rectangulaire). Un transit est en effet bien plus proche d'une fonction porte que d'un sinus ou cosinus car les variations lors de l'entrée ou de la sortie du transit qui peuvent être non rectangulaires ne représentent qu'une petite partie du signal et le reste du transit est plutôt plat. La décomposition en série de Fourier ne fournirait pas une fréquence donnée dominante mais plutôt un ensemble de fréquences alors que la fonction porte ne requiert qu'un terme pour bien modéliser le signal, d'où l'avantage.

On crée alors un modèle simple de fonction porte avec trois paramètres : sa profondeur, sa longueur (durée du transit) et sa phase (la date où le transit a lieu). On fait ensuite tourner le modèle sur un très grand nombre de périodes. Pour chaque période testée, l'algorithme BLS essaye de trouver les meilleurs paramètres (profondeur, longueur, phase) du modèle pour expliquer les observations. L'algorithme compare le meilleur modèle aux données et estime alors la vraisemblance (en log) du modèle en question (par exemple par une méthode des moindres carrés) et crée un périodogramme qui donne la vraisemblance du modèle en fonction de la période. On peut alors voir si certaines périodes paraissent plus vraisemblables que d'autres. Les pics dans le périodogramme indiquent la présence de planètes en transit ou du bruit non pris en compte dans le pré-traitement (detrending). Il faut faire attention aux faux-positifs avec cette méthode et les repérer est un champ actif de recherche dans lequel nous ne rentrerons pas en détails.

Trouvez la période du transit et sa profondeur dans les données de WASP-80.

Question 3)

Vérifiez ces valeurs en sommant les données initiales sur la période trouvée et en affichant le flux en fonction de la phase (vous pouvez utiliser le code de la question 1 ci-dessus pour sommer les différents transits sur une période donnée). Vous produirez aussi une deuxième courbe où vous moyennerez le signal dans des bins temporels d'environ 15 minutes pour avoir une courbe de transit plus lisse.

En faisant ce travail , on trouve le diagramme de la figure ci-jointe. :

Flux stellaire
projet/flux.png
Crédit : Q. Kral

Maintenant, on reconnaît une courbe de transit typique. On peut même zoomer sur la phase de transit pour obtenir la figure ci-jointe.

Transit
projet/zoom.png
Crédit : Q. Kral

On voit alors que la durée du transit totale est inférieure à 0.1 jours, i.e. <2.4h. Pour obtenir la courbe rouge rebinnée en python, on peut écrire un code ad hoc ou procéder ainsi :

from scipy.stats import binned_statistic

bin_means = binned_statistic(phases, mag, bins=300)

bin_means2 = binned_statistic(phases, phases, bins=300)

plt.plot(bin_means2[0], bin_means[0],color='red',linewidth=5)


WASP-80 : La planète

exerciceWASP-80 : Les paramètres de la planète

Déduisez maintenant le rayon de la planète et son demi-grand axe.

Question 1)

Il faudra d'abord trouver le rayon de l'étoile WASP-80 afin de pouvoir déterminer le rayon de la planète.

Question 2)

Le calcul du rayon de l'étoile que l'on vient de mener n'est qu'un calcul approximatif etTriaud et al. (2013) sont capable d'estimer ce rayon plus précisément à partir de leur jeu de données, ils trouvent R_e=0.57*R_s, que l'on utilisera par la suite pour comparer à leurs résultats.

Maintenant on peut déduire le rayon de la planète. En supposant que l'orbite est circulaire, on peut aussi déduire facilement son rayon orbitale à partir de la 3ème loi de Kepler

Question 3)

On peut maintenant comparer aux valeurs trouvées dans le papier originel de Triaud et al. (2013) (tableau ci-joint). On voit que nos valeurs pour R_(pla), la période et le demi-grand axe sont très proches des valeurs originelles.

Paramètres du système WASP-80
projet/Triaud2.png
article Triaud et al. 2013

On peut aussi comparer les valeurs trouvées avec celles de l'encyclopédie exoplanet.eu.

Comme vu dans le cours, on peut faire une première vérification pour tester pour un faux positif, en comparant la durée du transit théorique avec sa durée réelle que l'on a obtenue à la question 3 de la page précédente.


WASP-80 : Pour aller plus loin

Pour aller plus loin vous pouvez aussi essayer d'obtenir plus d'informations à partir des données, par exemple en utilisant, au lieu de la fonction porte, un vrai modèle de transit à la Mandel & Agol (2002) pour pouvoir déduire le paramètre d'impact et une possible excentricité en prenant en compte les effets d'assombrissement centre au bord (il y a une fonction python qui implémente ce modèle ).

Ce dossier(une fois décompressé, le fichier readme.txt décrit les différents fichiers) donne un ensemble de données qui permettent de faire d'autres analyses de cette planète:

Au boulot !


-------------FIN DU CHAPITRE ------------- -------------FIN DU CHAPITRE ------------- -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Modèles de Circulation Générale

Auteurs: Thomas Navarro, François Forget

Modèles de circulation générale

L'étude des atmosphères des exoplanètes n'est pas uniquement limitée aux observations. On peut en effet faire des découvertes intéressantes au moyen de modèles qui simulent leur atmosphère. Ces modèles sont des outils informatiques complexes bien que reposant sur des lois physiques simples, issus de décennies de recherche dans la modélisation de l'atmosphère de la Terre, puis des planètes du système solaire.

Avant de suivre ce cours, il est conseillé d'avoir suivi les deux cours précédents sur l'atmosphère : dynamique et température.


Découvrir


Les premières idées de modélisation de l'atmosphère

Commençons par dresser une rapide chronologie de l'histoire des modèles numériques qui, bien que spécifique à l'atmosphère terrestre, nous éclaire sur leur démarche de compréhension de la réalité et qui sera reprise plus tard pour les planètes de notre système solaire, puis pour les exoplanètes.

Tout commence avec les développements de la physique des fluides au XIXe siècle, qui permet l'émergence d'un cadre scientifique et rigoureux pour poser les bases de la physique atmosphérique et la compréhension des mécanismes à l'œuvre dans l'atmosphère. Plus précisément, la formulation des équations primitives atmosphériques par Bjerknes en 1904 montre que l'écoulement de l'air dans l'atmosphère est régi par sept équations à sept inconnues. Dès lors, selon Bjerknes, prédire le devenir de l'atmosphère reviendrait à intégrer dans le temps ces équations en les initialisant avec des données provenant de stations de mesures météorologiques

Le problème décrit pas Bjerknes s'avère complexe : on ne sait pas résoudre ces équations analytiquement en raison de leur forte non-linéarité. En 1922, Richardson tente de surmonter ce problème en découpant une zone géographique d'étude en cellules où il intègre les équations primitives en les discrétisant avec la résolution de différences finies. Pour ce faire, les calculs sont résolus à la main, une tâche qui semblerait aujourd'hui bien fastidieuse.

Bien que son intuition et son ambition soient remarquables, son expérience « d'ordinateur humain » échoue à reproduire les résultats espérés de l'écoulement atmosphérique. En effet, son système d'équation ne prenait pas en compte des termes d'ondes atmosphériques à haute fréquence pourtant présentes à l'initialisation du problème, ce qui a conduit à la divergence de la solution. Son expérience ne sera tentée à nouveau qu'après l'avènement de l'ère informatique dans la seconde moitié du XXe siècle.

Decouvrir/richardson.png
On peut voir sur cette page issue d'un travail de Richardson le découpage de l'atmophère en une grille régulière en Europe de l'Ouest. A chaque case correspond une ville se trouvant au plus proche du centre de la case pour mesurer la pression (cases noires) et le vent (cases blanches).
Crédit : Charney 1951 / Google books

Les premiers modèles numériques

En 1948 et 1949, Charney, Fjørtoft et von Neuman réussirent la première prédiction météorologique à l'aide d'un modèle numérique. Pour ce faire ils utilisèrent uniquement l'équation de vorticité pour une atmosphère barotrope, c'est-à-dire supposée homogène, de densité uniforme et sans mouvement vertical. S'ensuivirent quelques années plus tard le premier service de prédiction météorologique en temps réel au moyen d'un modèle numérique par Rossby en 1954.

Ces expériences suggérèrent que l'intégration des équations primitives ne suffisait pas à modéliser toute l'atmosphère. En effet, ces équations sont l'équation de Navier-Stokes et une équation d'état pour l'air, appliquée sur une sphère en rotation. Charney propose de prendre en compte également les phénomènes physiques à plus petite échelle, tels que la condensation de l'eau, les radiations visibles et infrarouges et les flux turbulents de chaleur et de moment. La prise en compte de ces effets, au moyen de paramétrisations, a été depuis et demeure encore actuellement un sujet de recherche majeur dans la modélisation numérique de l'atmosphère.

Un exemple de prédiction atmosphérique
ecmwf.gif
Les prévisions météorologiques s'appuient sur des résultats de simulations de modèles numériques d'atmosphères. L'exemple ci-dessus illustre une prédiction de vent (couleurs) et de pression de surface (contours).
Crédit : ECMWF

L'utilisation des modèles aujourd'hui

Depuis les années 1950, de très nombreux groupes de recherche ont développé des modèles numériques pouvant simuler l'atmosphère de par le monde. Comme on vient de le voir, leur motivation première provient de la volonté de prédire l'écoulement de l'air, ou autrement dit sa circulation. Le nom donné à de tels modèles est MCG, pour Modèle de Circulation Générale, mais on utilise plus communément l'acronyme anglais GCM. Aujourd'hui les applications des GCMs se sont diversifiées : en plus de la prédiction météorologique, on les utilise pour étudier le climat de la Terre et les effets du changement climatique, les climats passés, présents et futurs d'autres planètes (Mars, Vénus, Jupiter, Saturne, Pluton) ou satellites (Titan, Triton) dotés d'une atmosphère dans le système solaire ainsi que du climat d'exoplanètes.

Les observations que nous possédons aujourd'hui sur les exoplanètes ne suffisent pas encore à contraindre précisémment un GCM. En effet, il faudrait une bonne connaissance de leur orbite, rayon, masse, etc ... et évidemment de leur topographie (pour les planètes telluriques) et composition atmosphérique pour être à même de simuler spécifiquement l'atmosphère d'une exoplanète. Le plus souvent, l'utilisation d'un GCM pour modéliser des atmosphères d'exoplanètes tient dans des études assez générales qui nous renseignent sur le comportement d'une atmosphère avec des hypothèses génériques. Toutefois, on constate qu'un nombre grandissant d'études visent à simuler l'état atmosphérique d'exoplanètes connues de la manière la plus fidèle possible afin d'interpréter au mieux les premières observations de leur atmosphère.

Pour l'étude de la Terre, le terme de GCM peut aussi bien faire référence à un modèle qui simule son atmosphère ou ses océans. Le couplage d'un modèle d'océan et d'atmosphère, avec également d'autres modèles pour la surface (hydrologie, végétation, glace d'eau) conduit à l'apparition d'un modèle qu'on qualifie de Global Climate Model, et dont les initiales restent GCM. Le terme de GCM est ainsi utilisé avec ambiguité et peut désigner un modèle d'atmosphère seul, d'océan seul, ou de l'addition d'un modèle d'atmosphère, d'océan et de surface. Les initiales GCM peuvent indifférement vouloir dire Global Circulation Model ou Global Climate Model, mais on préférera le terme de climat à celui de circulation car bien souvent le but d'un GCM est de connaître le climat d'une exoplanète plutôt que sa circulation à un instant donné.

La planète Mars vue par le téléscope spatial Hubble
Decouvrir/mars4_hst_big.jpg
Ces quatre vues de la planète Mars montrent clairement la présence de nuages d'eau dans son atmosphère. Il est possible, grâce à un GCM, de simuler ces nuages et d'en apprendre plus sur leurs caractéristiques.
Crédit : S. Lee, J. Bell, M. Wolff, HST, Nasa

Comprendre


Qu'est-ce qu'un GCM ?

Un GCM (Global Climate Model) est un modèle numérique dont le but est de simuler l'atmosphère d'un corps planétaire. L'ambition est de pouvoir reproduire toutes les observations instrumentales possibles, par exemple la température, les vents, etc ... Le développement d'un GCM n'est jamais finalisé, et les accords aussi bien que les désaccords avec les observations disponibles poussent à améliorer le modèle, ce qui nous permet au passage d'en apprendre toujours plus sur les processus physiques à l'oeuvre dans le système climatique d'une corps planétaire.

Un GCM est basé sur un nombre limité d'équations, qui permet néanmoins d'atteindre un certain niveau de réalisme et de complexité. Il est fondamental de souligner que grâce à l'hypothèse d'universalité des lois de la physique, on arrive à adapter un GCM construit pour la Terre à d'autres corps dotés d'une atmosphère, moyennant un changement de certains paramètres (orbite, taille, composition, etc...), et l'ajout ou le retrait de certains processus physiques spécifiques au corps étudié. Par la suite, les explications sur la structure d'un GCM restent générales et ne sont pas, sauf mention autre, spécifiques à un corps en particulier.

Cette vidéo de l'Institut Pierre-Simon Laplace explique ce qu'est un GCM terrestre appliqué à la modélisation du climat.


Du modèle physique au modèle numérique

Une équation d'une loi physique comprenant une dérivée temporelle et/ou spatiale décrit l'évolution de variables continues avec le temps et/ou l'espace. On peut vouloir résoudre une telle équation au moyen de ressources informatiques, si par exemple sa résolution analytique est impossible ou si on veut l'intégrer à un ensemble plus complexe d'autres lois physiques. Pour ce faire, on procède à une discrétisation du temps et de l'espace, qui consiste à ne plus considérer les axes temporels ou spatiaux comme continus, mais au contraire comme un ensemble fini de valeurs. Ceci permet la discrétisation d'une équation, qui pourra dès lors être résolue par un ordinateur comme dans l'exemple suivant :

On utilise une grille régulière unidimensionnelle dont l'espacement entre deux points consécutifs est \Delta x, qu'on appelle pas spatial. De même, deux instants consécutifs sont espacés d'une durée \Delta t, qu'on appelle pas de temps. On souhaite discrétiser sur cette grille un champ u(t,x) qui est solution de l'équation d'advection : \frac{\partial u}{\partial t} = - c \frac{\partial u}{\partial x} , avec c ayant la dimension d'une vitesse. Pour procéder, on discrétise la variable u en un champ U sur la grille, dont la valeur au j-ième point de la grille au n-ième instant t est notée U^n_j = u(n\Delta t,j\Delta x).

Une manière de discrétiser l'équation d'advection est de l'écrire: \frac{U^{n+1}_{j}-U^{n}_{j}}{\Delta t} = -c \frac{U^{n}_{j}-U^{n}_{j-1}}{\Delta x} . Cette forme s'appelle un schéma amont.

La manière d'écrire les différentielles peut être différente. Ainsi on aurait pu l'écrire sous la forme d'un schéma centré pour la dimension spatiale : \frac{U^{n+1}_{j}-U^{n}_{j}}{\Delta t} = -c \frac{U^{n}_{j+1}-U^{n}_{j-1}}{2\Delta x}.

Ce qu'il faut retenir de cet exemple est que la discrétisation comporte une part d'arbitraire : il faut faire des choix, qui peuvent avoir des conséquences différentes sur la solution numérique finale.

Une équation discrétisée est donc une approximation de la véritable équation. La première question de la discrétisation est de savoir si, pour reprendre l'exemple précédent, le champ discrétisé (U^n_j) va tendre vers le champ analytique u(t,x) lorsque \Delta t et \Delta x tendent vers zéro. La deuxième question est de savoir à quel point la solution obtenue sera une approximation de la solution analytique. La manière de discrétiser puis utiliser une équation est une discipline en soi et il serait vain de vouloir introduire le sujet ici. Il faut juste garder à l'esprit qu'un GCM est un ensemble d'équations discrétisées, et par conséquent une approximation de la réalité. Cette approximation n'est pas du tout rédhibitoire et n'est pas le principal contributeur d'erreur d'un GCM. Toutefois, la discrétisation impose une règle forte sur le dimensionnement du GCM.

Cette règle, appelée condition de Courant-Friedrich-Lévy, repose sur le nombre de Courant : C = \frac{v \Delta t}{\Delta x} avec v la vitesse maximale, \Delta t le pas de temps et \Delta x le pas d'espace. Cette condition stipule que dans un cas simple ce nombre ne doit pas dépasser 1. Autrement dit, on choisit les pas de temps et d'espace tels qu'aucune particule d'air ne traverse plus d'une parcelle géométrique en un pas de temps. En pratique, l'utilisation de plusieurs équations dans un modèle, ainsi que l'utilisation de techniques de discrétisation plus poussées, font que cette simple condition n'est pas la seule à prendre en compte. Toutefois, cette condition demeure une limite forte et on aura toujours C \le 1 dans un GCM.


Structure d'un GCM

La structure d'un GCM peut se décomposer en "briques" indépendantes qui communiquent entre elles. Du fait de l'universalité de ces équations, la nature de ces briques est la même quel que soit le corps étudié. La structure d'un GCM est en général composée des briques suivantes :

  1. Un "coeur" hydrodynamique
  2. Un transfert radiatif
  3. Une paramétrisation de la convection et de la turbulence à une échelle non résolue par le coeur hydrodynamique
  4. Un modèle thermique pour la surface et la sous-surface
  5. Un modèle d'évolution des nuages et aérosols

Étant donné que l'atmosphère est fortement stratifiée à grande échelle en vertu de l'équilibre hydrostatique, les longueurs caractéristiques horizontales et verticales ne sont pas les mêmes. Ceci permet de découper le GCM en deux parties différentes :

La première, appelée « dynamique », est le coeur hydrodynamique. Dans cette partie on calcule l'écoulement du fluide qu'est l'air autour d'un corps sphérique planétaire. Elle consiste en l'implémentation des équations primitives et calcule la circulation atmosphérique. A un niveau vertical donné, les mouvements sont uniquement horizontaux. Le terme de "coeur" provient du fait que la partie dynamique sert à propager les mouvements à l'échelle horizontale, laquelle échelle domine la circulation globale de l'atmosphère.

La seconde, appelée « physique », rassemble tous les autres processus physiques à l'œuvre dans l'atmosphère sous forme de paramétrisation. Cela correspond donc au moins aux briques 2 à 5, mentionnées ci-dessus. La partie physique est une colonne verticale d'atmosphère : il s'agit d'un même modèle unidimensionnel démultiplié autant de fois qu'il existe de points dans la grille horizontale (donc dynamique) du modèle.

Les colonnes de la partie physique sont indépendantes les unes des autres et ne communiquent que via la partie dynamique par des mises à jour de pression, températures, vents et traceurs. On peut également voir la situation dans le sens inverse : la partie dynamique consiste en des couches sphériques imbriquées les unes dans les autres qui ne communiquent que via la partie physique.

Ce découpage en deux parties permet de faire appel à la partie physique moins souvent qu'à la partie dynamique, car les processus physiques en jeu ont des temps caractéristiques différents et donc des pas de temps d'intégration différents. Typiquement, on utilise la partie physique tous les 10 à 20 utilisations de la partie dynamique.

Structure d'un GCM
Comprendre/interfacedynphy.png
Ce schéma illustre le principe de fonctionnement et l'interface des parties physique et dynamique d'un GCM.
Crédit : LMD

Partie dynamique


Discrétisation horizontale

Un GCM consiste en la discrétisation du temps en des instants régulièrement espacés (typiquement de l'ordre de la minute pour une planète comme la Terre) et en la discrétisation d'un espace tridimensionnel qu'on suppose être une sphère d'épaisseur mince. Il existe deux grandes manières de discrétiser la sphère pour les champs atmosphériques. La première consiste à placer un certain nombre de points pour recouvrir la sphère, dans une méthode qu'on appelle différences finies. La deuxième consiste à discrétiser non pas en coordonnées géométriques, mais en coordonnées spectrales : les champs atmosphériques sont décomposés en harmoniques sphériques et tronqués au-delà d'une certaine harmonique. Dans ce dernier cas, il est nécessaire de faire la transformation des variables atmosphériques de l'espace fréquentiel vers l'espace géométrique avant l'appel à la partie physique et inversement.

En utilisant la méthode des différences finies, on peut trouver plusieurs façons de découper une sphère. Dans le cas d'une grille latitude-longitude, la dimension horizontale est tout simplement découpée en longitudes et latitudes également espacées, ce qui produira un point singulier à chaque pôle. Afin d'éviter ce problème on peut utiliser un découpage dit cube sphère, qui consiste en la projection d'un cube discrétisé sur la sphère, et donnera 8 points singuliers au lieu de deux dans le cas d'une grille latitude-longitude, mais qui seront plus simples à gérer. On peut également s'affranchir de tout point singulier au moyen d'un grille icosahédrique qui utilise des triangles pour couvrir la sphère. On peut imaginer d'autres manières de procéder, mais ces trois là constituent l'immense majorité des GCMs.

Le nombre et l'emplacement des points dans les dimensions horizontale et verticale restent fixés lors de l'exécution du programme informatique. Il est possible d'utiliser une résolution qui s'adapte aux conditions atmosphériques à un moment donné, mais cette particularité est encore (en 2017) peu répandue parmi les GCMs, et induit des complications qui font qu'on considérera que la résolution est fixée pour le reste de ce cours. On utilise le terme de résolution pour parler de la quantité de points utilisés dans la discrétisation spatiale. Ce terme s'utilise aussi dans le cas d'une discrétisation spectrale, et il correspond au nombre de modes employés dans la représentation des champs atmosphériques.

La résolution spatiale d'un GCM va typiquement de quelques centaines de kilomètres jusqu'à quelques milliers de kilomètres. Ce qui se passe en dessous de cette échelle n'est pas directement représenté. S'il s'avère nécessaire de tenir compte d'un processus qui se déroule à une échelle plus petite, une paramétrisation de ce processus est nécessaire, et est généralement intégrée dans la partie physique du modèle.

latlongrid.jpg
Grille latitude-longitude. Les pôles sont des points singuliers qu'il convient de traiter de manière particulière lors de la discrétisation des équations primitives sur cette grille.
Crédit : MITgcm
cubedsphere.png
Grille cube sphère. Chaque face d'un cube, déjà découpée, est projetée sur une sphère de même centre.
Crédit : Bruno Luong
icosahedron.png
Grille icosahédrique. Chaque triangle peut être individuellement redécoupé en plus petits triangles.
Crédit : Sadourny et al. 1969
spectral.gif
Discrétisation spectrale. On décompose chaque champ atmosphérique en harmoniques sphériques. L'avantage est d'éviter tout point singulier, mais il faut sans cesse faire la conversion sur une grille découpée spatialement, comme les trois autres évoquées ici, pour faire le lien avec la colonne physique. On voit ici à quoi correspondent les 21 premiers modes.
Crédit : Benoit Moser. Lesia.

Le cœur dynamique

Le cœur hydrodynamique ou plus simplement partie dynamique d'un GCM consiste en la discrétisation des équations primitives sur la grille horizontale. Le but de la partie dynamique réside essentiellement dans le calcul des vents, de la température, ainsi que du transport des traceurs. En général, plusieurs approximations sont faites dans ces équations qui nous viennent de l'étude de l'atmosphère terrestre, et qui doivent être remises en cause lorsqu 'appliquées à une autre atmosphère :

Ainsi, le cœur hydrodynamique d'une planète autre que la Terre nécessite des adaptations et des généralisations par rapport à ce qui se fait depuis plus d'un demi-siècle dans le domaine de la modélisation terrestre. L'étude des planètes du système solaire a permis de mieux cerner ces généralisations, qui aujourd'hui s'appliquent aux exoplanètes.


Partie physique


Discrétisation verticale

On a vu qu'il existe différents types de discrétisation horizontale dans la partie dynamique. La discrétisation verticale pour la physique peut également varier d'un GCM à l'autre.

En général la dimension verticale, c'est-à-dire du bas vers le haut, fait intervenir la pression comme coordonnée naturelle plutôt que l'altitude. En effet, les dimensions horizontales d'un GCM sont telles que l'équilibre hydrostatique (voir ici) est toujours respecté, les fluctuations de pression autour de cet équilibre ne peuvent pas être représentées à l'échelle d'un GCM. Dès lors, la pression diminue de manière monotone avec l'altitude et constitue un système de coordonnées naturelles, d'autant plus qu'en vertu de l'équilibre hydrostatique, il existe un lien direct entre la pression et la masse d'atmosphère située au-dessus.

Le nombre de niveaux verticaux est de l'ordre de quelques dizaines, typiquement entre 20 au minimum pour représenter la circulation et 100 pour un modèle très résolu s'étendant très haut en altitude. À mesure que l'on monte en altitude, les niveaux sont de plus en plus espacés.

Ainsi, s'il arrive qu'à une altitude donnée la pression varie avec le temps, les niveaux verticaux suivront de fait cette variation. Pour les planètes telluriques, la topographie contrôle en grande partie la pression de surface, et il existe une représentation hybride qui tient compte de la topographie dans les plus basses couches de l'atmosphère, tout en se basant sur les niveaux de pression à plus haute altitude.

La question des limites du domaine représenté ne se pose par pour la grille dynamique, car elle représente une sphère. Pour la physique, l'extension verticale requiert de poser une limite en bas et en haut. La surface sert de limite dans le bas de l'atmosphère, et on impose les flux de masse verticaux en haut et en bas comme étant nuls. Ceci nécessite pour la limite haute la mise en place d'une couche-éponge pour éviter la réflection non réaliste d'ondes atmosphériques sur le plus haut niveau du modèle.

Grille/levels2.png
La discrétisation verticale en niveaux de pression ne tient pas compte de la topographie des planètes telluriques. Dans les plus basses couches de l'atmosphère, on peut utiliser une correction utilisant la pression de surface de manière progressive avec l'altitude .

Transfert radiatif

Le transfert radiatif dans un GCM est une paramétrisation qui vise à calculer l'impact du rayonnement sur l'atmosphère. In fine, le rayonnement donne lieu à des taux de chauffage ou de refroidissement de l'air, qui varient spatialement et temporellement. Le transfert radiatif est un point crucial pour le réalisme d'un GCM. En effet, il est le moteur de la circulation atmosphérique qui, en provoquant des gradients de température à l'échelle globale, va forcer tous les mouvements à grande échelle.

Le taux de chauffage ou de refroidissement atmosphérique provient de l'interaction entre d'une part le rayonnement et d'autre part deux entités :

Pour compliquer les choses, le connaissance du rayonnement lui-même dépend de ces deux entités. En haut de l'atmosphère, le rayonnement provient bien entendu de l'étoile. Dans l'atmosphère, ce rayonnement provient à la fois de l'étoile, en ayant été en partie absorbé ou diffusé par les gaz et les aérosols, et à la fois des gaz et aérosols eux-mêmes par émission thermique.

Il existe trois types de méthodes pour calculer le transfert radiatif à travers des gaz dans un GCM. Elles nécessitent avant tout une bonne connaissance du spectre du mélange de gaz présent dans l'atmosphère. Ce spectre est obtenu au moyen de simulateurs spécifiques, et vaut pour une température, une pression et une composition atmosphérique données. On pourrait d'abord naïvement tenter de calculer la contribution de chaque longueur d'onde au bilan radiatif global, mais c'est en pratique impossible car un tel calcul prendrait trop de temps pour les besoins d'un GCM. Au lieu de cela, il faut faire des simplifications. La plus simple est d'utiliser un modèle par bandes, dans lequel le flux radiatif est moyenné sur différents intervalles de longueurs d'onde. Une amélioration de cette méthode, appelée puissance nettes échangées, consiste à ne pas considérer les flux radiatifs du rayonnement, mais les échanges entre chaque niveau vertical de la colonne physique du GCM. Enfin, la méthode des distributions k-corrélées consiste à classer les lignes d'absorption du spectre par intensité croissante, puis à les interpoler par une fonction analytique. On passe ainsi de données spectrales très précises mais en nombre important et donc difficilement exploitables, à une approximation décrite par quelques paramètres et rapide en utilisation.

Le transfert radiatif des aérosols nécessite de connaître leur taille et leur composition afin de paramétriser leur effet sur la température atmosphérique. On peut employer les techniques précédemment décrites pour les gaz. Une technique largement employée est la division en bandes dans le spectre visible et infrarouge.

Pour aller plus loin, un GCM martien développé par la Nasa fournit une documentation sur le transfert radiatif d'un modèle.

spectre.png
Une portion du spectre en absorption de l'air martien. On ne peut pas utiliser explicitement chaque ligne d'absorption dans le code radiatif. Un tel spectre doit être simplifié.
Crédit : Mischna, Lee, Richardson 2012

Convection et turbulence

Certains processus de mélange de l'air interviennent à des échelles plus petites que celles résolues par la dynamique. Ces processus sont essentiellement la convection, qui peut se structurer en cellules de plusieurs de kilomètres, et la turbulence, qui agit depuis les échelles microscopiques jusqu'à quelques dizaines de mètres.

Une méthode simple pour représenter la convection consiste à utiliser un modèle dit d'ajustement convectif, qui va corriger le profil vertical de température vers un profil adiabatique stable. Autrement dit, on force la température potentielle à être constante là où le profil est instable. Bien que ce soit effectivement ce que la convection produit à grande échelle, un tel modèle ne tient pas compte des ascendances et descendances verticales dans la couche limite planétaire. De nouveaux modèles, appelés flux de masse, donnent une paramétrisation des mouvements d'air dans une parcelle physique de GCM. On peut ainsi tenir compte de la variation de densité de l'air si une espèce condense, ce qui va générer des mouvements verticaux.

La turbulence est le mouvement chaotique de l'air en dehors du régime laminaire. On en tient compte avec une paramétrisation qui donne l'effet des mouvements turbulents à grande échelle. Ceci est particulièrement pertinent pour les mouvements proche du sol, où la différence de température entre la surface chauffée par le soleil et l'atmosphère crée de la turbulence pendant le jour.

convection.jpg
Ce schéma représente les flux de masse convectifs tels que paramétrisés dans un GCM. w : vitesse verticale. Le flux de masse f dépend de l'ascension a (depuis la surface) et e (au dessus), ainsi que de la descendance d.
Crédit : Rio et Hourdin, 2008

Surface et sous-sol

Les planètes telluriques possédent une surface solide ou liquide avec laquelle l'atmosphère est en interaction. Ces interactions se font au travers des flux radiatifs (provenant de l'étoile, de l'atmosphère et de la surface), du transfert de chaleur entre l'air et la surface par convection, et la libération de chaleur par changement de phase d'un solide ou d'un liquide à la surface (typiquement, la condensation de la vapeur d'eau). La surface planétaire joue donc un rôle important dans le forçage de l'atmosphère à sa base.

La diffusion de chaleur dans le sous-sol joue un rôle à la surface, et il est nécessaire d'en tenir compte. Ainsi, de nombreux GCMs possèdent un modèle de sous-sol pour l'équation de diffusion de la chaleur, divisé en niveaux verticaux de plus en plus profonds (jusqu'à typiquement quelques mètres), de la même manière que l'atmosphère est représenté en niveaux verticaux de pression. Chaque niveau vertical a des propriétés qui dépendent des caractéristiques supposées du sous-sol.

Certains corps peu irradiés, comme Pluton et Triton, voient leur atmosphère dominée de manière importante par la surface et le sous-sol. Pour ces exemples, la chaleur stockée dans le sous-sol met plusieurs siècles à être restituée à la surface, ce qui nécessite une initialisation méticuleuse du modèle de sous-sol.

Cette approche de modélisation du sous-sol convient également dans le cas d'un océan liquide. Toutefois, un plus grand réalisme requiert de prendre en compte la circulation océanique, ce qui peut se faire grâce au couplage avec un modèle d'océan dédié.

Un GCM de planète gazeuse ne modélise évidemment pas la surface. Il se contente de représenter l'atmosphère jusqu'à une certaine pression, et utilise un forçage de flux radiatif, tout en imposant les flux verticaux de masse à zéro.

Comprendre/PhoenixIce.jpg
Image du sol martien transmise par la sonde Phoenix. On peut voir que le souffle des tuyères a mis à jour de la glace d'eau enfouie sous le sol. Cette glace est présente sur des portions importantes de Mars et possède une inertie thermique élevée qui doit être prise en compte dans un GCM.
Crédit : Marco di Lorenzo, Kenneth Kremer, Nasa / JPL / UA / Max Planck Institute / Spaceflight

exerciceExercice

Difficulté : ☆☆☆  

L'équation de diffusion de la chaleur unidimensionnelle dans le sous-sol est donnée par C \frac{\partial T}{\partial t} = \frac{\partial}{\partial z} \left[ \lambda \frac{\partial T}{\partial z} \right] avec C la capacité thermique volumique et \lambda la conductivité thermique du matériau. On veut simuler au moyen d'un GCM une planète dont la surface est recouverte d'une épaisse couche de glace.

On prendra pour C une valeur de 2 J.cm-3.K-1 et pour \lambda une valeur de 2.4 W.m-1.K-1, et on supposera les propriétés de la glace constantes et homogènes sur toute la planète.

Question 1)

Sachant que sur cette planète une année dure 150 jours terrestres, quelle doit-être est la profondeur minimale du modèle de sous-sol ?

Question 2)

Comment faut-il espacer les niveaux verticaux du modèle de sous-sol ?


Aérosols et nuages

On a vu à quel point les aérosols jouent un rôle important en raison du transfert radiatif. Au-delà de leur impact sur les températures, leur étude en soi nous permet de mieux comprendre comment certaines espèces sont transportées à grande échelle et se déposent en surface.

Un aérosol est transporté horizontalement par la dynamique en tant que traceur. Dans la partie physique, on cherche à comprendre, en plus de leur effet radiatif, comment ils vont se former et se répartir sur l'axe vertical. Pour cela, on doit disposer d'une modélisation qui nous permette de calculer les tailles des particules des aérosols. Cette taille peut être établie de manière empirique, ou calculée à partir d'équations décrivant les processus de changement de phase.

Ces aérosols peuvent servir de noyaux de condensation (ou CCN) sur lesquels peuvent venir se condenser certaines espèces gazeuses, pour ensuite former des nuages. C'est par exemple le cas avec la formation de nuages d'eau (sous forme de cristaux de glace ou de gouttelettes liquides) sur Terre ou encore de nuages de glace de dioxyde de carbone (CO2) sur Mars. Sur certaines exoplanètes, on a même par exemple observé des nuages de chlorure de potassium ou de sulfure de zinc. Comme nous l'enseigne si bien la Terre, les nuages ont un rôle essentiel sur le bilan radiatif des planètes.

Lors d'un changement de phase (gaz solide/liquide), la libération de chaleur latente doit également être prise en compte. La prise en compte de cet effet est notamment critique pour un GCM terrestre, étant données les grandes quantités d'eau pouvant s'évaporer ou se condenser dans l'atmosphère de notre planète. C'est par exemple un point clé pour comprendre l'échange de chaleur des basses vers les moyennes latitudes terrestres.

En pratique, la discrétisation d'un GCM repose sur des cellules de grande taille, qui représentent l'état moyen de l'atmosphère en leur sein. Pour représenter l'effet radiatif des nuages dans l'atmosphère d'une planète, il faut calculer proprement la fraction nuageuse dans chaque cellule du GCM, c'est-à-dire calculer la proportion (de la surface horizontale) de cette cellule où se trouve les nuages. Il existe un certain nombre de techniques plus ou moins sophistiquées qui permettent de traiter ce problème de recouvrement, mais cela dépasse le cadre de ce cours.

Comprendre/marsclouds.jpg
Des nuages de cristaux d'eau dans l'atmosphère de Mars vus par la sonde Phoenix.
Crédit : Wikipédia
venusclouds.jpg
Ce cliché pris par la sonde Mariner 10 montre l'épaisse couche de nuages composée principalement d'un mélange H2SO4-H2O qui recouvre l'intégralité de Vénus.
Crédit : Nasa

Quelques spécificités

À titre d'exemple, voici quelques spécificités propres à plusieurs corps planétaires, qui sont autant de "briques" à ajouter dans la partie physique :


En pratique

En pratique, un GCM est un programme informatique qui exécute des instructions résumées dans un code écrit dans un certain langage. En général, les modélisateurs optent pour le langage Fortran car il possède de nombreuses librairies mathématiques, est rapide dans l'exécution du programme généré, et on peut miser sur l'héritage de modèles plus anciens qui utilisaient eux aussi le Fortran il y plusieurs décennies. Un GCM cumule au minimum des dizaines de milliers de lignes de code et requiert un investissement conséquent pour être développé et mis à jour.

code.png
Un exemple de code informatique en langage Fortran tel qu'utilisé dans la programmation d'un GCM. On voit ici la portion du programme où on a recours à la brique physique dont les tendances sont transmises à la brique dynamique.
Crédit : LMD

Le temps de simulation est également un paramètre important à prendre en compte : on ne peut pas faire le même type d'étude selon qu'une simulation dure 5 minutes ou 5 mois. Dans le premier cas on peut par exemple envisager un nombre très important de simulations pour explorer la sensibilité du modèle à de multiples paramètres, tandis que dans le second cas la simulation sert de réference qui sera analysée en détail et on évitera à tout prix une erreur en amont, avant l'exécution du modèle. Il serait difficile de donner un chiffre typique sur le temps de simulation, étant donné qu'il dépend des ressources informatiques et de la résolution, du pas de temps, et de la configuration du modèle. Toutefois, afin de donner un ordre de grandeur, on peut avancer un rapport pouvant varier dans la plupart des cas de 100 à 10 000 entre le temps simulé et le temps réel d'exécution d'un GCM.

exerciceExercice

Difficulté :   

Cet exercice a pour but d'estimer la taille d'un fichier de sortie d'une simulation de GCM. Considérons un exemple représentatif : on simule une planète dont le jour solaire est de 24h et l'année dure 100 jours. La grille utilisée est de type latitude-longitude, avec respectivement 48 et 64 points dans ces dimensions, et 20 niveaux verticaux.

Question 1)

Combien de points la grille contient-elle au total ?

Question 2)

On souhaite pourvoir étudier la circulation atmosphérique. Combien de variables utiliseriez-vous ?

Question 3)

Les variables sont écrites dans le fichier de sortie 6 fois par jour pour bien représenter le cycle diurne. Une valeur est représentée au moyen de 4 octets. Quelle est la taille informatique d'un fichier de sortie pour une année de simulation ? Qu'en pensez-vous ?


Utiliser un GCM chez soi

Il existe des dizaines et des dizaines de GCM différents de par le monde, utilisés avec des buts parfois différents. Un moyen simple d'utiliser soi-même un GCM est d'utiliser une version simplifiée, développée à des fins éducatives ou de validation. Leur prise en main est plus simple et plus rapide qu'un GCM classique, bien qu'il faille également y consacrer un certain temps pour installer, utiliser et interpréter le modèle. On peut citer :


Autres types de modèles

De manière plus générale, il existe toute une hiérarchie de modèles numériques de climat qui permettent de simuler l'atmosphère des planètes. Par exemple, les modèles Mésoéchelle ou LES (pour Large Eddy Simulation) et modèles CRM (pour Cloud Resolving Model) permettent de simuler l'atmosphère à des échelles beaucoup plus fines que les GCM, afin de modéliser toutes les processus dynamiques et physiques qui y opèrent (par exemple la convection).

Ces types de modèles (Mésoéchelle, LES, CRM) sont très coûteux en temps de calcul du fait de leur résolutions spatiale et temporelle plus fines qu'un GCM. On les utilise généralement dans une région spécifique de la planète, pour comprendre et quantifier des mécanismes physiques qui ne peuvent pas être résolus par les GCMs. Ces types de modèles sont donc généralement utilisés de manière complémentaire aux GCMs, par exemple pour fournir des paramétrisations physiques de processus sous-maille aux GCMs.


Se tester


QCM 1

Lien ici

qcmQCM

1)  Que signifient les initiales GCM ?




qcmQCM

1)  Pourquoi utilise-t-on un GCM pour simuler l'atmosphère des exoplanètes ?




2)  Usuellement, comment appelle-t-on les deux constituants majeurs d'un GCM ?




QCM 2

qcmQuestion de cours

1)  Pourquoi appelle-t-on plus souvent la partie dynamique que physique ?



2)  L'ordre de grandeur de la résolution horizontale d'un GCM est de :






3)  Quel est la grandeur utilisée pour l'échelle verticale d'un GCM ?




4)  Dans un GCM, le transfert radiatif est :




Exercices

exerciceExercice

Question 1)

Vous oubliez de brancher la physique dans votre GCM de planète tellurique. Que peut-il se passer au niveau des résultats ?

exerciceExercice

Question 1)

Vous avez un modèle de dimension N_longitude x N_latitude et vous passez 2N_longitude x 2N_latitude. Que faut-t-il faire pour respecter la condition CFL ? A priori, par combien sera multiplié le temps de calcul ?

Question 2)

On souhaite simuler avec un GCM une atmosphère de diazote pour une planète d'un rayon de 6000 km. On sait par ailleurs, en considérant le flux radiatif de l'étoile et sa distance à la planète, que la température maximale dans cette atmosphère n'excèdera pas 400 K. On demande à un étudiant d'effectuer une première simulation de cette atmosphère. L'étudiant propose d'utiliser une grille latitude-longitude avec 100 points en longitude et 100 points en latitude et un pas de temps dynamique de 20 minutes. On lui répond que sa simulation échouer. Pourquoi cela ?


Mini Projet


GCM en ligne

Ce mini projet vise à prendre en main un GCM à partir de résultats de simulations et d'une interface dédiée. On se propose pour cela de voir la sensibilité d'un GCM, et tout particulièrement la circulation atmosphérique, à la période de rotation et à la taille d'une planète.

La configuration du modèle est la suivante :

On se propose de voir la sensibilité de ce GCM à la période de rotation et à la taille de la planète. Pour ce faire, on utilise 3 rayons et 6 périodes de rotations différentes, formant donc un total de 18 simulations. Les variables disponibles en sortie sont :

complementPour aller plus loin

Le mini-projet se poursuit avec le cours sur la dynamique atmosphérique.


Analyse des simulations

Pour chaque simulation, 60 pas de temps ont été stockés, avec une écriture de 1m 20s entre deux pas de temps :

exerciceExercice

Question 1)

Calculer le temps nécessaire pour effectuer une simulation.

Question 2)

Le coefficient de super-rotation est le rapport entre le vent zonal et la vitesse du sol due à la rotation de la planète. Comment exprime-t-on ce coefficient en fonction du vent et des caractéristiques de la planète ?

Question 3)

Calculer la taille occupée sur le disque par toutes les simulations.

Question 4)

Le calcul a été effectué grâce à un processeur cadencé à 3.6 GHz. Donner des arguments qui expliquent pourquoi les simulations ont été précalculées avant que vous ne les utilisiez. Quel est l'inconvénient ?

Un rappel newtonien a été utilisé pour simuler la partie physique. Cela consiste, à chaque appel à la physique, à relaxer le champ de température vers une température de référence imposée T_{ref}. On utilise la formulation donnée par Held & Suarez, Bulletin of the American Meteorological Society, vol. 75 , N°10, Octobre 1994. Le terme correctif est :

\left( \frac{\partial T}{\partial t}\right)_{phy} = \left( \frac{\partial T}{\partial t}\right)_{dyn} - k_T(T-T_{ref})

avec k_T un coefficient de rappel dépendant de la latitude \theta et de la coordonnée hybride \sigma = \frac{p}{p_s} (où p est la pression et p_s la pression de surface). La loi pour T_{ref} et k_T est :

T_{ref}(\theta,\sigma) = max \left[ 200, \left( 315 - 60\sin^2\theta -10 \ln (\sigma) \cos^2\theta \right) \sigma^\frac{2}{7}\right]

k_T(\theta,\sigma) = \frac{1}{40} + \frac{9}{40} max \left( 0,\frac{\sigma-0.7}{1-0.7} \right) \cos^4\theta

exerciceExercice

Question 1)

Analyser l'expression de la température de référence T_{ref} : comment varie-t-elle avec la latitude et l'altitude ?

Physiquement, à quoi correspond T_{ref} ?

Question 2)

Analyser l'expression du coefficient de rappel k_T : comment varie-t-il avec la latitude et l'altitude ?

Pourquoi le rappel dépend-il ainsi de la latitude et de l'altitude ?

Question 3)

Comment sont représentés les jours et les saisons dans un GCM utilisant ce rappel newtonien ?

À quoi correspond la variable temporelle ?

Question 4)

Comment est modélisée la surface ?

Question 5)

Selon vous, pour quelles raisons utiliser ce rappel en lieu et place d'une physique plus complète ?


Exploration des données

Il s'agit de prendre en main les données et de se familiariser avec l'exploration de champs de 2 à 6 dimensions.

methodeManuel de l'utilisateur

L'interface de GCM en ligne permet d'afficher une variable du GCM. Chaque variable possède au plus 6 dimensions, tandis qu'une figure comporte 1 à 3 dimension(s) (une dimension suivant l'axe des abscisses obligatoirement, une dimension suivant l'axe des ordonnées, et une dimension temporelle pour le défilement). En effet, un être humain peut difficilement appréhender un jeu de données à plus de 3 dimensions d'un seul coup d'oeil. Pour visualiser une variable il s'agit donc de réduire le nombre de dimensions d'une variable. Pour cela on choisira, sur une à plusieurs dimensions, une valeur ou une moyenne sur un intervalle de valeurs.

DimensionsNombre de valeursValeursRemarquesVariables
TempératureVentsPression de surfaceFlux de masseSuper-rotation
Période de rotation65h - 10h - 24h - 72h - 240h - 2400hChaque valeur correspond à une simulation différenteXXXXX
Rayon de la planète30.5, 1 et 2 rayons terrestresXXXXX
Latitude48-90° à 90°Vu le grand nombre de points, l'interface sélectionne la valeur la plus proche du curseur de la régletteXXXXX
Longitude64-180° à 180°XXXX
Altitude151 bar à 0.5 mbarValeurs suivant une décroissance logarithmiqueXXXX
Temps600 à 60 unitésXXXX

exerciceExercice

Question 1)

Afficher la température et la pression de surface au niveau du sol, puis à d'autres altitudes à un instant donné ou en faisant défiler les instants sur un intervalle de temps. Comment évolue le champ de pression de surface en demandant différentes altitudes ? Pourquoi ?

Question 2)

Afficher un profil vertical de température à l'équateur.

Question 3)

Afficher le champ de température et la pression de surface en moyenne zonale, puis la température et le vent zonal. Que remarquez-vous ? Pourquoi ?

Question 4)

Un diagramme de Hovmöller permet de visualiser la propagation d'ondes, en affichant un champ en fonction du temps et de la longitude ou latitude. Faire un tel diagramme sur le champ de votre choix et estimer la ou les période(s) des ondes présentes.

Question 5)

Afficher la température en fonction de la latitude et de la vitesse de rotation, à une altitude donnée et en moyenne zonale.

Question 6)

Afficher la pression de surface en fonction de la vitesse de rotation et du rayon de la planète.


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Exoplanètes : Statistique et probabilités

Auteur: Sylvain Fouquet

Exoplanètes : Statistique et probabilités

Dans la recherche des exoplanètes, une question passionne les astrophysiciens et bien plus encore le reste de l'humanité : y a-t-il de la vie sur une autre planète ? La Terre prouve qu'un certain type de vie basée principalement sur le carbone peut exister. Reste à savoir si les processus ayant permis l'émergence de cette vie sur la Terre ont pu se produire sur une autre planète. La question de la vie extraterrestre ne se pose pas en terme de possibilité mais en terme de sa probabilité, de sa fréquence d'apparition.

La première partie de ce cours utilise les propriétés des exoplanètes pour faire découvrir la statistique, cet outil mathématique indispensable dans les sciences et en particulier en astronomie. La seconde partie du cours généralise et clarifie les notions mathématiques importantes du point de vue des probabilités. La troisième partie met à disposition des séries d'exercices pour tester les connaissances. Enfin la dernière partie est un test des connaissances mêlant statistiques et probabilités, mêlant cours et observations.

Dans la première partie des cours, des valeurs statistiques concernant la population des exoplanètes sont données pour illustrer les concepts présentés. Le nombre d'exoplanètes augmentant très rapidement, les paramètres statistiques évoluent aussi. Les valeurs actualisées peuvent être calculées à partir du catalogue.

Ce cours s'adresse à des étudiants de niveau L1 et plus. Il ne requiert aucune connaissance sur les probabilités ou la statistique.


Statistique des exoplanètes

Auteur: Sylvain Fouquet

Introduction

Planètes du système solaire
Carte_systeme_solaire.jpg
Planètes et planètes naines (encadrées sur fond marron) découvertes dans le système solaire.
Crédit : http://mash.wifeo.com/astronomie.php

Cette première partie du cours s'intéresse à la statistique à travers le cas particulier des exoplanètes. Cet outil mathématique sert à extraire de l'information de grands échantillons de mesures. Les concepts statistiques décrits ici pour les exoplanètes sont généralisables dans d'autres cas. La statistique découle naturellement de questions scientifiques telles que "combien y a-t-il de planètes dans notre galaxie ?" ou encore "quelles masses ont elles ?" ou "quelles sont leurs distances à leurs étoiles hôtes ?". Ces questions sont déterminantes pour comprendre la formation et l'évolution des planètes et pour aider à la recherche d'une vie extraterrestre.

Avant les années 90, la connaissance sur les planètes se limitait aux neuf planètes du système solaire, Mercure, Vénus, la Terre, Mars, Jupiter, Saturne, Uranus, Neptune, Pluton. L'étude des exoplanètes n'existait pas faute d'observation. Il semblait cependant probable que d'autres planètes existaient autour d'autres étoiles que le Soleil, la formation d'une planète ne semblant pas un mécanisme requérant des conditions très spécifiques. Bien qu'Aleksander Wolszczan ait découvert des exoplanètes en septembre 1990 avec le radiotélescope Arecibo autour du pulsar PSR B1257+12 (une étoile en fin de vie, très dense avec une rotation très rapide), la science des exoplanètes a réellement débuté en 1995 avec la découverte de "51 Pegasi b" autour d'une étoile de type solaire par Michel Mayor et Didier Queloz. Plus de dix ans après, près de deux milles exoplanètes ont été découvertes et ce chiffre ne cesse de croître.

En plus des planètes du système solaire, des planètes naines ont été découvertes telles que Cérès. Pluton fut rétrogradée de son rang de planète pour devenir une planète naine.

Avec près de 2000 exoplanètes, des études statistiques permettent de découvrir des propriétés statistiques contraignant les modèles de formation et d'évolution des planètes. Le diagramme de Hubble pour les galaxies et le diagramme Hertzsprung-Russell pour les étoiles sont autant d'outils statistiques fondamentaux pour l'étude des galaxies et des étoiles.

Différentes propriétés sont mesurables pour chaque exoplanète : la masse, le rayon, le type spectral de l'étoile hôte, ... Cette première partie du cours utilise ces grandeurs pour caractériser les exoplanètes et en même temps pour introduire des concepts de statistique qui seront repris d'un point de vue probabiliste dans la seconde partie du cours.


L'échantillon statistique

Définition

Les études statistiques portent sur l'étude d'un échantillon de mesures. Cet échantillon est un ensemble de résultats, de nombres, acquis soit par la répétition d'une même expérience soit par la collection d'observations faites sur le même sujet. Par exemple, le résultat de dix lancers d'un dé, ou de dix dés lancers une fois, forme un échantillon de l'expérience "lancer de dé". Je peux faire la même chose avec des pièces ou des cartes. Moins classique, le résultat d'une pêche peut être vu comme un échantillon statistique des poissons se trouvant là où est le pêcheur. De ce dernier ensemble, la taille des poissons, leurs poids, etc, peuvent être étudiés. Un échantillon se caractérise par son nombre d'éléments. Plus un échantillon est grand, plus son étude est riche et précise.

L'échantillon des exoplanètes

Dans l'étude des exoplanètes, il s'agit de regarder un phénomène qui s'est répété : la formation d'exoplanètes. L'échantillon est donc constitué des exoplanètes découvertes. Actuellement l'échantillon d'exoplanètes connues comporte 1951 (au 8 septembre 2015) exoplanètes situées dans 1235 systèmes exoplanétaires. En effet, certains systèmes planétaires ont plusieurs exoplanètes. Les données utilisées dans ce cours sont fournies par la page internet exoplanet.eu/catalog. De cet échantillon d'exoplanètes, il est possible d'extraire différents échantillons, celui de des masses, des rayons, des eccentricités, etc, puis de les étudier.


Représentativité d'un échantillon

En statistique, le premier souci est la représentativité d'un échantillon. Pour bien comprendre la notion de représentativité, les sondages politiques sont pédagogiques. Durant une élection, un sondage doit donner approximativement le pourcentage de votes qu'obtiendra chaque candidat. Pour ce faire, un échantillon, de 1000 français par exemple, est sondé sur leurs futurs votes. Les sondeurs peuvent alors tirer des conclusions sur l'issue probable du résultat en faisant l'hypothèse que les 60 millions de français vont se comporter comme ces 1000 personnes. Dans ce cas, l'échantillon de 1000 personnes est dit représentatif de la totalité des français. L'échantillon peut cependants être biaisé si le sondeur ne sélectionne que des personnes ayant la carte du premier parti de droite ou bien des personnes lisant uniquement la presse dite de gauche. Il faut donc veiller à corriger le biais s'il est bien connu.

L'obtention d'un échantillon représentatif, sans biais, est une chose facile en théorie mais difficile en pratique. En théorie, il suffit de sélectionner un échantillon de manière aléatoire. Pour les élections, il suffit de tirer un certain nombre de français au hasard. Pour les exoplanètes, cette méthode est impossible pour la simple raison que toutes les exoplanètes de notre galaxie ne sont pas encore connues. Il existe en effet plusieurs biais qui font que certaines exoplanètes peuvent être surreprésentées par rapport à d'autres. Par exemple, les planètes très massives avec un grand rayon et très proches de leurs étoiles auront tendance à être plus facilement détectables et donc à être surreprésentées par rapport aux planètes de type terrestre qui sont petites, peu massives et loin de leurs étoiles hôtes. Toute étude statistique doit alors bien identifier ses biais afin de ne pas tirer de fausses conclusions. Un échantillon d'exoplanètes peut être complet jusqu'à une certaine limite de masse, de taille, de distance au soleil mais pas au-delà. Le travail du statisticien est de trouver cette limite pour tirer des conclusions non biaisées.


Extremum, médiane, quartile

Dans cette section du cours, nous illustrons les principales valeurs statistiques en utilisant la variable "masse" des exoplanètes.

Extremum

Les premières valeurs pour caractériser l'échantillon des masses des exoplanètes sont les valeurs minimale et maximale. Elles sont de 7*10^5 M_J et 47 M_J ; la Terre faisant par comparaison 2,6*10^(-3) M_J. Les masses sont données dans l'unité de la masse de Jupiter, M_J, qui fait 1,90*10^(27) kg ou 317,8 masses terrestres . Ce premier critère statistique montre que la masse des planètes découvertes varie sur près de six ordres de grandeur. Cela ne prouve en aucun cas qu'il n'existe pas de planètes plus ou moins massives.

Médiane

Une autre valeur statistique est la médiane. Cette dernière partage l'échantillon en deux parts égales de telle manière qu'il y a autant de masses inférieures que supérieures à elle. Pour la calculer, il faut tout d'abord trier les masses en ordre croissant. Si le nombre de masses, N, est impair la valeur de la médiane est celle de la (N-1)/2ème masse. Si le nombre de masse est pair, la médiane se calcule par la moyenne de la N/2 et (N+1)/2ème masses. Dans le cas des 1795 exoplanètes découvertes, seules 1032 ont une masse mesurée ; un nombre pair, donc la médiane correspond à la moyenne des masses des exoplanètes numéros 1032/2 = 512 et (1032+1)/2 = 513 qui est la masse 0,96 M_J.

Quartiles

Il est aussi possible de connaître la valeur qui marque le premier quart, nommée premier quartile, (0,197 M_J) ou le dernier quart, nommée dernier quartile (2,75 M_J) de l'échantillon. Pour un échantillon de taille N, le premier quartile se calcule en prenant la valeur N/4, si N est un multiple de 4, ou la valeur de l'entier supérieur. Pour le dernier quartile, c'est la même méthode mais en utilisant 3*N/4. L'écart entre le premier et le dernier quartile est nommé l'écart interquartile.


La boîte à moustaches

Boîte à moustaches
bam_mass.jpeg
Boîte à moustaches schématisant la distribution des masses des 1032 exoplanètes de l'échantillon. L'axe horizontal représente les masses en échelle logarithmique. Ce schéma résume les cinq valeurs statistiques de la distribution de masse des exoplanètes qui sont par ordre croissant : le minimum (à gauche), le premier quartile (la côté gauche du rectangle), la médiane (le trait au centre du rectangle), le troisième quartile (le côté droit du rectangle) et le maximum (à droite).
Crédit : Sylvain Fouquet

Boîte à moustaches

Toutes les informations statistiques décrites précédemment peuvent être résumées graphiquement par un schéma appelé la boîte à moustaches. Ce schéma montre les extrema reliés aux quartiles par des segments de droite (les moustaches) et les quartiles reliés à la médiane par des rectangles. La figure ci-dessus illustre une boîte à moustaches dans le cas des masses des exoplanètes. Cette visualisation graphique permet de décrire rapidement comment sont réparties les valeurs. Si les moustaches sont très grandes, cela signifie que les valeurs sont concentrées autour de la médiane. Au contraire, des rectangles de grande taille montrent une distribution dispersée. Dans le cas de la masse des exoplanètes,cl'écart interquartile, c'est à dire l'écart entre le 1er quartile (0,197 MJ) et le 3ème quartile (2,75 MJ), est de 2,553 MJ. La dispersion des masses des exoplanètes ne semble pas étendue, mais rappelons que, comme l'échantillon est biaisé vers les grandes masses, ce résultat est sûrement à revoir.


Moyenne et écart-type

Moyenne

Une autre méthode pour décrire un échantillon comme celui des masses d'exoplanètes est la détermination de la moyenne et de l'écart-type. La moyenne d'une variable x pour un échantillon de taille N est :

moyenne(x) = (1/N)*somme(x_i; i=1; N)

Pour notre 'échantillon d'exoplanètes, la masse moyenne est 2,762 M_J, très proche de la médiane à 2,75 M_J.

Ecart-type

En plus de la moyenne, il est utile de savoir si les valeurs sont concentrées autour de la moyenne ou bien dispersées. Cette information est fournie par l'écart-type, noté sigma qui se définit par la moyenne des distances à la valeur moyenne. Il faut donc calculer tout d'abord toutes les distances au carré (le carré pour avoir des distances positives), de la moyenne à chaque valeur de l'échantillon, l_i =(moyenne(x)-x_i)^2. La moyenne de l_i donne le carré de sigma:

sigma^2 = (1/N)*somme(l_i; i=0; N) = (1/N)*somme((moyenne(x)-x_i)^2; i=0; N)

L'écart-type de l'échantillon des masses des exoplanètes vaut 4,75 M_J. Cela est presque deux fois plus grand que l'écart interquartile.


Histogrammes

Histogrammes des masses
histo_mass_ss_exo.jpeg
Histogrammes des masses des planètes du système solaire (gauche) et des exoplanètes (droite). L'échelle des masses est en échelle logarithmique par soucis de clarté.
Crédit : Sylvain Fouquet

Histogramme

Les outils statistiques précédents sont pertinents lorsqu'il s'agit de distributions centrées autour d'une valeur. Dans le cas des planètes du système solaire, les masses sont soit petites (de l'ordre de la masse de la Terre), soit plus massives (de l'ordre de la masse de Jupiter). Cette distribution des masses, en plus d'autres propriétés physiques telles que la taille et la composition chimique, est à la base de la distinction entre les planètes gazeuses et les planètes telluriques. Calculer la moyenne ou faire une boîte à moustache de l'échantillon des masses des planètes du système solaire ne permet pas de faire la distinction entre planètes telluriques et gazeuses.

Pour avoir une idée plus juste de la répartition des valeurs d'un échantillon, l'histogramme est un outil statistique plus approprié. Il requiert de calculer le nombre d'éléments de l'échantillon inclus dans des intervalles réguliers entre les extrema. L'avantage de l'histogramme est qu'il présente une vision claire de la distribution de notre échantillon. Mais si une taille des intervalles : (Max - Min)/N est trop petite, il n'y aura qu'un ou bien zéro élément de l'échantillon dans chaque intervalle. A l'inverse si les intervalles sont trop grands, il ne sera plus possible de distinguer les pics dans la distribution. Un bon choix pour le nombre d'intervalles est important. Si, par exemple, on divise le nombre total d'éléments de l'échantillon par N = 10, et que la distribution est uniforme, chaque intervalle devrait avoir à peu près 10 représentants.

Dans le cas du système solaire, la figure de gauche montre qu'il y a deux pics dans la distribution des masses des planètes autour des masses M_T, la masse de la Terre, et M_J, la masse de Jupiter. L'histogramme des masses donne donc plus d'information que simplement une valeur centrale et une dispersion autour de cette valeur. Dans le cas de l'échantillon de toutes les masses connues des exoplanètes (figure de droite), l'histogramme montre que la répartition des exoplanètes a un pic aux alentours de 10^(-0.75)=0,17*M_J. De plus, le nombre d'exoplanètes avoisinant la masse de la Terre semble très faible. Encore une fois, cette propriété provient très probablement du biais observationnel qui privilégie les planètes massives et ne signifie en aucun cas que les planètes telluriques sont rares.


Fonctions de distribution

Fonctions de distributions des masses
stat_mass_ss.jpegstat_mass_exoplanete.jpeg
Histogrammes (gauche) et fonctions de distribution (droite) des masses des planètes du système solaire (haut) et des exoplanètes (bas). L'échelle des masses est en échelle logarithmique par soucis de clarté.
Crédit : Sylvain Fouquet

Pour pallier le problème de la taille des intervalles pour les histogrammes, les statisticiens ont défini la fonction de distribution. Au lieu de calculer le nombre d'occurences dans un intervalle, la fonction de distribution donne le nombre d'occurences inférieures à une valeur. Par souci de comparaison, la fonction de distribution est normalisée, elle est divisée par le nombre total d'éléments de l'échantillon : N. Elle ne peut donc dépasser 1. Dans notre cas, ce nombre est le nombre total d'exoplanètes découvertes : 1032. Le grand avantage comparé à l'histogramme est qu'il n'existe qu'une fonction de distribution pour un échantillon, alors qu'il existe un grand nombre d'histogrammes du fait du choix de la taille de l'intervalle. La fonction de distribution est clairement définie et se trouve donc être très appréciée en théorie des probabilités. La fonction de distribution des masses des exoplanètes fournit, entre autres choses, le nombre d'exoplanètes ayant une masse inférieure à 1 M_J, f(M_J) = 520/1032 = 0.5038, ou à une masse terrestre, f(M_T) = 3/1032 = 0.0029. La figure en bas à droite montre cette fonction.

En dessous de la valeur minimale d'un échantillon, cette fonction est nulle. Au delà de la valeur maximale, elle vaut 1. Cette fonction est à créneaux. En passant d'une valeur de l'échantillon à une valeur plus grande elle augmente de la valeur 1/N du fait de la normalisation. Entre les deux valeurs, elle est constante. Cette fonction est par construction croissante. Les "créneaux" se distinguent bien pour des échantillons avec un faible nombre d'éléments comme avec les masses des planètes du système solaire mais presque plus lorsque ce nombre est grand pour les exoplanètes (voir figures de droite).

Comme à chaque échantillon correspond une unique fonction de distribution, il est pertinent de comparer deux fonctions de distribution. Cette comparaison indique si deux échantillons ont des propriétés similaires ou différentes. Dans le cas des planètes du système solaire comparé aux exoplanètes, il y a beaucoup de différences. Les masses des planètes du système solaire commencent à 10^(-4)*M_J alors que celles des exoplanètes à 10^(-2)*M_J, bien qu'il y ait quelques traces d'exoplanètes en deçà de cette valeur. La pente globale de la fonction de distribution du système solaire semble régulière alors que celle des exoplanètes connaît une augmentation autour de la valeur 0,17 M_J.


Statistique multidimensionnelle

Masse, Rayon, demi-grand axe
masse_radius_semimajor.jpeg
Gauche : Masse des exoplanètes en fonction du rayon (points) avec le cas particulier des planètes du système solaire (étoiles). Droite : demi-grand axe des exoplanètes en fonction de leur masse toujours avec le cas des planètes du système solaire (étoiles).
Crédit : Sylvain Fouquet

Dans ce cours, la masse des exoplanètes a été étudiée de manière indépendante des autres grandeurs des exoplanètes. Cependant, elle peut être étudiée en parallèle d'autres propriétés. Dans ce type d'étude, des corrélations entre grandeurs sont recherchées. Par exemple, si la densité des exoplanètes, rho, était constante, ce qui est faux dans notre système solaire, alors le rayon, R, d'une exoplanète devrait être directement corrélé avec sa masse totale, M, par la loi M = (4/3) * rho*pi*R^(3). Un graphique ayant comme abscisse le rayon au cube et comme ordonnée la masse montrerait une droite qui permettrait de calculer rho, son coefficient directeur. Dans les faits, la densité des exoplanètes n'est pas constante.

En effet, la figure de gauche montre le graphique de la masse des exoplanètes en fonction de leur rayon avec en plus le cas des huit planètes du système solaire. Deux régions plus peuplées ressortent du graphique. La première comporte des planètes de la masse de Jupiter. Dans l'autre région, les exoplanètes ont une masse d'un ordre de grandeur plus petit que Jupiter mais un rayon de 3 à 40 fois supérieur à celui de Jupiter. Les planètes de type Terre, Vénus, Mars ou Mercure sont beaucoup plus rares. Cela est seulement dû aux biais observationnels déjà mentionnés. Ce graphique montre que notre système solaire bien qu'ayant huit planètes ne contient aucune planète du type planète supergéante avec des rayons en moyenne de près de 20 fois le rayon de Jupiter. Il faut aussi se méfier de ces mesures. De telles planètes auraient, et même dépasseraient, la taille du soleil.

La figure de droite illustre le lien entre la distance exoplanète-étoile et la masse des exoplanètes. Là encore, le groupe des masses de Jupiters se distingue. Elles sont très largement aux alentours de 0,05 U.A., bien plus proche que Mercure du Soleil. Ces planètes sont donc des planètes massives collées à leurs étoiles hôtes. Elles sont alors nommées des Jupiter chauds. Encore une fois leur grand nombre apparent est très certainement dû aux observations qui détectent plus facilement ce type de planètes du fait de leurs masses et de la proximité à leurs étoiles hôtes. La grande majorité des autres exoplanètes se situent en dessous d'une U.A. Des ensembles d'exoplanètes forment des traits dans le graphique, par exemple pour la distance de 1 U.A. Cela ne signifie pas qu'il y a de nombreuses planètes se situant à 1 U.A. faisant de cette valeur une valeur exceptionnelle. Cela est sûrement dû à l'algorithme servant à mesurer le demi-grand axe qui favorise cette valeur. Il faut donc se méfier de ces valeurs. Dans ce graphique, davantage que dans le précédent, les planètes du système solaire ne semblent pas en concordance avec celles des exoplanètes. Même Jupiter qui était un cas favorable, se trouve ici avoir des propriétés bien différentes que ses homologues extra-solaires.


Statistique sur les étoiles hôtes I

Relation masse-taille des étoiles hôtes
starmass_starradius.jpg
Relation masse-rayon pour les étoiles hôtes des exoplanètes. La distribution montre que les étoiles hôtes ont des propriétés similaires à celles du soleil avec des masses comprises entre 0,5 et 1,5 masse solaire et des rayons compris entre 1 et 2 rayon solaire.
Crédit : Sylvain Fouquet

Depuis le début de ce cours, seules les propriétés des exoplanètes ont été etudiées. Cependant beaucoup d'informations peuvent être aussi obtenues sur l'étoile hôte autour de laquelle l'exoplanète gravite. En voici les principales : type spectral, masse, rayon, position dans la galaxie ou encore métallicité.

Propriétés des étoiles

Une des premières études statistiques à entreprendre est la caractérisation des étoiles hôtes par leurs masses et leurs tailles. La figure ci-contre montre la relation masse-rayon des étoiles hôtes indiquant que la grande majorité des étoiles ont des masses et des tailles proches de celle du soleil (1 Mo, 1Ro) se situant au centre de la distribution. Cependant, il ne faudrait pas conclure trop hâtivement que seules les étoiles similaires au soleil pourraient abriter des exoplanètes. Notre étoile, le soleil, est une étoile typique parmi les étoiles du disque de la Voie Lactée ; donc lorsque les astrophysiciens cherchent des exoplanètes, ils les cherchent en majorité autour d'étoiles de type solaire. Il y a donc une surreprésentation de ce type stellaire dans l'échantillon des étoiles hôtes. Pour savoir si les exoplanètes peuvent se développer autour d'étoiles ayant des propriétés très différentes de celle du soleil, il faudrait observer un grand nombres d'étoiles de types différents.

L'échantillon actuel des étoiles hôtes ne permet pas une étude poussée pour connaître l'influence de l'environnement d'une étoile hôte sur son nombre d'exoplanètes. Les étoiles proches du soleil, se situant toutes dans le disque plutôt externe de la Voie Lactée, se trouvent dans un milieu peu dense par rapport à des étoiles au centre de la Voie Lactée dans le bulbe. Une étude sur la recherche d'exoplanètes faite dans l'amas globulaire 47 Toucan peut fournir une première indication. La densité de cet amas est bien plus grande que pour les étoiles autour du Soleil. 47 Toucan a de plus des étoiles de faible métallicité, une absence de gaz et des étoiles formées il y près de 12 milliard d'années. Le résultat de cette recherche est de n'avoir trouvé aucune exoplanète alors qu'une même étude faite au voisinage du soleil aurait permis d'en découvrir une vingtaine.

Ce résultat est cohérent avec ce que l'on attend de la formation des planètes. En effet, une étoile pauvre en métaux implique que son environnement est lui-même très probablement pauvre en éléments lourds donc en matériaux pour former une planète. Les amas globulaires sont connus pour être dépourvus de gaz ce qui entraîne l'impossibilité de la formation de planètes gazeuses. De plus un environnement dense n'est pas propice à la formation et à la stabilisation dans le temps d'un disque protoplanétaire autour d'une étoile. Ce disque pourrait avoir tendance à se disperser par interaction gravitationnelle . A l'opposé, il peut être aussi instructif de rechercher des planètes dans des milieux très peu denses comme dans le halo de la Voie Lactée ou dans les galaxies naines proches de la Voie Lactée afin d'être complet.


Statistique sur les étoiles hôtes II

Relation rayon stellaire vs demi-grand axe
starradius_semimajor.jpg
Relation entre le rayon de l'étoile hôte et le demi-grand axe de son exoplanète. La ligne en trait plein montre la limite inférieure pour les demi-grands axes dus à la taille de l'étoile convertie en U.A. La ligne en pointillé montre le double des rayons stellaires.
Crédit : Sylvain Fouquet

Nombre d'éxoplanètes par étoile

Il est pertinent de savoir si le nombre d'exoplanètes dépend de la masse, de la taille ou du type spectral de l'étoile hôte afin, par exemple, de rechercher des exoplanètes autour d'étoiles qui ont davantage de probabilité d'en abriter. La question "Quelle est la probabilité d'avoir une exoplanète autour d'une étoile" devient alors "Quelle est la probabilité d'avoir une exoplanète autour d'une étoile de type solaire, de type géante rouge de type naine blanche, etc". Cette question permet de se familiariser avec le concept de statistiques conditionnelles ou bayésiennes qui sera développé dans la partie du cours dédié à la théorie des probabilités. La question n'est plus seulement de connaître la probabilité d'avoir un résultat mais sa probabilité à condition qu'un autre évènement ait eu lieu.

Demi-grand axe de l'exoplanète en fontion du rayon de l'étoile

Pour illustrer le concept de statistiques bayésiennes, nous exploitons la figure ci-contre présentant le demi-grand axe des exoplanètes en fonction du rayon de leurs étoiles hôtes. Premièrement, il semble qu'une planète doit être assez éloignée de son étoile hôte durant son orbite sous peine de collision et de destruction. Cela interdit donc des demi-grands axes qui sont d'une taille inférieure à celle du rayon de l'étoile hôte. De plus si une planète a une excentricité forte proche de 1 alors un demi-grand axe élevé n'empêche pas une collision lorsque l'exoplanète passe au péricentre. Dans la figure ci-contre, la ligne en trait plein et celle en tirets montrent le demi-grand axe limite dû à la taille de l'étoile et à son double. Toutes les exoplanètes ont un demi-grand axe en dehors de ces limites ; toutefois, elles sont assez proches de leurs étoiles hôtes. En effet, un demi-grand axe d'une taille de seulement dix fois le rayon de l'étoile hôte est une propriété commune. Au contraire, dans notre système solaire, Mercure est déjà à une distance de plus de 80 fois le rayon du soleil. Cette première discussion implique que plus une étoile a un grand rayon plus la probabilité de trouver une exoplanète de faible demi-grand axe sera faible. En d'autres termes, pour le même demi-grand axe une petite étoile aura plus de chance d'avoir une exoplanète qu'une étoile géante. Cela montre que la probabilité de la valeur du demi-grand axe n'est pas indépendante de la taille de l'étoile hôte, elle est conditionnée.

A l'inverse, pour les étoiles de rayon plus grand que 5 rayons solaires, le demi-grand axe des étoiles semble être statistiquement constant : aux alentours de 2 U.A. Il est évident que ce résultat est faussé par le fait que l'échantillon des étoiles géantes est petit et qu'en plus les étoiles éloignées de plusieurs U.A. sont difficiles à détecter. Cependant, supposons pour la pédagogie, ce résultat vrai. Cela implique que quelque soit la taille d'une étoile hôte entre 5 et 10 rayons solaires, son exoplanète a un demi-grand axe de près de 2 U.A. Dans ce cas, la condition sur la taille de l'étoile hôte n'a aucune influence sur la probabilité du demi-grand axe de l'exoplanète. En statistique, on dira que le demi-grand axe d'une exoplanète est indépendant du rayon de son étoile hôte lorsque ce dernier est entre 5 et 10 rayons solaires.


Signal sur Bruit

En astronomie, lorsqu'une image ou un spectre d'un objet du ciel est obtenu, le résultat varie d'une acquisition à l'autres même si la méthode utilisée est identique: même instrument, même temps de pose, etc. Cela est dû au fait que les photons collectés dans les pixels n'arrivent pas tous de manière uniforme. Si les photons d'une étoile arrivaient à une allure constante de 1 photon par milliseconde sur un pixel, alors un temps de pose de 1 seconde fournirait toujours 1000 photons. Cependant, les photons n'arrivent pas de manière ordonnée, ils suivent une loi dite de Poisson (décrite en détails dans la seconde partie du cours). Cela est dû au fait que les atomes des étoiles créant ces photons agissent de manière chaotique. Par conséquent, si on compte le nombre de photons collectés durant un temps d'une seconde sur 1000 images, on se retrouve avec un échantillon de 1000 valeurs. Il est possible de calculer la moyenne de cet échantillon que l'on note N, qui est le signal recherché. L'écart-type, qui est une estimation de son erreur absolue, vaudra alors sqrt(N); ceci est une propriété de la loi de Poisson. Par exemple, si N vaut 10, son erreur absolue vaut sqrt(N) = sqrt(10) = 3,16 . Le rapport entre le signal, 10, et l'erreur appelé bruit, 3,16, vaut alors

S/B = N/sqrt(N) = sqrt(N)

donc 3,16 dans ce cas particulier. Ce rapport s'appelle le rapport Signal sur Bruit, S/B. Dans le cas où le signal N vaut 100 alors le bruit vaut 10 et le signal sur bruit 10. On voit par cet exemple que plus le S/B est grand moins la mesure est entâchée d'erreurs, et vice versa. En astronomie, pour qu'une mesure ait un sens, un S/B d'au moins trois est requis.


Courbe transit

Courbe de transit
RTEmagicC_42749_transit_exoplanete_eso_txdam18806_9dd4e4.JPEG
Deux courbes de transit normalisées montrant le passage d'une exoplanète devant son étoile hôte.
Crédit : ESO

La figure ci-contre illustre, dans le cas plus particulier de la détection des exoplanètes par transit, l'influence du bruit pour détecter une exoplanète. Le graphique supérieur montre un transit assez évident avec une chute puis une remontée de la luminosité . La courbe noire est l'ajustement théorique du flux. Cela représente la courbe sans le bruit, sans la dispersion statistique. Plus réalistes, les points montrent les observations qui sont composées du signal et du bruit. Les courbes sont ici normalisées à 1. Pour le graphique du bas, la décroissance est visible mais plus difficile à modéliser correctement car elle est moins forte. Les deux courbes montrent la présence d'une planète avec des rapports S/B proche de 20. En effet pour un signal de 1 le bruit est de l'ordre de 0,05. Cependant si ce S/B est suffisant pour détecter les deux exoplanètes, il donnera une meilleure précision sur les propriétés (masse, rayon, ...) de l'exoplanète du graphique du haut car le profil de luminosité est plus profond que pour l'exoplanète du graphique du bas.


Probabilités

Auteur: Sylvain Fouquet

Probabilités

Statistique et probabilité sont deux côtés d'une même pièce. Ces deux domaines des mathématiques s'occupent de décrire le résultat d'expériences ou d'observations faisant intervenir le hasard. Par exemple, tirer un bulletin dans une urne, choisir des personnes au hasard dans un groupe, sélectionner des étoiles au hasard dans le ciel, etc, ne peuvent pas se décrire par la mécanique classique, l'hydrodynamique ou encore le magnétisme mais par la statistique et les probabilités. Pourquoi avoir deux noms ? Statistique et probabilité ne sont pas identiques dans la démarche bien que traitant des mêmes sujets. La statistique sert à observer et décrire le monde alors que les probabilités, aussi appelés théorie de la probabilité, tentent de l'expliquer théoriquement, mathématiquement. Ces deux approches se complètent mutuellement comme l'observation physique et le modèle mathématique se complètent.

L'expérience de 100 lancers du même dé servira à illustrer la différence entre statistique et probabilité. Lors de cette expérience, la statistique décrit les propriétés statistiques de ces 100 lancers. Par exemple, la statistique montre que chaque face du dé est presque apparue autant de fois. La valeur moyenne se rapproche de 3,5. De manière complémentaire à cet aspect observationnel, la théorie de la probabilité prouve que si vous avez un dé non pipé, il y a autant de chance de tomber sur une face que sur une autre. Pour un nombre de 100 lancers, la théorie de la probabilité indique quelle est la chance d'obtenir la face 1 par exemple. Les prévisions de la théorie de la probabilité doivent se confirmer dans les résultats observationels de la statistique. Si tel n'est pas le cas pour les lancers de dé, cela veut dire que le dé est pipé et qu'il faut changer les lois de probabilité (passer de la loi "chaque valeur a une chance sur 6 de sortir" à une loi plus compliquée qui va définir le dé pipé), à l'instar d'une expérience mettant en échec une théorie physique.


Les variables aléatoires

L'univers des événements

En probabilité, les variables sont dites aléatoires car pour, une même expérience, la mesure de la même observable sera différente, aléatoire. Par exemple lorsqu'un dé est lancé, l'observable qui est le numéro du dé est aléatoire (à moins qu'il ne soit envoyé par une machine pouvant envoyer le dé à chaque fois exactement de la même façon). Ce qui importe pour une variable aléatoire c'est l'ensemble des valeurs qu'elle peut prendre. Pour un dé, il y a six faces ; le nombre d'événements possibles est six (on suppose que le dé ne peut pas s'arrêter sur une arête). Autre exemple, la variable donnant l'instant du prochain accident de voiture en France peut prendre n'importe quelle valeur à priori entre 0 seconde et l'infini : 1 secondes, 10 minutes, 1 heures, etc. Il y a une infinité de possibilités.

Il existe donc deux types de variables aléatoires : les variables discrètes (lancer de dés) et les variables continues (temps entre deux accidents). Pour les variables discrètes, le nombre d'evénements peut être fini ou infini. Il est toujours infini pour une variable continue. L'ensemble des évènements est appelé l'ensemble univers des évènements. La suite donne quelques exemples détaillés de ces types d'ensembles. En probabilité, les événements sont très souvent associés à des nombres pour pouvoir être traités mathématiquement. Par exemple pour un jeu de cartes, la carte roi de pique peut être associée à la valeur numérique de 25.

Exemples de variables discrètes

L'ensemble univers le plus connu et le plus simple de tous est l'ensemble des évènements d'un jet d'une pièce de monnaie. Il n'y a que deux évènements : {pile ; face} (trois évènements si l'on prend en compte le cas où la pièce reste sur son bord). Par commodité, on utilise l'ensemble {0, 1} en liant pile à 0 et face à 1.

L'autre variable aléatoire très connue est le lancer de dé avec ses six évènements possibles qui sont déjà des nombres : {1, 2, 3, 4, 5, 6}. Il est aussi possible de lancer deux dés à la fois et de sommer leurs résultats. Dans ce cas, cela conduit à un ensemble de 11 évènements {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}.

Des urnes remplies de boules de différentes couleurs sont aussi un exemple très pédagogiques d'ensemble univers. Par exemple, pour une urne remplie de 5 boules qui ne se différencient que par leurs couleurs : 2 noires, 2 blanches et 1 rouge, l'ensemble des évènements si l'on tire une boule est {noire, blanche, rouge}. Si l'on en tire deux, c'est alors {(noire, noire), (noire, blanche), (noire, rouge), (blanche, rouge)}. Encore une fois, il faut associer chaque couleur à un nombre pour pouvoir travailler dessus.

Enfin, pour les joueurs d'argent, et les aficionados de probabilités à variables discrètes, le casino est l'endroit rêvé. Il est possible de trouver là une multitude de jeux avec des ensembles univers allant de la case rouge ou noir à des images sur une machine à sous. Les casinos utilisent bien évidemment aussi les jeux de cartes pour enrichir le nombre d'évènement possibles.

Bref, les variables aléatoires discrètes sont partout dans la société. C'est d'ailleurs souvent à la suite de créations de la société : pièces, dés, cartes, roulette, loto, ...

Exemples de variables continues

Les variables continues se trouvent plus souvent liées à des propriétés physiques de la nature. Un exemple simple peut se trouver dans les prévisions météorologiques : "Quand pleuvra-t-il chez moi ?". La réponse se trouve être entre tout de suite (0 seconde) et jamais (un temps infini). Il y a donc une infinité continue de durées possibles. Il peut se passer plusieurs jours sans pleuvoir alors que parfois moins d'une heure s'écoule entre deux averses. Cet exemple de variable aléatoire est similaire à celui de l'intervalle de temps entre deux accidents de voitures. Plus généralement, il se trouve que certains phénomènes naturels n'arrivent pas de manière régulière. On peut alors introduire la variable aléatoire qui donne le temps entre deux occurences.

Un autre type de variables aléatoires continues sont les incertitudes dues à de faibles changements des conditions initiales. Refaire exactement la même chose un grand nombre de fois donne un résultat similaire mais pas identique. Lancer un poids est un de ces cas. Vous aurez beau faire attention, vous ne lancerez jamais avec exactement la même force, dans la même position et dans les mêmes conditions (vent, atterissage, etc). La conséquence est que le poids ne tombera jamais au même endroit. Il en est de même pour la production de pièces en série qui ne sont jamais tout à fait identiques. Tous ces cas peuvent se traiter avec les variables aléatoires continues.


La fonction de probabilité

En probabilité, après avoir défini l'ensemble univers des évènements, il reste à associer à chaque évènement sa probabilité de se produire via la fonction de probabilité. Cette fonction prend des valeurs entre 0 et 1. La valeur 0 signifie que l'évènement est impossible, la valeur 1 qu'il est certain. Par exemple, dans le cas d'un jet d'une pièce non faussée, l'ensemble des évènements est {pile, face}, ou {0, 1}, et la fonction de probabilité, notée P, donne P(0) = 0,5 et P(1) = 0,5. Cela signifie qu'il y a la même chance de tomber sur pile que sur face. Par contre si la pièce était faussée, il serait possible d'avoir une fonction de probabilité donnant : P(0) = 0,8 et P(1) = 0,2. "pile" aurait alors 4 fois plus de chance de sortir.

Cette loi nous amène à une propriété bien naturelle des probabilités. La probabilité de l'ensemble univers vaut 1 : P(Univers) = 1.

En effet, il est certain que la variable aléatoire sorte un évènement de l'ensemble univers. Dans le cas d'un lancer de dé, P({1, 2, 3, 4, 5, 6}) = 1, car on est sûr d'obtenir comme résultat 1, 2, 3, 4, 5 ou 6. A l'inverse, l'ensemble vide {} a toujours une probabilité nulle : P({}) = 0.


Probabilité sur des sous-ensembles d'événements

Dans le cas, d'un dé non pipé, la fonction de probabilité est pour tous i de 1 à 6, P(i) = 1/6. Il y a en effet autant de chance de tirer un 1, un 2, etc. Cependant quelle est la probabilité de tirer un nombre pair, {2, 4, 6} ? Intuitivement, cette probabilité doit être plus grande que de tirer seulement un 2. Le bon sens et la construction de la théorie des probabilités impliquent qu'elle corresponde à la somme de chacune de leur probabilité. Donc P(pair) = 1/6+1/6+1/6 = 1/2. Il en est de même pour la probabilité de tirer un nombre impair. Ce petit exemple illustre une loi simple de probabilité. La détermination de la probabilité d'un sous-ensemble est égale à la somme de la probabilité de chacun des événements du sous-ensemble.

Voyons comment calculer la probabilité de l'union de deux sous-ensembles. Par exemple au jeu de 52 cartes, la probabilité de tirer n'importe quelle carte est la même et vaut 1/52. Dans ce cas, la probabilité de tirer une carte rouge vaudra 1/52 times 26 = 1/2 car il y a 26 cartes rouges, la moitié du nombre des cartes. La probabilité de tirer une carte noire vaut aussi 1/2, quant à celle de tirer un coeur, elle vaut 1/4 et celle de tirer un roi 1/13. Quelle est alors la probabilité de tirer une carte rouge ou noire ? ou la probabilité de tirer une carte rouge ou de coeur ? ou encore une carte rouge ou un roi ? Pour la première probabilité, intuitivement le résultat est 1 car c'est l'ensemble univers. Cela revient à la somme des probabilités des sous-ensembles : 1/2+1/2. Pour la seconde, la probabilité reste celle de tirer une carte rouge, 1/2, car obligatoirement un coeur est une carte rouge. On n'additionne donc pas les probabilités. Le dernier cas est plus compliqué car deux rois font partie de l'ensemble des cartes rouges mais les deux autres non. Comment faire ? La relation donnant la solution générale est

P(A cup B) = P(A) + P(B) - P(A cap B)

où A et B sont deux sous-ensembles de l'ensemble univers, cup l'union de deux ensembles et cap leur intersection. Vous pouvez vérifier que cela donne bien les résultats des deux premiers exemples. Dans le cas des rois, la probabilité est alors P(rouge cup rois) = P(rouge) + P(rois) - P(rois cap rouge). Il se trouve que l'ensemble {rois cap rouge} n'est formé que des deux rois rouges, donc sa probabilité est 2 times1/52 = 1/26. Le résultat est donc P(rois cup rouge) = 1/2 + 1/13 - 1/26 = 1/2 + 1/26 = 14/26.

Notons que si {A cap B} = {}, donc si A et B sont disjoints, il suffit alors de sommer la probabilité de A et de B pour avoir celle de AcupB car P({}) = 0.


Calcul de la fonction de probabilité

Équipartition

Dans le cas d'un ensemble fini, il est parfois très facile de calculer la fonction de probabilité. Il suffit que tous les événements soient équiprobables, c'est à dire qu'ils aient la même probabilité, notée p. Cela est vrai pour un jet de dé ou de pièce non faussés, ou pour un jeu de cartes bien mélangé. Dans ce cas, la probabilité de tous les évènements, donc de l'ensemble univers, vaut P({E1, E2, E3, ..., En}) = P({E1}) + P({E2})+ P({E3})+ ... + P({En}) = p +p +p +...+p = n times p car tous les ensembles d'évènements sont disjoints, c'est à dire pour tous i et j, {E_i cap E_j} = {}. Or la probabilité de l'ensemble univers vaut par définition 1. Donc np=1 ce qui implique que p=1/n. Cela justifie pourquoi la probabilité pour le lancer d'une pièce vaut 1/2, pour le jet d'un dé vaut 1/6 et pour le tirage d'une carte dans un jeu de 52 cartes vaut 1/52.

application.png

Loi des grands nombres

Lorsqu'il n'y a pas équipartition dans les probabilités, il est moins direct de déduire la loi de probabilité. Une façon simple en théorie mais hélas irréalisable en pratique est la loi des grands nombres. Pour connaître la loi de probabilité, il suffit de mesurer plusieurs fois la valeur d'une variable aléatoire, de compter combien de fois sortent les mêmes valeurs puis de diviser ces nombres par le nombre total d'essais. Ainsi pour connaître la loi d'un dé, il suffit de faire une grand nombre de lancers, 1000 par exemple, et de regarder combien de 1 de 2 de 3, ... et de 6 sont sortis et enfin de diviser ces nombres d'occurences par le nombre total de lancers, 1000 dans ce cas. Cela fournit une valeur proche de la probabilité de chaque évènement mais pas exacte. La théorie mathématique prouve que si le nombre total d'essais est infini (ce qui est évidemment impossible en pratique), on en déduit alors la probabilité exacte pour chaque événement.

application.png

Pour des variables continues où les résultats sont des réels, deux résultats ne peuvent jamais être identiques car la chance d'avoir exactement deux réels identiques est nulle. Ce qui est mesuré est la probabilité d'avoir des valeurs dans un petit intervalle autour d'une valeur donnée. De toute façon, les outils de mesure n'étant pas parfaits, il est impossible de mesurer avec une précision infinie. La largeur des intervalles considérés dépendra donc de la précision des mesures.


Introduction aux théorème de Bayes - Découvrir la bonne urne

Considérons deux urnes, l'une remplie de 9 boules blanches et d'une seule boule noire, appelée A, et l'autre remplie de 9 boules noires et d'une boule blanche, appelée B. Il est interdit de voir leur contenu, on ne peut qu''en extraire une boule. Le problème est de savoir quelle est l'urne A parmi les deux urnes ? Sans faire aucun tirage de boule, la probabilité qu'une urne donnée soit l'urne A est la même pour les deux urnes et vaut donc 0,5, une chance sur deux, car il n'y a que deux événements.

Le problème ici n'est pas de connaître la probabilité de tirer des boules blanches ou noires dans les urnes A ou B mais de savoir depuis quelle urne sont tirées les boules en s'aidant du résultat du tirage d'une urne. Ce sont alors des probabilités conditionnelles : sachant qu'un résultat est vrai, quelle est la probabilité qu'un autre le soit aussi ? Ce problème simple d'urne peut s'extrapoler dans le cas de théories physiques. Imaginons que deux théories (deux urnes) soient en concurrence pour expliquer les mêmes phénomènes statistiques (tirage de boules). En faisant quelques observations (en tirant quelques boules), il est alors possible de montrer qu'une théorie est plus probable qu'une autre. Il est aussi possible que les deux théories se trompent (en tirant une boule rouge d'une des deux urnes).

De plus, avec les probabilités conditionnelles, il est possible d'estimer des grandeurs physiques via la mesure d'autres grandeurs. Un exemple caricatural éclaircira ce principe. Ayant les yeux bandés, je cherche à savoir si j'ai devant moi un norvégien ou un espagnol. Je peux estimer la taille de la personne mais pas voir son passeport. Comme j'ai une pensée très caricaturale, pour moi tous les norvégiens sont grands blonds aux yeux bleux et tous les espagnols sont petits bruns aux yeux marrons. Donc si j'ai devant moi une personne plutôt grande, je dirai que c'est un norvégien. De plus, s'il m'est permis de ne regarder que ses cheveux et qu'ils sont blonds, ma certitude grandit. La taille et la couleur des cheveux que j'ai pu observer servent à estimer avec une certaine probabilité la nationalité d'une personne. Cette méthode repose sur une loi conditionnelle implicite qui est qu'un homme grand aux yeux bleus à une plus forte probabilité d'être norvégien qu'espagnol. Cette démarche est beaucoup utilisée en astrophysique pour déterminer des propriétés inaccessibles par des mesures directes, mais déductibles par d'autres propriétés observables. Cependant, il est important de se souvenir que ce ne sont que des probabilités. D'autre part, cela suppose que les lois conditionnelles supposées a priori soient correctes.


Théorème de Bayes

Venons-en aux formules qui permettent concrètement de résoudre le problème de l'urne. Soient A et B deux expériences. La probabilité de A sachant B vrai, noté P(A|B), est donnée par la loi suivante, dite formule de Bayes établie par le mathématicien et pasteur Thomas Bayes au XVIIIe siècle :

P(A|B) = (P(B|A) times P(A))/P(B)

Il suffit de connaître P(A), P(B) et P(B|A) pour en déduire P(A|B). Ce théorème provient du fait que P(A|B) times P(B) = P(A cap B) et que, de même, P(B|A) times P(A) = P(B cap A) donc que P(A|B) times P(B) = P(B|A) times P(A).

Dans le cas particulier des urnes, si l'on tire une boule blanche quelle est alors la probabilité que ce soit de l'urne A, probabilité notée P(Urne A|Blanche), ou de l'urne B, P(Urne B|Blanche) ? Dans le cas de l'urne A, il faut calculer les trois probabilités P(Blanche|Urne A), P(Urne A) et P(Blanche). La probabilité de tirer une boule blanche dans l'urne A est P(Blanche|Urne A) = 9/10. La probabilité de choisir l'urne A ou B est identique au début de l'expérience et vaut P(Urne A) = P(Urne B) = 0,5. Enfin la probabilité de tirer une boule blanche est P(Urne A)timesP(Blanche|Urne A)+P(Urne B)timesP(Blanche|Urne B) = 0,5times9/10 + 0,5times1/10 = 0,5 car il est possible de tirer une boule blanche depuis l'urne A ou depuis l'urne B, mais pas avec la même probabilité. Ainsi, la probabilité que l'on soit en présence de l'urne A sachant que l'on a tiré une boule blanche est donnée par P(Urne A|Blanche) = P(Blanche|Urne A)timesP(Urne A)/P(Blanche) = 9/10times0,5/0,5 = 9/10. Dans l'autre cas P(Blanche|Urne B) = 1/10. Avec cette observation du tirage d'une boule blanche, on est passé d'une probabilité de 0,5 pour que l'urne étudiée soit l'urne A, à une probabilité de 9/10 pour que l'urne étudiée soit l'urne A.


Grandeurs classiques en probabilité

L'espérance

En théorie des probabilités, l'espérance est la valeur moyenne à laquelle on s'attend pour une variable aléatoire suivant une loi de probabilité donnée. Elle se définit dans le cas d'une variable discrète par la relation suivante : E(x) = somme(x_i*p(x_i); i=1; N). De manière similaire, elle se définit pour une variable continue x : E(x) = intégrale(x*p(x) ; x ; x=l_1 ; l_2)l_1 et l_2 sont les limites inférieures et supérieures que peut prendre la variable x.

Un exemple dans la cas d'une variable discrète est la moyenne au lancer d'un dé. L'espérance est alors E(x) = 1×1/6+2×1/6+3×1/6+4×1/6+5×1/6+6×1/6 = 21/6 = 3,5. Dans le cas d'une variable continue comme la loi uniforme de 0 à 1 (p(x) = 1), l'espérance est intégrale(x*1; x; 0; 1) = 1/2 = 0,5. Moyenne et espérance se ressemblent beaucoup, cependant elle ont une différence. L'espérance est une valeur dans le cadre de la théorie des probabilités associée à une loi de probabilité. La moyenne est, quant à elle, le résultat d'une opération arithmétique sur un échantillon. La moyenne dépend donc de l'échantillon alors que l'espérance est théorique et donc unique pour une loi donnée. La moyenne calculée à partir d'un échantillon doit être proche de l'espérance mais pas forcément identique. Par exemple, lorsqu'un dé est tiré 10 fois et que la moyenne des résultats est faite, le résultat n'est pas forcément l'espérance de 3,5. De plus, si l'on refait 10 lancers la nouvelle moyenne ne sera pas forcément identique à la première. Cependant, d'après la loi des grands nombres, plus le nombre de lancers de dé sera grand, plus la moyenne s'approchera de l'espérance. L'espérance doit être vue comme la limite de la moyenne lorsque l'on fait tendre le nombre d'essais vers l'infini.

Le moment d'ordre deux centré - la variance

La variance ou "moment d'ordre deux centré" est une mesure du carré de la dispersion d'une variable aléatoire autour de son espérance. En d'autres termes, la variance donne une information sur la dispersion de la variable aléatoire autour de l'espérance. Plus la variance est grande plus les valeurs de la variable aléatoire auront de chance d'être loin de l'espérance, et vice versa. Une variance faible donnera une loi de probabilité piquée autour de l'espérance. Pour une variable discrète, la variance se définit comme suit : variance = somme((x-mu)^2*p(x) ; i=0 ; N) avec mu l'espérance. Dans le cas d'une variable continue, variance = intégrale((x-mu)^2*p(x); x; x=l_1 ; l_2). On peut aussi définir la variance en n'utilisant que l'espérance de la variable x et x^2 : variance = E(x^2) - E(x)^2 = E(x^2) - mu^2. La démonstration est demandée en exercice. L'écart-type, souvent noté sigma, est la racine carrée de la variance : sigma^2 = variance. De même que pour le couple espérance-moyenne, le terme variance s'utilise plutôt en probabilité et écart-type en statistique.

Pour le lancer de dé non biaisé, la variance vaut environ 2,91667 et donc l'écart type vaut environ 1,70783. Pour la loi uniforme de 0 à 1, la variance vaut 1/12 0,0833.


Fonctions de distribution

Fonctions de distribution
FD.png
Fonctions de distribution (en haut) et lois de probabilité (en bas) du lancer d'un dé (à gauche) et de la loi uniforme sur [0, 1] (à droite).
Crédit : Sylvain Fouquet

Avant de décrire plusieurs lois de probabilité utiles car très courantes, cette section décrit l'outil majeur qu'est la fonction de distribution et sa dérivée, la loi de probabilité.

Fonction de distribution

Pour une variable aléatoire notée X, la fonction de distribution, notée F, donne la probabilité d'avoir la variable X strictement plus petite que x : F(x) = P(X < x). La fonction F est donc par définition une fonction croissante et bornée par la valeur 1. Cette définition convient aussi bien aux variables discrètes qu'aux variables continues. Il est aisé avec cette fonction de calculer la probabilité d'avoir la variable X entre x_1 et x_2. C'est tout simplement F(x_2) - F(x_1). En conséquence, si la courbe est plate ou avec une pente faible entre deux points x_1 et x_2, cela conduit à une probabilité entre x_1et x_2 faible alors que si la pente est forte la probabilité l'est aussi.

La figure en haut à gauche montre la fonction de distribution d'un dé. Pour x<1, la fonction est nulle, il est en effet impossible qu'un jet de dé puisse sortir un nombre plus petit que 1. De x<=1 à x<2, F est constante et vaut 1/6 qui est la probabilité d'avoir un 1 à un jet de dé. Ensuite entre 2 et 3 exclus, la fonction vaut 2/6 = 1/3 ; cela correspond à la probabilité de sortir un 1 ou un 2. La fonction continue d'augmenter pour plafonner jusqu'à x>6 où elle atteint sa valeur maximale de 1 car il est certain qu'un dé sorte un chiffre plus petit ou égale à 6.

La figure en haut à droite montre la fonction de distribution d'une variable continue. En dessous de 0, sa valeur est nulle au dessus de 1 elle vaut 1. Les valeurs possibles de cette variable sont donc comprises entre 0 et 1 inclus. La pente est une droite ; pour n'importe quel intervalle entre 0 et 1 de même taille la probabilité est donc la même. En conséquence, la probabilité d'avoir une valeur entre [x, x+dx] est identique. Cette fonction de distribution n'est autre que la fonction de distribution de la loi uniforme entre 0 et 1 ; chaque nombre entre 0 et 1 ayant la même chance d'être tiré.

Loi de probabilité

La fonction de distribution est l'outil statistique par excellence en probabilité. Cependant, d'un point de vue pratique, on lui préfère sa dérivée qui est plus parlante : la loi de probabilité. En effet, c'est la pente de la fonction de distribution qui indique si une valeur a une forte probabilité ou pas de survenir. Cela revient en statistique à faire l'histogramme vu aussi dans la première partie de ce cours.

La figure en bas à gauche montre la dérivée de la fonction de distribution pour un lancer de dé. On retrouve le résultat classique qui veut que la probabilité de sortir un 1, 2, 3, 4, 5, ou 6 soit identique et égale à 1/6. La figure en bas à droite fait de même mais avec la loi uniforme entre 0 et 1. La fonction est une courbe plate montrant bien que chaque valeur a une même probabilité.

Par la suite et pour finir cette partie théorique, plusieurs lois de probabilité incontournables sont passées en revue. La liste est évidemment non exhaustive.


Loi binomiale

La loi binomiale
Binomial_distribution.svg.png
Exemples de lois binomiales pour différent nombre de répétition (n) d'une loi à deux évènements et pour différentes probabilités de l'évènement 0 (p). Pour le même nombre de lancers n=20, le pic est à 14 avec un probabilté p = 0,7 et seulement 10 avec p=0,5. Pour n=40 et p=0,5, le pic est à 20, à la moitié du nombre de lancers, car il y autant de chance d'avoir l'évènement 0 que 1. En comparaison de n=20 et p=0,5, lorsque n=40, la fonction a un pic moins haut mais plus reséré, cela est dû au fait que le rapport entre l'espérance et l'écart type tend vers 0 lorsque n tend vers l'infini.
Crédit : Wikipédia

Lois à deux événements

Les lois n'ayant que deux évènements sont les plus simples mais aussi les plus utilisées. L'ensemble univers de ces lois de probabilités n'étant composé que de deux événements, il s'agit d'une variable discrète. Les événements peuvent être représentés par 0 et 1. Par exemple le jet d'une pièce suit ce type de lois : 0 étant par convention "pile" et 1 "face". L'évènement 0 a une probabilité notée p alors que l'événement 1 a une probabilité notée q. Toujours, dans le cas d'une pièce de monnaie, p = q = 1/2. De manière générale, p et q n'ont aucune raison d'être identiques comme dans le cas de la pièce de monnaie. Je peux inventer une expérience où je définis l'évènement 0 si un dé sort la valeur 1 et l'événement 1 si un dé sort 2, 3, 4, 5 ou 6. Dans ce cas p = 1/6 et q=5/6. De manière générale comme 0 et 1 forment l'ensemble univers, alors la probabilité P(0) + P(1) = 1 donc p + q = 1 et q=1-p. Les lois à deux événements ne dépendent donc que d'un paramètre, p.

Loi binomiale

En compléxifiant la loi vue ci-dessus, il est possible de créer la loi binomiale. Cette dernière s'intéresse aux résultats de plusieurs lancers d'une expérience n'ayant que deux événements possibles. Par exemple, lorsqu'une pièce est lancée 20 fois de suite, quelle est la probabilité d'avoir 10 faces ou 3 piles ou même 20 faces de suite ? La loi binomiale dépend donc de deux paramètres : la propabilité p de la loi à deux événements et le nombre de répétition de cette loi, n. Son ensemble univers est constitué de toutes les séries possibles de n répétitions de la loi à deux évènements. Le nombre d'événements vaut donc 2^n car à chaque répétition (n en tout) il y a deux événements possibles. Par exemple, lancer une pièce trois fois donne 2^3=8 évènements possibles. L'ensemble univers est en ce cas : (0, 0, 0), (0, 0, 1), (0, 1, 0), (0, 1, 1), (1, 0, 0), (1, 0, 1), (1, 1, 0), (1, 1, 1). Chaque évènement est donc constitué d'un certain nombre de 0, noté k, et de 1, noté n-k. Par définition la probabilité de 0 vaut p et celle de 1 vaut 1-p. Donc la probabilité d'un évènement est p^(k)*(1-q)^(n-k). L'intérêt dans ce type d'expérience est de savoir combien de fois sort l'évènement 0 ou 1 mais sans se soucier de l'ordre. Les évènements (0, 1, 0) ou (1, 0, 0) sont alors considérés comme identiques. La loi binomiale fournit la probabilité de tirer k évènements 0 sur N lancers. Pour cela, il suffit de remarquer que pour un nombre k d'événements 0 parmi N lancers, il est possible d'effectuer (C^n)_k = factorielle(n)/(factorielle(k)*factorielle(n-k)) permutations. Donc la probabilité recherchée, notée P(k), vaut P(k) = (C^n)_k*p^k * (1-q)^(n-k).

Propriétés de la loi binomiale

Sur N lancers, plus un évènement aura une grande probabilité plus il sortira souvent. Cependant, il est rare qu'il sorte pour chaque lancer. En conséquence, le pic de probabilité de la loi binomiale se situe en E[(N+1)*p], où E est la partie entière. Si p tend vers 1 alors le pic tendra vers N, à l'inverse il tendra vers 0. De plus, l'espérance de la loi binomiale vaut Np et son écart type vaut sqrt(N*p*(1-p)). Dans le cas ou N est très grand, un million par exemple, Le rapport écart-type sur espérance vaut sqrt(N*p*(1-p))/(N*p) = sqrt(1-p)/sqrt(N*p) prop 1/sqrt(N), il tend vers zéro. Si l'on voit l'espérance comme la mesure d'une observation et l'écart type comme son incertitude absolue alors, si N est très grand, l'incertitude relative sur la mesure sera très faible. Par exemple, dans un métal constitué de milliards d'atomes, supposons que les spins de chaque atome puissent être en haut ou en bas avec la même probabilité, p =1/2. Alors le métal n'aura pas de champ magnétique significatif car il aura statistiquement à chaque instant quasiment autant de spins en haut qu'en bas. La différence instantanée entre le nombre d'atomes ayant un spin en haut ou en bas, générateur d'un champ magnétique, sera en ordre de grandeur (1/2)*sqrt(n) = 0.5*sqrt(10^9) ~= 1500 ; ce qui fournira des champs très faibles en comparaison du potentiel que pourraient produire les 10^9 atomes du métal si tous les spins étaient alignés dans le même sens. De plus, ce champ magnétique est très instable dans le temps (on dit qu'il fluctue) et a une moyenne nulle au cours du temps.


La loi de Poisson

Loi de Poisson
Poisson.svg.png
Trois exemples de loi de probabilité derivé de la loi de Poisson pour trois valeurs de lambda : 1, 4 et 10.
Crédit : Wikipédia

Définition

La loi de Poisson, nommée d'après le mathématicien français Siméon Denis Poisson, s'applique à une variable discrète mais pouvant prendre des valeurs arbitrairement grandes. Son ensemble univers peut alors se confondre avec l'ensemble des entiers naturels. La loi de Poisson dépend d'un paramètre noté par usage lambda. La loi de probabilité de la loi de Poisson est P(x) = (lambda^x/fact(x))*e^(-lambda) toujours positive (voir figure). Si x vaut 0, comme lambda^0=1 et factorielle(0) = 1, alors P(0) = e^(-lambda). Lorsque x tend vers l'infini, P(x) tend vers 0 du fait du terme en factorielle qui domine le terme lambda^x. Cette loi de probabilité admet un unique pic, appelé aussi mode, avec la valeur de E(lambda), si lambda n'est pas un entier, et deux pics, lambda et lambda+1, si lambda est un entier. L'espérance ainsi que la variance de cette fonction valent lambda. L'écart type vaut donc sqrt(lambda).

Bruit de photons

Il a déjà été fait mention dans la première partie de ce cours sur les statistiques des exoplanètes, que les photons captés pendant un temps t par un pixel de caméra CCD suivent une loi de Poisson. De ce fait, lorsque plusieurs poses du même objet astronomique sont faites, durant par exemple 10 minutes, le nombre de photons d'un pixel provenant de l'objet décrit une loi de Poisson dont la moyenne qui est la mesure physique est le paramètre de la loi.


La loi normale

Loi normale
loi_normales.png
Trois exemples de fonctions de probabilités de loi normale avec différents espérances et écart-types.
Crédit : Wikipédia
Fonction de distribution de la loi normale
loi_normal_FD.png
La fonction de distribution de la loi normale dont l'écart-type vaut 1 et l'espérance 0.
Crédit : Wikipédia
Ecart-type de la loi normale
loi_normale_sigma.png
Figure du haut, boîte à moustaches représentant l'espace interquartile, les extrema théoriques étant à l'infini. Figure du milieu, la valeur exprimée en sigma des différents quartiles. Figure du bas, la probabilité d'avoir un résultat entre [-3*sigma, -1*sigma] (15,73 %), entre [-1*sigma, 1*sigma] (68,27 %) et enfin entre [1*sigma, 3*sigma] (15,73 %).
Crédit : Wikipédia

Définition

La dernière loi décrite est la plus connue si ce n'est la plus utilisée dans le domaine des statistiques. C'est le prolifique mathématicien allemand Carl Frierich Gauss qui la popularisa, elle porte son nom : la loi gaussienne aussi appelée loi normale. A l'inverse des deux précedentes lois, elle s'applique sur l'ensemble des réels. Pour un intervalle [x, x+dx], cette loi de probabilité vaut : P(x)*dx = (1/(sigma*sqrt(2*pi)))*e^(-(1/2)*((x-mu)/sigma)^2)*dx. Elle a deux paramètres qui sont mu, l'espérance de la fonction de probabilité, et sigma, l'écart type. Le terme devant l'exponentielle est un terme de normalisation afin que la probabilité totale de l'univers, donné par l'intégrale de cette loi depuis -infini jusque +infini, vale 1. Le mode, valeur pour laquelle la fonction connaît un pic, est égale à sa moyenne, mu. L'écart-type à l'espérance est donné par sigma. A 1*sigma la probabilité chute d'une facteur sqrt(e) ~= 1,648 ; à 3*sigma, ce facteur devient e^4,5, soit un peu plus de 90. La chute est donc très rapide à mesure qu'on s'éloigne de la valeur moyenne. En d'autres termes, la probabilité de voir sortir un réel séparé de plus de 3*sigma de la moyenne devient très faible, et cette probabilité devient quasiment nulle à 5*sigma (voir la troisième figure).

Une loi pour les erreurs de mesures

Lorsqu'une expérience est effectuée plusieurs fois, un résultat un peu différent de celui attendu apparaît. La différence entre la vraie valeur et notre mesure est appelée l'erreur. Par exemple, dans le cas de la fabrication de pièces mécaniques dans l'industrie, aucune pièce n'est strictement identique à une autre. Il y a donc un écart (une erreur) à la valeur désirée par le fabricant. Les causes des erreurs peuvent être multiples mais si elles sont sans lien entre elles (on dit qu'elles sont indépendantes), alors la loi de probabilité suivie par les erreurs est une gaussienne. Deux qualificatifs caractérisent une expérience ou la machine fabriquant une pièce mécanique : la fiabilité et la précision. La fiabilité informe si vous êtes en accord avec l'espérance en calculant la différence entre la moyenne obtenue et la valeur réelle. La précision quantifie l'incertitude pour chaque expérience, elle est donnée par l'écart-type, sigma. Si la moyenne diffère significativement de l'espérance ("signifcativement" voulant dire "par rapport à l'écart-type"), on parle de mesure biaisée.


Exercices

Auteur: Sylvain Fouquet

Exercices

Ce chapitre a pour but de revoir et de tester les connaissances sur la théorie des probabilités. Quelques questions de cours rappellent les concepts clés, puis, des questions proches du cours en sont une application directe pour tester la bonne compréhension du concept. Ensuite, des exercices, supposant que le cours est bien appris et compris, utilisent les probabilités pour résoudre des problèmes particuliers.


Variables aléatoires

exerciceCours

Difficulté :   

Question 1)

Qu'est-ce qu'une variable aléatoire ?

Question 2)

Quels sont les deux types de variables aléatoires ?

exerciceExercice sur les variables aléatoires

Difficulté :   

Question 1)

Ayant deux dés distinguables, un bleu et un rouge, combien d'événements sont possibles en les lançant ? Notez bien que l'évènement "Face 1" pour le dé rouge et "Face 2" pour le dé bleu, noté (1,2), n'est pas le même événement que "Face 2" pour le dé rouge et "Face 1" pour le dé bleu, noté (2,1).

Question 2)

Même question avec deux dés rouges que l'on choisit de ne pas distinguer. En d'autres termes, les couples tels que (2, 1) et (1, 2) sont considérés comme un unique évènement.

Question 3)

Supposons un générateur parfait de nombres aléatoires réels dans l'intervalle [0, 1[. Quels sont les évènements possibles et combien y en a-t-il ?

Question 4)

L'ordinateur n'est pas parfait et ne peut garder en mémoire que 4 chiffres après la virgule. Combien d'événements le générateur de la question 3) peut-il alors fournir ?


Ensemble

La théorie des probabilités se sert beaucoup de la théorie des ensembles. Ces exercices ont pour but de vous l'illustrer

exerciceCours sur les ensembles

Question 1)

Définir l'union de deux ensembles A et B ? Quelle est alors la probabilité P(A cup B), le signe cup signifiant Union ?

Question 2)

Définir l'intersection de deux ensembles A et B. Que dire de P(A cap B) par rapport à P(A) et P(B) pour des variables discrètes à valeurs dans un ensemble fini ? Donner un exemple où P(A cap B)=0. Notez que le symbole cap signifie l'intersection.

Question 3)

Quelle est la probabilité P(A U B U C) en fonction de P(A), P(B) et P(C) ?

Question 4)

Définir le complémentaire de l'ensemble A. Quelle est alors sa probabilité par rapport à P(A) ?


Probabilités à variables discrètes et équipartition

exerciceLancers de deux dés

Difficulté :   

Question 1)

Soit deux dés distincts que l'on lance, quels sont les différents événements et leurs probabilités ?

Question 2)

On s'intéresse maintenant à la somme des deux dés. Quels sont les événements possibles et comment sont-ils liés aux événements de la question précédente ? De là, quelles sont leurs probabilités ?

Question 3)

Commentez la nouvelle loi de probabilité calculée.

Question 4)

Vaut-il mieux tenter de faire un 6 avec un dé ou avec la somme de deux dés ?

exerciceJeu de fléchettes

Difficulté : ☆☆  

Question 1)

Soit un jeu de fléchettes avec une cible de rayon 10 cm. Quels événements considère-t-on en général dans ce jeu ? Sur quoi est basée la probabilité de ces derniers ?

Question 2)

On suppose que la moitié des fléchettes n'atteint pas la cible et que la zone centrale donnant le plus de point a un rayon de 1 cm. Quelle est alors la probabilité de faire le maximum de points ?


Probabilités conditionnelles

exerciceFaux positifs

Difficulté : ☆☆  

Lors du dépistage d'une maladie rare, touchant près d'une personne sur mille, les tests ne sont pas fiables à 100%. Après une campagne de dépistage, il y a alors des faux positifs, c'est-à-dire des personnes dépistées comme malades alors qu'elles sont saines. À l'inverse, il y a aussi des faux négatifs, c'est-à-dire des personnes dépistées comme saines mais en réalité malades. Le problème est alors de savoir quelle est la proportion de faux positifs parmi les détections.

On suppose qu'un patient malade est détecté par le dépistage avec une probabilité de 99%. À l'inverse, un patient sain est détecté comme tel avec une probabilité de 95%.

Question 1)

Quel est la malchance d'être diagnostiqué faux-positif, c'est à dire, quelle est la probabilité qu'une personne positive soit en fait non malade ?

Question 2)

Qu'en déduire sur le résultat d'un test positif ? Comment expliquer cela ?


Fonction de distribution

exerciceCours

Difficulté :   

Question 1)

Pour la variable x, Démontrer que variance(x) = moyenne(x^2) - mu^2 pour une variable discrète. (La démonstration est similaire pour une variable continue en changeant le signe somme en intégrale). moyenne(x^2) signifie l'espérance de x^2 et mu = moyenne(x).

Question 2)

Définir la fonction de distribution d'une loi de probabilité.

Question 3)

Quelle est la fonction de distribution de la loi de probabilité : p(x) = (3/2)(1-x^2) pour x dans l'intervall [0, 1], et p(x) = 0 en dehors.


Propriétés et applications de la loi binomiale

exerciceLoi binomiale

Difficulté :   

Question 1)

Définir la loi de probabilité binomiale ? Quelles sont ces propriétés : espérance et écart-type ?

Question 2)

Pour des événements de 30 lancers d'une pièce de monnaie non biaisée, combien de combinaisons présentent 28 lancers "face" ? Combien présentent 13 lancers "pile" ?

Question 3)

Si la probabilité d'avoir pile vaut p = 0,2, quelles sont alors les probabilités d'avoir 28 faces ou 13 piles ?


Propriétés et applications de la loi poissonnienne

exerciceLoi de Poisson

Difficulté :   

Question 1)

Définir la loi de probabilité de Poisson ? Quelles sont ses propriétés : espérance et écart-type ?

Question 2)

Soit un champ de 100 m², il tombe des gouttes de pluie en 10 secondes suivant une loi de Poisson de paramètre lambda = 1240,23. Combien en moyenne, tombera-t-il de gouttes d'eau dans ce champ en 1 heure ?


Propriétés et applications de la Gaussienne

exerciceLoi Normale

Difficulté :   

Question 1)

Définir la loi de probabilité normale ? Quelles sont ses propriétés : espérance et écart-type ?

Question 2)

Pour une loi normale de moyenne nulle, quelles sont les probabilités d'avoir, un résultat en dehors de 1 ou 3 sigma (sigma étant l'écart-type) ?

Question 3)

Supposons qu'un modèle physique prédise une mesure théorique de 20 mètres lors d'une expérience. L'expérimentateur fait l'expérience et trouve 19,5 mètres. Que dire sur le modèle physique selon que l'incertitude est de 0,5 m ou de 0,05 m ?


Mini-projet

Auteur: Sylvain Fouquet

Mini-projet

Dans cette dernière partie du cours, un ensemble d'exercices fait une synthèse entre la statistique des exoplanètes et les lois de probabilité. Les cinq exercices utilisent les lois de probabilité pour réfléchir sur les exoplanètes. Il faut noter que les hypothèses faites dans les énoncés (distribution des planètes autour d'une étoile donnée, détectabilités des exoplanètes) sont des hypothèses ad hoc. Ces propriétés sont encore très mal connues.


Contrôle

exerciceCombien d'exoplanètes dans la Voie Lactée ?

La première question concerne le nombre d'exoplanètes dans les sytèmes planétaires de notre galaxie, la Voie Lactée, en comparaison des planètes du système solaire. Notez que jusqu'à ce jour, on ne détecte que les exoplanètes de la Voie Lactée. On ne sait rien des planètes des milliards d'autres galaxies connues.

Supposons que la Voie Lactée soit constituée de 100 milliards d'étoiles, ce qui est juste au première ordre. Supposons aussi que la probabilité de trouver des planètes autour d'une étoile soit la même pour chaque étoile. Ceci est sûrement faux mais simplifie les calculs. Enfin supposons que la loi de probabilité du nombre de planètes par étoile est une loi de Poisson ayant un paramètre lambda égal à 5.

Question 1)

Combien en moyenne y a-t-il d'exoplanètes autour des étoiles ? Quelle est la probabilité de trouver un système planétaire avec un nombre égal à la moyenne ?

Question 2)

Quel est la probabilité de trouver un système planétaire tel que le système solaire, avec huit planètes ou avec au moins huit planètes ? Que conclure sur le système solaire dans ce cas ?

Question 3)

Considérant les données observationnelles, la plupart des exoplanètes sont seules autour de leur étoile. Dans ce cas, la loi des grands nombres tendrait à montrer que la moyenne des exoplanètes par étoiles serait proche de 1. Que devient la chance de trouver un système solaire dans un tel cas. Quelle est l'erreur de raisonnement fait ici ?

Question 4)

Combien statistiquement devrait-il y avoir d'exoplanètes dans la Voie Lactée ?

exerciceLes Jupiter Chauds

Cet exercice porte sur les Jupiter Chauds, des exoplanètes ayant une masse similaire à celle de Jupiter et très proches de leur étoile. Outre leur intérêt physique qui obligent à repenser la formation et l'évolution des planètes, ces planètes sont aussi intéressantes d'un point de vue statistique, car elles sont plus faciles à détecter et donc moins sujettes aux biais observationnels. Cet exercice montre que même avec une faible fraction de Jupiter Chauds dans la galaxie, cette population peut paraître la plus importante avec des moyens obervationnels limités.

Supposons toujours que les étoiles ont toute la même loi de probabilité d'avoir des planètes, un loi de Poisson avec une moyenne de 5. Supposons que la probabilité pour une planète d'être un Jupiter Chaud soit de 0,0001. Supposons que l'on soit sûr de pouvoir les découvrir à une distance de 2 kpc. On suppose aussi que la probabilité qu'une planète soit de type Terre est de 0,1 mais qu'il n'est possible de la trouver qu'à moins de 50 parsec.

Question 1)

Quelle loi de probabilité va servir pour déterminer le nombre de Jupiter Chauds ou de planètes de type Terre par la suite?

Question 2)

Combien de Jupiter Chauds et de planètes de type Terre y aurait-il dans la Voie Lactée ? Quel est leur rapport ?

Question 3)

En sélectionnant 100 000 étoiles brillantes dans le ciel, toutes à moins de 2 kpc, dont 27 sont à moins de 50 parsec, combien statistiquement y aura-t-il de Jupiter Chauds et de planètes de type Terre découverts? Quel est leur rapport ? Conclure.

exerciceRelation étoiles-exoplanètes

Cet exercice s'intéresse aux relations qui pourraient exister entre les exoplanètes et leur étoile hôte. La théorie bayésienne est alors utilisée. Dans un vision plus réaliste des exoplanètes que pour les exercices précédents, la probabilité de présence de planètes n'est pas la même pour les différents types d'étoiles.

Question 1)

Lors d'une observation non biaisée, c'est à dire complète, pour détecter des planètes géantes gazeuses sur 200 étoiles, 28 planètes géantes gazeuses sont découvertes autour de 75 étoiles de métallicité plus grande que 0 (étoiles riches en métaux) et seulement 2 pour les 125 étoiles de métallicité plus petite que 0 (étoiles pauvres en métaux). A chaque fois, les planètes gazeuses géantes sont trouvées seules sans autre géante gazeuse. Que dire qualitativement de l'influence de la métallicité sur la détection de planètes gazeuses?

Question 2)

Soit, G, l'ensemble des étoiles ayant la propriété suivante "avoir une seule planète gazeuse pour une étoile" et son contraire NG ainsi que l'ensemble M ="avoir une étoile riche en métaux" et son contraire NM. Avec les données de l'énoncé, quelles sont les probabilités de P(G), P(NG), P(M), P(NM) ?

Question 3)

Que signifient les probabilité suivantes P(G|M) et P(G|NM) ? Quelles sont leurs valeurs ? Les comparer à P(G) et commenter.

Question 4)

Pour une étoile choisie au hasard, une unique planète géante gazeuse est observée. Qu'elle est la probabilité pour l'étoile d'être une étoile riche en métaux, P(M|G) ? Commenter.

Question 5)

Comparer la probabilité que l'étoile avait d'être riche en métaux avant et après la découverte de la planète géante gazeuse. Quels sont les points forts et les points faibles de cette méthode pour connaître la métallicité d'une étoile ?

exerciceDétection d'une exoplanète par transit

Transit d'exoplanètes
transit.png
Différentes configurations de transit d'exoplanète. La direction de la ligne de visée est indiquée à droite. De la gauche vers la droite: une orbite d'exoplanète ayant un angle nul avec la ligne de visée, il y a un transit assuré, ensuite une exoplanète dont l'orbite fait un angle de quelques degrés, noté alpha, avec la ligne de visée, enfin une exoplanète dont l'orbite est perpendiculaire à la ligne de visée, l'exoplanète n'est alors pas visible par transit.
Crédit : Sylvain Fouquet

Lors d'un transit, une exoplanète passe devant son étoile depuis un observateur sur terre, la luminosité de l'étoile est alors diminuée durant un certain laps de temps avant de revenir à la normale. Cette mesure permet la détection d'une exoplanète. Lorsqu'une exoplanète est recherchée par la méthode des transits, les observateurs espèrent que cette l'orbite de l'exoplanète passe devant l'étoile hôte pour un observateur terrestre. Il y a un facteur chance pour détecter des transits d'une étoile donnée. Les campagnes de recherche observent un grand nombre d'étoiles et l'analyse des données nécessite de corriger le taux de détection de transits de la probabilité d'observer ces transits.

Question 1)

Supposons qu'une étoile ait un rayon de 1 million de km (par comparaison le Soleil fait près de 700 000 km de rayon), quel angle maximal, sur le plan d'une trajectoire circulaire d'une exoplanète à 1 U.A., faut-il pour voir un transit? Notons qu' une inclinaison de 0 degré signifie que la trajectoire est vue de côté, donc qu'il y a un transit, et qu'une inclinaison de 90 degrés signifie que la trajectoire est vue de face, donc sans transit.

Question 2)

Que dire sur l'influence du rayon de l'étoile et de la distance de l'exoplanète à cette étoile sur l'angle minimal requis pour détecter l'exoplanète ? Commenter le biais de cette méthode.

Question 3)

Que se passe-t-il qualitativement si l'orbite n'est plus circulaire mais elliptique ? Commenter sur un autre biais de la méthode des transits.

Question 4)

Dans le cas précédent (une exoplanète à 1 U.A. d'une étoile de rayon 1 millions de km), quelle est la probabilité de la détecter, sachant qu'aucun angle n'est a priori préféré pour son orbite circulaire ?

Question 5)

Que devient cette probabilité pour un Jupiter Chaud (distant de son étoile de 0.1 U.A) autour d'une étoile géante ayant un rayon de 10 millions de km ?


Conclusion

Au fil de ce cours plusieurs concepts clés sur la théorie des probabilités ont été étudiés. Premièrement, il y a eu l'idée de variables aléatoires qui signifie que pour la même expérience les résultats sont différents. Il peut y en avoir un nombre fini, comme pour le lancer d'un dé, ou infini comme pour le temps entre deux averses. Ensuite, l'idée qu'à chaque résultat ou évènement, il est possible d'associer une probabilité allant de 0, l'impossibilité, à 1, la certitude. Enfin, quatre lois de probabilités très utilisées ont été présentées : la loi d'équipartition lorsque tous les évènements ont la même probabilité, la loi binomiale, la loi de Poisson et la loi Normale.

Quant à la statistique, elle est en pratique utilisée pour découvrir ces lois de probabilités. Dans ce cours, le support a été l'étude des exoplanètes. L'étude d'un échantillon a montré des propriétés sur la masse, le rayon ainsi que le péricentre des exoplanètes.

Ce cours n'est évidemment qu'une introduction aux probabilités. Une étude plus approfondie permettra de mieux comprendre la définition mathématique rigoureuse des probabilités. De plus, avec le couple probabilité-statistique, il est possible de tester différentes lois de probabilité et de les confronter à des données statistiques pour en déduire si la loi à de fortes chances d'être correcte ou est sûrement fausse. Cela se fait par l'utilisation de tests statistiques, tels que le test Kolmogorov-Smirnov. Les probabilités servent aussi à ajuster des courbes ou des modèles. Cela se fait avec le test dit du "chi2" pour chi^2. Ce ne sont ici que des exemples très connus mais le couple probabilité-statistique est bien plus riche et peut servir dans bons nombres de domaines scientifiques et même économiques.


-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Lieux de vie


Planètes, lieux de vie

Ces modules traitent des planètes comme lieu de vie.


Habitabilité

Auteurs: Martin TURBET, Francois FORGET

Introduction

Y-a-t-il de la vie ailleurs que sur Terre ?

Avec les récentes détections de planètes telluriques depuis la Terre ou par le télescope spatial Kepler, cette question ancestrale prend tout son sens. Nous savons à présent que la plupart des étoiles sont entourées de planètes rocheuses comme la Terre. Cependant, de nombreuses questions demeurent : Les conditions propices à la vie sont elle fréquentes ou exceptionnelles ? Où faut-il chercher ? A quoi ressemblent les objets, dans notre galaxie, capables d’héberger la vie ? Ce cours propose d’identifier les différents critères à réunir pour qu’une planète (ou une lune) soit susceptible d’héberger de la vie.

Une planète sera dite “habitable” si y sont réunies un ensemble de conditions qui la rendent propice à l’apparition et au maintien de la vie telle que nous pouvons l'imaginer et la reconnaitre. Cela ne signifie pas pour autant que la vie va effectivement s’y développer !

Planète Tatooine
tatooine.jpg
De la vie sur la planète Tatooine.
Crédit : Star Wars

Découvrir

Auteurs: Martin TURBET, Francois FORGET

L'habitabilité ?

Auteur: Martin Turbet

Conditions de l'habitabilité

La vie telle que nous pouvons l'imaginer (et la reconnaitre) à partir de notre expérience terrestre se base sur la chimie du carbone en solution dans l'eau liquide et une évolution par réplication/reproduction. Pour être habitable, une exoplanète doit donc vérifier simultanément quatre critères : Avoir du carbone, de l'eau liquide, une source d'énergie et une surface solide ou liquide.

Du Carbone

I. Elle doit contenir du carbone. Le carbone est présent dans 95% des composés chimiques connus à ce jour et est un élément chimique indispensable à la vie. D'une part, chaque atome de carbone est capable de former quatre liaisons moléculaires. D'autre part, les atomes de carbone forment avec les autres atomes (oxygène, hydrogène, ... mais aussi carbone !) des liaisons dont la stabilité n'est ni trop grande, ni trop faible. Ce sont ces deux propriétés qui sont à l'origine de la richesse de la chimie du carbone, justement appelée chimie "organique". D'autres atomes, comme par exemple le silicium sont eux aussi capables de créer simultanément 4 liaisons. Le silicium forme cependant avec certains atomes (notamment l'Oxygène) des liaisons beaucoup trop stables pour pouvoir permettre une diversité de composés chimiques nécessaire à la vie.

Un exemple : le méthane (CH4)
molecule-carbone.png
On a représenté ici une molécule de CH4. L'atome de Carbone est au centre, en noir. Il est capable de former simultanément 4 liaisons covalentes. Dans la molécule de CH4, l'atome de Carbone forme 4 liaisons avec 4 atomes d'hydrogène différents.
Crédit : Wikipedia

De l'eau liquide

II. Une planète habitable doit avoir de l'eau liquide stable, à sa surface sous forme d'océans ou de lacs, ou dans des nappes d'eau souterraines. Sur Terre, l'eau liquide est indispensable à la vie telle que nous la connaissons. En son absence, il n'existe aucune activité biologique ni reproduction. Certains organismes peuvent survivre desséchés à l'état de "spores", mais leur métabolisme est stoppé. Inversement, presque partout où l'eau liquide est présente, même à grande profondeur sous-terre, ou dans des conditions extrêmement chaudes, acides, salées, etc.. la vie est active. L'eau liquide semble ainsi être la condition nécessaire et suffisante pour la vie terrestre telle que nous la connaissons. En effet, en l'état actuel de nos connaissances, l'eau liquide est le seul solvant permettant une chimie aussi riche que la biochimie. L'eau possède un moment dipolaire élevé. Cela lui permet de former des liaisons hydrogène, ingrédient nécessaire pour 1) stabiliser les molécules d'eau entre elles et 2) stabiliser les macromolécules (briques du vivant). Ensuite, l'eau sous sa forme liquide est stable pour une grande gamme de températures et de pressions, à des températures propices à une chimie relativement rapide.

Une source d'énergie

III. Il faut une source d'énergie (lumineuse, chimique, ...) pour initier la synthèse et le développement des molécules organiques qui constituent la base de la vie.

Une surface stable

IV. Il est difficile de concevoir que la vie puisse se développer sur une planète gazeuse. En l'absence de surface liquide ou solide stable, il faudrait par exemple que la vie profite de gouttelettes nuageuses. Cependant, celles ci étant sans cesse en train de s'évaporer et de se reformer, les conditions semblent insuffisamment stables dans le temps pour que la vie puisse apparaître et se développer.

La molécule d'eau
water.png
L’eau a un moment dipolaire de 1,83 Debye. C'est grâce à leur polarité élevée que les molécules d’eau peuvent s'attirer les unes les autres. L'oxygène, plus électronégatif que l'hydrogène, va être localement chargé négativement. Par conservation de la charge, les atomes d'hydrogène vont être chargés positivement. Ils vont ainsi être capables de former des "liaisons hydrogène" aussi bien avec d'autres molécules d'eau que des macromolécules ...
Crédit : P.E. Zörner et R. Apfelbach

Les types d'habitabilité

Pour la vie telle que nous pouvons l'imaginer, une planète (ou une lune, par extension) sera donc habitable si elle héberge de l'eau liquide. Cependant, les environnements où l'eau liquide est présente n'offrent pas tous les mêmes avantages pour l'apparition de la vie et son évolution. On peut ainsi distinguer quatre catégories de corps habitables.

Catégorie I

D'abord, il y a les planètes/lunes similaires à la Terre, capables de conserver de l'eau liquide à leur surface. Les éventuels êtres vivants peuvent alors utiliser l'énergie lumineuse venue de l'étoile hôte, qui est essentielle car moteur de la photosynthèse. Sur Terre, la quasi-totalité des organismes vivants fonctionnent, directement ou indirectement, grâce au mécanisme de photosynthèse. C'est cette source d'énergie considérable qui a permis à la vie de modifier l'atmosphère et la surface de notre planète.

Catégorie II

Les planètes/lunes de cette catégorie ont un jour possédé des caractéristiques similaires à celle de la Terre (catégorie 1) mais ont par la suite perdu leur eau liquide en surface. Sur ces planètes, la vie a pu apparaître et se développer en surface, et ensuite envahir le sous-sol (la vie est abondante sur Terre jusqu'à parfois plusieurs kilomètres de profondeur). Lorsque la surface est devenue inhabitable, la vie a pu subsister en profondeur là où l'eau liquide est restée présente. C'est peut-être le cas pour Mars, cas qui sera détaillé dans la suite de ce cours.

Catégorie III

Dans cette catégorie, on trouve les planètes/lunes qui possèdent un océan d'eau liquide sous une couche de glace en surface, et en contact direct avec un noyau rocheux. Europe (satellite naturel de Jupiter) et Encelade (autour de Saturne) appartiennent à cette catégorie. Sur ces corps, la température à la surface est inférieure à -100°C, mais l'eau est maintenue liquide en profondeur par l'énergie thermique générée par la dissipation des marées gravitationelles due à l'excentricité de leurs orbites autour de Jupiter et Saturne..

Représentation des planètes/lunes habitables de classes III et IV
ganymede_profile.png
Représentations possibles des objets de catégories III et IV. Le cas 1 correspond à une planète dont la totalité de l'eau est gelée. Le cas 2 à un objet de catégorie IV. Les cas 3 et 4 à des objets de catégorie III.
Crédit : H. Lammer
Diagramme de phase de l'eau
Phase_diagram_of_water.png
Le diagramme de phase de l'eau montre qu'à haute pression (jusqu'à 200 MPa), la température du solidus décroit avec la pression. Il existe donc une région du diagramme (ici, en rouge) où l'eau peut rester sous forme liquide jusqu'à -20°C.
Crédit : Adapté de Wikipedia par M. Turbet.

Catégorie IV

Enfin, les planètes/lunes de la catégorie IV ont un océan d'eau liquide souterrain comme pour la catégorie III, mais surmontant une couche épaisse de glace. En effet si la quantité d'eau présente sur ces objets est trop grande, le diagramme de phase de l'eau prédit l'existence d'une couche de glace à haute pression, entre l'océan liquide et le noyau silicaté.

Les corps du Système Solaire faisant partie de cette catégorie sont notamment Ganymede (Jupiter) et Callisto (Jupiter).

La vie sur les corps de catégorie III et IV

Les photons ne pouvant atteindre l'océan souterrain, le mécanisme de la photosynthèse ne peut pas fonctionner.

Sur les objets de catégorie III, une vie éventuelle peut néanmoins profiter de l'énergie chimique et des nutriments apportés par l'activité hydrothermale et volcanique. .

Sur les objets de la catégorie IV, l'eau est en "sandwich" entre deux couche de glace. La vie ne peut bénéficier de l'apport de matériaux et d'énergie en provenance du sous-sol via du volcanisme.

Si la vie n'est présente qu'en sous-surface (catégories II, III et IV), elle peut alors difficilement modifier l'aspect de la surface. Surtout, en l'absence de photosynthèse, son activité biologique sera très limitée et elle ne pourra presque pas influencer la composition chimique d'une éventuelle atmosphère. Sa détection depuis la Terre apparait donc beaucoup plus difficile que pour la catégorie I.

Dans la suite de ce cours, nous nous intéresserons essentiellement aux exoplanètes habitables de la première catégorie car ce sont les seules où la vie peut être détectée à distance.


Du temps

Les organismes complexes qui constituent "la vie" pourraient avoir besoin de beaucoup de temps pour se former et évoluer. Sur Terre, nous ne savons pas quand la vie est apparue. Des traces d'êtres vivants (fossiles, anomalie isotopiques, "stromatolites") semblent présentes dans les plus anciennes roches sédimentaires actuellement disponibles sur Terre. Ces traces sont débattues, mais elles suggèrent que la vie bactérienne était abondante moins d'un milliard d'années après la formation de la Terre. Cependant, plus de 3 milliards d'années ont ensuite été nécessaires pour que les premières formes de vie multicellulaires à l'origine des animaux et des hommes apparaissent.

Pour que la vie puisse évoluer, il faut que la planète hôte soit capable de conserver du carbone, de l'eau liquide et une surface stable pendant plusieurs milliards d'années. Maintenir les conditions de température et de pression propices à l'eau liquide en surface se révèle être le critère le plus contraignant.

Une première limite sur la durée de l'habitabilité d'une planète est donnée par la durée de vie de son étoile hôte, ou plus précisemment par la durée de vie sur la séquence principale (Diagramme Hertzsprung-Russel), pendant laquelle son énergie est créée dans son cœur par fusion nucléaire des noyaux d'hydrogène en noyaux d'hélium. Sa luminosité est alors stable ou évolue doucement. Quand une étoile quitte la séquence principale, la variation importante de son flux lumineux ne permet pas aux planètes environnantes de conserver des conditions stables à leur surface et donc de potentiellement conserver leur habitabilité. Le soleil, par exemple, sortira de la séquence principale dans près de 5 milliards d'années pour entrer dans une phase de géante rouge. Si la Terre est alors toujours à la même distance du Soleil, elle recevra une quantité d'énergie plusieurs milliers de fois plus importante qu'aujourd'hui. La Terre ne sera alors plus habitable ...

La durée de vie d'une étoile de la séquence principale dépend essentiellement de sa masse. Plus une étoile est massive, plus sa durée de vie sera courte, et donc moins elle sera susceptible d'héberger une planète durablement habitable. Les étoiles dont la masse est supérieure à 1,5 fois celle du Soleil sont peu propices à posséder des planètes hébergeant de la vie "développée", car leur durée de vie est inférieure à 4.5 milliards d'années, soit le temps qu'il a fallu sur Terre pour que la vie intelligente apparaisse depuis la formation du Soleil.

Durée de vie des étoiles dans la séquence principale
star_evolution.png
Durée de vie d'une étoile dans la séquence principale, fonction "bijective" de sa masse. Rappel de cours. La région hachurée correspond aux étoiles dont la durée de vie est inférieure à 4,5 milliards d'année, durée qu'il a fallut sur Terre pour que la vie intelligente émerge.
Crédit : M. Turbet

De l'eau liquide

Une planète habitable (de catégorie I) doit avoir de l'eau liquide disponible à sa surface. Il faut pour cela qu'elle ait d'abord été capable d'avoir accumulé de l'eau, puis de la conserver à sa surface, et enfin de la garder dans son état liquide.

Avoir de l'eau

L'eau est abondante dans notre galaxie. Il est ainsi très probable que les planètes ont au moment de leur formation de grandes quantités d'eau à disposition. Par la suite, comètes et météorites peuvent alimenter ces mêmes planètes en eau.

Maintenir l'eau liquide

Pour une planète, avoir de l'eau semble être une chose commune. Mais il est bien plus difficile de garder cette eau en phase liquide ... L'eau peut exister essentiellement sous trois formes : solide, liquide et gazeuse. La gamme de températures pour laquelle une planète peut avoir de l'eau liquide stable à sa surface dépend donc principalement de sa pression de surface. Actuellement sur Terre, cette gamme s'étend de 0 à 100°C car la pression au sol est de 1013 hPa.

Remarque : La présence de sels dissous dans l'eau liquide peut permettre d'abaisser sa température de solidification de quelques dizaines de degrés et également d'augmenter sa température d'ébullition

Diagramme de phase de l'eau
diagramme_phase.png
L'eau est stable sous sa forme liquide pour une gamme donnée de valeurs de Températures / Pressions. Sur Terre, l'eau liquide est stable entre 0 et 100 °C.
Crédit : M. Turbet

Garder cette eau

Une planète habitable est susceptible de perdre son eau par des mécanismes d'échappement atmosphérique. En particulier, l'eau liquide à la surface d'une planète habitable est en équilibre avec son atmosphère. La vapeur d'eau injectée peut monter dans la haute atmosphère et être photolisée par le flux UV en provenance de l'étoile, libérant ainsi des atomes d'hydrogène et d'oxygène. Les atomes d'hydrogène, légers, vont s'échapper facilement de la gravité. Si la quantité d'eau dans la haute atmosphère et le flux UV sont suffisament élevés, la planète initialement habitable peut perdre la totalité de son hydrogène et donc de son eau vers l'espace.

Il existe une méthode pour quantifier la perte en eau d'une planète par échappement atmosphérique. Le deutérium D (un proton+un neutron) est un isotope de l'hydrogène H (un proton). Il est présent en quantité à peu près constante depuis la formation de l'Univers. Pourtant, lors du mécanisme d'échappement atmosphérique décrit plus haut, l'hydrogène, plus léger que le deutérium, va s'échapper plus facilement. Au cours du temps, la proportion de deutérium sur une planète qui perd son eau vers l'espace va augmenter. Plus la proportion de deutérium est importante par rapport à celle de l'hydrogène (rapport D/H), plus la perte atmosphérique a été importante. Cependant, le rapport D/H ne renseigne pas sur la quantité d'eau initialement présente.

L'échappement atmosphérique
mars_escape.png
Les mécanismes possibles d'échappement atmosphérique. Exemple de la planète Mars.
Crédit : F. Forget

Des températures propices à l'eau liquide et à la vie

Tout corps chaud se refroidit avec le temps en émettant un rayonnement thermique. Au premier ordre, la puissance rayonnée par un corps ne dépend que de sa température et de sa surface.

Flux d'énergie reçue sur Terre
earth_flux.jpg
Moyenne annuelle du flux géothermique et du flux solaire absorbé reçus sur Terre. Le flux géothermique moyen est de 8.10-2 W/m2 alors que le flux solaire absorbé moyen est de 240 W/m2.
Crédit : J.H. Davies et J. Michaelsen

Sur Terre, les conditions de température et de pression sont idéales pour conserver de l'eau liquide à la surface. Pour compenser le refroidissement de la surface terrestre et de ses océans par émission thermique, il faut une source extérieure d'énergie. Par le haut de l'atmosphère, c'est le flux solaire. Par le bas, c'est le flux géothermique. En pratique c'est le flux solaire qui domine par plus de 3 ordres de grandeur les autres sources d'énergie dans le bilan radiatif terrestre.

Le flux stellaire

En premier lieu, c'est donc le flux stellaire reçu par une planète qui va dicter si oui ou non la planète va être capable de garder de l'eau liquide à sa surface. Si la planète est trop proche de son étoile, la température de la planète sera trop élevée pour conserver de l'eau dans son état liquide. Si la planète est trop loin de son étoile, ou voire même si la planète est seule, sans étoile - on l'appelle dans ce cas "planète flottante" -, elle ne recevra alors plus suffisamment d'énergie pour conserver la température minimale nécessaire au maintien d'eau liquide à sa surface.

Note : La photosynthèse - mécanisme essentiel pour la vie - est alimentée par le flux solaire.

Le flux géothermique

Sur Terre, le flux géothermique est en moyenne 3000 fois plus faible que le flux solaire. Pourtant, sur d'autres corps, il peut être beaucoup plus important. Sur Io, un satellite de Jupiter encore volcaniquement actif, le flux géothermique moyen est 25 fois plus élevé que sur Terre. Ceci est dû aux forces de marée gravitationnelle exercées par Jupiter sur Io qui, par friction, réchauffent l'intérieur du satellite. Il est donc possible que, dans certaines configurations, le flux géothermique joue un rôle important dans le bilan radiatif d'une planète/lune et donc sur son habitabilité.

Note : Si une exoplanète reçoit un flux stellaire trop faible pour alimenter la photosynthèse, il est possible que d'autres mécanismes prennent le relais. C'est en particulier le cas de la vie chimiolithotrophique, qui puise son énergie des sources hydrothermales.

L'effet de serre de l'atmosphère

La composition et l'épaisseur de l'atmosphère d'une planète jouent également un rôle prépondérant dans son bilan radiatif. En particulier, la présence de gaz à effet de serre contribue généralement à l'augmentation de la température de surface d'une planète. Un gaz à effet de serre a en effet la propriété particulière d'être quasi-transparent dans le domaine du visible (là où la majorité du flux solaire est émis), mais très absorbant dans le domaine de l'infrarouge (qui correspond au domaine du rayonnement thermique de la planète). Les gaz à effet de serre, chauffés par cette absorption, émettent eux aussi un rayonnement thermique dont une partie est captée par la surface, contribuant à son réchauffement. (Plus d'informations dans ce cours)

Sur Terre, les principaux gaz à effet de serre sont l'eau (H_2O), le dioxyde de carbone (CO_2), le méthane (CH_4), ou encore l'ozone (O_3). Néanmoins, notre expérience dans le Système Solaire prouve qu'il existe en fait toute une variété de compositions atmosphériques possibles : l'atmosphère de Jupiter est composée essentiellement de dihydrogène (H_2) et d'hélium (He) ; celle de Vénus essentiellement de CO_2 ...

Ce qu'il faut retenir des gaz à effet de serre : Une planète très proche de son étoile doit posséder peu de gaz à effets de serre pour conserver de l'eau liquide à sa surface alors qu'une planète très éloignée doit en avoir en grandes quantités !


Ni trop chaud, ni trop froid


La limite froide

Ce qui permet à la Terre de garder son eau liquide est un équilibre subtile entre le flux solaire qu'elle reçoit et le flux thermique qu'elle émet, fonction notamment de sa température.

La limite froide de l'habitabilité

La glaciation galopante
runawayglaciation.png
Mécanisme de déstabilisation par glaciation galopante, aussi appelée "Runaway Glaciation".
Crédit : M. Turbet / F. Forget

Prenez la Terre et éloignez la du Soleil. Le flux solaire qu'elle reçoit va diminuer, impliquant une baisse directe de la température à sa surface. De ce fait, de la glace et de la neige supplémentaires vont se former et donc augmenter le pouvoir réfléchissant - appelé aussi "albédo" - de la surface. Un dépôt de neige peut être par exemple jusqu'à 10 fois plus réfléchissant qu'une étendue d'eau liquide. Ainsi, le flux solaire absorbé diminuera de plus belle, conduisant à des températures encore plus basses ...

On représente ci-dessous une simulation de la Terre, éloignée soudainement de 11% du Soleil. Après 20 ans, et via le mécanisme déstabilisant de "Runaway glaciation" (glaciation galopante) présenté ici, la Terre est complètement gelée.

La glaciation de la Terre
La Terre soumise à un flux solaire ( F \propto \frac{1}{d_^{2}} avec d la distance Terre-Soleil ) égal à 80% de sa valeur actuelle. Au bout de 20 ans, la planète est entièrement recouverte de glace.
Crédit : B. Charnay

L'effet "boule de neige"

Si la Terre, par ce phénomène de "Runaway Glaciation", finit par être complètement recouverte de glace, alors on dit qu'elle est entrée dans l'état "Terre Boule de Neige" ou aussi "Snowball Earth". Dans cet état, les températures à la surface de la Terre sont très froides, et l'albédo élevé de la glace/neige conduit la Terre à réfléchir une grande partie du flux solaire qu'elle reçoit.

Si on réexpose la Terre gelée au flux solaire qu'elle reçoit actuellement, elle restera gelée, suivant un phénomène d'hysteresis. Ainsi, pour un même flux solaire, la Terre peut être dans deux états d'équilibre différents ! Pour que la Terre Boule de Neige retrouve son état actuel, il faut qu'un ingrédient supplémentaire entre en jeu, comme par exemple une augmentation des gaz à effets de serre ...

Les équilibres possibles du Bilan Radiatif Terrestre
equilibrium.png
On représente ici les deux termes - \sigma T^4 et (1-A)F\odot - du bilan radiatif simplifié de la Terre, avec A l'albédo planétaire et F \odot le flux solaire reçu. Il existe alors trois solutions possibles. La première, stable, correspond à une température clémente. C'est l'état dans lequel se trouve la Terre aujourd'hui. La seconde, instable, n'existe pas physiquement. La troisième, stable, correspond à une température froide. Dans cet état, l'albédo de la planète est très élevé, car celle-ci est recouverte de neige et de glace. On appelle cet état la "Terre boule de neige" ou aussi "Snowball Earth".
Crédit : M. Turbet

La limite chaude

L'emballement de l'effet de serre
runaway_greenhouse.png
Mécanisme de déstabilisation par effet de serre divergent, aussi appelé "Runaway Greenhouse".
Crédit : M. Turbet / F. Forget
L'échappement de l'hydrogène
hydrogen_escape.png
Les molécules d'H2O qui atteignent la haute atmosphère peuvent être photodissociées par le rayonnement UV reçu. Les atomes d'hydrogène libérés, légers, peuvent alors s'échapper de l'attraction gravitationnelle de la planète.
Crédit : F. Forget

L'effet "Runaway Greenhouse"

Prenons maintenant la Terre et rapprochons là de quelques pourcents du Soleil. L'augmentation du flux lumineux que la planète reçoit va provoquer une augmentation de sa température de surface. Les océans et mers de la Terre, réchauffés, vont évaporer plus d'eau. La vapeur d'eau étant un puissant gaz à effet de serre, la température de surface de la Terre va continuer d'augmenter. Si le flux solaire reçu par notre planète est alors suffisamment grand, l'évaporation des océans va s'emballer jusqu'à leur épuisement. La vapeur d'eau correspondante va former une épaisse atmosphère opaque au rayonnement infrarouge thermique. La température de la surface augmentera juqu'à plus de 1500°C pour pouvoir rayonner dans le visible où la vapeur d'eau laisse passer le rayonnement nécessaire à son refroidissement.

Les planètes habitables de catégorie I possèdent de l'eau liquide en surface et sont donc tout autant sujettes à ce mécanisme d'emballement de l'effet de serre.

L'effet "Moist Greenhouse"

Une planète habitable de catégorie I possède de l'eau liquide à sa surface, et donc de la vapeur d'eau dans son atmosphère. Une partie de cette vapeur d'eau va rejoindre les hautes couches de l'atmosphère. Le flux UV de l'étoile va photodissocier les molécules d'eau et les atomes d'hydrogène, légers, vont alors s'échapper vers l'espace.

Le mécanisme d'emballement de l'effet de serre prédit qu'une planète qui se réchauffe aura de plus en plus de vapeur d'eau dans son atmosphère, et donc perdra de plus en plus rapidement son eau vers l'espace. Si cet échappement est suffisamment rapide (suffisamment d'eau dans la haute atmosphère, suffisamment de radiation UV), alors la planète habitable peut perdre la totalité de son eau avant même d'être entrée dans l'état du "Runaway Greenhouse". On appelle cette limite chaude de l'habitabilité le "Moist Greenhouse".


La Zone Habitable Classique

La zone habitable
hz2.png
Pour une planète donnée, la Zone Habitable est ici représentée en fonction de la masse de son étoile et de la distance à laquelle elle l'orbite.
Crédit : J. Kasting

La Zone Habitable désigne classiquement la gamme de distances pour lesquelles il n'est pas impossible qu'une planète puisse avoir de l'eau liquide à sa surface, et donc être propice à une vie capable d'exploiter la photosynthèse. Bien sur, un objet peut se trouver dans cette zone et ne pas être habitable (exemple: la Lune).

Une planète trop proche de son étoile verra toute son eau liquide s'évaporer à cause du mécanisme de "Runaway Greenhouse". Pour une étoile donnée, on définit alors la limite "intérieure" - ou chaude - de la Zone Habitable par la distance orbitale minimale jusqu'à laquelle il est possible qu'une planète puisse garder son eau liquide. En pratique, on prend une planète totalement ou partiellement couverte d'eau liquide, et on cherche la distance minimale jusqu'à laquelle on peut l'emmener avant que ses océans ne s'évaporent.

Une planète trop éloignée de son étoile verra toute son eau liquide geler à cause du mécanisme de "Runaway Glaciation". Pour une étoile donnée, on définit alors la limite "extérieure" ou - froide - de la Zone Habitable par la distance orbitale maximale jusqu'à laquelle il est possible qu'une planète puisse garder son eau liquide. À la limite, on choisit l'atmosphère de la planète pour qu'elle maximise l'effet de serre. En pratique, la plupart des travaux de recherche ont eté effectué en supposant une planète possédant une atmosphère épaisse de CO2 (un bon gaz à effet de serre, et composant probable de l'atmosphère des planètes telluriques) : on cherche alors la distance maximale jusqu'à laquelle une telle planète peut garder de l'eau liquide à sa surface.


La vitesse de rotation

La Terre a une période de rotation sur elle-même de 24 heures, et autour du Soleil de 365 jours. La Lune, elle pourtant, montre toujours la même face à la Terre. Sa période de rotation autour de la Terre est égale à sa période de rotation sur elle-même (sidérale). On dit alors qu'elle a une résonance spin-orbite 1:1 ; on dit aussi qu'elle est en rotation synchrone. Mercure fait 3 tours sur elle-même quand elle fait 2 tours autour du Soleil. Elle a une résonance spin-orbite 3:2.

La résonance spin-orbite
Tidal_lock.gif
Ici, on représente deux cas. La première planète (verte/bleue) est en résonance spin-orbite 1:1 / en rotation synchrone. La deuxième planète (noire/grise) est en résonance spin-orbite 2:1.
Crédit : Wikipedia
Rotation et Zone Habitable
hz2_tidal.png
Pour une planète donnée, la Zone Habitable est ici représentée en fonction de la masse de son étoile et de la distance à laquelle elle l'orbite. Les planètes qui se trouvent dans la région gauche définie par la distance de synchronisation se retrouveront en rotation synchrone autour de leur étoile en moins de 4,5 milliards d'années.
Crédit : J. Kasting

Il existe en fait une multitude de possibles périodes de rotation pour une planète autour de son étoile. Pourtant, quand une planète a une orbite trop proche de son étoile, l'action des forces de marées influence sa rotation. D'une part, elles tendent à redresser son axe de rotation (l'obliquité tend vers zero) et ses pôles ne reçoivent presque plus de rayonnement stellaire. D'autre part, elles freinent sa rotation, jusqu'à eventuellement la synchroniser autour de son étoile (la même face est toujours exposée à l'étoile). C'est par exemple ce qu'il s'est passé pour la Lune autour de la Terre.

La Zone Habitable autour d'étoiles de faible masse est relativement proche de l'étoile. En conséquence, les planètes situées dans la Zone Habitable de ces étoiles auront une obliquité nulle et une rotation ralentie, voire synchrone.

L'habitabilité des planètes en rotation synchrone

Quand une planète est en rotation synchrone autour de son étoile, elle reçoit toute son énergie (lumineuse) sur la même face. Les deux pôles (Nord et Sud) et la face cachée ne reçoivent alors plus d'énergie. Dans certains cas, l'eau liquide à la surface de la planète peut se retrouver intégralement piégée sous forme de glace au niveau des pôles ou bien de la face cachée. On appelle cela un "piège froid".

Sur ce type de planètes, les climats possibles (détaillés dans la suite de ce cours) sont bien différents de ce que nous connaissons sur Terre ...


Le cas de la Terre

Auteur: Martin TURBET

Passé et Devenir de la Terre

Le mécanisme moteur qui permet au Soleil d'alimenter la Terre en énergie lumineuse est la fusion nucléaire. A mesure que les atomes d'hydrogène fusionnent, des éléments plus lourds comme de l'Hélium se forment. Au cours du temps, la proportion d'Hélium dans le coeur du Soleil augmente. Le noyau du Soleil devient de plus en plus dense et de plus en plus chaud. Les réactions nucléaires s'y font alors plus intenses. Résultat : La luminosité du Soleil augmente avec le temps.

Evolution du Soleil
ribas2010.png
Evolution de la luminosité, du rayon et de la température du Soleil depuis sa formation (Age=0) jusqu'à sa sortie de la séquence principale (Age=10,5 Ga).
Crédit : I. Ribas

Le passé de la Terre

Il y a trois milliards d'années, le Soleil était 20% moins lumineux qu'aujourd'hui. Si vous éloignez aujourd'hui et soudainement la Terre de 11% (ou diminuez son flux de 20%), alors elle sera très rapidement complètement gelée. Pourtant, la présence continuelle de vie sur Terre depuis près de 3,5 milliards d'années suggère que notre planète a été capable de garder de l'eau liquide à sa surface pendant toute cette période.

Il existe plusieurs scénarios possible pour expliquer la présence continuelle d'eau et de vie sur Terre depuis 4 milliards d'années. Voici un exemple : Il y a 4,5 milliards d'années, la surface de la Terre est réchauffée par la présence d'une grande quantité de CO2 dans l'atmosphère. Il y a 4 milliards d'années, la vie apparaît sous forme de bactéries, notamment "méthanogènes": ces formes de vie consomment le CO2 et libèrent du méthane qui contribue à l'effet de serre de l'atmosphère. Parallèlement, un autre type de bactéries produit de l'oxygène grâce à la photosynthèse. Dans un premier temps cet oxygène est consommé par oxydation des roches, puis il commence à s'accumuler dans l'atmosphère il y a 2,3 milliards d'années. Cette augmentation de la quantité d'oxygène dans l'atmosphère, toxique pour les bactéries méthanogènes, conduit au déclin du méthane. Conséquence : la Terre se refroidit et entre dans une ère glaciaire (Glaciation Huronienne) d'où elle sort rapidement par augmentation du CO2 et de son effet de serre. De -3,8 milliards d'années à nos jours, la Terre, malgré plusieurs autres ères glaciaires (Glaciations Néoprotérozoiques), sera restée capable de maintenir à sa surface de l'eau liquide et de la vie.

Le scénario du passé de la Terre
early_earth.png
Scénario de l'évolution temporelle des composés majeurs de l'atmosphère terrestre.
Crédit : J. Kasting

Le devenir de la Terre

Dans 6 milliards d'années, le Soleil sortira de la Séquence Principale pour se transformer en Géante Rouge. La Terre sera alors engloutie par le Soleil, dont le rayon aura été multiplié par ~ 200.

Dans 1 milliard d'années, la Terre recevra approximativement 10% de plus que le flux solaire actuel. Cela est suffisant pour que le mécanisme d'emballement de l'effet de serre agisse ... L'ensemble de l'eau présente dans les océans s'évaporera pour former une atmosphère dont la température dépassera 1500°C et la pression de surface vaudra quelques centaines de bars. La Terre, sans eau liquide à sa surface, ne sera alors plus habitable !

Dans 900 millions d'années, la température de la Terre aura suffisamment augmenté pour que le CO2 présent dans notre atmosphère soit dissout dans nos océans. Dans 900 millions d'années, la quantité de CO2 passera en dessous du seuil de 10ppm (pour rappel, la concentration actuelle en CO2 est ~ 400ppm, soit 0,04%) en deçà duquel la photosynthèse de toutes les plantes terrestres s'arrêtera. Sans photosynthèse, la vie telle que nous la connaissons ne pourra plus subsister.

Dans 100 ans, le réchauffement climatique provoquera une augmentation de la température terrestre moyenne de 1,5°C à 4°C. En cause, l'activité humaine est à l'origine des émissions en gaz carbonique, puissant gaz à effet de serre. Il est toutefois important de préciser que le réchauffement climatique ne peut pas conduire au phénomène de "Runaway Greenhouse".


Les mécanismes de stabilisation du climat terrestre

Si la Terre a été capable de conserver de l'eau liquide pendant 4 milliards d'années, c'est très certainement grâce à un certain nombre de mécanismes physiques et chimiques stabilisants.

Cycle Carbonates Silicates
co2_cycle.jpg
Le cycle des Carbonates-Silicates, ou cycle du Carbone, stabilise le climat sur Terre.
Crédit : J. Kasting

Le cycle Carbonates-Silicates, où comment sortir d'une aire glaciaire

La Terre est capable de réguler la quantité de dioxyde de carbone contenu dans son atmosphère. Pour faire "simple", le CO_2 présent dans notre air tend à se dissoudre dans l'eau douce issue des précipitations sur les continents sous forme d'ion HCO3-. En ruisselant sur les surfaces, cette eau dissout aussi les roches silicatées (typiquement: Ca Si O_3) présente à la surface de la Terre. Les produits de ces dissolutions sont transportés par les rivières vers les océans où ils s'accumulent. Au delà d'une certaine concentration, les ions se combinent pour former des carbonates (constituant des roches calcaires). L'équation bilan est typiquement: CO_2 + Ca Si O_3 \rightarrow Ca CO_3 + Si O_2. Sur Terre de nos jours, la formation des carbonates à partir des ions dissous est assurée par certains organismes vivants pour fabriquer des coquilles ou des squelettes. Une fois formé, le carbonate tombe au fond des océans et forme des sédiments qui sont transportés lentement par le plancher océanique se subductant par tectonique des plaques. En profondeur, les hautes pressions et températures inversent la réaction et libèrent le CO2. Celui ci est réinjecté dans l'atmosphère par le volcanisme : la boucle du "cycle des carbonate silicate" est bouclée.

Si la Terre entre dans une ère glaciaire, l'eau liquide ne peut plus lessiver les continents et la couche de glace qui se crée entre les océans et l'atmosphère empêche le CO2 de se dissoudre. Pendant ce temps les volcans continuent à injecter du CO2 qui va s'accumuler dans l'atmosphère, jusqu'au point où la quantité de gaz à effet de serre dans l'atmosphère sera suffisante pour que la Terre sorte de l'ère glaciaire.

La réaction de dissolution de la roche par le CO2 augmente avec la température. Donc si la Terre se réchauffe, la quantité de CO2 dans l'atmosphère diminuera et la Terre se refroidira. Il s'agit donc d'un véritable "thermostat géophysique".

Note : Le mécanisme à rétroaction négative des Carbonates-Silicates agit sur une période de temps ~ 0,5 millions d'années, ce qui est suffisamment rapide pour influencer l'évolution climatique à long terme de notre planète, mais largement insuffisant pour contrebalancer le réchauffement climatique induit par l'Homme.

La stabilisation du climat par la Lune

La présence de la Lune résulte de la collision entre deux objets à l'origine de la formation de la Terre et de la Lune. Sans la Lune pourtant, l'obliquité de la Terre varierait chaotiquement de ±0° à ±85° sur des périodes de temps ~ 10 millions d'années.

La Lune stabilise l'obliquité de la Terre et par conséquent son climat.


Les autres planètes du Système Solaire

Auteur: Martin Turbet

Mars - L'énigme des réseaux de rivières

Mars est aujourd'hui une planète froide et sèche. Sa température de surface moyenne est d'environ -70°C et sa pression de surface de 6 millibars. Sous ces conditions, l'eau à la surface de Mars n'existe que sous sa forme de glace, en équilibre avec de la vapeur d'eau présente dans l'atmosphère. Pourtant, un grand nombre d'indices suggère que Mars fut autrefois une planète qui possédait toutes les caractéristiques nécessaires pour être habitable ...

Les réseaux de rivière

En 1972, la sonde Mariner 9 découvre pour la première fois des lacs et des réseaux de rivière à la surface de Mars. Leur présence suggère que l'atmosphère de Mars fut un jour suffisamment chaude et épaisse pour que de l'eau liquide soit stable à sa surface, et capable d'éroder Mars pour former lacs et rivières. La grande majorité de ces réseaux de rivières ont été observés sur des terrains datés de plus de 3,5 milliards d'années, en utilisant la méthode de comptage par cratères. Depuis, la présence de grandes quantités d'eau liquide sur Mars autrefois a été confirmée par de multiples observations géomorphologiques et minéralogiques effectuées depuis des satellites en orbite ou grâce à des robots (rovers) à la surface.

Pourtant, il y a 3,5 milliards d'années, le Soleil était 25% moins brillant qu'aujourd'hui. Mars recevait alors 35% du flux solaire que nous recevons actuellement sur Terre. Difficile donc d'expliquer la formation de ces rivières et encore plus d'imaginer que Mars ait pu un jour être habitable.

Réseau de rivières martien - Warrego Valles
warrego_valles.jpg
Photographie de réseaux de rivières martiens situés dans la région de Warrego Valles.
Crédit : NASA

Les scénarios possibles

Les leçons à tirer

L'exemple de Mars montre d'abord qu'une planète a pu être propice à l'eau liquide en surface (et donc propice à une vie capable de photosynthèse) en recevant un flux d'énergie solaire faible, si faible qu'il reste difficile de l'expliquer avec les modèles climatiques. La planète Mars primitive nous offre donc une référence empirique sur la limite extérieure de la zone habitable.

L'exemple de Mars met aussi en évidence le fait que pour rester habitable, et en particulier propice à une vie capable d'évoluer en surface, il faut pouvoir conserver son atmosphère en évitant sa perte par échappement dans l'espace et en recyclant les volatiles piégés à la surface par réaction chimique.

Mars est enfin un exemple de l'habitabilité de type 2: la vie aurait pu démarrer dans des conditions favorables, avec de l'eau liquide en surface. Après avoir atteint une complexité suffisante, elle pourrait subsister malgré les conditions arides actuelles, notamment en profondeur.


Vénus, une planète où l'effet de serre s'est emballé

Vénus est le meilleur exemple pour illustrer ce qu'il arrive à une planète trop proche de son étoile.

De prime abord, Vénus est une planète très similaire à la Terre. C'est une planète tellurique, comme la Terre. Son rayon équatorial et sa masse valent respectivement 0,949 fois et 0,815 fois ceux de la Terre.

Pourtant, la surface et l'atmosphère de Vénus sont bien différentes de celles de la Terre. Vénus a aujourd'hui une température de surface moyenne de 480°C et une pression de surface de 90 bars. L'atmosphère de Vénus est essentiellement composée de CO 2 et la vapeur d'eau ne représente que 0.002% (20 ppm) de la composition de son atmosphère. Si jamais l'eau présente dans l'atmosphère de Vénus devait se condenser à sa surface, cela créerait une couche d'eau liquide de seulement 3 centimètres !! Et pourtant, tout indique que Vénus et la Terre étaient initialement composées des mêmes ingrédients.

Vénus et la Terre (proportions respectées)
venus_earth.jpg
Vénus et la Terre ont une taille similaire. Pourtant, leurs climats respectifs sont aujourd'hui bien différents.
Crédit : NASA (Magellan/Apollo 17)

Où est passé l'eau de Vénus ?

L'eau est une molécule abondante dans la galaxie. C'est aussi le cas sur Terre, sur Mars ... Cependant, l'eau est présente en quantité très limitée sur Vénus ! Il est probable que Vénus ait eu de l'eau en quantité importante lors de sa formation. Mais si c'est le cas, elle n'a pas été capable de la garder. Du fait de la température de surface élevée de Vénus, l'eau (initialement peut-être liquide) se serait transformée progressivement en vapeur d'eau. L'échappement atmosphérique de l'hydrogène présent dans l'eau aurait alors transformé Vénus en la planète sèche que nous connaissons aujourd'hui.

Au début des années 1990, la sonde spatiale américaine Magellan est envoyée en orbite de Vénus. Son radar révèle avec une précision alors inégalée la topographie de la planète, nous indiquant que l'eau liquide n'a pas pu couler sur Vénus depuis au moins 1 milliard d'années ! Cette observation permet d'établir une limite empirique de la limite chaude de la Zone Habitable : il y a 1 milliard d'années, Vénus (qui recevait alors 1,76 fois le flux solaire reçu actuellement sur Terre) n'était pas habitable. Mais l'activité volcanique intense à la surface de Vénus, à l'origine du resurfaçage de la surface de Vénus, ne permet pas de remonter plus loin qu'un milliard d'années dans l'histoire de la planète : il est donc très difficile pour l'instant de savoir si Vénus a pu un jour posséder des océans à sa surface.

Vénus a-t-elle un jour été habitable ? Y'a-t-il de la vie dans l'atmosphère vénusienne (Vénus pourrait être habitable au sens de la classe II grâce aux gouttelettes d'eau présentes dans son atmosphère) ? Un certain nombre de missions spatiales à venir pourraient nous en apprendre davantage ...


Le danger des évènements extrêmes

Si la vie réussit à émerger sur une planète, notre expérience sur Terre montre qu'il lui faut ensuite du temps avant d'atteindre un stade d'intelligence élevé. Sur Terre, il a fallut 4 milliards d'années. Et la Terre a été capable de maintenir les conditions nécessaires à son habitabilité pendant tout ce temps ! Pourtant, un certain nombre de phénomènes extrêmes peuvent venir perturber épisodiquement l'habitabilité d'une planète ...

À l'échelle de la Galaxie

A mesure que les étoiles très massives (> 8 masses molaires) consomment leur carburant par fusion, des éléments de plus en plus lourds sont formés (de l'Hélium jusqu'au Fer) et leur coeur se densifie. Au delà d'une certaine limite, les forces de pression au sein du noyau d'une telle étoile ne sont plus capables de contrebalancer l'effet de la gravité. L'étoile va alors imploser puis exploser : c'est ce qu'on appelle une "Supernova". L'énergie libérée lors d'un tel évènement est considérable et l'essentiel de cette énergie est relâché pendant un temps très court (quelques dizaines de jours) de telle sorte que les étoiles et leur planètes se trouvant dans les environs peuvent être fortement irradiés par un rayonnement hautement énergétique.

À l'échelle du Système Stellaire

À l'échelle du système stellaire, le principal danger pour une planète habitée vient des collisions météoritiques. L'énergie libérée lors d'une collision peut être considérable et suffisante pour "stériliser" une planète. Par exemple, l'impact météoritique qui a donné naissance au cratère Chixculub, au Mexique, a libéré l'équivalent (en énergie) de 5.10^{23} J, soit 10 milliards de fois l'énergie libérée par la bombe nucléaire larguée sur Hiroshima.

À l'échelle de la Planète

Considérant notre expérience du Système Solaire, il y a toutes les raisons de croire que le volcanisme est un phénomène courant parmi les planètes extrasolaires.

Pourtant, un volcanisme accru peut perturber l'habitabilité d'une planète. En fonction des gaz à effet de serre ou des aérosols et poussières injectés et leur quantité, une planète peut être fortement impactée (fort réchauffement ou refroidissement) par d'intenses épisodes volcaniques.

Sur Terre, paradoxalement, l'arrêt définitif du volcanisme pourrait très bien conduire aussi à un refroidissement extrême de notre planète. Car c'est en effet le volcanisme qui, au long terme via le cycle des Carbonates-Silicates, régule la quantité de gaz à effet de serre de notre planète et donc sa température.


Comprendre

Auteur: Martin TURBET

Introduction

Auteur: M. Turbet

La diversité d'exoplanètes

La condition la plus restrictive pour qu'une exoplanète soit dans la zone habitable - et donc potentiellement habitée par une vie détectable- est la présence d'eau liquide stable à sa surface. Notre expérience dans le Système Solaire / grâce aux premières observations d'exoplanètes montre qu'il existe une grande diversité de planètes. Pourtant, parmi cette diversité, la seule planète dont nous savons qu'elle possède de l'eau liquide stable depuis plus de 4 milliards d'années à sa surface est la Terre. Existe-t-il des planètes de configurations bien différentes de la Terre mais qui pourtant sont capables d'avoir de l'eau liquide stable à leur surface ? Si oui, à quoi ressemblent de telles exoplanètes ? Autour de quelles étoiles peut-on les trouver ? Quels gaz composent leur atmosphère ? ...

De nombreux paramètres

Flux lumineux reçu ; Composition, Taille et Masse de la planète ; Composition et Masse de l'atmosphère ; Paramètres orbitaux (excentricité, obliquité ...) de la planète ; Vitesse de rotation ... Ce sont tout autant de paramètres capables de favoriser ou non la présence d'eau stable à la surface d'une planète. Il est extrêmement difficile de prédire à l'avance quel genre d'exoplanètes nous allons découvrir dans les années à venir. Il est donc essentiel de comprendre, parmi tout ce panel de paramètres, quels sont ceux qui peuvent permettre à une planète ou non d'avoir de l'eau liquide stable et donc d'héberger de la vie.

Les différentes sortes d'atmosphères planétaires
evol_planet.png
Diagramme représentant qualitativement les principales classes d'atmosphères qu'une planète puisse avoir en fonction de sa masse et de sa température de surface. Chaque trait (pointillé ou continu) délimite une transition entre deux classes possibles d'atmosphères.
Crédit : F. Forget et J. Leconte

Vers une généralisation

Si vous connaissez par exemple la masse d'une planète et la distance qui la sépare de son étoile, il est possible de spéculer sur la nature et l'épaisseur de son atmosphère, élèments essentiels pour savoir si la planète peut potentiellement être habitable.

Imaginez une planète dans la Zone Habitable de son étoile, mais dont la masse serait 20 fois plus faible que celle de la Terre, comme Mercure par exemple. Dans ce cas, la planète n'exercera pas une gravité suffisante pour pouvoir garder une atmosphère capable de maintenir de l'eau liquide à sa surface.

Mais la masse d'une planète et sa distance à l'étoile ne sont pas des conditions suffisantes pour étudier son habitabilité. Il existe un grand nombre de configurations dans lesquelles une planète pourrait être habitable ... comme les planètes en rotation synchrone ? les planètes ayant une atmosphère d'hydrogène ? Les planètes ayant un flux géothermique très élevé ? ... Ce sont tout autant de candidats aux caractéristiques exotiques mais dont il faut explorer les possibilités ...


Les outils de modélisation et les équations à prendre en compte

Les processus physiques qui entrent en jeu dans l'évolution du climat d'une planète sont nombreux. En voici une liste non-exhaustive :

La manière la plus réaliste de tenir compte de tous ces phénomènes physiques est d'utiliser un modèle de climat. Pour plus d'informations, veuillez vous reporter au cours sur les Modèles de Climat.

Modèle "Radiatif-Convectif" VS GCM

Dans un modèle Radiatif-Convectif, ou Modèle à 1 dimension, on représente la totalité de l'atmosphère d'une planète par une unique colonne composée d'un nombre discret de couches atmosphériques. Dans un GCM (Global Climate Model), ou Modèle à 3 dimensions, l'atmosphère est discrétisée selon les trois dimensions de l'espace.

Les modèles 3D ont l'avantage d'être plus complets et réalistes. Ils ont cependant le défaut d'être rapidement limités (par comparaison aux modèles 1D) par la puissance de calcul requis.

1D VS 3D : L'exemple de la température d'équilibre

Les modèles 1D sont plutôt fiables lorsqu'il s'agît de modéliser des planètes où la température de surface varie peu d'un point à un autre. C'est le cas des planètes avec une atmosphère très dense et/ou ayant une rotation suffisamment rapide. Dans le cas où il existe un contraste de température marqué entre deux points d'une même planète, le modèle 1D n'est plus représentatif de la planète. C'est notamment le cas des planètes en rotation synchrone, qui sont irradiées d'un côté (haute température) et pas de l'autre (basse température).

Prenons le cas d'une planète en rotation synchrone, sans atmosphère, en tout point à l'équilibre thermique, et avec un albédo de surface constant A. Et faisons l'hypothèse très simpliste qu'une face reçoit en tout point un flux solaire constant alors qu'une autre ne reçoit pas du tout de flux. Soit F_{\star,1d} le flux moyen reçu sur l'ensemble de la surface. Le bilan radiatif 1D donne : F_{\star,1d}  (1-A) = \sigma  T_{eq,1d}^4, soit T_{eq,1d}= {(\frac{F_{\star,1d}  (1-A)}{\sigma})}^{\frac{1}{4}}, avec T_{eq,1d} la température moyenne d'équilibre de la planète (1D).

La planète est composée de deux faces d'aires égales : une éclairée et une autre non. Pour 50% de la planète, du côté de la face cachée, T_{eq,cach\'ee}=0 K. Pour les 50% restants, T_{eq,\'eclair\'ee}= {(\frac{2 F_{\star,1d}  (1-A)}{\sigma})}^{\frac{1}{4}}car le côté éclairé de la planète reçoit un flux lumineux deux fois plus élevé que le flux moyen reçu sur l'ensemble de la surface, F_{\star,1d}. La température moyenne d'équilibre de la planète (3D) vaut donc T_{eq,3d}= 0.5 T_{eq,\'eclair\'ee} + 0.5 T_{eq,cach\'ee} = \frac{T_{eq,1d}}{2^{\frac{3}{4}}}.

En bref, T_{eq,3d} ~ 0.59 T_{eq,1d} ! Pour ce cas particulier, l'erreur est considérable. En fait, de manière plus générale, plus l'écart-type sur la température d'équilibre d'une planète est grand, plus l'erreur commise sur le calcul de sa température de surface par un modèle 1D sera grande.

Modèle 1D vs Modèle 3D, l'exemple
synchronous.png
Cas d'une planète en rotation synchrone, sans atmosphère, en tout point à l'équilibre thermique, et avec un albédo de surface constant A. On fait l'hypothèse très simpliste qu'une face reçoit en tout point un flux solaire constant alors qu'une autre ne reçoit pas du tout de flux. Pour ce cas particulier, on montre que T_{eq,3d} ~ 0.59 T_{eq,1d}.
Crédit : M. Turbet

La limite intérieure de la Zone Habitable

Auteur: M. Turbet

L'emballement de l'effet de serre

La limite intérieure de la Zone Habitable ou limite chaude de l'Habitabilité correspond à la distance orbitale à partir de laquelle toute l'eau liquide à la surface d'une planète est vaporisée. Quand le flux lumineux reçu par une planète augmente, l'évaporation de ses océans augmente aussi. La vapeur d'eau ainsi formée étant un puissant gaz à effet de serre, la température à la surface de la planète va s'élever, entrainant une augmentation de l'évaporation, et ainsi de suite ...

Une question de flux

Prenez la Terre et rapprochez là progressivement du Soleil. Au fur et à mesure, sa température de surface et la quantité de vapeur d'eau dans son atmosphère vont augmenter. Ainsi, l'émission thermique de la Terre vers l'espace va augmenter. Jusque là, la Terre reste en état d'équilibre et à une valeur de flux solaire reçu va correspondre une température d'équilibre.

Mais à partir d'un certain flux solaire (i.e., une certaine distance à l'étoile centrale), la surface de la Terre entre dans un état hors-équilibre. La quantité de vapeur d'eau est telle que l’atmosphère devient totalement opaque dans le domaine de l'infrarouge. Le rayonnement infrarouge ne peut plus s’échapper vers l’espace et par conséquent la surface de la Terre n'est plus capable de se refroidir. Elle va donc se réchauffer continument jusqu'à ce que celle ci soit de nouveau capable de se refroidir par émission thermique dans le proche infrarouge - visible. C'est ce qui arrive une fois que la surface atteint une température de ~ 1800 Kelvins. A cette température, la Terre est si chaude qu'elle émet dans le proche infrarouge - visible, gamme de longueur d'onde qui correspond à une "fenêtre" dans le spectre d'absorption de la vapeur d'eau. 

Modélisation du Runaway Greenhouse : 1D vs 3D

L'estimation la plus récente de la limite intérieure de la Zone Habitable, et via la mécanisme de Runaway Greenhouse, est de 0.95 A.U. et a été établie à partir de Modèles 3D (GCM).

Alors que les modèles 1D faisaient l'hypothèse que l'atmosphère de la Terre, en se rapprochant du Soleil, serait très vite saturée en vapeur d'eau ... les modèles 3D ont mis en évidence la présence de région non-saturées en eau au niveau des tropiques, augmentant ainsi l'émission thermique de ces régions, et repoussant la limite chaude de l'Habitabilité vers l'intérieur.

Flux solaire et thermique
flux_kopparapu.png
En haut, on représente l'évolution de la température de surface de la Terre en fonction du flux solaire reçu (relatif à aujourd'hui). Le flux solaire relatif actuel est donc de 1. En bas, on montre l'évolution du flux thermique en fonction de la température de surface. La zone grisée représente l'effet d'emballement de l'effet de serre. NB : Ces courbes ont été calculées à partir de modèles 1D utilisant une paramétrisation simplifiée de la planète Terre.
Crédit : Adapté d'un article de Kopparapu et al., The Astrophysical Journal 765 (2013).
Spectre d'absorption de l'eau VS Spectres d'émissions thermiques
spectrum_h2O.png
En noir, on représente le spectre d'absorption de la vapeur d'eau. En rouge, on représente les spectres d'émission thermique (luminance spectrale) de deux corps noirs de températures 288K et 1800K. La fenêtre atmosphérique (en dessous de 1 micron) permet à une planète entrée dans l'état de "Runaway Greenhouse" de retrouver un nouvel état d'équilibre, cette fois-ci ... chaud (> 1800 Kelvins) !
Crédit : M. Turbet
Auteur: M. Turbet

exerciceDevenir de la Terre

Difficulté : ☆☆☆   Temps : 1 heure

Question 1)

Si la Terre entre en Runaway Greenhouse, quelle est la pression atmosphérique maximale qu'elle peut atteindre ?

Question 2)

Dans le cas de la Terre, quel est la différence d'énergie (en Joules et en ordre de grandeur) entre les deux états d'équilibre correspondant à 1) l'entrée en Runaway Greenhouse et à 2) la sortie du Runaway Greenhouse ? On fera d'abord l'hypothèse que les échanges entre l'atmosphère/les océans et le sous-sol sont nuls.

Question 3)

Inévitablement, la luminosité du Soleil augmente avec le temps. Les modèles standards d'évolution stellaire indiquent que la luminosité L_{\odot} du Soleil évolue comme suit : L_{\odot}(t)~=~\frac{1}{[1+\frac{2}{5}(1-\frac{t}{t_{0}})]}~L_0, avec t l'âge relatif du Soleil par rapport à aujourd'hui, t_0 l'âge du Soleil (4.6 milliards d'années) et L_0 la luminosité actuelle du Soleil. Estimez 1) le temps nécessaire pour initier le mécanisme de Runaway Greenhouse sur Terre à partir d'aujourd'hui, et 2) le temps nécessaire pour atteindre le premier état d'équilibre en sortie du Runaway Greenhouse. On fera l'hypothèse que l'albédo planétaire de la Terre vaut (dans ces conditions) 0.2.

Question 4)

Recalculez maintenant l'énergie (E=E_2-E_1) nécessaire pour passer d'un état d'équilibre du Runaway Greenhouse à l'autre en prenant en compte cette fois-ci le chauffage du sous-sol. Calculez alors le nouveau temps nécessaire pour sortir du Runaway Greenhouse. On pourra utiliser le profil de température fourni ci-joint.

Profil de température de la surface au centre de la Terre
temp_earth_profile.jpg
Crédit : Boehler, R. (1996)


Le Moist Greenhouse, échappement atmosphérique

Prenez à nouveau la Terre et rapprochez là progressivement du Soleil. À 1 Unité Astronomique, c'est la Terre actuelle. À 0.95 Unité Astronomique, le climat de la Terre s'emballe vers un état de "Runaway Greenhouse". Mais avant d'atteindre cet état, la Terre passe progressivement d'états d'équilibre en états d'équilibre de plus en plus chauds et humides. Les hautes couches de l'atmosphère sont alors elles aussi de plus en plus chaudes et humides. Le flux extrême UV en provenance du Soleil peut alors atteindre les molécules d'eau et les casser en atomes d'oxygène et hydrogène. Ces derniers sont légers et peuvent facilement être éjectés dans l'espace.

Par ce mécanisme, la Terre pourrait progressivement perdre tout l'hydrogène de son atmosphère et donc la totalité de son réservoir d'eau.

La vitesse d'échappement atmosphérique

Pour savoir à quelle vitesse la Terre perdrait l'hydrogène de son atmosphère, il est important d'identifier le processus limitant de l'échappement atmosphérique ... 1. L'eau s'évapore des océans dans la couche la plus basse de l'atmosphère. Cette eau est très rapidement mélangée dans les couches basses de l'atmosphère. 2. Les molécules d'eau sont transportées plus lentement vers les hautes couches de l'atmosphère. 3. Dans les hautes couches de l'atmosphère (jusqu'à l'exosphère), les molécules d'eau sont photodissociées pour donner de l'hydrogène qui, léger, va rapidement s'échapper vers l'espace.

En fonction de la quantité d'eau injectée dans la stratosphère, le processus limitant va être ou bien la diffusion ou bien la photodissociation (dans ce cas, la quantité limitante est le flux incident d'UV utilisé pour la photodissociation).

Moist Greenhouse / Runaway Greenhouse

Il est pour l'instant difficile de savoir si la Terre deviendra un jour (à mesure que la luminosité solaire augmente) inhabitable via le mécanisme d'emballement de l'effet de serre ou bien via la perte de son eau dans l'espace. Le taux d'échappement de l'hydrogène est principalement fonction de la quantité d'eau présente dans les hautes couches (stratosphère) de l'atmosphère ; pourtant, les différents modèles de climat (1D et 3D) à la pointe de la recherche dans ce domaine montrent des écarts considérables dans leurs estimations du contenu en vapeur d'eau dans la haute atmosphère terrestre ...

La série d'exercices ci-dessous propose justement de comparer les résultats de deux modèles de climats différents (non représentatifs).

Profils verticaux de vapeur d'eau
vaporprofile.png
Profils verticaux de vapeur d'eau calculés à partir de deux modèles de climat différents [ 1D (bleu) et 3D moyenné (rouge) ] de la Terre pour différentes valeurs de distance orbitale Terre-Soleil.
Crédit : Adapté de R. Kopparapu (1D) et J. Leconte (3D).
Taux d'échappement de l'hydrogène
escape_rate.png
Taux d'échappement de l'hydrogène calculés 1. pour le processus de diffusion et 2. à partir du flux limitant d'UV. La courbe rouge correspond au tracé du taux d'échappement limitant pour chaque quantité d'H2O.
Crédit : M. Turbet
Auteur: M. Turbet

exerciceMoist Greenhouse VS Runaway Greenhouse, faites le calcul !

Difficulté : ☆☆   Temps : 15 minutes

Question 1)

Imaginons une planète habitable sur laquelle le mécanisme de Moist Greenhouse serait dominant. Etablir la relation liant la durée de vie de ses océans et le taux d'échappement de son hydrogène vers l'espace.

Question 2)

Prenons le cas de la Terre. En considérant uniquement le mécanisme de Moist Greenhouse, donnez une limite supérieure du temps de vie des océans de la Terre en considérant les résultats du modèle 1D.

Question 3)

Donnez maintenant une limite inférieure du temps de vie des océans de la Terre en considérant les résultats du modèle 3D.


La limite extérieure de la Zone Habitable

Auteur: M. Turbet

L'effet de serre maximum

La limite froide de l'Habitabilité en surface, ou limite extérieure de la Zone Habitable, correspond à la distance orbitale maximale jusqu'à laquelle une planète peut garder de l'eau liquide à sa surface.

Pour pouvoir estimer cette limite, il s'agit de trouver l'atmosphère la plus efficace pour permettre à une planète de garder son eau liquide aussi loin que possible de son étoile. Il s'agit donc de trouver le meilleur cocktail de gaz à effets de serre, en quantité et en proportion, et qui soit physiquement crédible.

Cas de la Terre - Rôle des Gaz à effet de serre
charnay_1.png
Voici trois résultats de simulations de la Terre décalée à la distance de 1.12 U.A. du Soleil (80% du flux solaire actuel). Avec l'atmosphère actuelle, la Terre entière serait gelée et donc plus habitable. Mais si l'on augmente la quantité de gaz à effet de serre (CO2 ou CH4), alors la présence d'eau liquide est possible.
Crédit : B. Charnay

Augmenter l'effet de serre

Un gaz à effet de serre est un gaz capable d'absorber une fraction importante du flux thermique émis par la surface d'une planète, tout en laissant passer la majorité de la lumière en provenance de son étoile (ultraviolet, visible, et proche infrarouge). Cela a pour effet de réchauffer la surface de la planète. Sur Terre, par exemple, les gaz à effet de serre présents dans l'atmosphère réchauffent en moyenne la surface de ~ 33°C.

Il existe de nombreux gaz à effet de serre (CO2,H2O,CH4,NH3, ...), mais seulement certains d'entre eux sont susceptibles d'être réellement présents sur une planète habitable. Les deux gaz les plus réalistes d'une atmosphère de planète habitable sont le dioxyde de carbone et la vapeur d'eau. D'autres gaz comme par exemple l'ammoniac (NH3) et le méthane (CH4) sont envisageables dans une atmosphère abondantes en réducteurs (H2,CO, ...) mais sont rapidement photodissociés par le flux UV s'ils n'en sont pas protégés ou ne sont pas renouvelés.

En fait, il se trouve que l'une des manières les plus efficaces (et aussi plausibles) pour réchauffer une planète est d'avoir une atmosphère épaisse de CO2 !

La diffusion Rayleigh

Le problème, c'est qu'on ne peut pas réchauffer autant qu'on veut une planète en lui ajoutant des gaz à effet de serre à l'infini ... Au delà d'une certaine quantité, alors que l'opacité des gaz à effet de serre dans l'infrarouge commence à saturer, la proportion de rayonnement stellaire absorbé diminue aussi à cause de la diffusion Rayleigh qui tend à réfléchir une partie des photons incident vers l'espace. Si on considère une planète composée d'une atmosphère de CO2 (sans nuages), la distance (du Soleil actuel) la plus lointaine à laquelle une telle planète peut garder de l'eau liquide sera de 1,67 Unités Astronomiques. Cette distance correspond à la limite extérieure de la Zone Habitable et a été établie pour une pression de 8 bars de CO2 (en supposant une gravité terrestre).

Le rôle des nuages

Les nuages ont un rôle important à jouer pour la limite extérieure de la Zone Habitable. Les nuages reflètent une partie de la lumière stellaire incidente, mais peuvent aussi contribuer à l'effet de serre en absorbant le rayonnement venu de la surface et de la basse atmosphère pour rayonner à une température de brillance plus froide. Dans certains cas (voir ci-dessous) ils peuvent même réfléchir le rayonnement thermique de la surface. Ils peuvent donc contribuer positivement comme négativement, selon les situations, au bilan radiatif de la planète considérée.

Il se trouve que lorsque des nuages de CO2 se forment dans une atmosphère épaisse de CO2, la température de surface se réchauffe davantage, repoussant plus loin encore la limite extérieure de la Zone Habitable. Cela est dû à la diffusion du rayonnement thermique par les particules de glace qui composent les nuages de CO2, et qui indirectement réfléchissent vers la surface le rayonnement thermique infrarouge. En prenant en compte ce procédé, la limite froide de l'Habitabilité peut être repoussée jusqu'à 2.5 Unités Astronomiques ! (en supposant une couverture nuageuse totale).

La diffusion Rayleigh
rayleigh.png
On représente le flux relatif/la distance en Unités Astronomiques pour lesquels la température moyenne de surface est supérieure à 0°C. Le meilleur compromis entre diffusion Rayleigh et effet de serre se trouve à ~ 8 bars de CO2.
Crédit : J. Kasting
Le rôles des nuages de CO2
co2cloud.png
On représente ici l'effet de nuages de glace de CO2 sur la température de surface d'une planète dont l'atmosphère est épaisse et constituée majoritairement de CO2. Les nuages de glace de CO2 diffusent le flux thermique infrarouge en provenance de la surface, ce qui a pour effet indirect de réfléchir ce flux IR vers la surface. Les nuages contribuent positivement à l'effet de serre de la planète.
Crédit : Forget and Pierrehumbert, Science, 278 (1997).

Habitabilité autour des différentes "étoiles"

Auteur: M. Turbet

Etoiles de faible masse et synchronisation

Plus une étoile a une faible masse, plus sa luminosité sera petite, et donc plus la Zone Habitable sera proche de cette étoile. Les Naines M, qui sont les étoiles les moins massives de la Séquence Principale (masse comprise entre 0,075 et 0,4 masse solaire) ont une Zone Habitable de 5 à 50 fois plus proche que celle autour du Soleil.

Plus une planète est proche de son étoile, plus les forces de marée exercées par son étoile sur elle vont s'accentuer.

Les forces de marée gravitationnelle

Lorsqu'une planète orbite autour de son étoile, la force de gravité (qui diminue avec la distance) ressentie par la planète n'est pas la même en tout point. La partie de la planète la plus proche de son étoile est plus attirée par l'étoile que la partie lointaine. En conséquence, l'étoile déforme la planète et crée un renflement dans sa direction (et dans la direction opposée).

Si la planète tourne plus rapidement sur elle-même que sa révolution autour de son étoile, ce renflement va se décaler légèrement par rapport à l'axe Etoile-Planète. La planète étant un corps non-élastique, il faut en effet un laps de temps non-nul pour que le renflement revienne dans la direction de l'étoile.

En conséquence, il se crée un décalage angulaire \delta entre le renflement et la direction de l'étoile. Ceci a pour effet de créer un couple de rappel opposé au sens de rotation de la planète : la planète freine. Cet effet va durer tant que la vitesse de rotation de la planète est supérieure à sa vitesse de révolution. Dans cette situation, l'état d'équilibre le plus stable est la rotation synchrone.

En fonction des propriétés de la planète et de son étoile, le temps qu'il faut pour qu'une planète se synchronise avec son étoile est très variable. On estime que t_{sync}=\frac{w_p a^6 I Q}{3 G {M_*}^2 k_2 R_p^5 } avec w_p la vitesse de rotation initiale de la planète, a la distance Planète-Etoile, I le moment d'inertie de la planète ( pour une sphère, on a par exemple I=\frac{2}{5} M_p R_p^2 ), G la constante gravitationnelle, M_p et M_* respectivement la masse de la planète et de l'étoile et R_p le rayon de la planète. Q et k_2 sont deux coefficients qui caractérisent la réponse de la planète aux forces de marée.

Finalement, on retiendra que t_{sync} \propto \frac{a^6}{M_*^2}. On a F_p = \frac{L_*}{a^2} avec F_p le flux reçu par la planète et L_* la luminosité de la planète. On choisit F_p le flux moyen reçu par une planète habitable, indépendant de la planète et de l'étoile. Donc on a a \propto L_*^{\frac{1}{2}} . Pour des étoiles de la Séquence Principale, on a de plus la relation Masse-Luminosité suivante : L_* \propto M_*^3.

Bref, t_{sync} \propto M_*^7. Par exemple, en considérant ce mécanisme, une planète dans la Zone Habitable d'une Naine M de 0,2 masses solaires se synchronisera ~ 10^5 fois plus rapidement qu'une planète, comme la Terre, dans la Zone Habitable du Soleil.

Note : Les forces de marée gravitationnelle peuvent être à l'origine de deux effets supplémentaires : 1. circulariser les orbites (les planètes en moyenne trop proches de leur étoile ont une excentricité qui diminue avec le temps) et 2. redresser l'obliquité (les planètes trop proches de leur étoile ont une obliquité qui tend vers 0).

Les forces de marée thermique

En fait, lorsque la planête est entourée d'une atmosphère sufisamment épaisse, il existe une autre force de marée qui pourrait retarder voire empêcher la synchronisation d'une planète : la force de marée thermique.

Prenez une planète avec une atmosphère épaisse, comme Vénus par exemple. Lorsque le Soleil chauffe la zone subsolaire de cette planète, l'atmosphère s'y réchauffe et se dilate. La pression augmente en altitude. Pour équilibrer les forces de pression atmosphérique, une partie de la masse de l'atmosphère est redistribuée vers le coté nuit, créant cette fois-ci un renflement dans la direction perpendiculaire à la direction du Soleil.

Si la rotation d'une telle planète est plus rapide que sa révolution autour de son étoile , on aura un décalage angulaire \delta entre l'orientation du renflement et la perpendiculaire à la direction de l'étoile. Si \delta est inférieur à 180°, le renflement va provoquer un couple accélérateur du même sens que la rotation de la planète.

Si ce couple est suffisamment important, la période de rotation de la planète va converger vers un état d'équilibre différent de la rotation synchrone, où couples de marée gravitationnel et thermique se compensent. C'est par exemple ce qui est arrivé à Vénus.

L'effet de marée gravitationnelle
maree_1.png
Mécanisme de l'effet de marée gravitationnelle. w représente le sens de rotation de la planète.
Crédit : J. Laskar
L'effet de marée thermique
maree_2.png
Mécanisme de l'effet de marée thermique. w représente le sens de rotation de la planète. L'atmosphère est représentée en bleue.
Crédit : J. Laskar
Zone Habitable et Rotation Synchrone
asynchronous.png
Représentation de la Zone Habitable en fonction de la masse stellaire et de la distance Etoile-Planète en Unités Astronomiques. Les droites représentent la délimitation entre deux zones : Celle où l'état d'équilibre final est une rotation synchrone et celle ou ce n'est pas le cas.
Crédit : Leconte et al., Science 347 (2015)

Il y a finalement deux critères majeurs pour savoir si une planète habitable va finir en rotation synchrone ou non. Plus la masse de son étoile est faible, et moins son atmosphère est épaisse, plus les chances sont grandes pour que la planète entre (et rapidement) en rotation synchrone.


Planètes en rotation synchrone : limite chaude de la Zone Habitable

Une planète en rotation synchrone autour de son étoile lui montre toujours la même face. Une telle planète possède une face fortement irradiée, mais une face et deux pôles non éclairés.

Prenons le cas d'une planète en rotation synchrone qui n'aurait ni océans, ni atmosphère. Sur une telle planète, les échanges de chaleur se font très mal d'un point à l'autre de la planète. Du coup, la différence de température entre la face irradiée et la face cachée sera extrême. Du côté caché, la température de surface dépendra essentiellement du flux géothermique F_{g\'eo}. Soit \sigma T_{cach\'e}^4 = F_{g\'eo}. Alors que du côté irradié, et notamment au niveau du point substellaire, \sigma T_{irradi\'e}^4 = F_*~cos(\theta)~(1-A), avec F_* le flux stellaire au point substellaire, \theta l'angle zénithal et A l'albédo de la surface.

Rajoutez maintenant à cette planète une atmosphère et des océans. Le transport de chaleur assuré par l'atmosphère et les océans va alors réduire les écarts de température entre les deux faces ...

Repousser la limite intérieure de la Zone Habitable

Si vous rapprochez la Terre du Soleil et que vous dépassez la limite de 0.95 UA, la Terre va partir en "Runaway Greenhouse" et ne sera plus habitable.

Prenez maintenant une planète similaire à la Terre mais orbitant en rotation synchrone autour d'une étoile similaire au Soleil. Si vous dépassez la limite de 0.95 UA, une telle planète peut rester habitable !

À mesure que cette planète se rapproche de son étoile, le flux lumineux reçu au point substellaire augmente. Ceci crée une zone de forte convection à l'origine de la formation de nuages épais très réfléchissants. La couverture nuageuse de la face irradiée peut atteindre jusqu'à 80%. Plus le flux stellaire augmente, plus ce mécanisme est efficace, plus l'albédo planétaire augmente. Conclusion : La limite intérieure de la Zone Habitable est largement repoussée vers l'intérieur.

Note : Lorsque ce mécanisme entre en jeu, la quantité de vapeur d'eau injectée dans la stratosphère est fortement augmentée, ce qui soulève la question de l'échappement atmosphérique de l'hydrogène.

La nouvelle limite de la Zone Habitable

Si vous déplacez cette planète beaucoup trop près de son étoile, le mécanisme décrit précédemment n'est plus suffisant pour assurer son habitabilité. En fonction de son état initial, la planète peut alors diverger vers deux états possibles et pourtant bien différents : 1. Elle peut entrer en Runaway Greenhouse. 2. Toute l'eau de la planète peut se retrouver piégée du côté froid. Cette "bistabilité" résulte de la compétition entre d'un côté le taux d'évaporation, côté jour, et de l'autre l'efficacité du transport/le taux de condensation de la vapeur d'eau dans les pièges froids, côté nuit.

1. Si la quantité de vapeur d'eau initiale dans l'atmosphère est suffisante, alors l'effet de serre de la vapeur d'eau va s'emballer en évaporant la totalité du réservoir d'eau de la planète. C'est l'état classique du "Runaway Greenhouse". 2. Mais si la quantité initiale de vapeur d'eau dans l'atmosphère est insuffisante, l'évaporation de l'eau liquide côté jour n'est pas suffisamment intense pour dépasser le taux de condensation côté nuit. Le seul état d'équilibre alors possible arrive lorsque la totalité de l'eau côté jour s'est évaporée pour finir, sous forme de glace, côté nuit.

Carte des températures d'une planète sèche, sans atmosphère, en rotation synchrone
locked_dry_map.png
Carte des températures d'une planète en rotation synchrone, sèche et sans atmosphère. On a choisi un flux stellaire égal à celui reçu par la Terre, soit de 1360~W.m^{-2} au point substellaire, et un flux géothermique égal à celui de la Terre, soit de 8.10^{-2}~W.m{-2}. Dans ces conditions, la température coté nuit atteint 34 K.
Crédit : M. Turbet
L'extension de la Zone Habitable et le rôle des nuages
yang.png
Schéma d'une planète en rotation synchrone fortement irradiée. Dans la région substellaire, le flux lumineux élevé crée une zone de forte convection, à l'origine de la formation de nuages très réfléchissants. Ceci a pour effet d'augmenter drastiquement l'albédo de la planète et d'étendre ainsi la limite intérieure de la Zone Habitable.
Crédit : J. Leconte
Un climat bistable
tidal_climate.png
Lorsqu'une planète en rotation synchrone dépasse un flux stellaire seuil, seuls deux états sont possibles : L'emballement de l'effet de serre, ou la condensation ("Collapse") du côté froid. On représente à gauche une carte des températures correspondant aux deux états possibles. On représente à droite les zones de prédominance des deux états en fonction de la pression de surface de l'atmosphère et de la colonne d'eau initiales.
Crédit : Leconte et al., y. Astron. Astrophys. 554, A69 (2013).

Planètes en rotation synchrone : limite froide de la Zone Habitable

Quand une planète a une orbite trop proche de son étoile, et par l'action de forces de marées, elle finit rapidement par avoir une orbite synchrone autour de son étoile. Les planètes "froides" de la Zone Habitable sont à priori moins concernées par cet effet, puisqu'elles sont beaucoup plus éloignées de leur étoile que les planètes "chaudes" de la Zone Habitable. Dans le cas du Soleil par exemple, une planète qui se trouverait à la limite intérieure de la Zone Habitable (0.95 UA) peut se synchroniser ~ 30 fois plus rapidement qu'une planète située au niveau de la limite extérieure (1.67 UA). Résultat : Une planète froide comme Mars n'a aucune chance d'être un jour en rotation synchrone car le temps que cela lui prendrait est bien supérieur à la durée de vie du Soleil.

Pourtant, autour d'étoiles de faible masse, la Zone Habitable est beaucoup plus rapprochée de l'étoile. Et les planètes "froides" de la Zone Habitable de telles étoiles sont susceptibles elles aussi d'entrer en rotation synchrone.

La limite "froide" de l'habitabilité des planètes en rotation synchrone

Les planètes en rotation synchrone ont très certainement, sous l'effet des forces de marée gravitationnelle, une obliquité très redressée (proche de 0^{\circ}, comme Mercure). Résultat : de telles planètes peuvent posséder plusieurs points froids (au niveau des pôles mais surtout au niveau de la face non éclairée). Pour qu'une planète "froide" (peu irradiée par son étoile) soit capable de garder de l'eau liquide à sa surface, il faut déjà qu'elle soit capable de conserver son atmosphère à l'état gazeux. En particulier, une planète en rotation synchrone dont l'atmosphère (composée par exemple de N_2,~CO_2,~H_2O ...) serait trop peu épaisse pourrait condenser l'ensemble de ses espèces gazeuses. De l'espèce la moins volatile à l'espèce la plus volatile, la vapeur d'eau va d'abord se condenser du côté froid, puis au tour du CO_2 et enfin ... même du N_2 !!! Une telle planète n'est pas capable de conserver son atmosphère sous forme gazeuse et ne peut donc pas être habitable (de classe I).

Lorsque l'atmosphère d'une planète en rotation synchrone s'épaissit (par exemple en injectant du CO_2) :

  1. L'effet de serre augmente, réchauffant la planète.
  2. L'échange de chaleur entre les faces éclairées/non-éclairées est de plus en plus efficace.

Autour d'une étoile type solaire, le premier point aurait un effet très réduit car la diffusion Rayleigh augmente l'albédo planétaire à mesure que la pression atmosphérique augmente. Mais c'est essentiellement autour des étoiles M (de faible masse) que des planètes "froides" peuvent entrer en rotation synchrone. Aux longueurs d'onde d'émission d'une telle étoile, la diffusion Rayleigh a une influence très limitée, et il est possible d'augmenter très fortement l'effet de serre d'une atmosphère en atteignant une pression atmosphérique très élevée.

Ainsi, si la planète possède une pression atmosphérique suffisante, l'effondrement de l'atmosphère peut être évité. Si c'est le cas, la planète est alors soumise au principe de Maximum Greenhouse correspondant à la distance orbitale à laquelle elle se trouve. NB : On peut noter que la présence d'un océan (contribuant très fortement au transport de chaleur) à la surface d'une telle planète peut permettre d'abaisser la pression critique à laquelle l'atmosphère condense.


Etoiles de faible masse

A l'heure actuelle, on considère que les étoiles de faible masse - appelées aussi Naines M - sont les meilleurs candidats pour héberger des planètes porteuses de vie. D'abord, elles sont plus nombreuses que les étoiles d'autres type. Parmi toutes les étoiles de notre galaxie, on compte près de 75% de Naines M. Ensuite, ces planètes ont une luminosité stable dans le temps. Leur Zone Habitable est donc plus stable encore que dans notre Système Solaire et la vie (et surtout la vie intelligente) bénéficie en théorie de plus de temps pour se développer.

Des débuts difficiles

Si les Naines M sont de bons candidats pour être hôtes de planètes habitables, la proportion de rayonnement UV et X qu'elles émettent (par rapport à leur luminosité totale) est bien plus élevé que le soleil, surtout au début de leur histoire. Intégré sur 5 milliards d'années, il peut être jusqu'à 30 fois plus important pour une Naine M que pour notre étoile.

Les planètes dans la Zone Habitable de Naines M recoivent donc un flux X-UV jusqu'à plusieurs dizaines de fois plus important que sur Terre. Or, c'est justement la partie du spectre stellaire à l'origine de l'échappement atmosphérique.

Il est aussi important de noter que pendant cette phase d'activité initiale accrue des Naines M, d'autres phénomènes comme des éjections de masse coronales ou des éruptions stellaires peuvent affecter lourdement l'évolution de l'atmosphère des planètes environnantes, d'autant plus qu'autour de telles étoiles, les planètes habitables sont beaucoup plus proches et donc affectées par de tels évènements.

Flux Ultraviolet des étoiles de la Séquence Principale
flux_uv.png
Proportion de Flux X-UV (intégré entre 0.1 et 100 nm et pendant les 5 premiers milliards d'années de l'étoile) dans le flux total émis par une étoile de la Séquence Principale, en fonction de sa masse.
Crédit : Forget and Leconte, Phil. Trans. R. Soc. A 372 (2014).

La Zone Habitable des Etoiles M

Les Naines M sont les étoiles de la Séquence Principale qui possèdent la température de brillance la plus faible. Du coup, le pic de leur spectre d'émission est décalé, par rapport au Soleil par exemple, vers des longueurs d'onde plus élevées. A ces longueurs d'onde, la diffusion Rayleigh de l'atmosphère est moins efficace et l'absorption de la vapeur d'eau (et d'autres gaz à effet de serre comme le CO_2) est accrue. Dans ces conditions, les planètes qui ont une atmosphère semblable à la Terre seront plus facilement chauffées autour d'étoiles de faible masse. Ceci a pour effet de décaler légèrement vers l'extérieur les deux limites de la Zone Habitable des étoiles de faible masse.

De plus, autour des étoiles M, le mécanisme de "Runaway Glaciation" décrit plus tôt est beaucoup moins efficace que sur Terre car l'albédo de la glace/neige y est réduit. L'albédo spectral de la glace/neige décroît avec la longueur d'onde et le pic d'émission d'une Naine M est décalé, par rapport au Soleil, vers les grandes longueurs d'onde. Ceci résulte en un albédo équivalent de la glace/neige plus faible que sur Terre.

Synchrone ou non ?

Les planètes dans la Zone Habitable des étoiles M sont très proches de leur étoile. La proportion de planètes en rotation synchrone autour de telles étoiles sera donc à priori plus grande qu'autour d'étoiles de type solaire. En considérant à la fois l'effet des marées gravitationnelles et thermiques , prenons le cas d'une Naine M de 0,3 masse solaire. Une planète semblable à la Terre (pression de surface de 1 bar) qui serait dans la Zone Habitable d'une telle étoile pourrait être aussi bien synchrone que non-synchrone ...

L'albédo de la glace autour d'une étoile M
albedo_star.png
L'albédo de la glace et de la neige dépendent de la longueur d'onde. Le spectre des étoiles M étant décalé vers les hautes longueurs d'onde, l'albédo intégré de la neige/glace est diminué !
Crédit : Joshi and Haberle, Astrobiology 12 (2008).
Auteur: M. Turbet

exerciceL'habitabilité autour des étoiles massives

Difficulté :    Temps : 5 minutes

Les étoiles de la Séquence Principale dont la masse est supérieure à celle du Soleil ne sont pas très nombreuses. Elles peuvent héberger des planètes comme n'importe quelle autre étoile. Mais à priori, ce sont de très mauvais candidats pour héberger des planètes habitables ...

Question 1)

Qu'est ce qui limite l'habitabilité des étoiles massives ?


Naines Brunes

Certaines étoiles sont trop peu massives au moment de leur formation pour permettre à leur coeur d'atteindre la température de fusion thermonucléaire de l'hydrogène. Si leur masse est supérieure à environ 13 fois la masse de Jupiter, elle peuvent néanmoins être chauffé par la fusion du deuterieum. Ces étoiles avortées sont des Naines Brunes. C'est généralement le cas pour les étoiles de masse < 0.08 M\odot. Aujourd'hui, près de 1300 Naines Brunes ont déjà été détectées mais on estime que notre galaxie compte environ 1 Naine Brune pour 6 étoiles.

Evolution de la luminosité des Naines Brunes
brown_dwarf.png
On représente l'évolution temporelle de la luminosité de naines brunes de différentes masses. A la différence des étoiles de la Séquence Principale, la luminosité d'une naine brune décroît avec le temps.
Crédit : Chabrier and Baraffe, Annual Review of Astronomy and Astrophysics38 (2000)

A la différence des étoiles de la Séquence Principale, la luminosité d'une naine brune décroît avec le temps. La zone habitable autour d'une Naine Brune se déplace vers l'intérieur du système avec le temps.

Les Naines Brunes sont de mauvais candidats pour héberger des planètes habitables

Comme la luminosité d'une Naine Brune diminue très rapidement, la Zone Habitable se déplace très rapidement vers l'intérieur. La durée de vie dans la Zone Habitable des planètes, immobiles elles, est très courte.

De plus, lorsqu'une planète entre dans la Zone Habitable, elle aura été été auparavant très chaude. La totalité de son eau disponible en surface aura été sous forme de vapeur depuis sa formation. Et cette eau est susceptible de s'être échappée dans l'espace ...

Ainsi, plus une planète entre tard dans la Zone Habitable, plus elle y restera longtemps, mais plus aussi elle sera resté dans un état chaud auparavant ...

On pourra quand même noter que pour l'instant, il n'existe pas d'observations des émissions UV/X de naines brunes. Il est donc délicat d'estimer le taux d'échappement en eau des planètes avant d'entrer dans la Zone Habitable.

La Zone Habitable des Naines Brunes
brown_dwarff_hz1.jpg
On représente ici l'évolution de la Zone Habitable avec le temps pour une planète aux caractéristiques de la Terre orbitant une Naine Brune de 0.04 masse solaire. Au cours du temps, la Zone Habitable se rapproche de la Naine Brune jusqu'à atteindre la limite de Roche. La limite de Roche correspond à la distance orbitale à partir de laquelle les forces de marée exercées par l'étoile sur la planète dominent les forces de cohésion de la planète. En deçà de cette limite, la planète se disloque.
Crédit : E. Bolmont et S. Raymond.

Rotation Synchrone ou non ?

Les planètes dans la Zone Habitable d'une Naine Brune sont extrêmements proches de leur étoile. Par exemple, dans le cas d'une Naine Brune "classique" de 0.04 masses solaires, seules les planètes situées à une distance inférieure à ~0.003 U.A. sont continuement dans la Zone Habitable pour au moins ~4 milliards d'années. Parmis ces planètes, celles qui sont situées à une distance inférieure à 0.002 U.A. sont en deçà de la limite de Roche, distance critique à partir de laquelle les forces de marée exercées par l'étoile sur la planète dominent les forces de cohésion de la planète. Résultat : De telles planètes se disloquent.

Ainsi, si une planète semblable à la Terre orbite suffisamment longtemps (et pas trop près !) dans la Zone Habitable d'une Naine Brune, elle sera vraisemblablement en rotation synchrone.


Détecter les planètes habitables/habitées

Grâce à l'accumulation de près de 20 ans d'observations d'exoplanètes, il est aujourd'hui possible d'estimer plusieurs termes de la fameuse équation de Drake, équation qui tente d'évaluer simplement la probabilité que nous aurions à communiquer avec d'autres civilisations dans notre galaxie. Le premier terme de l'équation - taux de formation d'étoiles dans la galaxie - est pour l'instant le mieux contraint (~10 étoiles/an). Il est possible en réalisant des statistiques sur les observations faites d'exoplanètes d'évaluer (au moins au premier ordre) la proportion d'étoiles ayant un système planétaire, et il apparaît aujourd'hui en effet que la présence de planètes autour d'une étoile semble être bien plus la règle que l'exception. Par exemple, en utilisant l'ensemble des observations réalisées par la méthode des vitesses radiales, il a été estimé (Howard, 2010) que près de 23% des étoiles devraient posséder une planète de taille similaire à la Terre (entre 0.5 et 2 masses terrestres) et qu'autour d'environ 50% des étoiles M (Bonfils, 2013) orbiteraient des planètes telluriques (de 1 à 10 masses terrestres).

Un certain nombre de systèmes planétaires aujourd'hui détectés pourraient possiblement héberger des planètes rocheuses (< 10 masses terrestres) situées dans la Zone Habitable de leur étoile. C'est le cas de HD85512b, Gliese 667Cc, HD40307g, Kepler-22b ... Parmi toutes ces planètes, quelle fraction est adaptée à l'apparition et au développement de la vie telle que nous pouvons l'imaginer ? L'estimation des quatrièmes et cinquièmes termes de l'équation de Drake nécessite de répondre à cette question.

Bestiaire des systèmes planétaires multiples observés par Kepler
kepler_bestiaire.jpg
Exemples de systèmes planétaires multiples observés par le satellite Kepler. À la date du 1er Janvier 2016, près de 500 systèmes planétaires multiples ont été observés par Kepler.
Crédit : Daniel Fabricky (Université de Chicago)
Intercepter une communication extraterrestre
kepler_alignment.jpg
Situation où deux planètes d'un même système planétaire sont alignées avec la Terre. Les communications focalisées d'une planète à l'autre sont plus facilement détectables par la Terre dans cette condition.
Crédit : Berkeley University
Spectre de la Terre vu par le satellite Galileo
spectre_terre_galileo.png
Luminance spectrale de la Terre observée par Galileo dans le proche infrarouge.
Crédit : Carl Sagan (1993)

Le projet SETI : Détecter une civilisation avancée

Dans les années 1960, des scientifiques américains se lancent dans un grand projet : rechercher des signaux artificiels d'origine cosmique. Une des manières les plus efficaces (à notre connaissance) pour communiquer à longue distance est d'utiliser les ondes radio (faible absorption atmosphérique, peu énergétiques, ...). Les scientifiques du projet SETI ( Search for ExtraTerrestrial Intelligence) se mettent alors en tête d'utiliser des radiotélescopes pour observer le ciel à la recherche de signaux extraterrestres. Mais 50 ans plus tard, aucune observation fructueuse n'a été réalisée ...

Le lancement du satellite Kepler en 2009 révèle la présence d'un grand nombre de systèmes multiplanétaires (près de 500 à la date du 1er Janvier 2016). Il est maintenant possible de connaître la position relative des différentes exoplanètes d'un même système planétaire au cours du temps, et donc de savoir à quel moment deux planètes d'un même système planétaire sont alignées avec la Terre. Dans ces conditions particulières, il est possible d'"intercepter" une communication focalisée d'une planète à l'autre ... Les scientifiques du projet SETI se servent aujourd'hui de ces informations pour pointer avec plus de pertinence leur radiotélescopes. Affaire à suivre ...

Détecter des planètes habitées : La recherche de biomarqueurs

Une manière probablement plus scientifique et moins hasardeuse de détecter des planètes habitées est de s'intéresser à l'ensemble des planètes où la vie aurait pu un jour apparaître et de répondre aux questions suivantes : 1. Comment la vie peut-elle modifier son environnement (atmosphère, surface, ...) ? 2. Ces changements peuvent-ils être observés depuis la Terre ?

Pour détecter la présence d'une espèce chimique à la surface ou dans l'atmosphère d'une exoplanète, il convient de réaliser un spectre en absorption, en émission ou en réflexion de la planète. En 1993, l'équipe de Carl Sagan décide d'utiliser cette technique en pointant la sonde Galileo (alors en chemin vers Jupiter) vers la Terre à la recherche de signatures éventuelles de la vie. Ils conclurent alors que la présence simultanée de dioxygène O_2 en grande quantité et de méthane CH_4 est un signe d'activités biologiques. Sur Terre, le dioxygène (~21% de la composition atmosphérique) est essentiellement le produit de la photosynthèse. Les cyanobactéries et les plantes sont les principaux responsables de la production d'0_2, utilisant les photons émis par le Soleil pour former à partir du CO_2 et de l'eau des molécules organiques. Le méthane produit sur Terre a lui aussi une origine essentiellement biologique. C'est la combinaison de méthane (gaz réducteur) et de dioxygène(gaz oxydant), situation chimiquement instable, qui témoigne de la production simultanée de ces deux gaz, caractéristique d'une activité biologique.

Note : L'ammoniac NH_3, produit également de manière biologique (et dans les mêmes proportions), pourrait jouer un rôle (gaz réducteur) similaire à celui du méthane. Néanmoins, l'ammoniac est présent en très faible quantité dans l'atmosphère terrestre car il est facilement photodissocié par le flux UV. Il existe d'ailleurs un certain nombre d'autres "biomarqueurs" de l'activité biologique terrestre comme les oxydes d'azote (NO_x), les chlorofluorocarbures (gaz CFC) ... mais qui sont (pour un certain nombre de raisons) à priori présents en trop faibles quantités pour être détectés dans les années à venir par des techniques de spectroscopie.

On notera enfin qu'il existe un certain nombre de processus abiotiques (e.g. non-biologiques) qui dépendent d'un grand nombre de paramètres et qui sont susceptibles de biaiser la présence de tel ou tel biomarqueur. Finalement, c'est surtout le déséquilibre chimique dans l'atmosphère (présence de l'oxydant O_2 et du réducteur CH_4 sur Terre) qui semble être un bon indicateur de présence de vie.

Détecter des planètes habitables de classe I

Les planètes effectivement habitées ne représentent (à priori) qu'une fraction des planètes habitables. Comment peut-on observer de l'eau liquide à la surface d'une exoplanète ?

Dans les décennies à venir, il semble raisonnable d'espérer que les premières observations spectroscopiques de planètes telluriques dans la Zone Habitable seront réalisées. Il sera alors possible d'y confronter les notions présentées dans ce cours et ainsi très probablement de les mettre à jour ...


Pour aller plus loin

  1. Habitable Zones Around Main Sequence Stars (James F. Kasting et al., 1993, Icarus)
  2. What makes a planet habitable ? (Helmut Lammer, 2009, Astron. Astrophys. Rev.)
  3. Principles of Planetary Climate (Raymond Pierrehumbert)

Se tester

Auteur: Martin TURBET

Vérifiez vos connaissances

Auteur: Martin Turbet

qcmQuizz - Testez vos connaissances !

Voici quelques questions pour tester vos connaissances. À chaque question, il n'y a qu'une seule réponse possible.

Difficulté :    Temps : 10 minutes

1)  Les planètes situées dans la Zone Habitable de leur étoile sont habitables.


2)  Précisez laquelle de ces affirmations est fausse.




3)  On place subitement la Terre à 0.9 Unités Astronomiques. Que lui arrive-t-il ?



4)  Pour cette question, on a représenté la Zone Habitable en fonction de la masse de l'étoile et de la distance orbitale. Pourquoi la Zone Habitable est-elle légèrement décalée vers l'extérieur pour des étoiles de faible masse ? (et accessoirement vers l'intérieur pour des étoiles massives ?) hz_exo.png



5)  Dans les années à venir, de nombreuses missions d'observation seront dédiées à la recherche d'exoplanètes autour d'étoiles M. Pourquoi les étoiles M sont-elles de bonnes cibles pour rechercher des planètes habitées ? Cochez la mauvaise réponse !




Exercice : L'habitabilité autour d'étoiles doubles

Carte postale de Kepler 16-b
kepler_16b.jpg
Kepler 16-b est une planète qui a été détectée dans un système d'étoiles doubles/binaires.
Crédit : NASA

Lorsque deux étoiles sont suffisamment proches qu'elles orbitent autour d'un barycentre commun, on dit qu'elles forment un système d'"étoiles doubles" ou d'"étoiles binaires". Les systèmes d'étoiles doubles sont communs dans notre galaxie, puisqu'environ 1 planète sur 2 se trouve dans un système d'étoiles binaires.

De nombreuses planètes ont déjà été détectées autour d'étoiles doubles. On propose dans cet exercice d'explorer l'habitabilité des planètes orbitant de tels systèmes.

Auteur: M. Turbet

exerciceL'habitabilité des étoiles doubles - Cas Circumbinaire

La première catégorie de planètes présentes dans les systèmes binaires représente les planètes ayant une orbite circumbinaire. Ces planètes orbitent autour des deux étoiles à la fois.

Configuration Circumbinaire
binary_star_1.png
Question 1)

Soit un système binaire composé de deux étoiles rigoureusement identiques. À quel système plus simple ce système est-il équivalent ? Estimez la position de la Zone Habitable associée, par rapport à un système composé d'une étoile seule. Estimez de même le changement pour le temps de synchronisation.

Question 2)

Soit maintenant un système binaire composé d'une étoile solaire et d'une étoile M de 0,3 masse solaire. Comparez la luminosité des deux étoiles. A quel système plus simple ce système binaire s'apparente-t-il ?

Auteur: M. Turbet

exerciceL'habitabilité des étoiles doubles - Cas Non-Circumbinaire

La deuxième catégorie de planètes présentes dans les systèmes binaires comporte les planètes ayant une orbite non-circumbinaire : ces planètes orbitent autour d'une seule des deux étoiles.

Configuration Non-Circumbinaire
binary_star_2.png
Question 1)

Donnez une condition pour que la stabilité orbitale d'un tel système soit assuré. À quel système plus simple ressemble alors le système ?

Question 2)

Quel est le risque - du point de vue de l'habitabilité de la planète - si l'étoile hôte est moins massive que l'étoile environnante.


Mini-projet

Auteur: Martin TURBET

Application - Modèle de climat 1D

Mini-Projet Habitabilité

Le but de ce projet est d'explorer les différents concepts de l'habitabilité présentés dans ce cours, en utilisant un modèle de climat interactif qui permet de simuler l'évolution accélérée du climat de planètes telluriques.

Le simulateur utilisé est une version 1-D du Modèle Global de Climat générique du Laboratoire de Météorologie Dynamique. Ce modèle est construit autour de nombreux processus physiques (radiatifs,thermodynamiques,hydrodynamiques, ...) qui permettent de représenter avec une bonne fidélité l'évolution du climat de planètes et exoplanètes. Ce simulateur 1-D assimile l'ensemble de la planète à une unique colonne atmosphérique composée de 25 niveaux s'étalant de 0 à 60km d'altitude. Il permet d'étudier des atmosphères de planètes composées d'un mélange variable de N_2,CO_2 et H_2O.

Lien vers le simulateur : Modèle 1D

Guide du simulateur

  1. Commencez d'abord par choisir les caractéristiques intrinsèques initiales de la planète que vous souhaitez construire : sa gravité, sa pression atmosphérique, et la quantité d'eau (épaisseur moyenne équivalente) souhaitée à la surface de la planète.
  2. Choisissez les paramètres "modifiables" de votre planète : le flux stellaire reçu à 1 Unité Astronomique (UA), la distance qui sépare votre planète de son étoile (en UA), l'excentricité de l'orbite, la période de l'orbite, la quantité de CO_2 dans l'atmosphère, et enfin le type spectral de l'étoile hôte.
  3. "Démarrer" pour débuter la simulation. Les paramètres dits "modifiables" peuvent être changés en cours de simulation, de manière interactive.
  4. En cas de pépin, vous pouvez simplement "Recommencer" une simulation.

Plusieurs outils de visualisation de l'évolution de l'atmosphère simulée vous sont proposés :

Questions

Essai sur des planètes du Système Solaire

  1. Construisez une planète aux caractéristiques les plus similaires possibles à la Terre, puis estimez la température de surface moyenne obtenue avec le modèle.
  2. Même question pour Mars. (on pourra s'aider d'Internet pour chercher ses caractéristiques)
  3. Comparez ces valeurs avec les températures réellement mesurées sur ces deux planètes. Discutez.
  4. Comment s'assurer que le climat des planètes modélisées est bien équilibré ?

Limite intérieure de la Zone Habitable

  1. Multipliez par 4 le flux reçu par la Terre. Que se passe-t-il ?
  2. Qu'en est-il du profil de vapeur d'eau ? Discutez.
  3. Augmentez d'avantage encore le flux solaire reçu par la planète. Comment varient le flux solaire absorbé/le flux thermique émis vers l'espace à mesure que le flux solaire augmente ? Discutez.
  4. Trouvez la distance minimale jusqu'à laquelle une planète (orbitant autour d'une étoile solaire, Flux à 1UA égal à 1362 W/m2, et pour une gravité terrestre) peut garder de l'eau liquide à sa surface. Vous pouvez faire varier tous les paramètres à votre convenance, faites marcher votre imagination ! Une seule règle : le climat de la planète doit être équilibré.
  5. Comment varie cette distance autour d'étoiles moins massives. On pourra utiliser une étoile type M4 à 3000 Kelvins.
  6. Les planètes orbitant autour d'étoiles M (en particulier les plus proches) ont de forte chance d'être en rotation synchrone. Le modèle utilisé dans ce projet est-il adapté pour simuler de telles planètes ?

Limite extérieure de la Zone Habitable

Première expérience

  1. Coupez subitement le flux solaire reçu par la Terre. Que se passe-t-il ?
  2. Répétez l'experience, mais cette fois-ci, au bout de 200 jours, remettez le flux solaire initialement reçu par la Terre. Discutez.

Deuxième expérience

  1. Fabriquez à nouveau une planète Terre à l'aide du simulateur en remplaçant cette fois-ci le Soleil par une étoile moins massive de 3000 Kelvins. Quelle est la température de surface à l'équilibre ? Discutez.
  2. Trouvez la distance à laquelle la température de surface de cette planète est égale à celle de la Terre aujourd'hui, soit 288 Kelvins (15°C).
  3. Reprenez cette planète à la distance calculée ci-dessus, puis coupez subitement le flux stellaire reçu. Après 200 jours, remettez le flux stellaire comme il l'était initialement. Quelle différence y-a-t-il avec l'expérience précédente ? Discutez.

Troisième expérience

  1. Prenez une nouvelle fois la Terre. Trouvez la pression de surface et la composition atmosphérique qui maximisent la température de surface d'une telle planète. Discutez.
  2. Sur Terre, l'eau bout à 100°C au niveau de la mer. Jusqu'à quelle température l'eau liquide peut-elle être stable à la surface de la planète fabriquée ci-dessus ?
  3. Trouvez maintenant la distance maximale jusqu'à laquelle une planète tellurique orbitant autour d'une étoile solaire peut être habitable de classe I.
  4. Même question autour d'une étoile M de 3000 Kelvins. Discutez des différences.

Pour aller encore plus loin

  1. Etudiez l'impact de la gravité sur les bornes de la Zone Habitable que vous avez calculé dans les exercices précédents. Discutez.
  2. Placez maintenant la quantité d'eau liquide initiale à 0. Quelles sont les conséquences pour la Zone Habitable ? Faites l'expérience puis discutez.

-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------

ACCES AU PLAN DES CHAPITRES


Origine de la vie

Auteur: Cecilia Ceccarelli

Qu'est ce que la vie?

Saint-Augustin
fig2.png

Bien qu’elle nous touche de très près, la notion de vie n’a jamais été clairement définie, ni dans l’histoire des sciences ni dans celle de la philosophie. Saint-Augustin disait du temps ce qu'on pourrait appliquer à la notion de vie : Qu’est-ce donc que le temps ? Si personne ne me le demande, je le sais; mais si on me le demande et que je veux l’expliquer, je ne le sais plus (Saint Augustin, 354-430).

Voici, pour commencer, quelques tentatives pour définir le vivant.


Définir la vie

Auteur: Cecilia Ceccarelli

Introduction

fig0.png

Bien que l'on reconnaisse la vie quand on la voit, la définition de la vie est loin d'être être évidente. A ce jour, elle n’est pas la même pour tous les scientifiques. Au contraire elle est au centre d’un vif débat, qui implique scientifiques (surtout biologistes) et philosophes. Même entre biologistes la définition de la vie est controversée, et les génétitiens en donnent une définition différente des biochimistes. En effet, il est bien possible que la définition de la vie soit intrinsèquement liée au contexte spécifique dans lequel elle est formulée.

En conclusion, la définition de la vie est une problématique ancienne et controversée qui avait déjà commencé à l'époque d'Aristote. Cependant, dans le contexte de l’Astrobiologie, la question est loin d’être purement académique. Si on dépense des milliards d’euros pour aller sur Mars, c'est pour un objectif majeur : comprendre si il y a, ou s'il y a eu la vie sur Mars. De toute évidence, on sait qu'il n'y a pas de petits hommes verts sur Mars, mais y a-t-il la vie ? Si oui, quelle vie ?

Plus généralement, la vie est-elle un phénomène exclusif à la Terre ou bien y a-t-il d’autres endroits dans l’Univers où la vie s’est développée ?

Pour répondre à ces questions, il faut être clair : il faut définir la vie, pour effectuer des expériences permettant de chercher et de tester cette définition de la vie. Cependant, il faut trouver une définition suffisamment générale, tellement générale qu'on en arrive à une approche presque philosophique. L’enjeu est de définir la vie de manière à ce que cette définition puisse être utilisable dans certaines situations que nous n'avons jamais rencontrées sur Terre.

Différentes définitions de la vie ont été privilégiées dans l’histoire et dans la littérature, chacune d'entre elles privilégiant un aspect diffèrent. On verra ici les principales définitions, et les contre-exemples qui en montrent les limites. L’exercice nous aidera à trouver une définition générale applicable au contexte de l’Astrobiologie, et peut-être aussi, ou surtout, les limites à nos connaissances sur le sujet.


Définir le vie


Une première définition de la vie

Autoreproduction

Mulet
vie/fig3.png

Définition : Reproduction de soi-même: la capacité d’un être vivant à assembler différentes [parties de matières premières / briques élémentaires] dans l’environnement, afin de les organiser et les transformer en sa copie conforme. G.-L. Leclerc, comte de Buffon (1707-1788) fut le premier à reconnaitre à la reproduction un rôle central dans la définition de vie.

Cristal
vie/fig5.png

Problème : Presque immédiatement cette définition mène à un problème, car d'une part il y a des exemples faciles de choses vivantes qui ne peuvent pas se reproduire ou qui ne se reproduisent pas (exemple, les personnes stériles, les mulets, ...), et d'autre part il y a des exemples faciles de choses non vivantes qui se reproduisent (exemple: les cristaux).

Conclusion : Cette définition est nécessaire mais non suffisante.


Une autre définition

Métabolisme

Définition : Du grec μεταβολισμοχ = changement, transformation. Un être vivant consomme de l'énergie et la transforme. En biologie, le métabolisme est un terme général désignant toutes les réactions par lesquelles les cellules d’un organisme produisent et utilisent l’énergie, maintiennent leur identité [homéostasie], et se reproduisent.

Feu
vie/fig7.png
Locomotive
vie/fig6.png

Problème : Cette définition aboutit également à un problème. Par exemple les flammes sont des êtres vivants selon cette définition ! Ou une locomotive, qui transforme de l’énergie en mouvement.

Conclusion : Cette définition est nécessaire mais non suffisante.


Une 3e définition

Réactivité/Adaptation

Ordinateurs
vie/fig8.png

Définition :Le continuel ajustement des relations internes aux relations externes. Une variante de cette définition est la suivante: les êtres vivants sont des systèmes qui ont tendance à répondre aux changements de leur environnement de façon à promouvoir leur propre pérennité.

Poissons
vie/fig9.png

Problème : Plusieurs exemples montrent les limites de cette définition : des programmes d’ordinateur peuvent s’adapter à l’environnement, des plastiques peuvent se raccourcir avec la chaleur, des mammifères peuvent commettre un suicide...

Conclusion : Cette définition est nécessaire mais non suffisante.


Une nouvelle définition

Autoreproduction+Métabolisme+Adaptation = Vie

Tardigrade
vie/fig10.png

Définition : On pourrait définir la vie par la somme de trois aspects précédents.

Prolème : La flamme possède les trois caractéristiques, mais elle n’est pas une être vivant ! En outre, ils existent des organismes vivants qui montrent le phénomène dit cryptobiosis (du latin: vie cachée) : la vie s’arrête pour une période limitée. Des exemples faciles sont les graines des plantes ou des œufs de certains crustacés. Il y a aussi des exemples plus complexes : des petits animaux marins nommés tardigrades qui ne sont pas vivants jusqu’à ce qu’ils ne soient en contact avec de l’eau. On parlera de nouveau de ces animaux plus avant.

Conclusion : Cette définition, également, n’est pas correcte. De plus, tout ceci nous montre l’autre variable du problème, souvent oubliée: l’échelle de temps.


Structure moléculaire

Structure moléculaire

Spermatozoïde
fig11.png

Les derniers 50 ans ont vu la révolution de la biochimie et de la génétique, avec une compréhension beaucoup plus avancée de la vie au niveau moléculaire. La question de la définition de la vie s’est alors déplacée au niveau moléculaire. Là aussi les opinions sont partagées et les définitions proposées privilégient des aspects complémentaires. En effet, les mêmes définitions liées à la capacité de se reproduire ou de métaboliser ou de s’adapter sont appliquées au niveau moléculaire, avec des limites similaires à celles que nous avons déjà discutées ci-dessus. De plus, il apparaît le concept de transmission de l’information génétique, une variante de la question de l’évolution à l'échelle moléculaire.


Une définition basée sur la transmission de l'information

Chromosomes humains
fig12.png

Définition : du matériel génétique qui assure la transmission de l’information, et les variations qui donnent lieu à l’évolution.

Problème : Evidemment, une telle définition est exclusivement basée sur la notion de vie sur Terre et, en plus, elle ne considère que l’échelle de la vie humaine. De plus, définir la vie sur cette base est aussi discutable et discuté pour plusieurs raisons. En premier lieu, la découverte récente que le monde de l'ARN (acide ribonucléique, l'une des molécules de l'information avec l'ADN) est probablement antérieur au monde de l'ADN (acide désoxy-ribonucléique) et des protéines. En outre, l’exemple que certains programmes d’ordinateur pourraient être considérés vivants selon cette définition en montre aussi ses limites.

Conclusion : Encore une fois, cette définition identifie un aspect important mais pas unique de la vie.


Conclusion

En somme, beaucoup de définitions de la vie ont été proposées au fil du temps, mais aucune ne semble tenir compte de tous les aspects que la caractérisent. Ils donnent plutôt une liste de conditions nécessaires mais pas suffisantes. Même en regardant la question du point de vue moléculaire on n’arrive pas à trouver une définition complète et acceptable. Après tout, les molécules des êtres vivants ne sont pas vivantes, même si la vie a une base moléculaire. C’est l'organisation complexe des molécules qui fait une cellule, et la vie.

Nous ne sommes pas arriver à définir la vie, mais cependant nous avons compris une chose : toutes les cellules et formes de vie nécessitent trois choses: matière, information et énergie. Ce n’est pas un point final /d’arrivée mais au moins c'est un point de départ.


Comprendre la vie


La chimie de la vie sur Terre

Auteur: Cecilia Ceccarelli

La chimie de la vie sur Terre

Acide aminé
chimie/fig11.png

Tous les organismes vivants, des bactéries aux hommes, sont formés par les mêmes composants de base : acides aminés, acides gras [, alcools] et bases azotées. On parle en tous d’environ 50 “petites” molécules de moins de 100 atomes de carbone (C), hydrogène (H), oxygène (O), azote (N), soufre (S) et d’autres éléments en quantités plus faibles. La composition en structures plus grandes (protéines, glucides, acides nucléiques et lipides...) est à la base des différences entre les organismes, d’un point de vue chimique.


Le carbone

C2O2NH5
chimie/fig12.png

En effet, l’élément indispensable dans toutes ces molécules est le carbone. C’est pour ça qu'on dit que la vie sur Terre est basée sur la chimie du carbone. Ce n’est pas par hasard. Il y a deux raisons, relativement simples.


Une particularité du carbone

Structure électronique du carbone

ADN
chimie/fig13.png
Atome de carbone
chimie/fig14.png

La structure électronique des atomes de carbone permet de former de longues chaînes d’atomes, des chaînes de carbone qui se lient aux autres atomes d'hydrogène, oxygène, azote... Évidemment, plus la chaîne d’atomes est longue plus d'informations peuvent être transmises. Comme on l’a vu dans la section précédente, la transmission de l'information est un élément essentiel à la naissance de la vie.


L'autre particularité du carbone

L'abondance des atomes de carbone

Tableau des éléments
fig15.png

Le carbone n’est pas le seul élément avec une telle structure électronique. Le silicium (Si) et le germanium (Ge) ont la même structure électronique et, donc, la même capacité des atomes de carbone de former de longues chaines. Mais le silicium (et Ge, Sn...) dans l’Univers a une abondance au moins 10 fois plus faible que le carbone et, en plus, il est piégé dans les roches (donc, pas facile de l’utiliser pour former des molécules !).

chimie/fig16.png

L'eau

Molécule d'eau
fig17.png
Méduse
fig18.png
fig19.png

Une autre caractéristique de la vie sur Terre est la présence d’eau. En effet, toutes les formes vivantes (sur Terre) sont formées en majorité d’eau. Par exemple, la bactérie Escherichia coli, qui se trouve en grande quantité dans l’intestin des animaux à sang chaud, contient 70% d’eau. Le corps d’une méduse est fait de 94–98% d’eau. Les plantes contiennent jusqu’à 90% d’eau et le corps humain contient 60–70% d’eau. Evidemment, toutes les formes vivantes (sur Terre) ont besoin de l’eau. Il y a également des raisons précises à cela.

En premier lieu, les molécules d’eau facilitent ou permettent les réactions chimiques qui forment les grosses molécules. Elles constituent un catalyseur formidable. En second lieu, l’eau permet par hydrolyse de l’ATP (Adénosine Tri-Phosphate) de fournir l’énergie aux organismes vivants.


La vie des environnements extrêmes


Les extrêmophiles

Température
fig21.png

La vie sur Terre se développe dans un intervalle de température relativement limité, principalement lié à l’intervalle d’existence de l’eau sous forme liquide.

Etudier comment les organismes survivent dans les environnements extrêmes sur Terre nous renseigne sur la potentialité de la vie à se développer dans des environnements similaires extraterrestres (planètes, satellites, comètes...). Ces organismes sont appelés extrêmophiles et font l’objet de recherches intenses depuis environs une trentaine d’années.


Organismes selon leur température d'existance

Intervalle de température de vie des organismes
extreme/fig22.png

Le tableau ci-dessous liste la nomenclature associée aux organismes, en fonction de leur intervalle d’existence et la figure montre l'intervalle des températures où les organismes survivent.

Micro-organismes
PSYCHROPHILES-10 ÷ 20 °C
PSYCHROTROPHES0 ÷ 30 °C
MESOPHILES10 ÷ 50 °C
THERMOPHILES40 ÷ 70 °C
HYPERTHERMOPHILES> 80 °C

Les organismes (en fait, des microorganismes) aux deux extrêmes de la distribution en température sont des extrêmophiles. Il faut noter que des extrêmophiles vivent et se reproduisent dans des conditions extrêmes par rapport à d’autres paramètres que l’intervalle de température: les milieux acides, alcalins, hypersalés ou sous hautes pressions, ou encore dans les rochers ou environnements secs.


Classification des organismes

Classification
extreme/fig23.png

Avant de décrire quelques exemples spécifiques d’extrêmophiles, il est nécessaire de rappeler que les êtres vivants sur Terre sont classés en trois grands groupes, comme montré dans la figure : Archées, Bactéries et Eucaryotes (plantes, animaux...).

En effet, la biomasse terrestre est constituée à 90% de microorganismes (bactéries et archaea) que l’on connaît très peu (parce que la plupart de ces microorganismes sont difficiles à cultiver en laboratoire). On reviendra sur ce point dans les prochains chapitres. Pour le moment, il faut bien prendre en compte que les Archées n’ont été découverts qu’en 1997 par Carl Woese et ses collègues, en étudiant la séquence de l’ARN de certains microbes (M. bryantii) qui vivent dans une atmosphère sans oxygène moléculaire mais riche en hydrogène et monoxyde de carbone.

Microbe M. bryantii
fig24.png
Carl Woese
fig25.png

Cette figure montre les microbes M. bryantii, les premiers Archées découverts il y a environ 30 ans. A l’époque, ils avaient été catalogués comme bactéries. Carl Woese, découvreur des Archées, a reçu le prix Crafoord (équivalent du prix Nobel) en 2003.

archees
fig26.png

Les archées vivent surtout dans le fonds des océans, comme cela est montré dans la figure, où la température de 90% de l’eau est inférieure à 5°C (entre -1 et 4°C). Donc, l’écrasante majorité des microorganismes marins vivent et se reproduisent dans des environnements froids : ces conditions ne sont extrêmes que du point de vue humain ! Pour l’écrasante majorité des organismes vivants sur Terre les hommes sont des extrêmophiles !

Colonie de bactéries
fig27.png

La figure montre des colonies de bactéries (vertes) et d’archées (rouges) qui vivent dans les fonds des océans. En général, la majorité des bactéries et archées vivent sur les fonds des océans et très souvent en symbiose comme dans ce cas.


Exemples d'extrêmophiles

PSYCHROPHILES

Algue des neiges
fig28.png
Algue des neige
fig29.png

Définition : Un psychrophile est un type d’organisme adapté et capable de survivre à des températures froides, par exemple dans les mers polaires à - 50°C, les sols gelés ou dans les glaciers.

Exemple: Chlamydomonas nivalis, ou algue de la neige, commune en Amérique du Nord, Japon, Arctique, Patagonie, on la trouve à la surface de la neige.

HYPERTHERMOPHILES

Pyrolobus fumarii
fig211.png
Event hydrothermal de fumées noires
fig210.png

Définition : Ce sont les organismes qui vivent et prospèrent à plus de 90°C.

Exemple: Le Pyrolobus fumarii a le record (jusqu’en 2008) des hyperthermophiles. Il a été découvert en 1997 dans un évent hydrothermal de fumées noires (« black smoker hydrothermal vent ») sur la ride médio-atlantique à 3,6 km de profondeur, à la température de 113°C (figure à droite).

Une souche trouvée dans l’Océan Pacifique a survécu jusqu’à 130°C.

POLYEXTREMOPHILES

Définition : Ces sont des microorganismes qui vivent dans plusieurs conditions extrêmes.

Exemple : Les Crenarchaeota sont les archaea les plus nombreuses dans l’environnement marin. Elles survivent aux deux extrêmes de l’intervalle de température : dans le même règne, il y a des psychrophiles ou des hyperthermophiles.

Le règne des crenarchaeota est particulièrement intéressant pour l’Astrobiologie pour plusieurs raisons :

  1. Ces organismes vivent dans un intervalle de température le plus large connue, de 0 à 120°C.

  2. Ils sont probablement les organismes les plus anciens qu’on connaisse : on pense qu’ils sont apparus sur la Terre il y a 3,5 milliards d’ années.

  3. Ils se sont séparés du rameau commun très tôt dans l’évolution.

  4. Ils sont plus proches de nous, les hommes, que des bactéries, du point de vue génétique. Donc les questions que se posent les scientifiques sont : sont-ils les premiers organismes vivants sur terre? Sont-ils présents dans d’autres mondes?


Tartigrades

Tardigrade
vie/fig10.png

Un tout dernier exemple d’extrêmophile est celui des tardigrades, les extrêmes des extrêmes. Les tardigrades (“qui marchent lentement”) sont de petits animaux de 0,1-1,5mm qui vivent dans l’eau, découverts en 1773. Ils se trouvent partout, dans l’Himalaya et dans les fonds des océans, aux pôles et à l’équateur.

Surtout ils survivent de -273 jusqu’à 150 °C, ils survivent à des radiations UV 1000 fois plus intenses que les autres animaux, et même dans le vide ! Ils peuvent se mettre en état de cryptobiosis et arrêter leur métabolisme pour dix ans : en pratique, ils deviennent de petits cailloux ! ... jusqu’à reprendre vie dans l’eau. Des échantillons de tardigrades ont été envoyés dans l’espace pendant 10 jours : au retour la moitié a repris vie et a produit des embryons !

Identifier les fossiles de ces animaux est difficile, mais des fossiles de tardigrades vieux de 500 millions d’années ont été trouvés.


Bactéries dans l'espace

Dans le cadre de l’Astrobiologie, il est important de comprendre comment se comportent les bactéries dans les conditions extrêmes de l’espace. Plusieurs expériences ont été réalisées à cette fin. Voici deux résultats intéressants.

Les bactéries Salmonella

Salmonella
panspermie/fig31.png
panspermie/fig32.png

en 2007, après un vol spatial les bactéries rentrées sur Terre se sont avérées plus pathogènes qu’avant. Les bactéries se sont adaptées à l’absence de gravité et à l’augmentation de radiations en mutant en espèces plus résistantes.

Les bactéries dans l’atmosphère terrestre

des expériences en 2001 et 2009 suggèrent que des bactéries (même non terrestres) existeraient à 40 km d’altitude. Mais ces résultats sont très controversés.


La théorie « panspermie »

Auteur: Cecilia Ceccarelli

Panspermie

"panspermie"

Le terme panspermie vient du grec παν=tous + σπερμα=graine et désigne la théorie selon laquelle la vie existe partout dans l’Univers, et elle a été initiée sur Terre par des organismes venant de l’espace. C’est une vieille idée, déjà formulée 500 ans avant Jésus, et reprise en 1700-1800 par B. de Maillet, H.von Helmotz et Arrhenius. La version moderne de cette théorie est due à Sir Fred Hoyle et C.Wickramasinghe qui l’ont reformulée dans les années 1970.

Sir Fred Hoyle

Sir Fred Hoyle
fig33.png

Avant de décrire et critiquer la théorie panspermie de Hoyle & Wickramasinghe, il est intéressant de connaître Sir Fred Hoyle (dans la photo à droite), un des plus importants scientifiques du siècle dernier. En bref :

Un débat scientifique

Etant donné la stature de son inventeur, Sir Fred Hoyle, on prendra l’exemple de la théorie moderne de la panspermie pour montrer comment le débat scientifique se déroule.


Théorie de la panspermie

Description de la théorie

micrométéorite - comète - météorite
panspermie/fig34.png

Description de la théorie : Cette théorie postule que les graines de la vie se sont formées sur les grains de poussière interstellaire. Les grains de poussière forment les comètes, les météorites et micrométéorites qui tombent sur la Terre, comme sur n’importe quelle autre planète de l’Univers, tous les jours. Donc, selon cette théorie, la vie sur Terre a une origine exogène et elle n‘est pas unique à la Terre. De plus, la différenciation des espèces vivantes sur Terre n’est pas due entièrement à l’évolution (darwinienne), mais à un programme génétique codé dans les cellules qui vient de l’espace.


Les arguments pour et contre

Spectre des grains interstellaires

Spectre infrarouge de la comète Halle Bopp
panspermie/fig35.png
Spectre infrarouge de la comète Hale Bopp comparé à celui d’un mélange de bactéries. Mais un mélange de molécules inorganiques produit aussi le même spectre.

Pour : les spectres des grains interstellaires montrent des signatures de bactéries.

Contre : c’est faux, les spectres ne peuvent pas donner une indication aussi précise, ils montrent seulement qu’il y a des molécules avec des groupes C-H, CH3 mais ils ne peuvent pas les identifier exactement. Elles peuvent être des molécules inorganiques relativement simples et pas forcément des microorganismes.

Météorites

ALH8401
panspermie/fig36.png
Les structures de la météorite martienne ALH8401, attribuées en 1997 à des microbactéries. Des nouvelles analyses n’ont pas confirmé cette hypothèse.

Pour : des bactéries ont été trouvées dans des météorites.

Contre : c’est faux, les résultats annoncés dans les années 90 n’ont jamais été confirmés par d’autres études, au contraire.

Atmosphère terrestre

Pour : des spores et bactéries ont été trouvés dans l’atmosphère à 40 km d’altitude.

Contre : il semble probable qu’ils soient dûs à la contamination terrestre.


Conclusion

Si on regarde à la loupe les arguments en faveur de la théorie panspermie, ils ne tiennent pas la route... Donc, il n’y a aucune évidence que la théorie panspermie est vraie.


En résumé

C'est quoi la vie?

Une définition est nécessaire pour définir les bonnes expériences de recherche de vie au-delà de la Terre.

Trois conditions sont nécessaires : autoreproduction, métabolisme et adaptation. Mais il n’ y a pas encore une définition précise de la vie.

La chimie de la vie sur Terre

Elle est basée sur la chimie du carbone et la présence d’eau liquide, pour des raisons très précises qui ont à voir avec la chimie et l’abondance des éléments dans l’Univers.

La vie des environnements extrêmes

L’écrasante majorité des organismes vivants sur Terre vivent et prospèrent dans des conditions extrêmes du point de vue humain. L’étude de ces organismes, dits extrêmophiles, est particulièrement importante pour comprendre s’il y a de la vie dans d’autres endroits de l’Univers.

La théorie "panspermie"

Actuellement il n’y a pas de preuves qui puissent confirmer cette théorie.


Se tester


Questions


Mini-Projet


Les frontières du vivant

Le concept infiniment riche de vie a donné lieu à de très nombreux développements philosophiques et scientifiques, à de nombreuses questions restées pour la plupart en suspens. Virus, théorie des systèmes vivants, intelligence artificielle, vitalisme et génération spontanée, ... Nous rencontrerons sur ces frontières du concept de vie, un être étrangement vivant, Gaïa 2.0, des cellules non vivantes, et une loi de la thermodynamique.


Le blob

blob.png
Physarum polycephalum (diamètre : environ 10 centimètres), ou blob, composé d'une unique cellule, cultivé en laboratoire sur un gel d'agar.
Crédit : A. Dussutour

Doté d'un nom latin, le Physarum polycephalum est surnommé le blob , y compris par les membres de la communauté scientifique. Ni animal, ni plante, ni champignon, le « blob » est un curieux être rampant composé d'une unique cellule géante. Il se déplace, se nourrit, peut faire plusieurs mètres, il a 221 sexes, est immortel, découpable et peut entrer en état végétatif.

Il est capable d'apprendre et de transmettre ses apprentissages

C'est un organisme vivant mais qui ne semble avoir aucune place dans l'arbre du vivant.


Gaïa 2.0

L’hypothèse de Gaia suppose que les systèmes vivants interagissent avec les composants physiques du système terrestre pour former un tout autorégulateur qui maintient des conditions favorables à la vie. Développée initialement par James Hutton, puis J. Lovelock et L. Margulis, l’hypothèse tente de rendre compte des principales caractéristiques du système terrestre.

Aujourd'hui, cette théorie semble prendre corps quand l'étude du système Terre rapproche plusieurs disciplines, écologie, géologie, glaciologie, méteorologie, océanographie, paléontologie, planétologie, astronomie, voire sociologie, et économie.

Lire et commenter cet article de Sylvestre Huet "Gaïa 2.0":

Sylvestre Huet : "Dans un article (1) paru ce matin dans la revue Science, le géoscientifique Timothy Lenton (Université d’Exeter) s’est joint au philosophe Bruno Latour (Sciences-Po, Paris) pour proposer « d’upgrader » le logiciel de la Terre. De passer de Gaïa 1.0 à Gaïa 2.0."....


La vie comme concept thermodynamique

"Pour un physicien, la vie est apparue sur Terre pour dissiper l’énergie solaire. Dès 1905, Ludwig Boltzmann, père de la mécanique statistique et grand admirateur de Darwin, écrivait: “la vie est une lutte pour l’énergie libre” (c’est-à-dire l’énergie qui peut être dissipée)."

Cette phrase vient du blog de François Roddier, un astronome et physicien français..

Lire et commenter les textes ci-dessous:

Des cellules presque vivantes (2006)

Pourquoi les cellules de Bénard ne sont pas vivants?

Vie et dissipation d'énergie (2007)

L'homme, la vie, la dissipation d'énergie (2009)


L’équation de Drake et SETI, ou comment savoir si nous sommes seuls dans cet univers ?

Auteur: Q. Kral

Le recherche de vie extraterrestre

Ce chapitre s'attaque à l'une des questions les plus pregnantes en astrophysique, j'entends la présence de vie sur des planètes (ou autres corps célestes) autres que la Terre. Nous commencerons par étudier l'équation de Drake (ci-dessous) pour poser les bases de l'état de l'art en la matière de recherche de vie, puis nous passerons à la pratique avec les projets instrumentaux de recherche de vie (SETI). Enfin, nous nous attarderons sur notre Système Solaire et en particulier sur Vénus où des annonces ont pu laisser penser que la vie pourrait etre présente: nous allons voir ça !

eqsymbol.png
Crédits : Jenny Cheng/Business Insider

L'équation de Drake de nos jours

Auteur: Q. Kral

Histoire d’une des équations les plus connues en sciences

drake.png
Frank Drake et sa fameuse équation. SPL / sciencephoto.fr

Tout commence avec Frank Drake (ci-haut) en 1960 qui utilise le « Green Bank Telescope » (voir Figure ci dessous) pour observer deux étoiles proches (τ Ceti et ε Eridani) afin de chercher des signaux radios en provenance d’autres mondes. C’est le début du fameux projet SETI (Search for Extra-Terrestrial Intelligence ou en français : Recherche d’intelligence extraterrestre). SETI a pour ambition de détecter des civilisations extraterrestres avancées (qui puissent émettre des ondes radios par exemple) autour d’autres étoiles que le Soleil. SETI se concentre donc sur des civilisations qui seraient plutôt dans notre Galaxie, capable d’émettre des signaux radios puissants (de type « prise de contact ») et à des longueurs d’ondes qui traversent notre atmosphère et le milieu galactique sans perturbation. Aujourd'hui, SETI est encore vivant (on peut dire qu'il passe dans son adolescence) et de nombreux télescopes procèdent à des observations dans ce cadre. L’étendue de longueurs d’ondes visées a été agrandie et maintenant certains télescopes scrutent aussi les signaux optiques (i.e., à des longueurs d’ondes plus petites que les ondes radios) en provenance d’étoiles de notre Galaxie pour espérer par exemple trouver des signaux de pulses lasers ou des éclairages extra-terrestres puissants.

Green Bank Telescope
gbtelescope.png
Green Bank Telescope, le plus grand radiotélescope du monde (situé aux États-Unis) pour observer les signaux radios en provenance d'étoiles proches (CC-BY sur wikipedia par Cyberbaud)

La fameuse équation de Drake

Après les premières observations de Drake en 1960, une conférence de trois jours est organisée en 1961 au télescope « Green Bank » pour débriefer sur les résultats et planifier la suite du projet. Carl Sagan (voir image ci-dessous), astronome américain de renom, vulgarisateur hors pair, et fervent défenseur de SETI, est présent. Afin de guider au mieux les discussions, Drake gribouilla une équation toute simple au tableau qui deviendra à terme la sacro-sainte équation de Drake. Cette équation tente de remonter à N, qui est le nombre de civilisations extraterrestres capables de transmettre des signaux électromagnétiques dans notre Galaxie. N peut être défini comme étant le produit de facteurs « plus simples » à quantifier. Et c’est là toute la difficulté. Cela donne initialement l’équation de Drake qui suit avec 7 facteurs distincts :

eqdrake.png

Cette équation est souvent mentionnée comme étant la deuxième équation la plus connue en science, après E=Mc^2, sans doute à raison. Elle inspire de nombreuses âmes de par le grand intérêt qu’ont les Terriens pour la vie extraterrestre. Elle fascine aussi par sa simplicité bien qu’ayant une signification profonde. Vous pouvez jouer avec les paramètres de l’équation en vous rendant ici (les paramètres ont des noms de variables différents mais ce sont bien les mêmes quantités dans le même ordre).

Carl Sagan
Carl_Sagan_Planetary_Society.JPG
Carl Sagan en 1980

Pour simplifier, on peut voir que l’équation est la même que celle qui pourrait servir à estimer le nombre d’étudiants dans une Université. On a juste besoin de compter le nombre de nouveaux arrivants chaque année et de multiplier ce nombre par le nombre moyen d’années que passe un étudiant à l’université (disons 4 ans). Cela donne une bonne estimation du nombre d’étudiants à un moment t. C’est la même logique que suit Drake dans son équation. Les 6 premiers termes servent à estimer le nombre de nouvelles civilisations pouvant transmettre des signaux électromagnétiques dans la Galaxie chaque année et il ne reste plus qu’à multiplier par L qui est le temps moyen pendant lequel ces civilisations émettent les ondes que l’on peut détecter. C’est donc une équation très simple. Si le résultat est petit alors SETI perd son temps. Si N est assez grand, il faut pousser et chercher encore plus loin pour finalement détecter ces civilisations évoluées. Mais combien vaut N ? Si vous arrivez à répondre à cette question, vous allez devenir très célèbre ! A vos crayons…

Pour terminer, voici une version imagée de l'équation de Drake qui permettra de s'en souvenir plus longtemps.

eqsymbol.png
Crédits : Jenny Cheng/Business Insider

1) Le taux de formation d’étoiles: reformulons l'équation originelle

L'encyclopédie des exoplanètes
exop.png
Exemple de données que l'on peut trouver sur la base de données d'exoplanètes européenne: Le rayon d'une planète en fonction de se masse. On voit, par exemple, que bien que les naines brunes soient plus massives (à droite du graphique), elles ont pourtant la meme taille que les exoplanètes de type Jupiter.

Cela fait maintenant plus de 60 ans que l’équation de Drake a été proposée. Depuis tout ce temps, des progrès considérables ont été faits notamment en termes de détections d’exoplanètes. On est passé de 0 exoplanète connue en 1960, à 1 en 1995 et à maintenant ~5000 exoplanètes découvertes et répertoriées (voir le catalogue exoplanet.eu qui recense les exoplanètes détectées presque en temps réel). Toutes ces découvertes aident-elles à raffiner notre connaissance du fameux N, résultat de l’équation de Drake ? Inspirons-nous d’un article récent de Gertz (2021) pour tenter d’apporter une réponse prenant en compte l’état de l’art actuel en la matière.

1) R^star : Une erreur dans l’équation originelle ?

Le premier facteur R^star (le taux de formation d’étoiles de type solaire dans notre Galaxie) de l’équation de Drake apparait quelque peu bizarre. Le nombre de civilisations à un temps t ne dépend pas du nombre d’étoiles qui se sont formées l’année passée ou il y a plusieurs millions d’années mais plutôt du nombre total, à un instant t, d’étoiles qui peuvent être hôtes de planètes abritant la vie. Les échelles de temps sont très différentes d’un cursus universitaire et la métaphore expliquée précédemment ne tient pas quand il faut des milliards d’années entre la formation d’une étoile et la construction progressive d'une vie intelligente. On peut s’imaginer que le taux de formation d’étoiles actuel (que l’on peut mesurer) est très différent de celui d’il y a plusieurs milliards d’années.

Donc il apparait que R^star ne devrait pas faire partie de l’équation de Drake. De plus, Drake ne considère que les étoiles de type solaire (i.e., analogues au Soleil), ce qui limite considérablement les possibilités. Il est vrai que les étoiles de type A, B ou O consomment leur carburant trop rapidement pour espérer trouver de la vie dans les planètes jeunes qui ont pu se former autour d’elles. De plus, ce type d’étoiles ne comprend que 1% de toutes les étoiles (i.e., c’est presque négligeable pour calculer le nombre total d’étoiles à un moment t). Cependant, les étoiles de type M (de l’autre côté du spectre, i.e. avec une faible masse de l’ordre de 0.1 à 0.5 masses solaires) représentent environ 75% des étoiles dans notre voisinage proche et il n’y a pas de raisons profondes de penser que la vie ne pourrait pas apparaître aussi autour de ce type d’étoiles. D’ailleurs, des travaux récents montrent qu’il y a en moyenne plus de planètes rocheuses situées dans la zone habitable des étoiles M que pour les étoiles similaires au Soleil (de type G). Il y a des exemples connus de planètes dans la zone habitable d’étoiles M, par exemple autour de Proxima du Centaure (notre plus proche voisine) ou de TRAPPIST-1 situé à 39 années lumières et possédant au moins 7 planètes dont 3 dans sa zone habitable. Ces détections montrent que la vie autour d’étoiles M n’est peut-être pas aussi fantaisiste que ce que l’on a pu en penser fût un temps !

Gertz propose de remplacer R^star par n_s, le nombre d’étoiles dans la voie Lactée et pour simplifier encore le travail des observateurs, et afin d’être le plus agnostique possible, il propose que chaque point de l’espace pourrait envoyer des signaux (e.g., des sondes interstellaires). Donc, plutôt que le nombre total d’étoiles à un moment t dans la voie Lactée, il faudrait plutôt prendre en compte le nombre de sources à un moment t ou le nombre de champs de télescopes possibles (e.g., les sources peuvent être extragalactiques ou provenant d’astéroïdes, …). Dans ce cas, si on travaille par pointage d’une multitude de champs et que l’on introduit n_s, le paramètre L peut être sorti de l’équation car n_s n’est pas un taux de formation mais directement le nombre de sources possibles.

Pour ce faire, on peut imaginer que chaque point de l’espace est une source potentielle et donc il faut scanner tout le ciel en le divisant en différentes sections. Le champ de vue des télescopes est limité et par exemple en utilisant l’ATA (Le "Allen Telescope Array" de l'institut SETI) qui a un champ large, on a besoin de 14 000 images pour couvrir tout le ciel (en supposant que ce télescope peut être déplacé à différents endroits de la Terre). Si chaque image peut être faite en 10 minutes, cela fait que le scan complet peut être obtenu en 97 jours. Donc c’est compliqué mais faisable avec un télescope qui n’est prévu que pour cela. Pour des télescopes avec des champs de vue plus petits (mais aussi plus sensible), cela prendrait beaucoup plus longtemps (e.g., presque 400 ans pour Arecibo qui est maintenant démantelé suite à de nombreux dégâts occasionnés par des ruptures de câbles suite à 57 ans de bons et loyaux services).

L’idée qui émerge actuellement est donc d’abandonner le concept de cible (comprendre étoile) qui impose de faire des choix très peu justifiés (ou trop anthropocentrique) et de préférer une approche « mosaïque » ou l’on scanne tout le ciel champ après champ.


Exercice : Peut-on faire encore mieux pour observer les signaux extra-terrestre ?

Auteur: Q. Kral

exerciceExercice : Peut-on faire encore mieux pour observer les signaux extraterrestre ?

Difficulté :    Temps : 15 min

Nous allons tenter de voir, à travers cet exercice, si l'on peut potentiellement améliorer les méthodes pour rechercher des signaux extraterrestres.

Question 1)

Calculer la surface totale du ciel en degrés carrés.

[1 points]

Question 2)

En sachant que le champ de Arecibo est de 7.2 arcmin2, calculez le nombre de pointages différents nécéssaires pour imager l’ensemble du ciel ?

[1 points]

Question 3)

Si chaque pointage prend 10 minutes, combien de temps faudra-t-il pour la recherche de signaux extraterrestres sur tout le ciel ? Est-ce faisable ?

[1 points]

Question 4)

Comment faire pour améliorer/accélérer la recherche de signaux extraterrestres ?

[1 points]

Question 5)

SETI lance aussi un programme dans l’optique pour pouvoir détecter des flashs de lasers. L’idée est que les lasers fonctionnant à plus grande fréquence que les ondes radios permettent d’envoyer plus de données par seconde (typiquement un million de fois plus) et/ou ils peuvent être utilisés par des civilisations extraterrestres pour projeter des vaisseaux à des vitesses relativistes. Quelle serait la différence entre un signal laser et le signal d’une étoile ?

[1 points]


2) La fraction d’étoiles ayant des planètes : l'ère des exoplanètes

La mission Kepler
Kepler.png
Le télescope spatial Kepler de la Nasa pour observer des exoplanètes transitant devant leur étoile (NASA).

2) f_p : La fraction d’étoiles ayant des planètes

La fraction d’étoiles possédant des planètes était totalement inconnue en 1961 quand Drake a mis en place la première esquisse de son équation. Maintenant on a l’information et cette fraction est environ égale à 1, comme le montre les résultats de la mission Kepler (voir image) et des extrapolations des résultats obtenus par la méthode des microlentilles gravitationnelles (e.g. Cassan et al. 2012).

Cela signifie que l’on peut simplifier l’équation de Drake et sortir ce facteur. De plus, on néglige les satellites alors qu’il est possible que la vie puisse se développer sur ces derniers (par exemple dans un océan sous la surface), ce qui renforce encore plus cette simplification.


3a) Le nombre moyen de planètes par système qui sont de type terrestre et capable d’abriter la vie

3) n_e : Le nombre moyen de planètes par système qui sont de type terrestre et capable d’abriter la vie

Nous cherchons maintenant le nombre de planètes qui seraient rocheuses et dans leur zone habitable (i.e., la zone au-delà de l’étoile centrale où l’eau est sous forme liquide à une pression proche de 1 bar), ce qui était sous-entendu par Drake lors de l’écriture de l’équation. Par exemple, la zone habitable du Soleil se situe entre 0.7 et 1.3 fois la distance de la Terre (avec des calculs simplistes, i.e., Vénus peut parfois être incluses dedans dépendant de la complexité de la zone habitable que l’on modélise*). L’étude de Bryson et al. (2021) compile les résultats de la mission Kepler pour évaluer ce nombre pour différents types d’étoiles (plus l’étoile est chaude, plus la zone habitable est loin de l’étoile). Ils trouvent que les planètes ayant un rayon entre la moitié et 1,5 fois le rayon terrestre qui orbitent autour d’étoiles avec des températures effectives entre 4800 et 6300 K (i.e., incluant notre Soleil) sont dans leur zone habitable entre 0.37^{+0.48}_{-0.21} et 0.60^{+0.90}_{-0.36} fois par étoile (c’est une limite conservative, la limite optimiste étant entre 0.58 et 0.88 planètes habitables par étoile). De manière intéressante, ils estiment (avec un intervalle de confiance de 95%) qu’en moyenne l' exoplanète la plus proche de nous dans sa zone habitable autour d’une étoile G ou K serait à ~6 pc, et il devrait y avoir environ 4 planètes dans leur zone habitable autour de naines G ou K à moins de 10 pc de notre Soleil.

*Revenons quelques instants sur les calculs de zone habitable, i.e., la distance à l’étoile où l’on peut trouver de l’eau liquide**. Ce concept est loin d’être évident bien que sa définition paraisse simple au premier abord. En effet, pour faire un calcul propre, il faut prendre en compte la taille de la planète, la composition et la masse de son atmosphère, la masse de l’eau liquide en surface, ou même le volcanisme, ce qui peut faire de grosses différences sur la température finale de la planète et changer l’état physique final de l’eau (gazeux-liquide-solide). On voit bien que ça n’est pas qu’un critère de distance à l’étoile car la Lune par exemple n’est pas habitable. On fixe généralement dans la définition de l’habitabilité que l’eau de surface doit être liquide pour une atmosphère de type Terre (avec beaucoup de diazote, de vapeur d’eau et un peu de CO2). On voit bien que cela aussi peut poser problème car la Terre jeune qui était riche en CO2 a abrité la vie il y a au moins 3.8 milliards d’années alors que le Soleil n’avait que 70-75 % de sa luminosité actuelle. Une définition simpliste pousse donc la jeune Terre pleine de vie en dehors de la zone habitable avec des océans glacés. On sait que ça n’était pas le cas grâce aux données archéologiques et ceci à cause de la présence de gaz à effet de serre dans l’atmosphère de la jeune Terre (qui n’avait pas encore de dioxygène). Mars qui est situé en dehors de la zone habitable telle que définie de manière simpliste a pourtant eu de l’eau liquide à sa surface grâce à une atmosphère bien plus épaisse qu’aujourd’hui. De plus, la définition usuelle ne prend pas en compte les océans liquides qui pourraient se cacher sous une surface gelée et être chauffés par l’intérieur (e.g., Encelade, un satellite de Saturne, pourrait être dans ce cas). Dans les atmosphères épaisses des planètes du Système Solaire (Vénus ou les 4 planètes géantes), il y a toujours une partie de l’atmosphère en altitude ou en profondeur avec une température clémente qui permettrait d’envisager le développement d’une certaine forme de vie, par exemple, bactérienne (mais rien n’est moins sûr). Il faut donc être attentif à la définition utilisée pour la zone habitable et prendre cette notion avec de grosses pincettes, mais il faut admettre que c’est très utile pour calculer des ordres de grandeurs, faire des choix pseudo-motivés, et discuter avec le grand public.

**Vous êtes en droit de vous demander : Pourquoi on veut de l’eau pour faciliter le développement de la vie ? Cela peut paraître à priori très anthropocentrique. C’est en effet un peu le cas mais pas que. La Terre est un cas particulier (ou unique ?) où la vie a pu se développer, donc il est bon de tester des modèles pour lesquels on est sûr que ça fonctionne avant de se lancer dans des hypothèses plus fantaisistes. De plus, il a été montré que l’eau est un bon solvant pour permettre de créer de plus grosses molécules (en particulier avec le carbone), nécessaires à la création des premières briques de la vie comme les protéines ou l’ARN. Enfin, pour le bon fonctionnement des cellules il faut absolument un solvant liquide pour permettre de « nourrir » les cellules et qu’elles puissent se déplacer à bon escient. L’eau est peut-être le seul liquide capable de faire cela. Pour le moment, il est impossible d’en être sûr. Il y a par exemple des lacs d’hydrocarbure liquide à la surface de Titan (éthane, méthane, voir Figure). L’ADN ou l’ARN ne peuvent pas survivre dans du méthane liquide mais des membranes peuvent se former et peut-être que d’autres formes de vie pourraient se développer. Il est très difficile de savoir quel mécanisme pourrait être à l’œuvre dans ces lacs d’hydrocarbures mais on a la chance d’avoir Titan à quelques encablures (à peine 1,5 milliards de km) de chez nous et de nombreux projets proposent d’aller voir ce qu’il s’y passe de plus près (sous-marins, drones, …).

La surface de Titan
titan.png
Image de l’hémisphère nord de Titan obtenue avec le radar de la sonde Cassini. Ce sont de fausses couleurs. Le bleu montre les lacs, et rivières d’hydrocarbures. Les petits lacs près du pôle s’étendent sur environ 50 km de long. NASA, JPL-Caltech, ASI, USGS

Exercice : Le nombre de planètes potentiellement habitables dans notre Galaxie

exerciceExercice : Le nombre de planètes potentiellement habitables dans notre Galaxie

Difficulté :    Temps : 7 min

Question 1)

Comme on l’a vu précédemment, d’après l’étude de Bryson et al. (2021), il y aurait environ 4 planètes dans leur zone habitable autour de naines G ou K à moins de 10 pc de notre Soleil. Veuillez calculer le nombre de planètes potentiellement habitables autour de telles étoiles dans notre Galaxie.

[2 points]


3b) Le système Solaire à la rescousse

Des océans liquides en dessous de la surface
europe.png
Une structure possible d'Europe, satellite de Jupiter, avec des lacs d'eau sous la surface gelée (CC BY-SA 3.0 by Kelvinsong).

Les études sur les exoplanètes ou dans notre Système Solaire sont une vraie aubaine pour raffiner nos connaissances, en particulier sur la présence de vie à l’extérieur de notre Système Solaire. Cependant, comme on l’a vu, la notion de zone habitable est quelque peu approximative, imparfaite et parfois fausse. S’il y a en effet de la vie dans les océans sous les surfaces gelées et/ou dans la haute atmosphère de planètes rocheuses (voir la dernière partie du cours), alors la notion de zone habitable n’a plus grand sens et l’on pourrait trouver de la vie même à grande distance d’une étoile, là où l’eau est pourtant glacée en surface. Les millions d’euros qui sont dépensés pour les missions en préparation qui cherchent à aller voir s’il y a de la vie sur Mars, Europe, Encelade ou Titan semblent, en effet, remettre en question la définition de zone habitable et tentent de montrer que la vie est plus universelle qu’on ne le croit. Auront-ils raisons ? Impossible à dire… Patientons !

Si notre concept de zone habitable est trop restrictif, il faudrait remplacer n_e (le nombre moyen de planètes par système qui sont de type terrestre et capable d’abriter la vie) par n_tb le nombre de corps célestes (comme des planètes, lunes, comètes, astéroïdes, …) qui ont une atmosphère substantielle ou un solvant efficace en surface ou en dessous, qui sera bien plus grand que le n_e originel. Dans le cas restrictif de zone habitable, on pourra prendre notre résultat comme étant une valeur inférieure.


4) La fraction de ces planètes qui abritent de la vie

4) f_l : La fraction de ces planètes qui abritent de la vie au sens général du terme (e.g., bactérie, …)

Nous cherchons maintenant à voir ce que l’on peut dire de la fraction de planètes (ou lunes, astéroïdes, comètes, … que l’on inclura dorénavant dans notre nouvelle mouture d’équation) qui abritent la vie, aussi microscopique ou macroscopique soit-elle. Ce facteur est inconnu et les nouvelles missions dans notre Système Solaire cherchent à en savoir plus. La compréhension du développement des premières briques de vie sur Terre serait déjà d’une grande aide : mais même pour cela on ne sait pas grand-chose ! Les hypothèses les plus fréquentes sont que la vie a commencé dans de petites mares ou dans les profondeurs marines près de cheminées hydrothermales ou bien que la vie est arrivée de l’espace. De nombreux travaux essayent de voir quel chemin chimique pourrait être le plus à même de mener à la formation de protéines complexes, de l’ARN ou de l’ADN, mais il n’y a pas encore de voie fiable et de consensus dans la communauté scientifique. Ce que l’on sait, c’est que la vie a commencé tôt sur Terre, il y a entre 3.8 et 4.1 milliards d’années, i.e., quand la Terre n’avait que quelques centaines de millions d’années. L’examen de fossiles sur Terre montre qu’il y a 3,5 milliards d’années, il y avait déjà des microbes complexes faisant de la photosynthèse primitive, produisant du méthane ou le capturant, … Pour en arriver à ce stade d’évolution, la vie a due en effet commencer bien plus tôt.

Les observations astronomiques nous montrent que les molécules organiques sont présentes très tôt dans l’histoire de la formation planétaire. Par exemple, on en décompte déjà plus d’une centaine dans les nuages moléculaires jeunes qui vont ensuite former des étoiles et leurs cortèges de planètes. Il y a même des molécules prébiotiques (i.e. des précurseurs à la formation des premières briques de la vie : CH3NCO et HOCH2CN) qui ont été détectées prêt de protoétoiles (e.g., Ligterink et al. 2021). Il se pourrait donc que tous les ingrédients soient disponibles très tôt résultant seulement de la chimie naturelle. Les comètes et astéroïdes qui sont les restes de la formation planétaire montrent aussi la présence d’acides aminés. Par exemple, on a retrouvé 74 acides aminés différents dans la météorite Murchison qui s’est écrasée en Australie en 1974. Huit de ces acides aminés font partie de la biologie que l’on trouve sur Terre ! Comme l’eau sur Terre, on peut s’imaginer que la chimie organique provienne aussi des comètes et/ou astéroïdes, mais là encore, aucune certitude.

On peut aussi faire des expériences depuis chez nous, sans regarder le ciel ! Depuis la fameuse expérience d’Urey et Miller en 1952, on sait que la chimie complexe peut se développer à partir d’ingrédients relativement simples. Urey et Miller ont rempli des tubes à essais de molécules qu’ils supposent abondantes dans notre jeune Terre (l’eau, l’ammoniac, l’hydrogène et le méthane) et ont fait passer un courant électrique simulant des éclairs. Au bout de quelques jours, des acides aminés commençaient à s’accumuler dans le tube. L’expérience a été reprise de nombreuses fois avec différentes hypothèses et les conclusions sont toujours similaires. Par exemple, Sadownik et al. (2016) ont réussi à créer des molécules qui peuvent se reproduire à partir d’éléments chimiques simples. L’idée qui émerge de ces expériences en laboratoire est que le darwinisme pourrait être présent très tôt : les molécules entrent en compétition pour obtenir les ressources nécessaires à leur développement et les molécules qui s’en sortent le mieux peuvent se répliquer plus facilement. La réplication est parfois imparfaite comme on le voit par exemple avec l’évolution du virus du Covid-19 en une série de variants et cela amène à de l’évolution vers des systèmes parfois plus résistants.

Un drone sur une lune de Saturne?
dragonfly.jpg
Drone de la NASA allant aterrir sur Titan vers 3036 pour faire des recherches de signatures de formes de vie (NASA APL).

Les missions spatiales de recherche de vie dans le Système Solaire pourraient aider à contraindre f_l. Par exemple, si l’on découvre des bactéries sur Mars ou des satellites, il serait raisonnable de penser que f_l est proche de 1 et que la chimie menant à des cellules autonomes n’est pas si rare. Dans le cas contraire, on pourrait penser que cette valeur est proche de zéro. Les missions spatiales prochaines les plus prometteuses sont celles en cours ou à venir sur Mars (e.g., Perseverance, ExoMars 2022, …), ou pour tenter de détecter la vie dans les plumes d’Encelade (projet de Breakthrough initiative en collaboration avec la NASA), ou des missions vers le satellite de Jupiter, Europe (Europa Clipper), qui pourraient à terme regarder s’il y a des restes de vie sur la surface gelée du satellite en provenance des retombées de geyser sur cette dernière (2025). Il est aussi prévu l’envoi d’un drone (de 450 kg, ou aérobot) en 2027 sur Titan (Dragon Fly, voir image) qui survolera plus de 150 km à la recherche de traces de vie (atterissage prévu en 2036). Rendez-vous en 2030-2040 pour tenter de contraindre f_l de manière plus élaborée.


5) La fraction des planètes abritant une forme de vie intelligente

5) f_i : La fraction des planètes abritant la vie qui a aussi une forme de vie avec une intelligence capable de transmettre des ondes radios, infrarouges ou des signaux optiques.

Là aussi, on a très peu d’aide pour quantifier f_i de manière fiable. Certains pensent que les vies technologiques intelligentes sont très rares car par exemple sur la Terre, bien qu’elle ait abrité des milliards d’espèces, une seule répond à la définition. De plus, certains argumentent qu’il a fallu l’extinction des dinosaures il y a 65 millions d’années (suite à un impact d’astéroïdes) pour que cela se produise. Notez que ce dernier argument ne tient pas forcément la route. Il est vrai que les mammifères n’auraient pas pu autant proliférer si les dinosaures avaient survécus, mais peut-être qu’une espèce de dinosaures aurait pu évoluer vers des sociétés collectives avec des individus ayant de plus gros cerveaux et pouvant construire des choses (car il paraît nécessaire de pouvoir interagir avec son environnement pour pouvoir avoir un impact et faire évoluer une technologie). Par exemple, les droméosauridés avaient de gros cerveaux pour leur taille et des avant-bras qui pouvaient saisir leurs proies. Ils sont apparus tard dans l’évolution des dinosaures mais peut-être que leurs bras auraient pu encore évoluer pour être capable de fabriquer des outils. Il y a aussi le Stenonychosaurus qui était plus petit qu’un humain mais avec un cerveau 6 fois plus gros que celui du crocodile avec des mains primitives. Peut-être qu’une de ces espèces auraient pu évoluer de manière à devenir intelligente au sens technologique du terme. Qui aurait parié sur les mammifères à cette époque ? Personne !

Les ratons laveurs
ratonlaveur.jpg
Les ratons laveurs pourraient-ils prendre notre place si les humains venaient à disparaitre ? (CC BY-SA 3 by Quartl)

Il est vrai qu’il n’y a aucune autre espèce sur Terre qui ait évolué avec nous pour aussi produire de la technologie aujourd’hui (à part peut-être l’homme de Néandertal qui était bien parti mais qui a eu une fin tragique il y a quelques dizaines de milliers d’années). On peut par contre s’imaginer que si l’on venait à disparaitre, cela créerait de la place pour une autre espèce qui serait à même d’évoluer dans ce sens et de nous remplacer en quelques millions d’années. Les dauphins, baleines, ou oiseaux seraient de potentiels challengers mais la vie sous-marine crée peut-être des difficultés pour évoluer vers une civilisation technologique, ou alors le manque de pouvoir de préhension pourrait aussi poser problème. Frank Drake et Philipp Morrison ont proposé que les ratons-laveurs (voir image) pourraient être prometteurs pour prendre notre place. Ils sont omnivores, ont des mains agiles, ils chassent en groupe et présentent déjà de grands signes d’intelligence et d’adaptation (ils ont la plus grande densité de neurones du cortex cérébral des omnivores, environ 10 fois plus basse que la nôtre). L’expérience est difficile à réaliser bien que le changement climatique pourrait aider !


6) La fraction de ces espèces intelligentes qui essayent de communiquer avec la Terre au moment des observations

6) f_c : La fraction de ces espèces intelligentes qui essayent de communiquer avec la Terre au moment des observations

Voyons maintenant comment estimer la fraction f_c des espèces capables de communiquer avec la Terre et qui le font à un moment t. Il faut déjà bien voir qu’il peut y avoir des extraterrestres capables de communiquer avec la Terre mais qui ne le font pas car ils ne sont pas curieux, trop timides, ont des problèmes budgétaires, ont renoncé après moult échecs, ou même parce que leur religion (ou la tête de leur groupe) l’interdit, … Cela réduit drastiquement la valeur potentielle de f_c, ce qui n’est pas pris en compte dans l’équation originelle de Drake. Il y a aussi la théorie de la forêt noire qui stipule que certains extraterrestres préfèrent se cacher une fois qu’ils sont technologiquement compétents pour éviter d’être attaqués par des (exo-)comparses plus évolués. Dans ce cas, on s’attend en effet à ce qu’il n’y ait aucune émission radio ou laser en provenance de ces étoiles et on peut aussi imaginer que ces derniers cachent même leur étoile hôte pour être totalement invisible depuis l’extérieur. On voit donc que ce facteur regorge de complications. Imaginons aussi qu’il faut être bien coordonné, i.e., si nous écoutons une étoile 10 minutes tous les 10 ans et que l’étoile en question n’émet vers nous que 5 minutes tous les cinq ans alors la probabilité de se croiser est très faible (à moins que les émetteurs extraterrestres aient la puissance pour émettre partout, tout le temps, ce qui requiert beaucoup d’énergie…).

Sphère de Dyson
dyson.png
Sphère de Dyson au niveau de la Terre permettant de récuperer l'énergie du Soleil (CC BY-SA 3.0, Isaac Sanolnacov).

D’un autre côté, il se peut que l’on détecte des signaux de présence de vie sans que ceux-ci aient été émis intentionnellement, ce qui aurait pour effet d’augmenter f_c. Par exemple, on pourrait détecter des forêts, ou des lumières artificielles, ou des espèces chimiques en fort déséquilibre, ou des lasers qui servent à propulser des vaisseaux interstellaires, ou des structures qui émettent beaucoup d’énergie ou qui orbitent l’étoile centrale (e.g., sphère de Dyson ou des structures non naturelles comme des triangles ou autres formes géométriques, …). Ces technosignatures sont peut-être plus fréquentes qu’une communication intentionnelle ?

On pourrait donc remplacer le facteur f_c par un facteur f_d qui prendrait en compte ces technosignatures et donc serait la probabilité de détecter des civilisations avec une technologie poussée dans un certain champ donné de télescope. Des télescopes spatiaux fonctionnant en interférométrie dans l’optique seraient, par exemple, capables dans le futur de voir des lumières artificielles créées par les villes.


7) La durée pendant laquelle la communication vers la Terre subsiste

7) L : La durée pendant laquelle la communication vers la Terre subsiste. Ou, de manière alternative, la durée de vie moyenne d’une civilisation extraterrestre.

L est peut-être le paramètre le plus difficile à fixer car on ne le connait même pas dans le cas de notre civilisation, alors c’est difficile de le déduire pour les autres. Certains ont quand même tenté de mettre des chiffres sur cette valeur. Pendant la guerre froide, avec la vision pessimiste de l’essor et de l’usage des bombes atomiques, certains ont mis une valeur de L=100 ans. Certains pourraient aussi essayer de fixer cette valeur aux vues des dégradations environnementales, de la perte de biodiversité et surtout du changement climatique. Mais il y a aussi des optimistes qui défendent l’idée que l’humain s’adapte toujours et qu’il y a une constante marge de progression sur tous les domaines et que L doit être très grand. Il est aussi possible que les autres civilisations ne soient pas aussi « sauvages » et « territoriales » que les humains et donc que L soit plus grand pour eux que pour nous. Comme on l’a vu précédemment, les extraterrestres n’ont peut-être pas pour ambition d’envoyer des signaux (peut-être écoutent-ils paisiblement ?) mais cela ne veut pas dire qu’ils n’envoient pas des technosignatures que l’on peut détecter, et donc L devrait plutôt être la durée pendant laquelle une civilisation est détectable par n’importe quel moyen. Peut-être aussi qu’il existe des civilisations de machines intelligentes qui peuvent s’auto-répliquer et/ou que des sondes pourraient subsister dans l'espace et continuer d'émettre même après l’extinction de la civilisation qui leur a donné naissance. Dans ce cas, L n’a pas de sens. Mais, on peut se demander si ce type de civilisations « dans le cloud » rentre dans la définition de N de l’équation de Drake ? Notez aussi qu’avec notre nouvelle définition de R^star, qui se transforme en n_s, L n’a plus de sens. Cela pourra vous être utile pour l’exercice qui suit.


Exercice : L’équation de Drake reformatée

exerciceExercice : L’équation de Drake reformatée

Difficulté : ☆☆   Temps : 20 min

Nous allons nous appuyer sur tout ce que l'on a appris lors de ce chapitre sur l'équation de Drake pour montrer où l'on en est aujourd'hui concernant la solution de cette dernière.

Question 1)

Si vous avez bien lu tout le chapitre, vous pouvez maintenant écrire une équation de Drake reformatée, prenant en compte nos nouvelles connaissances et corrigeant quelques légèretés historiques.

[3 points]

Question 2)

On va maintenant arbitrairement fixer n_tb * f_l = 1(le nombre d’objets dans un système solaire qui abritent la vie) car sinon, SETI n’aurait pas de sens et cette quête serait vaine. On peut aussi voir que f_i est maintenant inclus dans f_d car si une civilisation a une technologie trop faible qui ne peut pas être détectée, alors cette civilisation est équivalente à un troupeau de brebis, i.e., leur technologie n’est pas suffisante pour être comptée et, si c’est suffisant, alors c’est déjà inclus dans f_d. Aux vues des discussions sur L, et si ça n’est pas déjà fait, on peut aussi le sortir de l’équation car N n’est pas forcément corrélé à L et peut être redondant avec f_d. Écrire l’équation réduite que l’on obtient et commenter.

[2 points]

Question 3)

A la vue de cette équation simplifiée, pensez-vous que l’on puisse déterminer N, i.e, le nombre de civilisations extraterrestres avec une technologie telle qu’on soit capable de les détecter depuis la Terre ?

[1 points]

Question 4)

Pensez-vous que l’équation de Drake soit utile finalement ?

[1 points]


SETI ou la recherche d'extraterrestre

Auteur: Q. Kral

SETI et la recherche d'extraterrestre

Votre appétit pour SETI a peut-être grandi lors de votre lecture de la partie précédente sur l’équation de Drake. Voyons maintenant quelques efforts récents menés en relation avec SETI. On va s’appuyer sur un article de revue par Jason Wright en 2021.

SETI au 21ème siècle, c’est d’abord des observations qui continuent. En 2020, il y a eu moult recherches en radio (à quelques GHz de fréquence) en pointant les radiotélescopes de GreenBank, et Parkes sur 1300 étoiles (Price et al. 2020). Il y a aussi des observations qui sortent de l’ordinaire, où l’on regarde la zone de transit de la Terre, i.e., les étoiles qui voient la Terre transiter devant notre Soleil, en espérant que ces derniers puissent nous détecter et donc soit plus enclins à nous envoyer des signaux (Sheikh et al. 2020). Il y a aussi les observations avec le télescope SETI home-made (appelé ATA) où les observateurs ont ré-exploré le champ du signal Wow ! : ce signal de 72s montré sur la figure ci-contre a été détecté le 15 août 1977 par le radiotélescope « The Big Ear » aux États-Unis – il n’y a pas encore de consensus sur l’origine du signal et l’hypothèse extraterrestre n’est pas encore totalement exclue. Plus de 100 h d’observations ont été dédiées à la recherche de répétitions de ce signal (qui est encore à ce jour le meilleur candidat potentiel). Toutes ces observations permettent d’avoir des valeurs supérieures de signaux extraterrestres sans avoir de détections concrètes pour le moment. Hippke (2020) a étudié l’hypothèse que le fond diffus cosmologique pourrait avoir été placé de manière intentionnelle au début de l’apparition de l’Univers en cherchant un message caché dans le signal.

Le signal wow!
wow.png
Le signal Wow détecté en 1977 pouvant faire penser à un signal radio extraterrestre.

Le renouveau perpetuel de SETI

SETI est aussi en train de développer de nouvelles technologies. La plus prometteuse est peut-être Pano-SETI qui va scanner tout le ciel en optique à la recherche de pulses lasers brefs (Brown et al. 2020). Le projet avance et les premiers télescopes tests ont vu le jour. Cela va permettre de scanner un espace des paramètres encore inexploré en termes de longueurs d’ondes et de timing. Comme les informations peuvent être plus condensées dans un signal optique, peut-être que cette utilisation est plus commune pour transmettre des messages ?

Il y a aussi maintenant le projet « Breakthrough initiatives » qui vient s’ajouter à SETI. C’est un projet en majeur partie financé par Yuri et Julia Milner qui est divisé en cinq sous-parties. 1) Breakthrough Listen dans lequel seront injecté 100 millions de dollars sur 10 ans pour chercher des signaux radios ou lasers en provenance d’un million d’étoiles. 2) Breakthrough message qui cherche à créer le meilleur message qui représente l’humanité et pourrait à terme être envoyé dans l’espace. 3) Breakthrough StarShot (co-fondé avec Mark Zuckerberg) qui prétend envoyer des myriades de sondes à voile solaire (voir Figure) vers les étoiles les plus proches à 20% de la vitesse de la lumière (coût : 100 millions de dollars). Chaque sonde ne pèserait que quelques grammes et ferait quelques centimètres. L’idée est d’envoyer environ un millier de sondes vers la même étoile à chaque lancement pour optimiser les chances. Chaque sonde disposant de ~5 caméras pourra retourner des images (un fly-by de la planète autour de Proxima Centauri est aussi prévu pour espérer résoudre quelques inhomogénéités de surface de la planète). Les sondes seraient propulsées par des lasers de 100 GW qui enverraient des photons énergétiques sur des voiles de quelques dizaines de mètres carrés pour les projeter à grande vitesse. 4) Breakthrough Watch qui souhaite caractériser les planètes rocheuses autour d’Alpha Centauri et d’autres étoiles proches. 5) Breakthrough Enceladus Mission explore l’idée d’envoyer une sonde vers Encelade (lune de Saturne) en partenariat avec la NASA pour rechercher des traces de vie dans son océan liquide situé sous sa surface glacée.

Une voile solaire
voilesol.png
Vue d’artiste d’une voile solaire qui pourrait envoyer des sondes pleines de caméras vers des étoiles proches à un cinquième de la vitesse de la lumière.

Exercice : Le projet Breakthrough StarShot

exerciceExercice : Le projet Breakthrough StarShot

Difficulté :    Temps : 15 min

Dans le projet « Breakthrough StarShot » listé ci-avant, il est évoqué l’envoi de sondes solaires se déplaçant à 20% de la vitesse de la lumière. Parlons un peu de cela...

Question 1)

Veuillez calculer combien de temps il faudrait pour atteindre l’étoile la plus proche de nous ?

[1 points]

Question 2)

Il est prévu que les sondes prennent quelques photos (avec des caméras de 2 Mpx). Combien de temps après les prises recevront nous les données sur Terre ?

[1 points]

Question 3)

Pensez-vous qu’il soit possible de mettre en orbite ces sondes solaires autour du système d’Alpha du Centaure (qui comprend l’étoile Proxima Centauri autrement appelée Alpha Centauri C) ?

[1 points]

Question 4)

Plutôt que de pousser les sondes solaires à l’aide de lasers énergétiques qui ont un gros coût énergétique et environnemental, ne peut-on pas envisager une solution « plus naturelle » et meilleure pour la planète ?

[1 points]

Question 5)

Pensons au cout énergétique de tels vaisseaux. Supposons que les voiles aient une masse d'environ 1g. Quelle est l'énergie (cinétique) nécessaire pour envoyer 1000 sondes à 20% de la vitesse de la lumière pour optimiser nos chances de réussite ?

[1 points]


La recherche de vie est compliquée: le cas de Vénus

Auteur: Q. Kral

La recherche de vie est compliquée même quand on regarde près de chez nous

La quête de la vie dans notre système solaire se fait de plus en plus pressante, notamment pour répondre à la question plus générale de savoir s’il y a de la vie intelligente ailleurs dans l’Univers. Par exemple, récemment, il y a eu une annonce fracassante dans les médias concernant la potentielle présence de vie dans l’atmosphère de notre voisine Vénus. Qu’en est-il vraiment ? Nous allons passer en revue les résultats scientifiques de quelques études menées sur le sujet et vous allez ensuite conclure par vous-même quant à la possible présence de vie sur Vénus.

La communauté scientifique s’interroge beaucoup sur cette nouvelle publication qui présente une détection de Phosphine dans les nuages de Vénus. Est-ce réel, et si ça l’est, est-ce que cela veut effectivement dire qu’il y a de la vie sur Vénus ?

Comparaison entre la Terre, Vénus et Mars
tvm.jpg
De gauche à droite: Mars, Terre, Vénus. Par sa taille, et densité, Vénus (à droite) est la planète la plus similaire à la Terre (ESA).

Rappelons que Vénus est la deuxième planète en partant du Soleil, située à 0.72 UA, entre Mercure et la Terre. C’est une planète tellurique comme la Terre mais son atmosphère est 90 fois plus massive et composée à 96% de CO2. L’effet de serre y est très puissant et la température moyenne à sa surface est d’environ 464 degrés Celsius (737 K). Il fait plus frais dans les nuages qui peuvent atteindre des températures tempérées à une altitude entre quelques dizaines et 100 km. Mais n’oublions pas que le composé majoritaire des nuages est l’acide sulfurique, ce qui à priori ne paraît pas commode pour le développement de la vie. Cependant, ne soyons pas trop anthropocentrique et avançons plus loin. Il est vrai qu’à priori on ne s’attendrait pas à de la vie sur Vénus à cause de la chaleur étouffante mais plutôt sur Mars. En effet, la vie aurait pu y être présente dans le passé quand la planète était riche en eau, et c’est ce que compte aussi analyser le Rover Perseverance avec, e.g., l’instrument SuperCam que l’on a vu atterrir le 18 février 2021 dernier dans le delta martien du cratère Jezero. La gravité sur Vénus est très similaire à celle sur Terre car rappelons que Venus et la Terre sont très ressemblantes en termes de masse et rayon (presque jumelles).


Une nouvelle étude disputée

Maintenant que les bases sont posées, je vous invite à consulter la figure ci-contre pour voir les résultats de la première étude qui est parue sur le sujet de la Phospine dans Vénus.

Spectres de la présence potentielle de Phosphine dans Vénus (JCMT et ALMA) par Greaves et al.
spectreven.png
Les deux figures (Greaves et al. 2020) montrent deux spectres (en noir) centrés sur une longueur d’onde proche de 1.123 mm obtenus avec - à gauche : le télescope James Clerk Maxwell en juin 2017 (JCMT situé à Hawaï à 4 km d’altitude) et – à droite : avec ALMA en mars 2019 (un ensemble d’environ 66 antennes situé à 5 km d’altitude dans le désert d’Atacama au Chili)

Sur la figure, on voit deux spectres (en noir) centrés sur une longueur d’onde proche de 1.123 mm obtenus avec - à gauche : le télescope James Clerk Maxwell en juin 2017 (JCMT situé à Hawaï à 4 km d’altitude) et – à droite : avec ALMA en mars 2019 (un ensemble d’environ 66 antennes situé à 5 km d’altitude dans le désert d’Atacama au Chili). Sans rentrer dans les détails, on voit qu’il y a l’air d’y avoir une chute du signal quand on se rapproche de 0 km/s sur l’axe des abscisses. Le rayonnement qui provient des couches profondes de Vénus que l’on observe dans le millimétrique semble partiellement absorbé à la longueur d’onde d’observation, proche de 1.12 mm. Cette absorption serait créée par un composé gazeux qui se situerait dans la haute atmosphère de Vénus et qui capterait les photons qui devraient, sinon, arriver jusqu’à nous.

Les auteurs de l’étude (Greaves et al. 2020) concluent que l’absorption est située au même endroit que la raie de phosphine (plus spécifiquement la raie de transition rotationnelle PH3 1-0 à 1.123 mm) et que ça doit donc être de la phosphine qui est dans la haute atmosphère de Vénus et qui crée ce signal en absorption. Les auteurs concluent aussi qu’il doit y avoir environ 20 molécules de phosphine par milliard de molécules (souvent écrit 20 ppb) d’air vénusien (en majorité du CO2) au-delà de 55 km d’altitude dans l’atmosphère de Vénus. La phosphine est détruite rapidement dans la haute atmosphère de Vénus (quelques heures) en interagissant avec les rayons UV provenant du Soleil et il faut trouver un mécanisme qui puisse en produire de manière durable pour expliquer cette détection (par exemple sur Terre, la phosphine est produite industriellement et est employée dans la composition des pesticides). On peut alors calculer qu’on a besoin d’un taux de production de 10^7 molécules de phosphine par cm2 et par seconde pour obtenir 20 ppb de phosphine au-delà de 55 km. On peut en déduire le taux de production global de phosphine sur Vénus et on obtient ~3 kg/s ou 8*10^4tonnes/an.

Un autre papier par l’équipe des découvreurs (Bains et al. 2020) explique que la phosphine ne peut être produite à ce niveau de 20 ppb sans faire appel à des processus non-conventionnels comme par exemple de la vie microbienne dans les nuages de Vénus à haute altitude (55 km) où la température est plus clémente.


Du scepticisme en veux tu, en voilà

Suite à ces deux articles, la communauté scientifique s’est montrée quelque peu sceptique quant à la véracité de la détection de phosphine et son attribution potentielle à des formes de vie. De nombreux papiers ont fait état de certains doutes et nous allons en voir quelques-uns maintenant.

Il y a eu le papier de Villanueva et al. qui a été soumis directement au journal qui avait publié les résultats de Greaves et al. (Nature Astronomy) comme une réfutation des résultats (dont le titre est : « Pas de Phosphine dans Vénus », ce qui donne le ton). Ils montrent trois choses importantes : 1) Une raie de SO2 (un composant que l’on sait être présent en grande quantité dans les nuages de Vénus) est très proche de la raie de phosphine et la résolution spectrale des instruments utilisés ne permet pas de totalement les séparer, ce qui peut amener à de la contamination par le SO2 à la longueur d’onde d’observation. Ils vont encore plus loin et montrent que l’on peut en fait expliquer l’observation du JCMT en mettant 100 ppb de SO2, une quantité qui semble plausible aux vues d’observations précédentes qui montrent que le taux de SO2 peut atteindre 1000 ppb par endroit sur Vénus. 2) Si c’est vraiment de la phosphine, alors elle ne peut pas être à 55 km comme indiqué dans le papier originel mais doit se situer au-delà de 70 km (i.e., au-delà des nuages), ce qui pose alors de gros problèmes pour produire une telle quantité de phosphine alors que le taux de destruction devient beaucoup plus élevé car il y a encore moins de protection vis-à-vis des photons UV solaires. 3) Après une nouvelle analyse des données ALMA, Villanueva et al. arrivent au spectre bleu dans la figure de droite ci-contre.

Spectre corrigé de la présence potentielle de Phosphine dans Vénus par Villanueva et al.
villanueva.png

Sur le spectre de droite corrigé par Villanueva et al., on ne voit plus d’absorption vers 0 km/s et la raie de phosphine qui produirait 20 ppb (en rouge) ne colle donc plus du tout aux données. La courbe en vert montre le nouveau niveau potentiel de SO2 qui pourrait expliquer les données (i.e. 100 ppb). Le niveau de SO2 semble cohérent avec les nouvelles données. C’est clairement une limite supérieure de SO2 que l’on obtient et non une détection.

Les auteurs d’une autre étude (Encrenaz et al.) ayant comme première auteure une astronome de l’Observatoire de Paris ont cherché une raie de phosphine à une autre longueur d’onde en utilisant un observatoire Hawaïen (dans l’infrarouge vers 10 microns plutôt que dans le millimétrique) pour pouvoir mettre une limite supérieure sur la quantité de phosphine grâce à cette nouvelle raie. Ils trouvent qu’il ne peut pas y avoir plus de 5 ppb de Phosphine sinon ils auraient détecté une raie dans l’infrarouge (et ils n’en détectent pas !).

Tout cela a poussé les auteurs de l’étude originelle à revoir leurs analyses initiales. Ils ont publié un nouveau papier revoyant leurs prédictions à la baisse. Il y aurait finalement 1 ppb de Phosphine plutôt que 20 ppb d’après les données ALMA. Ceci est plus en accord avec les résultats infrarouges et pourrait aussi être expliqué par des phénomènes naturels tels que la production de Phosphine par du volcanisme et/ou des éclairs sans faire appel à une vie microbienne.


Exercice: De la Phosphine dans l'atmosphère de Vénus ?

exerciceExercice: De la Phosphine dans l'atmosphère de Vénus ?

Difficulté :    Temps : 13 min

Question 1)

Qu’est-ce que l’aventure de la Phosphine sur Vénus montre sur le processus scientifique de revue par les pairs et la possibilité de mettre en doute de nouveaux résultats ?

[1 points]

Question 2)

Une autre étude par Lincowski et al. (Février 2021) confirme qu’il semble en effet plus probable que les observations montrent en fait une raie de SO2 plutôt que de la phosphine. Un nouvel article de Snellen et al. montre que l’absorption de phosphine vue sur le spectre ALMA serait simplement un faux positif dû à la méthode utilisée pour extraire le signal (ajustement et soustraction des données avec des polynômes de degrés 12). Encore plus récemment, Thompson montre que cela pourrait aussi être le cas pour le spectre JCMT. Que pensez-vous alors de cette annonce fracassante de détection de phosphine potentiellement liée à une forme de vie microbienne ?

Question 3)

Les chercheurs sont encore en train de travailler sur le sujet. Comment pourrait-on aller encore plus loin et mettre toutes les parties d’accord alors que les observateurs originels maintiennent leur position (néanmoins après quelques ajustements non négligeables) et que la majorité des chercheurs semble toujours en désaccord ?

Question 4)

Cette épopée semble faire écho à ce qu’il se passe aussi avec 1I/ʻOumuamua, un objet interstellaire qui a traversé notre système solaire en 2017 et qui est affiché comme étant potentiellement une sonde extraterrestre (par exemple d’après le livre récemment publié par Dr. Loeb, chercheur à Harvard). Pouvez-vous en dire plus sur 1I/ʻOumuamua, cette polémique, et donnez votre avis ?


Conclusion

Tout ce chapitre montre bien que la recherche de vie va être épineuse et qu’il va falloir s’armer de patience et vérifier les résultats par plusieurs méthodes indépendantes avant de donner des confirmations objectives. Même si l’on reçoit la valeur de π jusqu’à sa centième décimale dans un signal radio ou un pulse laser, il faudra quand même être sûr de la provenance et que cela ne peut pas être le fruit du hasard (ça parait très difficile mais il faudra se poser la question et ne pas verser dans le non-scientifique et dans les théories du complot). A très bientôt pour de nouvelles découvertes !

Les décimales de Pi
pi.png
par Xan2-3

Auteurs


Auteurs du livre numérique

Présentation des auteurs des chapitres du livre numérique Sciences pour les Exoplanètes et les Systèmes Planétaires.


Jean-Loup Baudino

JL_Baudino.jpg
Crédit : Sylvain Cnudde

Après des études effectuées à la Faculté des Sciences de l’Université Montpellier 2, Jean-Loup Baudino est doctorant au LESIA à l’Observatoire de Paris jusqu'à septembre 2015. Il travaille à l’interface entre les observations et la théorie, entre l’instrumentation et la planétologie. Il construit des modèles d’atmosphère de jeunes exoplanètes géantes (qui font partie des cibles privilégiées de l’imagerie directe des exoplanètes, méthode utilisée par l’instrument SPHERE au VLT) et les compare à des observations d’exoplanètes venant des instruments installés sur les grands télescopes comme SPHERE au VLT ou GPI à l'Observatoire Gemini Sud.

Il est auteur du chapitre Imagerie directe d'exoplanètes.


Jean-Yves Chaufray

JY_Chaufray.jpg
Crédit : Sylvain Cnudde

Après une formation d’ingénieur à l’Ecole Centrale de Paris et un Master en Astronomie et Astrophysique à l’Observatoire de Meudon. Jean-Yves Chaufray a soutenu sa thèse de doctorat à l’Université Pierre et Marie Curie en 2007. Cette thèse portait sur l’étude de la haute atmosphère de Mars et de son échappement dans le milieu interplanétaire. Depuis 2013 Jean-Yves Chaufray travaille au laboratoire LATMOS en tant que Chargé de Recherche. Ses travaux actuels portent sur l’étude des hautes atmosphères planétaires (Mars, Vénus, Mercure, comètes) à l’aide d’observations UV et de simulations numériques notamment dans le cadre des missions Mars Express, Vénus Express, MAVEN, Rosetta, Bepi-Colombo.

Il est auteur du chapitre Flux UV planétaire .


Valérie Ciarletti

V_Ciarletti.jpg
Crédit : Sylvain Cnudde

Valérie Ciarletti est professeur à l'université de Versailles Saint-Quentin-en-Yvelines et travaille au LATMOS. Elle s'intéresse aux méthodes électromagnétiques de sondage des sous-sols planétaires. Elle est la responsable scientifique du radar WISDOM qui est conçu afin de sonder et caractériser le proche sous-sol de la planète Mars pour les besoins de la mission ExoMars. Elle fait également partie des équipes du radar CONSERT et de la sonde de permittivité PP/SESAME de la mission Rosetta.

Ell est co-auteur du chapitre sur les orbites planétaires.


François Forget

F_Forget.jpg
Crédit : Sylvain Cnudde

François Forget est planétologue, spécialiste des climats planétaires, de la planète Mars aux exoplanètes. Il est chercheur au CNRS (Laboratoire de Météorologie Dynamique, Institut Pierre Simon Laplace) depuis 1998 et a travaillé plusieurs années à la NASA en Californie. Il combine l'exploration spatiale avec la modélisation numérique. Il est membre des équipes scientifiques des sondes spatiales Mars Express et Exomars (ESA) et Mars Reconnaissance Orbiter, Insight, et New Horizons (NASA).

Il est co-auteur du chapitre sur les GCM et du chapitre sur l'habitabilité des planètes.


Sylvain Fouquet

Fouquet-small.jpg
Crédit : Sylvain Cnudde

Après une classe préparatoire au Lycée Saint Louis à Paris, Sylvain Fouquet a fait une Licence de physique à l'université Paris7-Denis Diderot puis un Master dans la spécialité Astronomie-Astrophysique. Il a passé son doctorat au laboratoire Galaxies, Etoiles, Physique et Instrumentation, de l'Observatoire de Paris en 2013 avant d'effectuer un séjour post-doctoral en Pologne. Son sujet d'étude porte sur la formation des galaxies naines dans le Groupe Local via des galaxies naines de marée.

Il est auteur du chapitre Exoplanètes : Statistique et probabilités.


Nicolas Fray

N_Fray.jpg
Crédit : Sylvain Cnudde

Après une formation en physique et un Master en Astronomie et Astrophysique à l’Observatoire de Paris, Nicolas Fray a soutenu sa thèse de doctorat à l’Université Paris-Est Créteil en 2004. Cette thèse portait sur la production de molécules gazeuses dans l’environnement cométaire à partir de la matière organique macromoléculaire présente dans les grains cométaires. Nicolas Fray a ensuite effectué un post-doctorat à l’IPAG de Grenoble sur la stabilité thermodynamiques des glaces pures et des clathrates d’hydrates. Depuis 2006, Il travaille comme maître de conférences au LISA et à l’Université Paris-Est Créteil. Ses travaux de recherche portent sur la nature de la matière organique contenue dans les noyaux cométaires avec des approches expérimentales et observationnelles notamment dans le cadre de la mission Rosetta.

Il est auteur du chapitre sur les petits corps.


Jean-Mathias Griessmeier

JM_Griessmeier.jpg
Crédit : Sylvain Cnudde

Jean-Mathias GRIESSMEIER est astronome-adjoint au Laboratoire de Physique et Chimie de l'Environnement et de l'Espace (LPC2E) et à l'Université d'Orléans. Son travail porte sur la radio-astronomie basse fréquence, avec deux axes principaux: (1) la détection d'exoplanètes et de leur champ magnétique par des observations radio, et (2) la caractérisation du milieu interstellaire par l'observation de pulsars. Il est membre des équipes des radiotélescopes LOFAR et NenuFAR.

Il est co-auteur du chapitre sur les transits d'exoplanètes.


Nathan Hara

N_Hara.jpg
Crédit : Sylvain Cnudde

Nathan Hara est doctorant à l'Institut de mécanique céleste et de calcul des éphémérides (IMCCE) sous la direction de Jacques Laskar et Gwenaël Boué. Initialement formé en ingénierie spatiale, il se tourne ensuite vers l'astronomie et la mécanique céleste. Son travail porte sur la détection et la dynamique des planètes extrasolaires, en particulier sur l'amélioration des algorithmes de traitement de données.

Il est auteur du chapitre sur les méthodes de détection d'exoplanètes par vitesse radiale et astrométrie.


Quentin Kral

Q_Kral.png

Quentin Kral est astronome adjoint de l'Observatoire de Paris, aprés des études à l'ENS et une thèse sur l'Etude des disques de débris avec un modèle numérique de nouvelle génération (prix de la thèse 2015 de la "Société Française d'Astronomie et d'Astrophysique"). Il travaille sur la compréhension des systèmes exoplanétaires notamment en analysant la composante gazeuse de ces systèmes qui nous donnent des informations précieuses sur la composition des exoplanétésimaux qui orbitent autour de ces étoiles. Il est aussi co-responsable du portail de l'Encyclopédie des planètes extrasolaires .

Il est co-auteur du chapitre sur les transits d'exoplanètes.


Jacques Laskar

J_Laskar.jpg
Crédit : Sylvain Cnudde

Jacques Laskar est directeur de recherche au CNRS, membre de l'Académie des sciences. Il a découvert le caractère chaotique du Système solaire. Une révolution conceptuelle qui mettra plusieurs années à s'imposer, et dont les conséquences concernent aussi bien l'étude des paléoclimats que les exoplanètes.

Il est co-auteur du chapitre sur les méthodes de détection d'exoplanètes par vitesse radiale et astrométrie.


Alice Le Gall

A_Le_Gall.jpg
Crédit : Sylvain Cnudde

Après une formation d’ingénieur à l’Ecole Supérieure d’Electricité et un Master en Astronomie et Astrophysique à l'Observatoire de Meudon, Alice Le Gall a soutenu sa thèse de doctorat à l’Université Pierre et Marie Curie en 2007. Cette thèse portait sur le sondage du sous-sol de Mars par radar à pénétration de sol. Alice Le Gall a ensuite effectué un post-doctorat NASA de 3 ans au Jet Propulsion Laboratory (JPL), en Californie, au sein de l’équipe Radar de la mission Cassini avec pour principal objectif l’étude de la surface de Titan. Depuis 2011, elle travaille au laboratoire LATMOS et à l'Université de Versailles Saint-Quentin (UVSQ) en tant que Maître de Conférences. Ses travaux de recherche portent sur l’observation des surfaces et sous-sols planétaires (Mars, satellites glacés, comètes) par sondage électromagnétique (radar, radiomètre, sonde de permittivité), notamment de le cadre des missions Cassini (NASA) et Rosetta (ESA).

Elle est auteur du chapitre sur les surfaces planétaires.


Emmanuel Lellouch

E_Lellouch.jpg
Crédit : Sylvain Cnudde

Emmanuel Lellouch travaille à l'observatoire de Paris. Il y étudie principalement les atmosphères des planètes et de leurs satellites grâce notamment à la spectroscopie infra-rouge et millimétrique. Il a fait d'importantes contributions aux observations des atmosphères de Pluton, Triton, et Io, à la mesure des vents sur Vénus et Mars, et à la détection d'eau sur les planètes externes du système solaire. Il a aussi étudié les surfaces des planètes et les comètes, il a été et est toujours chercheur ou associé chercheur aux expériences menées par plusieurs sondes spatiales telles Phobos, Galileo, ISO, Cassini, Mars Express, Rosetta, Herschel.

Il est co-auteur du chapitre sur les transits d'exoplanètes.


Lucie Maquet

L_Maquet.jpg
Crédit : Sylvain Cnudde

Lucie Maquet est astronome-adjointe à l’Institut de Mécanique Céleste et de Calculs des Éphémérides à l’Observatoire de Paris. Elle s’intéresse à la dynamique des comètes et plus particulièrement aux forces non-gravitationnelles engendrées par la sublimation des glaces de ces corps à l’approche du Soleil.

Elle est co-auteur du chapitre sur les orbites planétaires.


Emmanuel Marcq

E_Marcq2.jpg
Crédit : Sylvain Cnudde

Après une formation d'astrophysicien à l'École Normale Supérieure et à l'Observatoire de Paris, Emmanuel Marcq a soutenu sa thèse de doctorat en 2006 sur la préparation de la mission Venus Express. Depuis 2008, il travaille au laboratoire LATMOS et à l'université de Versailles Saint-Quentin en tant que maître de conférences. Ses thématiques de recherche concernent les atmosphères planétaires des planètes telluriques (Vénus en particulier), plus particulièrement les mesures spectroscopiques de composition, ainsi que la modélisation des atmosphères primitives.

Il est auteur du chapitre sur la structure thermique des atmosphères planétaires et co-auteur du chapitre sur le rayonnement électromagnétique : Flux et spectres.


Sophie Masson

S_Masson.png

Sophie Masson est astronome adjointe de l'Observatoire de Paris.

Elle est co-auteur du chapitre sur les relations étoile-planètes.


Ronan Modolo

R_Modolo.jpg
Crédit : Sylvain Cnudde

Ronan Modolo travaille au laboratoire LATMOS et à l'Université de Saint-Quentin en tant que maître de conférences. Ses activités de recherche portent sur le couplage entre enveloppes neutre (atmosphère) et ionisé (magnétosphère) des planètes / satellites du système solaire. Ces interactions plasma -neutre dans les environnements planétaires des objets faiblements ou non-magnétiés sont abordées en utilisant deux moyens d'étude : un volet de modélisation et de simulation numérique, et un volet d'analyse de données spatiales (notamment CASSINI, MAVEN, Mars Express).

Il est auteur du chapitre sur les plasmas planétaires.


Thomas Navarro

T_Navarro.jpg
Crédit : Sylvain Cnudde

Thomas Navarro est un chercheur dont le sujet d'étude porte sur l'atmosphère de la planète Mars et les modèles de climat. Après s'être intéressé au cycle de l'eau du climat martien, il étudie la prédictibilité de l'atmosphère martienne, en lien avec la mission européenne ExoMars.

Il est auteur du chapitre sur les GCM et co-auteur du chapitre sur la dynamique atmosphérique.


Yaël Nazé

Y_Naze.jpg
Crédit : Sylvain Cnudde

Astrophysicienne FNRS à l'Université de Liège, Yaël Nazé étudie les étoiles très massives, des objets chauds et brillants qui dominent véritablement les galaxies qui les accueillent, ainsi que leurs interactions (entre elles et avec le milieu qui les entoure). Elle donne aussi plusieurs cours, dont un consacré à l'histoire de l'astronomie. Outre ses travaux scientifiques et ses enseignements, elle consacre la majorité de son temps libre à la diffusion des sciences par le biais d'animations, d'expositions, de débats, de conférences, mais aussi de l'écriture (une centaine d'articles et une dizaine de livres). Cette activité de vulgarisation lui a valu de nombreux prix.

Elle est co-auteur du chapitre sur Planètes et exoplanètes: Histoire et définitions.


Arianna Piccialli

A_Piccialli.jpg
Crédit : Sylvain Cnudde

Originaire de Naples, en Italie, Arianna Piccialli y a fait ses études universitaires. Après un doctorat au Max Planck Institut à Göttingen, en Allemagne, et un post-doctorat à l’Agence Spatiale Européenne aux Pays-Bas, elle est arrivée en France en 2012. Depuis 2014, elle effectue un post-doctorat à l’Observatoire de Meudon et sa thématique de recherche concerne l’étude des atmosphères planétaires des planètes telluriques (Mars et Vénus). Elle s’intéresse particulièrement à la dynamique, la structure thermique et à la composition de la haute atmosphère.

Elle est co-auteur du chapitre sur la dynamique atmosphérique.


Gary Quinsac

G_Quinsac.jpg
Crédit : Sylvain Cnudde

Après avoir été diplômé du Master 2 Outils et Systèmes de l'Astronomie et de l'Espace, Gary Quinsac a effectué l'année pré-doctorale PSL-ITI (Institut de technologie et d'Innovation de Paris Sciences et Lettres). Actuellement doctorant au LESIA, il travaille sur les systèmes de contrôle d'altitude et d'orbite pour des CubeSats interplanétaires au moyen de propulsion électrique.

Il est auteur du chapitre sur les cubesats.


Loïc Rossi

L_Rossi.jpg
Crédit : Sylvain Cnudde

Doctorant en troisième année au LATMOS, Loïc Rossi est passé par le master de l'Observatoire de Paris et par l'université Paris-Sud 11. Il s'intéresse aux nuages de Vénus, qu'il étudie à l'aide de la polarisation mesurée par la sonde Venus Express. Outre SESP, il enseigne également à l'Université de Versailles Saint-Quentin-en-Yvelines auprès des étudiants en licence. Après sa thèse, il va s'intéresser à la polarimétrie appliquée aux exoplanètes au sein d'une équipe de l'université de technologie de Delft (Pays-Bas).

Il est auteur du chapitre sur la polarisation et co-auteur du chapitre sur le rayonnement électromagnétique : Flux et spectres.


Jean Schneider

Schneider_pt.jpg
Crédit : Sylvain Cnudde

Jean Schneider est chercheur au Laboratoire Univers et THéories (LUTh). Il a travaillé de 1966 à 1971 en physique des hautes énergies à Orsay et au CERN, puis en astrophysique relativiste (cosmologie, pulsars). Depuis 1988, il travaille en épistémologie (philosophie du temps et du langage, fondements de la physique quantique), en exobiologie. Il est fortement impliqué dans l'étude des planètes extrasolaires, avec des travaux théoriques et observationnels (membre de l'équipe du satellite Corot, observations au VLT). Il est le créateur et l'animateur de l'Encyclopédie des planètes extrasolaires.

Il est co-auteur du chapitre sur Planètes et exoplanètes: Histoire et définitions .


Philippe Thébault

P_Thebault.jpg
Crédit : Sylvain Cnudde

Philippe Thébault a soutenu sa thèse de Doctorat en 1997. Il est enseignant-chercheur à l'Observatoire de Paris depuis 1998 et a également travaillé pendant 4 ans comme chercheur associé à l'Université de Stockholm. Il travaille au groupe planétologie du LESIA et est spécialiste de la modélisation des disques de débris et de la formation planétaire dans les systèmes multiples.

Il est auteur du chapitre sur la formation des planètes.


Martin Turbet

M_Turbet.jpg
Crédit : Sylvain Cnudde

Ancien élève de l'École Normale Supérieure de Paris et diplômé du Master 2 d'Astrophysique et d'Astronomie de l'Observatoire de Paris, Martin Turbet est aujourd'hui doctorant au Laboratoire de Météorologie Dynamique. Ses recherches portent sur la modélisation des climats possibles des planètes extrasolaires et des planètes primitives (en particulier Mars). Page personnelle

Il est co-auteur du chapitre sur l'habitabilité des planètes.


Boite à outils

Auteur: Françoise Roques

Boite à outils

Cette boite à outils contient :


Appliquettes

Auteurs: Cédric Schott, Pierre-Yves Martin

Appliquettes

Appliquettes interactives

Voilà une liste des outils réalisés dans le cadre du projet SESP, réalisés par Cédric Schott et Pierre-Yves Martin. Ils sont tous distribués sous une licence libre (GNU GPL).


Notions de base

Auteur: Françoise Roques

Les notions de base

L'étude des systèmes planétaires du Soleil ou des autres étoiles s'appuie sur quelques notions importantes qui sont décrites ci-dessous :


Gravitation et lois de Kepler

Les lois de Kepler (1571-1630) ont été établies empiriquement à partir des observations détaillées du mouvement de Venus, Mars, Jupiter et Saturne par Tycho Brahe (1546-1601). Les 2 premières lois ont été publiées en 1609 dans Astronomia Nova, la troisième a été publiée en 1619 dans Harmonices Mundi. Elles ne furent démontrées mathématiquement que par la suite, par Isaac Newton (1642-1727)

Les 3 lois de Kepler, bien qu’antérieures à la théorie de Newton, résultent de la loi de la gravitation universelle qui postule que 2 masses M_1 et M_2 séparées d’une distance R exercent l’une sur l’autre une force attractive parallèle au rayon vecteur qui joint leurs centres de masse respectifs. Cette force s’exprime par la relation : accent(F;->)=((G*M_1*M_2)/R^2)*(accent(R;->)/R)

avec G constante universelle de la gravitation = unité(6.67*10^(-11);N*m^2*kg^(-2))

Les lois de Kepler sont toujours vraies pour un système à 2 corps mais restent valables pour des systèmes multiples (plusieurs planètes) dans l’approximation de faible masse des planètes par rapport à l’étoile centrale. Elles ont été énoncées pour le Système Solaire, mais peuvent donc être généralisées à tout système planétaire dont les planètes ont une masse petite devant celle de l'étoile. Mais attention, ce n'est pas le cas de tous les systèmes exoplanétaires!

  1. La première loi, dite loi des orbites, (1605), stipule que dans le référentiel héliocentrique, l’orbite de chaque planète est une ellipse dont l’un des foyers est occupé par le Soleil.

  2. La seconde loi, dite loi des aires (1604), stipule que le mouvement de chaque planète est tel que le segment de droite reliant le Soleil et la planète balaie des aires égales pendant des durées égales.

  3. La troisième loi, dite loi des périodes (1618) stipule que pour toutes les planètes du système, le rapport entre le cube du demi grand axe a de la trajectoire et le carré de la période orbitale T est constant, c'est à dire a la même valeur pour toutes les planètes du système : a^3/T^2=Cste

Si a est exprimé en unités astronomiques et T en années terrestres, la constante vaut 1 dans le système solaire.

La loi de la gravitation ci-dessus permet de calculer la valeur de cette constante et de voir que les équations de Kepler font l'approximation que la masse des planètes est négligeable devant la masse de l'étoile:

a^3/T^2=G*(M_(étoile)+M_(planète))/(4*pi^2) ~= (G*M_(étoile))/(4*pi^2)

M_étoile et M_planète sont respectivement les masses de l’étoile et de la planète.


Résonances

Quand un système oscillant est soumis à une excitation (perturbation périodique), il peut subir une augmentation de son énergie d’oscillation. Ce phénomène, appelé résonance, dépend des fréquences d’excitation et des fréquences propres du système. On parle de résonances orbitales quand le phénomène est le mouvement d’une planète autour d’une étoile (ou d’un satellite autour d’une planète). L’excitation est la perturbation gravitationnelle d’une autre planète (d’un autre satellite). Plusieurs paramètres dans une orbite elliptique de planète, peuvent donner lieu à des résonances : - Le principal est le mouvement de la planète le long de son orbite. La vitesse moyenne est n, le « moyen mouvement ». Une résonance de moyen mouvement a lieu si les moyens mouvements des deux planètes, n1 et n2 sont dans un rapport rationnel, c’est à dire si : p.n1 + q.n2 est proche de 0, p et q étant des nombres entiers. Cette configuration est très courante dans le système solaire. par exemple, :

3*n(Neptune)-2*n(Pluton)=0

Cette configuration peut concerner plusieurs objets. Ainsi les satellites de Saturne, Io, Europe et Ganymède sont liés par la relation :

1*n(Io)-3*n(Europe)+2*n(Ganimède)=0

Les résonances peuvent aboutir à un effet paradoxal : Ainsi, malgré que la gravitation soit une force d’attraction, l’accumulation des résonances peut aboutir à un effet de répulsion. Quand un corps orbite dans un anneau/ un disque, les particules de l’anneau sont soumises à une accumulation de résonances d’ordres de plus en plus élévés en s’approchant du corps. L’effet conjugué de ces résonances est une force de répulsion qui éloigne le bord de l’anneau de l’orbite du corps.

- Des résonances peuvent aussi lier le moyen mouvement d’un corps et sa rotation sur lui-même. Un exemple spectaculaire est la rotation synchrone de beaucoup de satellites de planètes et, en particulier, de la Lune. Le moyen mouvement de la Lune autour de la Terre est égal à sa vitesse de rotation sur elle-même, ce qui fait qu’elle présente toujours la même face à la Terre. Les effets de marées ont créé dans la Lune des forces de frottement qui ont ralenti sa rotation jusqu’à la rotation synchrone, configuration qui fait disparaître les frottements.

- Des résonances peuvent aussi lier les mouvements des périapses ou des nœuds ascendants. Ces résonances sont dites «séculaires « parce que ces mouvements sont plus lents que le moyen mouvement,


Etoile ou planète?

En schématisant, nous pouvons dire que la physique de ces objets est principalement gouvernée par leur masse, qui intervient à 2 niveaux :

La masse est ainsi un très bon paramètre pour classifier les différents objets astrophysiques, l’unité de comparaison étant la masse solaire (notée M_(Sol)). On distingue alors, par masse décroissante, 3 catégories d’objets :

  1. Si M > 0.08 M_(Sol)(∼80 M_JM_Jest la masse de Jupiter) la masse est suffisante pour que la contraction gravitationnelle permette d’atteindre au cœur de l’objet la température d’amorçage de la réaction de fusion de l’hydrogène. L’objet est alors appelé « étoile » et son rayon est proportionnel à sa masse
  2. Si 0.013 M_(Sol) < M < 0.08 M_(Sol) (13 M_J < M < 80 M_J), la température au cœur de l’objet ne permet pas l’amorçage de la réaction de fusion de l’hydrogène, mais permet l’amorçage de la réaction de fusion du deutérium. L’objet est appelé « naine brune » et son rayon est inversement proportionnel à la racine cubique de sa masse.
  3. Si M < 0.013 M_(Sol) (M < 13 M_J) la température au cœur de l’objet ne permet pas l’amorçage des réactions de fusion nucléaire. L’objet est appelé « planète ». Au sein de cette catégorie, on distingue généralement les planètes géantes gazeuses des planètes telluriques pour lesquelles la masse n’est pas suffisante pour accréter du gaz. La limite entre planète géante et planète tellurique se situe à environ quelques masses terrestres.

Contrairement à la fusion de l’hydrogène, la fusion du deutérium ne joue aucun rôle quant à la nature de l’objet. La limite à 13 Mj entre planète et naine brune est conventionnelle (et également consensuelle)

Une planète est aussi un corps orbitant autour d’une étoile. Il existe des naines brunes/des planètes non liées à une étoile centrale.


La système solaire

Dans sa présentation traditionnelle, notre Système Solaire est composé d’une étoile (le Soleil) de 8 planètes , 4 telluriques (Mercure, Vénus, la Terre, Mars), 2 géantes gazeuses (Jupiter, Saturne), et 2 glacées (Uranus et Neptune) d'un ensemble de patits corps, planètes naines (dont Pluton), astéroïdes, disque de Kuiper, comètes. Les principales caractéristiques de ces planètes sont regroupées dans le tableau ci-dessous.

Les planètes du système solaire
Planètediamètre équatorial (km et en diamètre terrestre)Masse (M_(Terre))Distance (U.A.)Période (ans)
Mercure4850 (0.38)0.05540.38710.2409
Vénus 12140 (0.95)0.8150.72330.6152
Terre 12756 (1.0)1.001.0001.000
Mars 6790 (0.532)0.10751.52371.8809
Jupiter 142600 (11.18)317.835.202811.8623
Saturne 120200 (9.42)95.1479.538829.4577
Uranus 49000 (3.84)14.5419.181984.0139
Neptune50200 (3.93)17.2330.0578164.793

Pluton appartenait à la liste des planètes jusqu'à 2006. Plusieurs objets de même nature que Pluton ont été détectés au delà de l’orbite de Neptune. Ces objets, "trans-neptuniens'", forment le disque de Kuiper. Ils sont des exemples de planétésimaux, les briques à partir desquelles toutes les planètes se sont formées.

Du tableau ci-dessus, il est intéressant d’avoir en tête, pour comparer les caractéristiques des exo-systèmes :


Loi de Planck -Emission du corps noir-Loi de Stefan-Boltzmann

Par définition, un corps noir est un corps physique idéal, isolé, constitué d’un milieu en équilibre thermodynamique, caractérisé par une température d’équilibre unique. C’est un absorbant parfait et un émetteur idéal. Le champ de rayonnement du corps noir est isotrope, et ne dépend que de la température. La distribution spectrale de l’intensité du rayonnement est donnée par la fonction de Planck qui donne la brillance monochromatique à la fréquence ν du corps noir en fonction de sa température T:

B_nu=unité(2*h*nu^3/c^2*e^((h*nu/kT)-1)  ;W*m^(-2)*sr^(-1)*Hz^(-1))

avec

En intégrant la fonction de Planck à toutes les fréquences et sur toutes les directions, on peut déterminer la puissance totale (ou flux) émise par un corps noir à la température T. Cette relation est connue sous le nom de loi de Stefan-Boltzmann :

unité(F=sigma*T^4;W*m^(-2))

sigma : constante de Stefan = unité(5.66956*10^(-8);W*m^(-2)*K^(-4))

Réciproquement, à toute source émettant un flux F (mesuré par un bolomètre par exemple), on peut associer une température dite « température effective » T_eff obtenue à partir de F par la loi de Stefan.


Température d'équilibre d'une planète

Une application directe de la loi de Stefan est le calcul de la température T_(equ) d’une planète en équilibre radiatif, de rayon R_(pl), d’albedo moyen (coefficient de réflexion) A située à une distance D d’une étoile de température T_(étoile)et de rayon R_(étoile) et qui émet un flux F_(étoile)=4*pi*R_(étoile)^2*sigma*T_(étoile)^4. L’égalité entre le flux stellaire absorbé par la planète (F_(étoile)/(4*pi*D^2))*pi*R_pl^2*(1-A)et le flux 4*pi*R_pl^2*sigma*T_equ^4 émis par la planète à la température T_(equ), aboutit à :

T_equ=T_étoile*(1-A)^0.25*sqrt(R_étoile/(2*D))

La température d’équilibre de la planète ne dépend pas de la taille de la planète, mais des propriétés de l’étoile, de la distance de la planète et de l'albédo de la planète. Pour les exoplanètes, on peut avoir accès aux propriétés de l'étoile et à la distance étoile-planète. En faisant une hypothèse sur la valeur de l'albédo de la planète, cette formule permet d'estimer la température d'équilibre de la planète.

Les modèles théoriques montrent que la température de l'atmosphère d'une planète peut dépendre d'une manière critique d'autres facteurs que son albédo. Par exemple, la composition de l'atmosphère peut induire des instabilités (emballement de l'effet de serre, par exemple).


Diagramme Hertzsprung-Russel

Le diagramme de Hertzsprung-Russel (appélé par la suite diagramme HR) tient son nom de l’astronome danois E. Hertzsprung qui l’établit en 1911 et de l’astronome américain H.N Russel qui le redécouvrit indépendamment en 1913. Ce diagramme représente la luminosité absolue d’une étoile (c’est-à-dire indépendante de sa distance à la Terre) en fonction de sa température effective ou toute autre quantité qui lui est reliée (par exemple la différence de luminosité de l’objet vu à travers deux filtres colorés de couleurs (donc de bandes passantes) différentes). Ce diagramme est représenté sur la Figure . La particularité de ce diagramme est d’être à la fois un outil de visualisation de la diversité morphologique des étoiles, mais également de leur évolution au cours du temps. En effet, les étoiles occupent une position qui évolue sur le diagramme HR, de leur naissance, à leur mort.

90 % des étoiles que nous voyons sont à un stade de leur vie que l’on peut qualifier d’« adulte » et occupent une partie du diagramme HR que l’on appelle la « séquence principale » (partie encerclée sur la Figure ). C’est le cas de notre Soleil, qui est né il y a environ 5 milliards d’années, et devrait mourir d’ici 5 milliards d’années également. La particularité des étoiles de la séquence principale est qu’il existe une relation univoque entre leur température effective, leur luminosité absolue, leur masse et leur durée de vie. Comme température effective et couleur sont directement liées par la loi de Stefan, on voit donc que le diagramme HR est un outil très puissant puisqu’il permet à partir de la couleur de l’objet d’en déduire les autres caractéristiques. Par exemple, la durée moyenne de vie « tvie» d’une étoile dépend de sa luminosité ou de sa masse par la relation : t_(vie)~=10^(10)*(M_Sol/M_étoile)^2 ~=10^(10)*(L_Sol/L_(étoile))^(2/3)

M_(Sol), M_(étoile) , L_(Sol), L_(étoile)sont respectivement les masses et luminosités absolues de notre Soleil et de l’étoile.

Le diagramme HR permet d’illustrer la notion de classification spectrale, qui consiste à distinguer les étoiles à partir de critères spectroscopiques. La classification spectrale la plus connue et la plus utilisée est celle dite « de Harvard », qui date de 1872. Cette classification, basée sur le seul critère de température des étoiles, les répartit en 9 catégories, dont les 7 premières (O, B, A, F, G, K, M) regroupent environ 99% des étoiles du ciel. Le Tableau ci-dessous décrit les différentes catégories de la classification de Harvard. Cette classification est maintenant étendue aux objet plus froids (étoiles de très faibles masses jusqu’aux objets substellaires) avec l’introduction des type L et T.

Chaque classe est divisée en 10 sous-classes, numérotées de 0 à 9, des étoiles les plus chaudes aux étoiles les plus froides (une étoile G0 est plus chaude qu’une étoile G9). Les mêmes classes spectrales sont utilisées pour décrire toutes les étoiles quel que soit leur type. Cependant, pour différencier les objets (la température effective d’une géante G0 n’est pas la même que celle d’une étoile de la même classe spectrale G0, mais de la séquence principale), on fait suivre le type spectral d’un numéro, en chiffres romains qui décrit la nature de l’objet avec la convention suivante :

Les différentes catégories précédentes correspondent aux différents groupes d’étoiles facilement identifiables sur le diagramme HR Le Soleil, dans cette classification, est une étoile G2V avec T_eff = 5777 K.


Réponses aux QCM

pages_fluide-temperature-setester-qcm/definitions.html

QCM 'Définitions'

pages_fluide-temperature-setester-qcm/effetdeserre-exo.html

QCM 'Effet de serre'

pages_fluide-temperature-setester-qcm/profils.html

QCM 'Profils thermiques'

pages_orbite-setester/exercices.html

QCM 'QCM sur les lois de Kepler'

pages_se-tester/qcm.html

QCM 'Q.C.M. : Question 1'

pages_se-tester/qcm.html

QCM 'Q.C.M. : Question 2'

pages_se-tester/qcm.html

QCM 'Q.C.M. : Question 3'

pages_se-tester/qcm.html

QCM 'Q.C.M. : Question 4'

pages_se-tester/qcm.html

QCM 'Q.C.M. : Question 5'

pages_se-tester/qcm.html

QCM 'Q.C.M. : Question 6'

pages_se-tester/qcm.html

QCM 'Q.C.M. : Question 7'

pages_se-tester/qcm.html

QCM 'Q.C.M. : Question 8'

pages_se-tester/qcm.html

QCM 'Q.C.M. : Question 9'

pages_tester/qcm.html

QCM 'Quelques questions de cours'

pages_polarisation-exos2/exos1.html

QCM 'Une mise en jambes'

pages_se-tester/qcm.html

QCM 'QCM#1'

pages_se-tester/qcm.html

QCM 'QCM#2'

pages_nanosats-setester/qcm-partie-decouvrir.html

QCM 'Découvrir'

pages_qcm/objetobserves.html

QCM 'Paramètres'

pages_qcm/objetobserves.html

QCM 'Cibles'

pages_qcm/atmosphere.html

QCM 'Atmosphère'

pages_qcm/instrumentsqcm.html

QCM 'Séparer'

pages_qcm/instrumentsqcm.html

QCM 'Corriger'

pages_gcm-se-tester/gcm-qcm1.html

QCM

pages_gcm-se-tester/gcm-qcm1.html

QCM

pages_gcm-se-tester/gcm-questions-qcm2.html

QCM 'Question de cours'

pages_habit-setester/qcm.html

QCM 'Quizz - Testez vos connaissances !'


Réponses aux exercices

pages_revolution/questions-histoire.html

Exercice 'Antiquité'


pages_revolution/questions-histoire.html

Exercice 'Découverte'


pages_revolution/questions-histoire.html

Exercice 'Planètes'


pages_revolution/questions-definitions.html

Exercice 'Définitions'


pages_mecanique-formation/exo-datation-meteoride.html

Exercice 'Datation de la météorite «Allende»'


pages_mecanique-formation/exo-mmsn.html

Exercice 'Reconstruire la nébuleuse solaire de masse minimale (MMSN)'


pages_mecanique-formation/exo-croissance-planetesimaux.html

Exercice 'Croissance «ordonnée» d'une population de planétésimaux'


pages_mecanique-formation/exo-vidage-embryons.html

Exercice 'Vidage de la zone d'alimentation des embryons'


pages_sphere-surface/exo1.html

Exercice 'Catégories de cratères'


pages_sphere-surface/exo2.html

Exercice 'Création du régolithe lunaire par cratérisation'


pages_sphere-surface/exo3.html

Exercice 'Cratères secondaires'


pages_sphere-surface/exo4.html

Exercice 'Epaisseur du régolithe lunaire'


pages_sphere-surface/exo5.html

Exercice 'Des dunes sur Triton?'


pages_sphere-surface/exo32.html

Exercice 'Vitesse de sédimentation'


pages_sphere-surface/exo6.html

Exercice 'Volcanisme sur Io'


pages_sphere-surface/pageapplicrater.html

Exercice 'Questions'


pages_sphere-surface/applisegregation.html

Exercice 'Questions'


pages_sphere-surface/applierosion.html

Exercice 'Questions'


pages_fluide-temperature/calculs.html

Exercice


pages_fluide-dynamique/coord-sphere.html

Exercice


pages_fluide-dynamique/equations-dynamique.html

Exercice


pages_fluide-dynamique/equations-dynamique.html

Exercice


pages_fluide-dynamique/equilibres-dynamiques.html

Exercice


pages_fluide-dynamique/setester-bases.html

Exercice


pages_fluide-dynamique/exo-coriolis.html

Exercice 'Exercices de démonstration et d'acquisition du cours'


pages_mecanique-orbite/decriretrois.html

Exercice 'Forme des orbites'


pages_mecanique-orbite/decriretrois.html

Exercice 'Dimension des orbites'


pages_mecanique-orbite/decrirecinq.html

Exercice 'Troisième loi de Kepler'


pages_mecanique-orbite/exercicecirculaire.html

Exercice


pages_mecanique-orbite/lagrange.html

Exercice 'Etude par simulation numérique des points de Lagrange'


pages_disque-petitscorps/exo-eris-masse-densite.html

Exercice 'Détermination de la masse et de la densité de Eris'


pages_disque-petitscorps/exo-flux-micrometeorites.html

Exercice 'Flux de micrométéorites'


pages_disque-petitscorps/exo-coma.html

Exercice 'Ordre de grandeur de la taille d'une coma'


pages_disque-petitscorps/exo-datation.html

Exercice 'Datation d'une météorite'


pages_disque-petitscorps/projet.html

Exercice 'La ceinture principale d’astéroïdes, les lacunes de Kirkwood et les différentes familles dynamiques d’astéroïdes'


pages_disque-petitscorps/projet.html

Exercice 'La ceinture de Kuiper classique et le disque épars'


pages_flux-et-spectre/exo-transit.html

Exercice 'Étude spectroscopique d'un transit primaire'


pages_flux-et-spectre/exo-thermique.html

Exercice 'Spectres d'émission thermique'


pages_flux-uv/exercice1.html

Exercice 'Séparation spectrale des raies Lyman-alpha de l'hydrogène et du deutérium'


pages_flux-uv/exercice2.html

Exercice 'Détermination du flux d'azote descendant dans la nuit sur Mars'


pages_flux-uv/exercice3.html

Exercice 'Emission UV sur Europe'


pages_polarisation/exos2.html

Exercice 'Premières interprétations'


pages_polarisation/projet1.html

Exercice 'Questions introductives'


pages_mesures-insitu/exercices.html

Exercice 'Ecrantage dans un plasma'


pages_mesures-insitu/exercices.html

Exercice 'Quantité macroscopique'


pages_mesures-insitu/exercices.html

Exercice 'Mouvement d'une particule chargée dans un champ électromagnétique'


pages_mesures-insitu/exercices.html

Exercice 'Champ magnétique créé par une bobine torique'


pages_mesures-insitu/exercices.html

Exercice 'Etude d'un analyseur électrostatique à plaque parallèle'


pages_nanosats/exercice-representation-attitude.html

Exercice 'Angles d'Euler'


pages_nanosats/exercice-representation-attitude.html

Exercice 'Quaternions'


pages_nanosats/exercice-equations-mouvement.html

Exercice 'Cinématique d'attitude avec la MCD'


pages_nanosats/exercice-equations-mouvement.html

Exercice 'Cinématique d'attitude avec les angles d'Euler'


pages_nanosats/exercice-equations-mouvement.html

Exercice 'Cinématique d'attitude avec les quaternions'


pages_nanosats/exercice-couples-perturbateurs.html

Exercice 'Couples perturbateurs agissant sur un CubeSat'


pages_nanosats/exercice-propulsion.html

Exercice


pages_nanosats/exercice-lois-de-commande.html

Exercice 'Étude d'un ressort'


pages_dir-imagerie/astronomie.html

Exercice 'Astronomie'


pages_dir-imagerie/detectabilite.html

Exercice 'Détectabilité'


pages_dir-imagerie/probleme-questions.html

Exercice 'Distances'


pages_dir-imagerie/probleme-questions.html

Exercice 'Technique'


pages_ind-vr/exercice1.html

Exercice 'Astrométrie'


pages_ind-vr/exercice5.html

Exercice 'Bonnes et mauvaises configurations d'observation'


pages_ind-vr/exercice5.html

Exercice 'Qu'est-ce que les vitesses radiales permettent de mesurer ?'


pages_ind-vr/exercicebp.html

Exercice 'Magnitude et temps d'observation'


pages_ind-transits/taille.html

Exercice 'Transit de planètes du système solaire'


pages_ind-transits/candidates.html

Exercice 'Détectabilité des planètes par transit'


pages_ind-transits/setester.html

Exercice 'HD 189733'


pages_ind-transits/wasp89-donnees.html

Exercice


pages_ind-transits/wasp80-recherche.html

Exercice 'La recherche des transits'


pages_ind-transits/wasp80-planete.html

Exercice 'WASP-80 : Les paramètres de la planète'


pages_circulation-globale/gcm-comprendre-surface.html

Exercice


pages_circulation-globale/gcm-exercices.html

Exercice


pages_circulation-globale/analyse.html

Exercice


pages_stat-exercice/variable.html

Exercice 'Cours'


pages_stat-exercice/variable.html

Exercice 'Exercice sur les variables aléatoires'


pages_stat-exercice/ensemble.html

Exercice 'Cours sur les ensembles'


pages_stat-exercice/proba-discrete.html

Exercice 'Lancers de deux dés'


pages_stat-exercice/proba-discrete.html

Exercice 'Jeu de fléchettes'


pages_stat-exercice/bayes.html

Exercice 'Faux positifs'


pages_stat-exercice/fdd.html

Exercice 'Cours'


pages_stat-exercice/prop-binomiale.html

Exercice 'Loi binomiale'


pages_stat-exercice/prop-poissonnienne.html

Exercice 'Loi de Poisson'


pages_stat-exercice/prop-gaussienne.html

Exercice 'Loi Normale'


pages_habitabilite/emballement.html

Exercice 'Devenir de la Terre'


pages_habitabilite/moist.html

Exercice 'Moist Greenhouse VS Runaway Greenhouse, faites le calcul !'


pages_habitabilite/lowmass.html

Exercice 'L'habitabilité autour des étoiles massives'


pages_habitabilite/exofinal.html

Exercice 'L'habitabilité des étoiles doubles - Cas Circumbinaire'


pages_drake/exo1drake.html

Exercice 'Exercice : Peut-on faire encore mieux pour observer les signaux extraterrestre ?'


pages_drake/exo2.html

Exercice 'Exercice : Le nombre de planètes potentiellement habitables dans notre Galaxie'


pages_drake/exo3.html

Exercice 'Exercice : L’équation de Drake reformatée'


pages_drake/exo5.html

Exercice 'Exercice : Le projet Breakthrough StarShot'