Ces chapitres décrivent les techniques et méthodes de détection et d'étude des planètes et des exoplanètes.
La recheche d'exoplanètes se fait avec des méthodes diverses et complémentaires, en particulier :
L'étude des (exo)planètes s'appuie aussi sur une grande diversité de techniques et d'outils, en particulier numériques ou mathématiques, par exemple ;
Les CubeSats sont un technique plus rapide à mettre en oeuvre que les missions spatiales classiques pour observer un phénomène.
Ce cours est une introduction aux problématiques liées à la réalisation d'une mission spatiale. Pour ce-faire, nous vous proposons d'aborder un format bien particulier de petits satellites : les CubeSats. D'une manière générale, le bon fonctionnement d'un satellite est garanti par de nombreux domaines qui seront introduits dans ce cours. Dans un second temps, nous nous focaliserons sur un aspect en particulier, la nécessité de fournir un contrôle d'attitude et d'orbite pour mener à bien une mission spatiale. Des exercices vous permettront de vous exercer sur de nombreux points du cours. Enfin, vous pourrez utiliser les connaissances acquises pour pré-dimensionner quatre missions spatiales qui vous sont proposées sous la forme de mini-projets.
La partie Découvrir s'adresse à toute personne, pas nécessairement scientifique, qui souhaiterait découvrir brièvement les aspects et enjeux d'une mission spatiale. Pour aborder la partie Comprendre, un bagage scientifique de niveau licence est requis, à savoir :
Tout au long de ce cours le lecteur doit garder à l'esprit que de nombreuses notions abordées pourraient faire l'objet d'un cours à part entière. Des liens vers d'autres cours issus de ce site ou de Fenêtre sur l'univers seront proposés autant que possible. Voici également des références qui pourront lui permettre d'approfondir les sujets souhaités :
L'astronomie est science d'observation. Dans l'Antiquité, l'observation des objets célestes visibles à l’œil nu permet d'abord la mesure du temps. Ensuite, elle s'attache à prédire les mouvements des objets observés. Les observations étaient menées par des astrologues (qui parlent des astres) qui, au fil du temps, ont évolué pour travailler comme astronomes (qui étudient le mouvement des astres) et, aujourd'hui, astrophysiciens (qui utilisent la physique pour comprendre les astres). Au cours des siècles les instruments utilisés s'améliorent, permettant des observations toujours plus fines. Le XXème siècle marque un tournant, les astronomes se retrouvant confrontés à des limitations difficilement surmontables ainsi qu'à des besoins nouveaux :
Pour certains objectifs, il apparaît alors nécessaire de satelliser les instruments d'observation.
Dès le début de l'ère spatiale, les industriels emboîtent le pas des scientifiques et imaginent des applications commerciales. On retrouve ainsi, de nos jours, de nombreux types de satellites différents :
Les satellites sont généralement classés en fonction de leur masse au lancement. Alors que dans les années 60, lorsque l'affrontement politique entre les États-Unis et l'Union soviétique s'exprimait sur le terrain de la course à la Lune, les engins spatiaux n'étaient limités que par les progrès techniques de l'époque, ce sont actuellement des critères économiques qui prévalent lors du développement des satellites. Une relation à peu près linéaire existe entre la masse d'un satellite et son coût. Une classification typique des satellites est présentée dans le tableau suivant.
Dénomination | Masse | Coût | Examples |
---|---|---|---|
Gros satellites | > 1 t | > 150 M€ | Station Spatiale Internationale (500 t) |
Sondes spatiales : Cassini Huygens autour de Saturne (NASA, 5,7 t) / Rosetta autour d'une comète (ESA ,3 t) | |||
Satellites GEO de 3 à plusieurs dizaines de tonnes | |||
Satellites LEO, MEO et GEO de 1 à 3 tonnes | |||
Satellites moyens | <1 t | < 150 M€ | Constellation de télécommunication Iridium en LEO (66 satellites, 700 kg) |
Télescope spatial CoRoT pour l'étude des étoiles (CNES, 668 kg) | |||
Constellation Galileo, système de positionnement par satellites (ESA, 700 kg) | |||
Minisatellites | < 500 kg | < 50 M€ | Sondes spatiales : New Horizons vers Pluton (NASA, 478 kg, ~600 M€) / SMART-1 vers la Lune (ESA, 366 kg, ~110 M€) |
Plateforme PROTEUS (Thalès) | |||
Microsatellites | < 100-150 kg | < 8 M€ | Plateforme Myriade (CNES, 100-150 kg) : PARASOL pour l'étude de l'atmosphère terrestre / MICROSCOPE pour le test du principe d'équivalence |
PROBA-1 : démonstrateur technologique (ESA, 94 kg) | |||
Nanosatellites | < 10 kg | < 3 M€ | Constellation Planet Labs (60 CubeSats 3U de 5 kg début 2017), observation de la Terre |
GOMX-1 : CubeSat 2U (GomSpace 2,66 kg), démonstrateur technologique | |||
ROBUSTA-1A (CNES / Université de Montpellier 2) : CubeSAT 1U (1 kg) développé par des étudiants | |||
Picosatellites, femtosatellites... | < 1 kg | < 300 k€ | WREN (STADIKO) : femtosatellite de démonstration technologique financé participativement |
Un système spatial se décompose en trois éléments :
Le segment spatial est décomposé en deux sous-ensembles principaux : la charge utile et la plateforme. La charge utile regroupe les instruments nécessaires à la réussite de la mission. Cela va du montage optique pour un satellite d'observation tel que Hubble aux antennes et amplificateurs associés pour un satellite de télécommunication. Il est important de remarquer que c'est la charge utile d'un satellite qui définit sa mission. La plate-forme assure les servitudes, c'est-à-dire l'ensemble des fonctions génériques nécessaires à l'activité en orbite. Ses différentes fonctions sont :
Ces aspects sont developpés plus en détail dans la partie consacrée aux sous-systèmes.
Le segment sol se compose des stations de poursuite, des moyens d'opération et de commande/contrôle et des moyens de programmation de la charge utile, de réception, pré-traitement, archivage et diffusion des informations de cette même charge utile (centre de mission).
Le lancement est l'étape permettant la mise en orbite d'un objet. C'est une étape dimensionnante en termes d'orbite atteinte, de masse et de volume disponibles sous coiffe. Le lanceur le plus lourd jamais créé a permis à un homme de marcher sur la Lune pour la première fois en 1969 et se nomme Saturn V. Depuis, de très nombreux types de lanceurs ont été développés pour permettre à des charges utiles plus ou moins importantes d'atteindre différentes orbites.
Les différentes orbites terrestres sont classées en fonction de leurs altitude, inclinaison et excentricité. En voici quelques unes :
Les ceintures de Van Allen, ainsi nommées en l'honneur du physicien les ayant découvertes, sont des zones de la magnétosphère terrestre contenant une grande densité de particules énergétiques, pour la plupart d'origine solaire. Leurs deux principaux effets sont la création d'aurores polaires lorsque les particules énergétiques rencontrent l'atmosphère terrestre et la mise en danger des satellites les traversant (des blindages sont nécessaires pour protéger les équipements sensibles de satellites passant une longue période dans les ceintures). On a pour habitude de considérer qu'elles sont au nombre de deux, la première s'étendant entre 700 km et 10 000 km d'altitude et la seconde entre 13 000 km et 65 000 km. D'autres ceintures sont susceptibles d'apparaître mais ne semblent pas permanentes.
Tout projet spatial répond à un enjeu : objectif scientifique, démonstration technologique... Il doit donc faire face à son lot d'exigences et de contraintes. Les exigences définissent les fonctions qu'un système ou un composant doit remplir. Elles répondent à la question "que fait ce système/composant ?". Les contraintes spécifient, quant à elles, ce que le système doit être. Elles sont généralement des limitations du système.
Cette situation est encore plus vraie pour les projets spatiaux. Les erreurs commises sont le plus souvent irréversibles et irratrapables une fois que le système est lancé. Il faut ainsi :
Les exigences mission dépendent du type de satellite considéré, mais le principe est toujours le même : un besoin est exprimé auquel le satellite va essayer de répondre. Se faisant, un type d'orbite va être identifié :
De ce choix découle un système de lancement, ou lanceur. La charge utile embarquée doit ensuite répondre aux exigences mission tout en prenant en compte les contraintes imposées par le système de lancement (volume et masse disponibles, interfaces) et l'environnement orbital. Toutes ces questions se posent bien entendues également pour la plate-forme, qui devra s'adapter à la charge utile choisie (ou inversement, si le choix est fait d'utiliser une plate-forme standardisée).
L'environnement spatial présente de nombreuses spécificités qui doivent être prises en compte dès le début du développement :
Outre ces aspects négatifs, l'environnement peut également être mis à profit pour certaines fonctions :
Que le programme soit public ou privé, la question du coût reste centrale. Ce coût doit prendre en compte le lancement, le segment spatial (durée de fabrication, des essais…), le système sol et des opérations. Il est ensuite amorti sur la durée de vie du système.
Des règlements nationaux et internationaux imposent des restrictions, notamment en termes de fréquences de télécommunication. La bande de fréquence utilisée doit avoir été définie en amont. Dans certains cas (satellite GEO) la notion de compatibilité électromagnétique implique de ne pas perturber les satellites voisins. La gestion d'un satellite en fin de vie est de plus en plus importante du fait de la prolifération des débris en orbite terrestre. Ainsi en France, la Loi sur les Opérations Spatiales (LOS) réglemente ces aspects.
En orbite autour de la Terre, les objets sont animés de vitesses relatives qui peuvent atteindre 15 à 20 km/s. À de telles vitesses, les énergies cinétiques qui sont en jeu peuvent engendrer de très importants dégâts. Chaque collision, au même titre que le délitement des vieux satellites, crée de nouveaux débris qui viennent augmenter le nombre d'objets orbitant la Terre. Cette pollution orbitale croît très fortement et impose aux États et aux entreprises de mettre en place des stratégies de réduction du nombre de débris.
Taille de l'objet | Nombre d'objets | Répertoriés ? | Risques associés à l'objet |
---|---|---|---|
> 10 cm | 20 000 | Oui | Collisions catastrophiques, production de débris |
1 cm < objet < 10 cm | 500 000 | Non | Perte de la mission, aucun blindage ne résiste à des objets > 2 cm |
< 1 cm | > 10 000 000 | Non | Perforations, risque de perte d'équipement critique |
Au cours d'un projet, un système va être amené à évoluer, d'un premier état conceptuel à un état physique. Des tests doivent alors êtres effectués pour s'assurer que le système répond aux exigences identifiées précédemment, ce sont les étapes de validation. Les états successifs du système et les activités le concernant constituent ce que l'on appelle le cycle de vie. S'il existe différentes façons de représenter ce-dernier, le cycle en V reste le modèle le plus suivi. Ce cycle est parcouru de gauche à droite, d'abord du haut vers le bas puis du bas vers le haut. Aux phases de conception succèdent les phases d'assemblage, d'intégration et de test. Le cycle en V permet d'identifier facilement l'étape de validation correspondant à chaque étape de conception.
Dans certains projets, tels que des projets étudiants, on utilise des méthodes agiles. Elles ont pour origine le manifeste Agile et reposent sur un cycle de développement itératif, incrémental et adaptatif. Ces méthodes autorisent une plus grande flexibilité et réactivité, nécessaires à ces projets.
Dans le cas d'un projet spatial, on divise le déroulement du projet en 7 phases successives. Chacune d'entre-elles correspond à un état du système et se conclut par une revue de projet. On peut remarquer que les premières phases correspondent aux étapes de conception (0-A-B), avant de passer à la réalisation (C-D), à l'utilisation et au retrait.
Le standard CubeSat a été défini en 1999 par l'Université polytechnique de Californie (Cal Poly) et l'Université de Stanford comme un format de nanosatellites. Ce standard définit une unité de base, appelée "U", qui est un cube de 10 cm d’arête pour une masse d'environ 1,3 kg. Ces unités peuvent être assemblées de manière à obtenir des satellites plus volumineux, appelés "2U", "3U", "6U", "12U" ou même "27U" en fonction du nombre d'unités utilisé. Outre son format réduit, ce standard permet une importante réduction des coûts financiers et opérationnels :
Il est possible de classer les CubeSats en différents secteurs et par extension tous les satellites de moins de 50 kg (échelles "nano" et en partie "micro"), dont les CubeSats forment la majeure partie :
Le même classement peut être fait concernant les familles d'applications :
Depuis la création de ce standard, le nombre de lancements a fortement augmenté au fil des ans. Cette tendance ne fait que se confirmer avec les nombreux nouveaux acteurs du marché, qu'ils se placent du côté de la conception de CubeSats ou de leur lancement. Il est intéressant de noter que si les CubeSats de petit format (1U, 2U et 3U) ont été privilégiés jusqu'à présent, des formats 12U et 27U sont maintenant envisagés afin d'offrir des profils de mission plus flexibles (missions interplanétaires, plus grosse charge utile) tout en préservant les avantages offerts par la standardisation, faisant varier le profil des CubeSats envoyés.
Comme nous l'avons vu précédemment, un satellite se décompose en différents sous-systèmes essentiels à son bon fonctionnement :
La charge utile est le sous-système qui réalise les fonctions correspondant à l'objectif de la mission. Si celle-ci varie fortement d'une mission à l'autre, les éléments suivants qui forment la plate-forme sont généralement présents sur tous les satellites.
La structure porteuse a pour but d'assurer l'interface avec le lanceur, la cohésion mécanique du satellite et le support des équipements. Elle est aussi appelée "architecture mécanique". L'intégrité du satellite doit être assurée dans les différents environnements qu'il rencontrera au cours de sa vie, c'est-à-dire le sol, le lancement et l'orbite.
Le contrôle thermique a pour fonction de maintenir les équipements dans leur plage de température de fonctionnement, quelle que soit la phase de la mission, et ce durant toute la durée de vie du satellite. Dans le cas de missions nécessitant une grande précision astrométrique, le contrôle thermique permet également d'uniformiser les températures afin d'assurer une stabilité dimensionnelle (et ainsi éviter des phénomènes de dilatation/contraction par exemple). Pour ce faire, on peut faciliter ou interdire certains échanges thermiques de façon passive, ou utiliser des actionneurs (des réchauffeurs pour réchauffer ou des radiateurs pour refroidir) pour réguler la température. Ce contrôle thermique s'effectue dans des conditions très particulières, celles du milieu spatial, qui limitent le nombre d'acteurs. Nous pouvons classer les acteurs en deux catégories : les sources froides et les sources chaudes.
Il existe trois modes de transfert d'énergie :
La génération d'énergie permet le fonctionnement de l'engin spatial en lui fournissant l'énergie électrique dont il a besoin. En effet, ce dernier étant mobile et autonome, il a besoin de produire son électricité. Le système d'alimentation électrique est découpé en quatre éléments qui sont la production (ou source primaire), le stockage (ou source secondaire), la régulation et la distribution.
Ce sous-système occupe usuellement entre 20 % et 30 % de la masse sèche (réservoirs vides d'ergols) d'un satellite classique.
Le sous-système de télécommunication utilise des émetteurs, des récepteurs ou des transpondeurs afin de gérer l'ensemble des fonctions de communication. S'il s'agit d'un satellite de communication, ce sous-système peut alors devenir la charge utile du satellite.
Les équipements de télémesure, télécommande et localisation constituent un ensemble de télécommunications de servitude transmettant au sol les télémesures de différents paramètres soumis à contrôle (température d'un équipement, charge d'une batterie) et recevant les télécommandes pour les équipements à opérer (plate-forme et charge utile).
Les informations transitant dans le satellite sont prises en charge par la chaîne de traitement, de stockage et de gestion bord. Ce sous-système s'assure de la bonne distribution des données vers les équipements. Il est également en charge du stockage des données avant que celles-ci soient transmises, généralement à une station sol.
Le système de contrôle d'attitude et d'orbite (SCAO) assure deux types de mouvement : celui autour de son centre de gravité (attitude) et celui de son centre de gravité (orbite). En d'autres termes, il est responsable de l'orientation et de la position du satellite dans l'espace. En fonction de l'attitude recherchée, les commandes d'attitude impriment les corrections d'orientation autour du centre de gravité. Le maintien du satellite sur l'orbite prévue est indispensable à la plupart des missions. Le sous-système de propulsion crée les incréments de vitesse nécessités par les manœuvres d'orbite. Celles-ci sont commandées depuis le sol, ou déterminées à bord, la détermination d'orbite à bord étant aujourd'hui rendue possible par les navigateurs embarqués qui permettent d'accroître l'autonomie des satellites.
La propulsion, enfin, fonctionne de pair avec le SCAO. Elle est un actionneur du SCAO, assez complexe pour être traité séparément, qui a pour fonction de créer les variations de vitesse nécessaires aux manœuvres du satellite.
GOMX-3 est une collaboration entre l'ESA et GOMspace (Danemark) embarquant différentes charges utiles de démonstration technologique :
De nombreux types de missions sont maintenant rendus possibles par la miniaturisation des charges utiles, qu'elles soient scientifiques ou technologiques. L'une des principales limitations de ces missions en orbite basse est le volume de données pouvant être téléchargées par orbite. Actuellement, les CubeSats embarquent des sous-systèmes de télémétrie UHF et bande-S qui permettent de télécharger jusqu'à quelques centaines de mégaoctets (Mo) par jour. Ce volume de données est limité par la durée de visibilité entre la station sol et l'antenne du satellite ainsi que le débit (~100 ko/s en UHF et ~1Mo/s en bande-S). Afin d'augmenter les taux de transmission tout en restant compatible avec les stations sol existantes, le CNES et l'ESA ont voulu tester un émetteur-récepteur en bande-S et un émetteur en bande-X, tous deux miniaturisés pour le format CubeSat. L'émetteur en bande-X permet des débits de l'ordre de plusieurs Go par survol d'une station sol compatible bande-X (entre 3,4 et 5 m dans ce cas), tout en étant adapté aux dimensions d'un CubeSat-3U (< 10 W et 300 g pour le sous-système).
Après une année d'opération, le satellite a effectué sa ré-entrée atmosphérique. Tous les objectifs ont été atteints et la mission nominale a même été dépassée, permettant de démontrer d'autres capacités.
L'objectif de la mission QB50 est de démontrer la possibilité de lancer un réseau de satellites construits par des équipes universitaires à travers le monde pour effectuer une étude scientifique de la basse thermosphère. De nombreux enjeux du standard CubeSat se retrouvent à travers les différents objectifs de cette mission :
La majeure partie des CubeSats de QB50 a comme objectif scientifique d'effectuer des mesures in-situ en de nombreux points de la thermosphère. Par le passé, cette région a été étudiée par des satellites aux orbites très elliptiques (périgée à 200 km et apogée à 3000 km), ne permettant de passer que quelques dizaines de minutes dans la zone d'étude. Les différentes techniques actuelles sont limitées. Les fusée-sondes ("sounding rockets") permettent d'obtenir des mesures durant quelques minutes et le long d'une unique colonne. Des mesures à distance sont faites depuis le sol et des orbites plus élevées, typiquement entre 600 et 800 km. L'environnement est sondé grâce à la diffusion d'un signal de référence. De telles mesures sont rendues difficiles par la raréfaction de l'atmosphère dans la basse thermosphère qui empêche d'obtenir des signaux de retour de qualité. Le moindre coût des CubeSats permet d'accepter la très courte durée de vie inhérente à une orbite très basse, offrant une étude in-situ d'une période de plusieurs mois. Trois types d'instruments sont répartis parmi les satellites (un type par CubeSat), offrant ainsi une étude poussée des différents paramètres régissant le comportement de cette région de l'espace.
De nombreux projets de CubeSats sont développés dans le cadre de C2ERES (Campus et Centre de Recherche pour l’Exploration Spatiale), le pôle spatial de l'Université de Recherche PSL conjointement piloté par le LabEx ESEP et le Master OSAE. En août 2017, on en dénombre pas moins de 8, à des stades de développement différents :
Le contrôle d'attitude et d'orbite concerne tous les aspects nécessaires à la maîtrise de l'orientation et de la trajectoire du satellite. Il comprend :
L'ensemble s'appelle le système de contrôle d'attitude et d'orbite (SCAO). Il se compose de différents éléments :
Le SCAO est l'un des sous-systèmes essentiels de la plupart des satellites. L'une de ses raisons d'être est l'existence de perturbations agissant sur un satellite via des couples ou forces extrêmement faibles qu'il faut utiliser ou compenser. Si rien n'entrave ces phénomènes, les conséquences de ces effets deviennent rapidement significatives. Ces perturbations peuvent être externes (c'est-à-dire causées par des phénomènes extérieurs au satellite) ou internes (c'est-à-dire liées à des mécanismes ou déplacements propres au satellite).
Au sein du SCAO, on a pour habitude de distinguer le contrôle d'attitude du contrôle d'orbite de la manière suivante :
Dans la suite de ce cours nous insisterons sur le SCA, même si nous reviendrons par moments sur le système GNC. Il faut bien comprendre que les deux sont généralement développés de manière indépendante et gérés de façon autonome. Le SCAO dans son ensemble est en interaction avec les autres éléments du satellite. Ces interactions sont à l'origine de nombreuses contraintes essentielles lors du développement du SCAO.
Quelques définitions sont importantes à ce stade.
Le sous-système en charge de l'attitude du satellite se nomme le système de détermination et de contrôle d'attitude (SCA). Il a différents rôles en fonction des modes du satellite. Il doit :
La détermination et le contrôle d'attitude nécessitent plusieurs outils qui seront développés dans la suite du cours.
L'attitude du satellite est exprimée par l'orientation de son repère par rapport à un référentiel standard (inertiel, orbital, fixé par rapport à un objet...), comme détaillé dans le chapitre sur la représentation d'attitude. Plusieurs outils existent, de la matrice du cosinus directeur aux quaternions, en passant par les angles d'Euler.
La détermination ou estimation d'attitude fait le liant entre les mesures fournies par les différents capteurs présents à bord du satellite et la connaissance de l'attitude. La détermination d'attitude nécessite au moins deux mesures de directions bien séparées. Il faut ici différencier les techniques de détermination directe d'attitude des techniques d'estimation :
Le contrôle d'attitude rentre dans le domaine de la théorie du contrôle. Des lois de contrôle doivent être implémentées afin d'amener le système d'un état initial donné à un état final souhaité, tout en respectant certains temps de réponse. Les asservissements mis en oeuvre doivent être les moins sensibles possible vis-à-vis des perturbations, qu'elles soient internes ou externes. Des actionneurs sont enfin chargés d'appliquer les corrections d'attitude ainsi déterminées.
Une distinction importante doit être effectuée entre les contrôles d'attitude passif et actif.
Lorsque l'on s'intéresse à l'orbite du satellite, on parle alors de guidage, navigation et contrôle (GNC). C'est une branche de l'ingénierie consacrée à la conception des systèmes de contrôle des véhicules (automobiles, bateaux, avions et satellites). La navigation répond à la question "où sommes-nous ?", le guidage à la question "comment aller à notre destination ?" et le contrôle "quelle commande donner au véhicule ?". En somme, cela concerne la détermination d'orbite et la majeure partie du contrôle, à l'exception de la réalisation du contrôle qui est prise en charge par le sous-système de propulsion. Ce sous-système joue un rôle essentiel dans le succès des missions qui impliquent un rendez-vous, de l'arrimage ("docking") et des opérations de proximité. Le logiciel de GNC se compose d'un filtre de navigation, d'un algorithme de guidage et d'un algorithme de contrôle. Ce sous-système doit ainsi :
Il ne faut pas confondre le système GNC embarqué avec le système de dynamique de vol qui fait partie du segment sol. Le GNC doit faire face à des contraintes temporelles et de calcul beaucoup plus fortes, ce qui conduit généralement à des performances des logiciels en vol insuffisantes. Un suivi depuis le sol peut se faire a posteriori et ainsi fournir une mise à jour de paramètres tels que la trajectoire de référence. Les exigences du système GNC dépendent fortement du niveau d'autonomie attendu. L'autonomie à bord permet au segment spatial de continuer les opérations de mission et de survivre à des situations critiques sans avoir recours au segment sol. Plus l'autonomie est importante plus les coûts de développement sont importants, mais les coûts d'opération diminuent. De même, dans le cas de missions interplanétaires, la rareté des canaux de communication peut être une motivation pour limiter les interactions avec le segment sol. Rares ont été les satellites autonomes sur ce plan, même si nous pouvons citer SMART-1 de l'ESA et Deep Space 1 de la NASA. Dans la plupart des cas, une majeure partie des étapes nécessaires au contrôle d'orbite sont effectuées par le segment sol avant que des télécommandes soient transmises au satellite.
À la manière de l'estimation d'attitude, l'objectif est d'obtenir une estimation de la position orbitale satisfaisant les exigences de la mission. La navigation est généralement implémentée sous la forme d'un filtre numérique joué par l'ordinateur de bord.
Le guidage se sert de l'estimation fournie par la navigation et de la consigne mission pour calculer certains des points suivants :
La trajectoire de référence est calculée par le segment sol et peut être mise à jour durant la mission. Les écarts à cette référence doivent rester suffisamment faibles afin que le guidage puisse les compenser au moyen de faibles variations du profil de poussée. Ces écarts peuvent être dus à des perturbations extérieures, des erreurs d'exécution de manœuvre, des incertitudes de navigation ou des délais opérationnels.
En s'appuyant sur l'estimation de l'état du véhicule (position, vitesse) fournie par le filtre de navigation et sur la trajectoire de référence calculée par la fonction de guidage, la fonction de contrôle s'assure de la bonne exécution de la manœuvre et corrige les erreurs résiduelles. La fonction de contrôle traduit donc les manœuvres reçues en entrée dans le format exigé par la fonction qui s'occupe de la gestion des actionneurs.
Dans le cas de propulseurs, le contrôle établit des forces dans le référentiel du satellite qui seront obtenues en contrôlant le niveau de poussée durant une durée déterminée ou en contrôlant la durée d'une poussée de puissance constante. Une fonction de gestion de la propulsion se chargera de sélectionner le propulseur optimal pour fournir la force ainsi que de fournir les couples réclamés par la fonction de contrôle de l'attitude du satellite.
Une fois séparé du lanceur, le satellite va parcourir une série de modes jusqu’à la fin de la mission. Des modes nominaux vont lui permettre de maintenir son attitude, atteindre son poste, déployer ses panneaux solaires et son antenne, le tout afin de se mettre en ordre de marche pour sa mission. Si nécessaire, ces modes d’opération peuvent être interrompus afin de réaliser son maintien à poste, la décharge du moment cinétique des roues à inertie ou répondre à un incident. Différents équipements sont utilisés en fonction de ces modes et certains sont cités en exemple dans la figure 1. On associe aux modes des exigences qui découlent des exigences mission, par exemple :
Afin de déterminer la position et l'orientation d'un objet dans l'espace, on fait appel aux systèmes de coordonnées. Dans cette partie, il ne faudra pas confondre les notions de référentiel et système de coordonnées. Un système de coordonnées est notamment défini par son centre (on parle de référentiels géocentrique ou héliocentrique), son plan de référence (équatorial, écliptique) et ses axes. En ce qui concerne les systèmes de coordonnées, on a pour habitude d'utiliser les suivants :
Un référentiel inertiel (ou galiléen) est un référentiel dans lequel le principe d'inertie est vérifié. Tout corps libre est en mouvement de translation rectiligne uniforme ou au repos. Tout référentiel en mouvement de translation rectiligne et uniforme par rapport à un référentiel inertiel est lui-même inertiel. Les lois de la mécanique sont invariantes par changement de référentiel inertiel. On a l'habitude de distinguer un référentiel considéré comme fixe par rapport à un objet en rotation, comme le repère terrestre, avec un repère dont les axes sont fixés par rapport à une position absolue.
Dans un référentiel non inertiel, par exemple animé d’un mouvement accéléré par rapport à un référentiel galiléen, il faut faire intervenir les termes d’inertie (comme détaillé par la suite). Ces termes se traduisent par des pseudo-forces, qui se distinguent des forces prises en compte dans un référentiel galiléen car elles ne sont pas associées à une interaction entre le corps dont on étudie le mouvement et un autre corps.
En astronomie, on utilise habituellement les repères cylindriques et sphériques amputés de leur coordonnée de distance. Pour des raisons pratiques, on suppose souvent que les objets observés se situent à des positions fixes à l'intérieur de la sphère céleste, à condition que leur distance soit suffisante.
Un système de coordonnées céleste a pour fonction de déterminer une position dans le ciel. Il existe plusieurs systèmes, utilisant une grille de coordonnées projetée sur la sphère céleste, de manière analogue aux systèmes de coordonnées géographiques utilisés à la surface de la Terre. Les systèmes de coordonnées célestes diffèrent seulement dans le choix du plan de référence, qui divise le ciel en deux hémisphères le long d'un grand cercle (le plan de référence du système de coordonnées géographiques est l'équateur terrestre). Chaque système est nommé d'après son plan de référence.
Le système de cordonnées horizontales, également appelé système local ou système de coordonnées alt-azimutales, est un système de coordonnées célestes utilisé en astronomie par un observateur au sol. Le système, centré sur l'observateur, sépare le ciel en deux hémisphères : l'un situé au-dessus de l'observateur et l'autre situé au-dessous, caché par le sol. Le cercle séparant les deux hémisphères, appelé horizon céleste, situe le plan horizontal. L'altitude (ou élévation, "h") et l'azimut (A), qui constituent les deux principales coordonnées de ce système, sont définis à partir de ce plan.
Ce système de coordonnées présente l'avantage d'être simple et local. Il est facile à établir à un endroit donné à partir du moment où l'observateur sait où se trouve l'un des points cardinaux. C'est la raison pour laquelle il est particulièrement utilisé par les télescopes au sol à monture azimutale, c'est à dire l'essentiel des télescopes les plus récents.
Le système de coordonnées équatoriales est un système de coordonnées célestes dont les valeurs sont indépendantes de la position de l'observateur. Ceci est également vrai pour les systèmes de coordoonées écliptiques et galactiques. Ce système utilise comme plan de référence la projection de l'équateur de la Terre sur la sphère céleste. Cette projection s'appelle l'équateur céleste. Elle divise le ciel en deux hémisphères, chacun ayant comme axe de référence la projection d'un pôle terrestre, perpendiculaire à l'équateur céleste. À partir de ces divisions, le système permet d'établir deux coordonnées angulaires : l'ascension droite et la déclinaison.
Le système de coordonnées écliptiques est un système de coordonnées adapté aux objets célestes : il utilise le plan de l'écliptique (plan de l'orbite de la Terre autour du Soleil) comme plan de référence. Ce plan fait un angle d'approximativement 23° avec le plan équatorial terrestre, du fait de l'inclinaison de l'axe de rotation de la Terre. Ce repère est un système sphérique à deux dimensions.
Ce système peut être centré sur la Terre, le Soleil ou tout autre corps. Il est particulièrement utile pour les objets situés dans le système solaire.
Les coordonnées galactiques sont adaptées aux objets situés dans notre galaxie et non situés dans le voisinage proche du Soleil. Les coordonnées galactiques sont un repérage effectué à l'aide d'une latitude et d'une longitude définies de telle sorte que le plan galactique correspond à l'équateur, et l'origine des longitudes corresponde au centre galactique. Le système de coordonnées galactiques est un système de coordonnées célestes qui prend en compte la rotation de la Galaxie sur elle-même. On parle ici aussi de longitude et de latitude galactiques. Le plan de référence de ce système est le plan de la Galaxie centré sur le centre galactique. Le pôle nord galactique a été défini par convention dans le repère équatorial par une ascension droite de 12 h 51 min 26,282 s et une déclinaison de 27°07′42.01″. Dans ce plan, la direction de référence de la mesure est la direction du centre de la Galaxie.
Une appliquette interactive est disponible ici. Elle permet d'afficher les trois principaux systèmes de coordonnées célestes en 3D.
Système de coordonnées | Origine | Plan fondamental | Pôles | Coordonnées | Direction principale | |
---|---|---|---|---|---|---|
Latitude | Longitude | |||||
Horizontal | Observateur | Horizon | Zénith / Nadir | Élévation | Azimuth (A) | Point nord |
Équatorial | Centre de la Terre (géocentrique) / du Soleil (héliocentrique) | Équateur céleste | Pôles célestes | Déclinaison (δ) | Ascension droite (α) | Point vernal |
Écliptique | Écliptique | Pôles écliptiques | Latitude écliptique (β) | Longitude écliptique (λ) | ||
Galactique | Centre du Soleil | Plan galactique | Pôles galactiques | Latitude galactique (b) | Longitude galactique (l) | Centre galactique |
Dans le cadre de l'analyse de l'attitude et de l'orbite d'un satellite, certains référentiels sont particulièrement utilisés. Les plus importants d'entre eux sont présentés dans cette partie.
Une appliquette interactive est disponible ici. Elle permet de visualiser dans l'espace une partie des repères spatiaux qui vous sont présentés dans cette partie.
Le référentiel de Kepler (ou référentiel héliocentrique) est le référentiel centré sur le centre de masse du Soleil et dont les axes pointent vers des étoiles fixes. Ce référentiel inertiel est utilisé pour les missions interplanétaires. Ces étoiles sont suffisamment lointaines pour qu'elles apparaissent fixes aux échelles de temps considérées.
Le référentiel géocentrique ("Earth Centered Inertial"ou ECI en anglais) est un référentiel dont l'origine est le centre de la Terre et dont les trois axes pointent également vers des étoiles fixes. L'origine du système se situe au centre géométrique de la Terre, l'axe Z est aligné avec le pôle nord, l'axe X pointe vers le point vernal et l'axe Y complète le trièdre. D'autres systèmes de ce type existent, définis par rapport à d'autres directions. La bonne connaissance de la position des étoiles permet de déterminer l'orientation du satellite dans ce référentiel par observation de ces étoiles.
Le point vernal "vrai" se déplace chaque année en raison de la précession des équinoxes (mouvement de l'axe de rotation de la Terre) et du lent déplacement des étoiles. De ce fait on définit un point vernal fixe conventionnel (celui du 1er janvier 2000 pour le repère J2000).
Le référentiel terrestre ("Earth-Centered, Earth-Fixed" ou ECEF en anglais) est un référentiel centré sur le centre de masse de la Terre et dont les trois axes sont liés au globe terrestre. Ce référentiel est en mouvement de rotation pure dans le référentiel géocentrique. L'axe coïncide avec l'axe de rotation de la Terre et les axes
et
sont fixés par rapport à la Terre.
Le référentiel géocentrique se distingue du référentiel terrestre, dont l'origine est prise au centre de la Terre, mais dont les axes sont attachés au globe terrestre. Il est également différent du référentiel héliocentrique, dont les axes pointent vers des étoiles lointaines mais dont l'origine est prise au centre du Soleil. Ainsi, le référentiel terrestre est en rotation dans le référentiel géocentrique, lui-même en translation circulaire dans le référentiel héliocentrique. La position et l'orientation d'un satellite par rapport à un tel système doivent être connues afin de maintenir une communication avec le sol ou de réaliser de la détection terrestre.
Les repères orbitaux sont liés à l'orbite du satellite et à sa position sur cette orbite. Ils tournent à mesure que le satellite orbite autour de la Terre afin qu'un axe pointe dans une direction particulière, tandis que les deux autres sont normaux. On peut citer différents repères orbitaux. Généralement, l'axe pointe vers le nadir et l'axe
est normal au plan orbital.
Pour les satellites pointant la terre, l'orientation/vitesse angulaire du corps du satellite est définie par rapport à un repère fixé sur l'orbite.
Le référentiel du satellite est défini par le corps du satellite. On a l'habitude de définir le repère satellite avec l'orientation d'un élément de navigation essentiel comprenant les capteurs d'attitude les plus critiques et les instruments de la charge utile. Le SCA utilise une combinaison de capteurs et d'actionneurs pour maintenir l'orientation et la vitesse angulaire du référentiel du satellite par rapport à un repère extérieur de référence. Celui-ci dépend généralement du type de pointage requis par la mission (inertiel, solaire, nadir etc).
Un repère instrument est aligné suivant les directions caractéristiques de l'instrument. Ces repères sont définis par rapport au repère satellite ou par rapport à un repère secondaire, lui-même défini par rapport au repère satellite. L'alignement entre les différents référentiels est mesuré sur le sol mais peut évoluer pendant le lancement, mais également à cause du changement de gravité et des distorsions thermiques. Un instrument peut d'ailleurs être positionné sur un bras articulé (cela se rencontre surtout sur les sondes planétaires). La connaissance précise de l'attitude nécessite un étalonnage en vol de ces changements d'alignement et distorsions. Les données et les commandes de la charge utile et des capteurs sont paramétrées par rapport aux systèmes de coordonnées locaux.
L'orientation d'un satellite dans l'espace correspond à l'orientation du repère fixé sur son corps par rapport à un autre repère, tel que ceux vus précédemment. Ainsi, la détermination d'attitude d'un satellite en particulier requiert des méthodes d'estimation de la matrice orthogonale transformant des vecteurs d'un référentiel de référence fixé dans l'espace à un référentiel fixé par rapport au corps du satellite. De plus, une mission spatiale ne peut être définie par un unique référentiel. En fonction des besoins, de l'échelle à laquelle on se place, il est nécessaire d'utiliser tel ou tel référentiel. Dès lors, le passage d'un référentiel à un autre devient un aspect crucial du SCAO. L'une des plus importantes propriétés des matrices d'attitude est énoncée par le théorème d'Euler.
L'orientation instantanée d'un objet peut toujours être décrite par une unique rotation autour d'un axe fixe.
On peut parler de pôle eulérien pour nommer le centre de rotation. Il doit son nom au mathématicien et physicien suisse Leonhard Euler. Dès lors qu'un point d'un solide reste fixe lors d'un déplacement, ce déplacement est équivalent à une rotation autour d'un axe passant par le point fixe (pôle eulérien). En algèbre linéaire, ce théorème implique que deux référentiels cartésiens partageant la même origine sont reliés par une rotation autour d'un axe fixe.
Les relations permettant de jongler entre les systèmes de coordonnées peuvent être charactérisées de différentes manières, comportant chacune leurs lots d'avantages et inconvénients. Certaines d'entre elles sont présentées dans la partie suivante :
Les démonstrations des principales relations sont proposées en exercices.
La façon la plus évidente de donner l'orientation d'un référentiel par rapport à un autre est d'exprimer leurs vecteurs de base dans l'autre repère.
Une introduction simple à ce changement de repère peut être faite en 2D. Prenons un référentiel , avec les axes
et
, incliné par rapport à un référentiel
, d'axes
et
, d'un angle
. Le vecteur
peut être exprimé dans ces deux systèmes sous forme matricielle :
et
.
La relation entre les deux systèmes de coordonnées peut être décrite par une matrice de cosinus directeur (MCD), ou matrice de rotation, variant avec . Cette matrice transforme le vecteur
du premier référentiel
vers le second
.
Les éléments de la MCD correspondent aux produits scalaires des vecteurs de base. Le produit scalaire entre deux vecteurs unitaires correspond au cosinus de l'angle formé par ces vecteurs.
Une appliquette interactive est disponible ici. Elle revient sur le changement de repère en 2D en permettant de projeter les coordonnées d'un point dans un référentiel en rotation par rapport à un autre.
En 3 dimensions la MCD est une matrice de passage 3x3. L'expression d'un vecteur dans
à partir de son expression
dans
s'écrit :
avec
On dit que la MCD décrit l'orientation de par rapport à
. On l'appelle également matrice de rotation ou matrice de transformation des coordonnées de
vers
.
Trois rotations élémentaires de autour de chacun de ses trois axes se retrouvent décrites par les matrices de rotation suivantes :
,
et
où indique une rotation d'angle
autour du i-ème axe du référentiel fixé sur le corps.
La MCD est une matrice orthogonale, ce qui signifie que son inverse est égal à sa transposée :
et
Les transformations successives entre référentiels peuvent être déterminées par une série de multiplications matricielles. Par exemple, la transformation du référentiel inertiel au référentiel du satellite peut être décomposée de la manière suivante : transformation du référentiel inertiel au référentiel fixé sur la Terre multipliée par la transformation du référentiel fixé sur la Terre au référentiel orbital, le tout multiplié par la transformation du repère orbital au repère du satellite.
Malgré certains avantages, la MCD n'est pas toujours la représentation la plus adaptée. Elle utilise 9 paramètres pour décrire une orientation, parmi lesquels seulement 3 sont indépendants.
Les angles d'Euler sont les angles introduits par Leonhard Euler pour décrire l'orientation d'un solide. Ils peuvent être utilisés pour définir l'orientation d'un référentiel par rapport à un autre. On obtient une rotation en faisant varier l'un des trois angles d'Euler et une séquence de 3 rotations est suffisante pour décrire n'importe quelle transformation. La première rotation est effectuée selon n'importe quel axe, tandis que les deux suivantes ne peuvent jamais être effectuées autour d'un axe utilisé par la rotation précédente. Au total, 12 jeux d'angles d'Euler existent : (1,2,1), (1,2,3), (1,3,1), (1,3,2), (2,1,2), (2,1,3), (2,3,1), (2,3,2), (3,1,2), (3,1,3), (3,2,1), (3,2,3). L'ordre des rotations et la valeur des angles ne sont pas uniques et sont sujets à des singularités mathématiques.
Une appliquette interactive est disponible ici. Elle permet de visualiser dans l'espace les séquences d'Euler qui sont introduites dans cette section à titre d'exemple.
Les angles d'Euler décrivent une rotation unique, ce qui est généralement un avantage par rapport à la MCD. Cependant, à une orientation donnée correspondent plusieurs jeux d'angles d'Euler.
Quelle que soit la séquence d'Euler, la MCD peut facilement être obtenue en multipliant les matrices de rotation élémentaires. Soit la séquence particulière suivante, décrivant l'orientation du référentiel par rapport au référentiel
:
, donc :
Nous avons utilisé les notations et
.
D'une manière générale, les angles d'Euler déterminent une orientation unique, ce qui est un avantage sur la MCD. Des singularités apparaissent lorsque le deuxième angle d'Euler aligne les premier et troisième axes de rotation. Dans ce cas, cette description d'attitude à 3 degrés dégénère en une description à seulement 2 degrés de liberté. Cette condition est réalisée lorsque l'angle vaut 90 et 270 degrés pour les 6 rotations où les premier et troisième axes sont différents, et lorsque l'angle vaut 0 et 190 degrés pour les 6 rotations où les premier et troisième axes sont identiques.
Afin de s'affranchir du problème de singularité rencontré avec les angles d'Euler, une représentation de l'attitude composée de 4 éléments est introduite sous le nom de quaternion (dont les éléments sont appelés paramètres d'Euler). Cette construction mathématique est présentée plus en détail dans la partie suivante.
Considérons l'axe fixe de la rotation présentée dans le théorème d'Euler, ou vecteur propre . C'est un vecteur unité possédant les mêmes composantes dans les référentiels de départ et d'arrivée :
. Ainsi, 4 grandeurs sont requises pour décrire de façon non-ambigüe l'orientation par rapport à un référenciel : les 3 composantes de
et l'angle de la rotation,
.
Les quaternions sont une combinaison de ces éléments disposés dans un vecteur de 4 éléments . Le quaternion contient la même information qu'une MCD à 9 éléments, tout en s'affranchissant des problèmes de singularité rencontrés avec les angles d'Euler. Ils sont à la fois compacts et une représentation efficace de l'orientation pour la détermination d'attitude. Une même rotation est représentée par les quaternions
et
. On note également que les quatre paramètres d'Euler ne sont pas indépendants, mais contraints par la relation suivante :
Pour le vecteur propre , les paramètres d'Euler sont :
, avec
,
,
et
.
De la même façon que l'on peut exprimer la MCD en fonction des angles d'Euler, elle peut être paramétrée en fonction d'un quaternion de la manière suivante :
Il s'agit maintenant d'expliquer comment un quaternion vivant dans peut opérer sur un vecteur vivant lui dans
. Notons tout d'abord qu'un vecteur est un quaternion pur dont la partie réelle est nulle. L'opérateur
décrivant une rotation s'exprime avec le quaternion unitaire
:
. Le vecteur ainsi obtenu conserve la longueur du vecteur initial, comme le fait une rotation. Cet opérateur se développe de la manière suivante :
Afin de comprendre cette expression il est nécessaire d'avoir compris la partie suivante qui s'intéresse à l'algèbre des quaternions.
Les séquences de rotation peuvent facilement être décrites par une multiplication des quaternions représentant les rotations successives. Soient les quaternions et
décrivant respectivement les opérateurs
et
. Le premier opérateur est appliqué au vecteur
pour obtenir le vecteur
, puis le second est appliqué à
pour obtenir
. La composition des opérateurs
s'écrit :
Un avantage inhérent à cette représentation est que les équations de la cinématique deviennent purement algébriques et ne contiennent plus de fonctions trigonométriques.
Les quaternions sont un système de nombres premièrement décrits par William Rowan Hamilton en 1843 appliqué à la mécanique et à l'espace à 3 dimensions.
Sir William Rowan Hamilton (04/08/1805 - 02/09/1865) est un mathématicien, physicien et astronome irlandais (né et mort à Dublin). Outre sa découverte des quaternions, il contribua également au développement de l'optique, de la dynamique et de l'algèbre. Ses recherches se révélèrent importantes pour le développement de la mécanique quantique.
Un quaternion q est une expression de la forme :
où ,
,
,
sont des nombres réels, et
,
,
sont des symboles respectant les relations quaternioniques :
Par analogie avec les nombres complexes, est appelé partie réelle de
et
est appelé partie imaginaire.
L'ensemble des quaternions est un espace vectoriel de dimension 4 et de base où s'applique l'addition composant par composant. Soient deux quaternions
et
:
Afin d'introduire la multiplication, il faut d'abord introduire le produit hamiltonien. Les produits des éléments de base ,
et
sont définis de la manière suivante :
La multiplication de quaternions est associative et distributive, mais pas commutative en général. Pour les quaternions q et p elle est définie par :
Elle peut être représentée par une multiplication matricielle. Dans ce cas, une matrice composée de valeurs du premier quaternion vient multiplier le second quaternion, tel que :
avec .
Le conjugué, la norme et l'inverse des quaternions et
sont :
et
et
Une autre façon de présenter un quaternion consiste à dire que est la partie scalaire de
et
est la partie vectorielle. Ainsi, la partie scalaire est toujours réelle et la partie vectorielle toujours purement imaginaire. Bien que l'on ait dit qu'un quaternion est un vecteur dans un espace à 4 dimensions, il est courant de définir un vecteur pour la partie imaginaire d'un quaternion :
et
Maintenant que nous avons étudié les différentes façons de décrire l'orientation d'un repère à l'instant t, nous pouvons introduire la notion de mouvement. Les équations du mouvement sont un aspect essentiel de la conception et de la réalisation d'un système de contrôle d'attitude car elles régissent la position au cours du temps des objets considérés. Ces équations peuvent être séparées en deux catégories :
Afin de clarifier les choses, prenons une particule ponctuelle de la physique newtonienne. Si représente sa position,
sa vitesse et que les dérivées temporelles sont indiquées par un point, alors l'équation cinématique du mouvement s'écrit
. L'équation dynamique du mouvement quant à elle s'écrit dans un repère galiléen
ou
, avec
la quantité de mouvement,
la résultante des forces appliquées et
la masse de la particule. Comme vous le verrez par la suite, dès lors que l'on s'intéresse aux mouvement d'attitude (autour du centre d'inertie), les vecteur de position et de vitesse sont respectivement remplacés par la matrice d'attitude et le vecteur de vitesse angulaire
. Les forces et quantités de mouvement sont quant à elles remplacées par le couple
et le moment angulaire
. La cinématique et la dynamique du mouvement rotationnel, ou d'attitude, sont plus compliquées que celles du mouvement de translation. Elles sont détaillées dans la section suivante.
La cinématique est l'étude du mouvement en fonction du temps indépendammant des causes produisant ce mouvement. Elle est utilisée pour décrire la trajectoire du centre de masse d'un satellite dans l'espace.
Des cours sur ce sujet existent un peu partout, nous rappellerons simplement quelques notions de base ici :
Dans le cas d'un mouvement circulaire, chaque point du corps tourne dans un cercle.
Dans notre domaine, nous sommes constamment contraints de passer d'un repère à un autre pour décrire la trajectoire d'un objet. En cas de référentiels en rotation, tels qu'un référentiel fixé par rapport à la Terre et un référentiel inertiel, passer de l'un à l'autre nécessite d'introduire des termes supplémentaires. Par exemple, si l'on veut décrire la position, la vitesse et l'accélération d'une particule dans un référentiel inertiel noté à partir de sa position dans un référentiel terrestre (fixé par rapport à la Terre) noté
, on peut écrire :
Nous avons utilisé la dérivée de la MCD qui est introduite dans le chapitre sur la cinématique d'attitude. Finalement :
Dans le réferentiel en rotation (celui fixé par rapport à la Terre), la deuxième loi de Newton peut alors être écrite :
où est l'accélération angulaire. On introduit ici les accélérations centripète
et de Coriolis
.
La simulation et l'estimation d'attitude nécessitent généralement des représentations simples de l'attitude, telles que celles présentées dans le chapitre du même nom. Les équations différentielles de la cinématique peuvent ainsi être obtenues pour ces différentes représentations. Les démonstrations de ces équations sont proposées en exercices.
La cinématique d'attitude relie des vitesses angulaires à des orientations dans l'espace. Si cela peut sembler simple dans le cas d'une rotation autour d'un axe fixe, cela devient beaucoup moins intuitif dans le cas d'un mouvement plus général, où l'axe de rotation varie au cours du temps. Pour un corps en rotation autour d'un axe fixe, l'orientation par rapport à cet axe peut être déterminée en intégrant la vitesse angulaire ω, puisque .
Dans le cas général, la matrice exprimant le taux de variation de l'attitude est plus complexe. Considérons un référentiel en rotation par rapport à un référentiel
avec une vitesse angulaire
. Si la matrice d'attitude s'exprime
, alors :
avec
La matrice d'attitude se retrouve multipliée par une matrice anti-symétrique qui est définie à partir du vecteur représentant la vitesse angulaire du référentiel
par rapport au référentiel
, avec
.
Dans ce cas, nous avons utilisé une MCD.
Il est également possible d'exprimer cette équation différentielle en utilisant les angles d'Euler. En reprenant la séquence de rotations conduisant du référentiel
au référentiel
l'équation de la cinématique est réécrite :
En connaissant la vitesse angulaire d'un référentiel par rapport à l'autre en fonction du temps il est possible de déterminer la position au cours du temps d'un référentiel par rapport à l'autre. Néanmoins, l'intégration nécessite le calcul de fonctions trigonométriques ainsi que des singularités (ici ).
Dans le cas des quaternions, l'expression de l'équation de la cinématique se retrouve simplifiée :
Une écriture plus compacte est possible :
Contrairement aux angles d'Euler, les quaternions ne présentent pas de singularité géométrique. L'équation cinématique exprimée avec les quaternions ne possède pas de fonctions trigonométriques, ce qui rend les quaternions parfaitement adaptés aux calculs à bord réalisés en temps réel. Ainsi, les algorithmes de détermination d'attitude modernes sont généralement décrits en termes de quaternions.
Maintenant que nous nous tournons vers la dynamique d'attitude, il est important de bien différencier le mouvement de rotation d'un système du mouvement de son centre d'inertie. Nous allons nous concentrer sur le cas d'un corps rigide.
Une force représente l'action d'un corps sur un autre. En revanche le moment d'une force par rapport à un point décrit l'aptitude de cette force à faire tourner un système autour de ce point. Le moment de la force
par rapport à au point
est défini par :
On parle de couple lorsqu'un ensemble de forces a une résultante nulle sur un système (leur somme vaut 0) alors que le moment résultant par rapport à un point est non nul. Dans ce cas, il est possible de montrer que le moment global d'un tel couple par rapport à n'importe quel point est égal au produit vectoriel caractéristique du couple :
où est le vecteur allant du centre de gravité du système au point d'application de la force
. Si, pour un corps solide sans contraine, une force va accélérer son centre de masse, un couple aura lui pour effet d'induire un mouvement de rotation autour du centre de masse.
On parle de couple pur lorsqu'une paire de forces d'intensité égale mais de directions opposées agissent à distance.
Lorsque l'on parle du mouvement d'un solide autour de son centre d'inertie, il nous faut définir le tenseur d'inertie. Il s'exprime ainsi :
,
Les éléments diagonaux de ces expressions sont les moments d'inertie du solide par rapport aux divers axes, et les autres éléments sont les produits d'inertie. Les propriétés inertielles d'un solide sont donc totalement décrites par sa masse, la localisation de son centre d'inertie (ou centre de masse), et par les moments et produits d'inertie définis par rapport à des axes de références en un point particulier. Tous les solides ont un jeu d'axes principaux d'inertie dont l'origine se trouvent en son centre de masse et qui annule les produits d'inertie, rendant diagonale la matrice d'inertie.
Une appliquette interactive est disponible ici. Elle illustre l'importance du choix des axes d'inertie dans le calcul de la matrice d'inertie.
L'analogie avec l'étude du centre de masse est une nouvelle fois possible. Le moment linéaire d'un corps solide, produit de la masse de ce corps par la vitesse de son centre de masse, est appelé quantité de mouvement, . Considérons un système matériel qui est la somme de
masses ponctuelles. Le moment angulaire, ou moment cinétique, par rapport à un point
est le moment de la quantité de mouvement
par rapport à ce point
:
On a également pour habitude d'exprimer le moment angulaire à partir de la matrice de moment d'inertie et de la vitesse angulaire
:
Le passage de l'une à l'autre des expressions se fait en considérant que :
Considérons un satellite solide avec un référentiel fixé sur son corps dont l'origine se trouve au centre de masse du satellite. Notons
le vecteur vitesse angulaire du référentiel
par rapport au référentiel inertiel
.
D'après la 2ème loi de Newton, dans un référentiel galiléen, la dérivée de la quantité de mouvement est égale à la somme des forces extérieures qui s'exercent sur le solide. Dans le cas du moment angulaire, son principe de conservation stipule que sa dérivée est égale à la somme des couples extérieurs qui s'exercent sur le corps :
où est le moment angulaire du corps solide par rapport à son centre de masse et
sont les couples extérieurs agissant sur ce corps. On appelle parfois cette équation l'équation d'Euler. Elle montre que seuls les couples extérieurs peuvent modifier le moment cinétique dans un système.
Il est maintenant possible de réécrire cette équation en reprenant l'expression du moment cinétique présentée précédemment complétée par le moment angulaire stocké par n'importe quel objet en rotation dans le satellite :
Cette dernière équation permet de comprendre comment l'attitude d'un satellite peut être modifiée. En prenant les termes de cette équation de la gauche vers la droite, on retrouve d'abord les couples extérieurs, les objets embarqués en rotation (tels que les roues à inertie) et les modifications des moments d'inertie du satellite (qui peuvent notamment être dues à la perte de carburant au cours d'une mission).
En conclusion, les couples peuvent perturber l'attitude d'un satellite mais peuvent également être utilisés pour la contrôler. Les actionneurs doivent donc avoir une capacité suffisante pour contrer les couples perturbateurs tout au long de la mission si l'on veut un contrôle permanent de l'attitude du satellite.
Les faibles forces agissant sur un satellite sont connues pour dégrader la précision de pointage et engendrer des déformations mécaniques.
On peut distinguer les perturbations externes des perturbations internes au satellite. Dans la première catégorie on retrouve la pression de radiation solaire, la trainée atmosphérique ou pression dynamique, le couple magnétique dû au dipôle résiduel et le gradient de gravité. Les perturbations internes sont liées aux équipements présents dans le satellite. Si certains sont utilisés pour contrôler le satellite, comme les roues à inertie, la plupart sont à l'origine de couples perturbateurs. Parmi ces phénomènes, on retrouve les mécanismes tels que ceux utilisés pour les panneaux solaires ou les instruments mobiles, le désalignement et la quantification des actionneurs, le déplacement du carburant, l'incertitude sur le positionnement du centre de gravité, le frottement des roues à inertie ou encore le dégazage des polymères.
Les forces extérieures sont les plus importantes pour la majorité des CubeSats car ceux-ci sont généralement dépourvus de mécanismes ou de parties mobiles. On dénombre 4 sources environmentales de couples perturbateurs dont l'intensité varie grandement en fonction de la position du satellite dans l'espace :
On remarque que les perturbations citées précédemment peuvent avoir deux types d'effets : séculaire ou cyclique. Les perturbations ayant un effet cyclique sont en moyenne nulles sur une orbite circulaire. Les perturbations séculaires s'accumulent durant une orbite et sont analogues à une force non-conservative. Or, on se souvient que les couples extérieurs sont proportionnels à la variation du moment cinétique du satellite. La gestion du moment cinétique va donc dépendre du type de perturbation auquel le satellite aura affaire. Suivant le pointage, certaines perturbations extérieures peuvent être cycliques ou séculaires. Dans le cas d'un pointage inertiel, on parle d'effets cycliques pour la traînée atmosphérique, le gradient de gravité et les couples magnétiques, alors qu'on parle d'effets séculaires pour les couples de pression de radiation solaire. Dans le cas d'un autre pointage classique, le pointage nadir, les couples magnétiques et de pression solaire ont des effets cycliques, à l'inverse de la trainée atmosphérique. Pour ce qui est des gradients de gravité, ils peuvent avoir les deux types d'effets.
Certains corps célestes, dont la Terre, ont des champs magnétiques assez puissants pour induire d'importants effets dans l'espace environnant. Ce champ interagit avec tout autre champ magnétique qu'il rencontre. En général, les satellites ont eux-mêmes un certain niveau de moment magnétique résiduel qui se traduit par un champ magnétique propre relativement faible. Ils se comportent comme des dipôles magnétiques car ils sont parcourus par des boucles de courant. Ainsi, un courant de I ampères circulant dans une boucle plane d'aire A produit le moment dipolaire (en A.m) :
Des méthodes de compensation sont généralement mises en œuvre à bord. Si le moment magnétique résiduel d'un satellite n'est pas aligné avec le champ magnétique local un couple magnétique apparaît et modifie l'attitude du satellite. Le couple magnétique est donné par :
où (en T) représente le champ magnétique.
Bien que le champ magnétique de la Terre soit complexe, il est souvent suffisant de le modéliser tel un dipôle (30% d'erreur sont souvent considérés) et de déterminer la valeur maximum possible. Le couple maximum peut donc être estimé à partir du champ magnétique , où
(en T.m3) est le moment magnétique terrestre multiplié par la constante magnétique,
la distance entre le satellite et le centre du corps , et enfin
une fonction sans unité de la latitude magnétique qui prend des valeurs allant de 1 au niveau de l'équateur magnétique à 2 aux pôles magnétiques. Des modèles utilisant des harmoniques sphériques existent, à la manière du champ gravitationnel terrestre, mais la précision qu'ils permettent d'atteindre n'est pas nécessaire lors des premières phases de développement du projet spatial. L'un de ces modèles, le "12th generation of the International Geomagnetic Reference Field (IGRF)", est utilisé pour calculer le champ magnétique obtenu sur une trajectoire circulaire de 500 km d'altitude inclinée de 50°. Celui-ci est représenté par rapport au plan local tangent ou repère NED ("North East Down"). On remarque qu'il varie grandement au cours de l'orbite.
En dehors de quelques corps du système solaire, tels que la Terre et Jupiter, la plupart des régions de l'espace ne possèdent pas un champ magnétique suffisamment puissant et bien connu pour qu'un contrôle d'attitude magnétique puisse être utilisé par un satellite s'y trouvant.
Le gradient de gravité résulte de l'interaction du champ gravitationnel, lui-même proportionnel à l'inverse du carré de la distance, avec un satellite de masse non ponctuelle. L'accélération gravitationnelle est la plus forte sur la partie du satellite la plus proche du corps attracteur. Le gradient est à l'origine d'un couple qui peut être utilisé pour contrôler passivement l'attitude du satellite. Les couples de gradient de gravité apparaissent lorsque le centre de gravité d'un satellite en orbite n'est pas aligné avec le centre de masse par rapport à la verticale locale.
Le centre de masse, également appelé centre d'inertie, est le barycentre des masses d'un objet. Le centre de gravité, quant à lui, est le point d'application de la résultante des forces de gravité. Si ceux-ci sont souvent confondus, ce n'est plus le cas lorsque le champ de gravitation n'est plus uniforme dans le corps en question.
On exprime le gradient de gravité de la manière suivante :
où est le vecteur position allant du centre de gravité du satellite à l'élément de masse et
est la force de gravité s'appliquant sur ce même élément de masse :
est la constante gravitationnelle, elle vaut
,
est la masse du corps attracteur et
est le vecteur position de l'élément de masse
dans le référentiel inertiel (
). On peut finalement réécrire l'équation donnant le couple de gradient de gravité de la manière suivante :
Ce couple dépend de la matrice d'inertie du satellite. Différentes propriétés sont visibles dans cette équation : la magnitude est inversement proportionnelle au cube de la distance au centre du corps attracteur, sa direction est perpendiculaire au rayon vecteur et il disparaît lorsque l'un des axes principaux du satellite est aligné avec ce rayon vecteur.
Cette technique de contrôle d'attitude passive est assez utilisée pour des satellites en orbite terrestre devant pointer au nadir. Elle consiste à faire intéragir un satellite de forme particulière avec le champ gravitationnel afin de contraindre son orientation. Une masse peut être montée au bout d'un mât perpandiculaire à l'orbite afin de créer un moment d'inertie minimum selon cet axe. Cette masse étant plus proche, elle est plus attirée. Le satellite aura alors tendance à aligner cet axe d'inertie vers la verticale à l'orbite (qui est la direction d'attraction gravitationnelle).
La pression de radiation solaire est la source dominante de couples perturbateurs dans l'espace interplanétaire (absence de traînée atmosphérique, faibles champs de gravité et magnétique). Même en orbite basse, on a pour habitude de considérer qu'il est dominant à des altitudes supérieures à 800 km. Il est important de noter que si le Soleil n'est pas l'unique source de radiation (il y a notamment l'albédo de la Terre et de la Lune, les rayons cosmiques...), il est de loin la plus importante. Le Soleil émet des photons, mais également des protons et des électrons (vent solaire). L'interaction entre la lumière du Soleil et la surface du satellite est habituellement modélisée comme une force de pression exercée sur un objet.
On modélise la surface du satellite comme une collection de surfaces d'aire
, dont la normale orientée vers l'extérieur est notée
dans le référentiel du satellite et de coefficient de réflexion
(on lui attribue généralement une valeur de 0,6 pour un petit satellite).
Le vecteur allant du satellite au Soleil dans le référentiel du satellite s'écrit . L'angle entre ce vecteur et et la normale à la ième surface s'écrit alors :
La force de pression de radiation solaire exercée sur une surface peut alors s'exprimer de la manière suivante :
avec
où (en W.m) est l'irradiance solaire moyenne (fonction de la distance au Soleil) et
(en m/s) est la vitesse de la lumière.
La différence entre les positions des centres de pression solaire et de masse aboutit à un couple de radiation solaire. Une telle différence dépend des surfaces éclairées, de l'incidence des rayons lumineux et de la répartition de la masse à l'intérieur du satellite. On note le vecteur allant du centre de masse du satellite au centre de pression de radiation solaire de la ième surface. Le couple de radiation solaire s'écrit alors :
Afin de gagner en précision, il est possible de détailler le coefficient de réflexion en une somme de trois coefficients dont le résultat vaut 1 :
La force de pression de radiation sur la ième surface s'exprime alors :
L'irradiance solaire représente la quantité d'énergie solaire reçue par une surface de 1 m2 située à une certaine distance r du Soleil et exposée perpendiculairement. Afin de la calculer, il faut considérer la conservation de l'énergie rayonnée dans l'espace et écrire :
avec le flux émis à la surface du Soleil et
le rayon du Soleil.
est estimé en appliquant la loi de Stefan-Boltzmann au Soleil considéré comme un corps noir :
avec la constante de Stefan-Boltzmann et
la température thermodynamique du corps noir. À la distance moyenne Terre-Soleil (1 UA) l'irradiance solaire (ou constante solaire) vaut 1362 W.m-2.
Afin de simuler la pression de radiation solaire, il ne faut pas oublier les zones d'ombres dans lesquelles le satellite peut se retrouver. Par exemple, en orbite basse autour de la Terre, un satellite peut passer une partie importante de son orbite caché des rayons du Soleil. L'approche la plus simple est de considérer que l'ombre de la Terre est une projection cylindrique du diamètre de la Terre le long de l'axe Soleil-Terre. Sur cette figure on remarque qu'en faisant le produit scalaire de vecteur unitaire (Terre-Soleil) on obtient l'inégalité suivante lorsque le satellite se trouve dans la zone d'ombre :
L'atmosphère ténue des corps célestes peut exercer une force de pression sur un satellite. Cela inclut toutes les interactions avec des particules non-chargées, comme les queues de comète, les poussières ou les éjectas. Dans le cas de la Terre, à quelques centaines de kilomètres d'altitude, ce couple peut être le plus important. De la même manière qu'avec le couple dû à la pression de radiation solaire, on calcule la force exercée par la traînée atmosphérique en considérant que le satellite est une collection de N surfaces d'aire Si. On définit de nouveau la normale orientée vers l'extérieur, notée , pour chacune des surfaces. La force s'exerçant sur chaque surface dépend de la vitesse relative du satellite par rapport à l'atmosphère. En première approximation, on considère que cette vitesse relative est égale à celle du satellite, mais en réalité ce n'est pas immédiatement la vitesse du satellite dans le référentiel inertiel, car l'atmosphère n'est pas stationnaire dans celui-ci. L'inclinaison de la ième surface par rapport à la vitesse relative du satellite s'exprime :
La force aérodynamique s'exerçant sur la ième surface est :
Dans cette équation, ρ est la densité atmosphérique et est le coefficient de trainée. Ce coefficient est déterminé de manière empirique et se situe généralement entre 1.5 et 2.5. Un couple apparaît lorsque la force agissant sur le centre de la pression atmosphérique ne passe pas par le centre de masse. Une estimation de ce couple est donnée par l'équation suivante :
où est le vecteur allant du centre de masse du satellite au centre de pression de la ième surface.
En principe, les couples aérodynamiques peuvent être utilisés pour effectuer un contrôle passif de l'attitude, comme les plumes d'une flèche, et même pour un contrôle actif avec des surfaces amovibles.
Bien que les CubeSats puissent généralement être modélisés comme un simple corps solide, de nombreuses raisons peuvent rendre la situation beaucoup plus complexe :
On qualifie ces couples internes de couples d'échange de moment cinétique car ils correspondent à un échange de moment cinétique entre des composants d'un satellite complexe sans que le moment cinétique du satellite dans son ensemble ne soit modifié.
Les capteurs se trouvent en amont de la chaîne du SCAO. Historiquement, les progrès réalisés se sont concentrés sur leur résolution et leur précision, leur masse, leur taille et leur puissance. À partir d'une référence, un capteur déduit son orientation dans l'espace ou sa vitesse de rotation. Le choix d'un capteur dépend de nombreux paramètres techniques, parmi lesquels :
Les capteurs se basent sur différents types de mesures permettant ainsi de les classer :
Les actionneurs sont des dispositifs conçus pour engendrer des forces ou couples capables de produire des mouvements du satellite. Les solutions existantes sont relativement variées et les principales peuvent être classées de la manière suivante :
Les actionneurs peuvent également être séparés en deux catégories. Ceux qui ne servent qu'au contrôle d'attitude, et ceux qui peuvent réaliser à la fois du contrôle d'attitude et du contrôle d'orbite.
Les capteurs optiques fournissent l'orientation dans l'espace du repère du capteur, lui-même lié au repère du satellite, par rapport à des directions de références extérieures, telles que les étoiles, le Soleil et la Terre.
Un viseur d'étoiles ou capteur d'étoiles est un instrument optique qui repère les coordonnées d'une ou plusieurs étoiles et les compare ensuite aux éphémérides des étoiles enregistrées dans une bibliothèque inclue dans l'instrument. C'est l'instrument optique le plus précis (entre 1 et 10 secondes d'angle pour les plus performants). Il se compose d'un baffle afin d'éviter l'illumination par des éléments parasites tels que le Soleil, d'une partie optique chargée de collecter et focaliser la lumière sur un détecteur (CCD ou APS), d'une électronique de traitement du signal et d'un refroidisseur pour le détecteur. La matrice du détecteur est constituée de pixels qui permettent d'obtenir une image numérisée du champ de vue de l'instrument, chaque pixel étant repéré par ses coordonnées dans le repère lié au viseur stellaire. On détermine finalement la position d'une étoile en calculant le barycentre de l'énergie collectée sur les pixels éclairés. Les viseurs d'étoiles sont utilisés lorsqu'une connaissance fine de l'attitude est nécessaire. Ils ont besoin que la vitesse de rotation du véhicule soit contrôlée en amont afin de ne pas dépasser la vitesse de décrochage, vitesse au dessus de laquelle la lumière d'une étoile se trouve projetée sur de trop nombreux pixels durant la pose et ne permet plus la mesure.
Un capteur d'étoiles possède deux modes d'opération : le mode d'acquisition et le mode de suivi. Dans le premier, la position et la magnitude des objets brillants éclairant la matrice du détecteur sont comparées au catalogue d'étoiles afin de déterminer de façon grossière l'attitude du satellite sans information préalable. Une fois cette estimation de l'attitude intiale effectuée, le second mode permet le suivi sur la matrice des positions des étoiles identifiées. En sortie, un tel capteur est capable de fournir un quaternion d'attitude du repère capteur par rapport à un repère inertiel, tel que le repère J2000, et dans certains cas la vitesse de rotation du satellite.
Les capteurs solaires permettent de déduire l'attitude du satellite de la mesure de l'angle d'incidence des rayons solaires sur le capteur. Ils sont classés en deux catégories : les capteurs analogiques et les capteurs digitaux. Dans les grosses missions satellitaires, ils permettent respectivement d'obtenir une précision de 1° à 0,1° et inférieure à 0,05°.
Les capteurs terrestres sont utilisés pour déterminer l'orientation du satellite par rapport à la Terre. Plus précisément, c'est l'horizon de la Terre qui est utilisé, car la Terre elle-même peut couvrir jusqu'à 40% de l'espace environnant pour un satellite en orbite passe. Néanmoins, il est difficile de détecter précisément la limite de l'horizon à cause de l'atmosphère terrestre (jusqu'à 70 km), de la décroissance graduelle de l'énergie réémise par la Terre, des variations entre les régions illuminées ou à l'ombre, et enfin de la limite de précision des capteurs. Le principe de détection adopté est donc basé sur une variation thermique de l'élément sensible dans la bande spectrale infra-rouge où la Terre est vue comme un disque uniforme : la bande d'absorption du CO2 entre 14 et 16 μm. Ainsi, l'énergie émise par la Terre est plus homogène et l'horizon, précisément délimité, est visible de jour comme de nuit.
Ces capteurs peuvent être de deux types : les capteurs statiques, qui pointent dans une direction fixe, et les capteurs à balayage. Ils sont principalement utilisés sur des satellites en orbite basse et les satellites de télécommunication en orbite GEO ou MEO. Ils ont jusqu'à présent été assez peu utilisés sur CubeSats.
Les magnétomètres convertissent un champ magnétique ambiant en tension électrique. Ils sont principalement constitués de bobines conductrices qui génèrent un courant ou une variation de courant lorsqu'elles sont placées dans un champ magnétique. Ils ne possèdent pas de partie mobile, n'ont pas besoin d'un champ de vue dégagé, consomment peu et sont faiblement encombrants. Ils peuvent néanmoins être contaminés par le champ magnétique local créé par des matériaux ferromagnétiques ou des boucles de courant dans les panneaux solaires. Ainsi, il faut compenser ces champs locaux s'ils sont connus, ou s'en affranchir en se plaçant à bonne distance (au bout d'un mât par exemple) dans le cas contraire. La technologie la plus utilisée, "flux gate", délivre directement la projection du champ magnétique selon l'axe de la bobine, contrairement aux magnétomètres à induction qui fournissent la dérivée temporelle de la projection du champ magnétique. Ces capteurs étant monoaxiaux, on associe généralement trois magnétomètres orientés orthogonalement afin de mesurer le vecteur champ magnétique instantané.
Les magnétomètres sont limités à des environnements possédant un champ magnétique suffisamment fort, et donc à l'orbite terrestre basse du fait de la décroissance en de son champ magnétique (
étant l'altitude du satellite). On les utilise de différentes manières, l'une d'entre elles étant de calculer le champ magnétique instantané afin de mieux calibrer les couples à générer par les magnétocoupleurs. Ils servent surtout à restituer l'attitude du satellite avec une précision de quelques degrés du fait des erreurs de modélisation du champ magnétique, des erreurs d'orbitographie et de celles propres au capteur. Dans ce cas, seule la connaissance de deux axes est disponible, l'orientation autour du champ magnétique n'étant pas observable. Enfin, on peut utiliser la dérivée du champ magnétique afin d'obtenir une mesure sur 2 axes de la vitesse angulaire du satellite.
Les capteurs inertiels fournissent au satellite une mesure par rapport à une référence fixe dans l'espace. Les gyromètres délivrent l'attitude (vitesse angulaire) et les accéléromètres la position par rapport à cette référence. Pour les premiers, il y a détection du mouvement de rotation absolue, tandis que pour le second c'est le mouvement de translation accéléré qui est détecté. Nous ne nous intéresserons pas ici aux accéléromètres qui ne sont pas utiles à la détermination d'attitude.
Les gyromètres mesurent donc les vitesses angulaires du satellite. On peut en déduire l'attitude de celui-ci en intégrant les vitesses calculées sur un temps donné. Ils sont très intéressants car ils permettent de fournir en permanence les mesures de vitesse de rotation sans se soucier du champ de vue et avec une très bonne précision à court terme. Ils fournissent également des informations à plus haute fréquence que les autres capteurs, ce qui est nécessaire pour certaines boucles de contrôle comme pour le contrôle du vecteur de poussée lors de phases de propulsion. On distingue plusieurs types de gyromètres : les gyromètres mécaniques, les gyromètres optiques et les gyromètres vibrants.
Les gyromètres mécaniques utilisent une toupie gyroscopique. Celle-ci possède une raideur gyroscopique du fait d'une vitesse de rotation élevée permettant de la maintenir selon une direction fixe. Tout couple s'exerçant celui-ci provoque l'écartement de cet axe par rapport à la direction initiale avec une vitesse faible du fait de la rigidité gyroscopique. Le principe consiste à estimer les mouvements du véhicule par rapport à la direction de référence que matérialise l'axe de rotation de la toupie.
Les gyromètres optiques peuvent être des gyromètres laser ou à fibre optique. Dans les deux cas, ils présentent l'avantage de se dispenser de pièce mécanique en mouvement (pas d'usure), d'avoir de plus grande dynamique de mesure et bande passante, une insensibilité à l'accélération et moins de contraintes concernant la stabilité en température. Les gyromètres laser fonctionnent suivant le principe du laser à cavité résonnante. Les gyromètres à fibre optique reprennent l'effet Sagnac. Deux ondes parcourant un chemin fermé en rotation (par rapport à un référentiel inertiel) subissent un décalage temporel lorsqu'elles ont été émises et reçues par un émetteur/récepteur fixe par rapport au chemin optique. Le décalage temporel entre les deux rayons lumineux est ainsi proportionnel à la vitesse de rotation du système.
Les gyromètres vibrants quant à eux sont assez proches des gyromètres mécaniques, à la différence près qu'aucune pièce n'est ici en mouvement. Ils détectent le déplacement d'une onde vibratoire dans une structure, dû à la force de Coriolis.
Les accéléromètres sont principalement utilisés pour la navigation et le guidage des véhicules de rentrée atmosphérique ou dans l'identification de microvibrations. Une modification de leur tension de sortie est traduite en accélération. Le principe de base consiste à disposer d'une masse dans un boîtier fixée par des ressorts. Lorsque le boîtier est accéléré, la masse a tendance à rester fixe par inertie : elle est donc en mouvement par rapport au boîtier. Les ressorts ont alors pour effet de contrer le déplacement de la masse par rapport au boîtier, et ce déplacement devient alors proportionnel à l'accélération de ce dernier. Les accéléromètres sont capables de mesurer la résultante des forces de surface mais pas les accélérations d'origine gravitationnelle puisque la masse et son boîtier sont soumis au même champ gravitationnel.
Parmi les actionneurs inertiels, on distingue les roues d'inertie et les actionneurs gyroscopiques.
Les roues à inertie sont les actionneurs les plus utilisés pour le contrôle d'attitude des satellites. Elles permettent le stockage et la restitution du moment cinétique. Elles sont composées d'une masse en rotation autour d'un axe fixe ou volant d'inertie. Le couple créé par une roue à inertie est égal au changement du moment cinétique durant un temps donné (voir la page sur la dynamique d'attitude). Un couple est ainsi créé lorsque le moment cinétique de la roue à inertie est modifié, c'est-à-dire que sa vitesse de rotation change. Cette accélération ou décélération angulaire permet d'emmagasiner ou de libérer du moment cinétique. Ce type d'actionneur peut saturer, c'est-à-dire atteindre une limite supérieure ou inférieure en vitesse angulaire. Dans ce cas il lui devient impossible de fournir un couple selon cet axe (toute évolution possible est une décélération de la roue entraînant un couple dans le sens contraire à celui souhaité). Il faut alors utiliser un autre actionneur à bord pour ramener la vitesse dans une plage admissible tant pour le fonctionnement propre de la roue que pour les performances du contrôle d'attitude. Ces actions de réduction de la vitesse absolue du volant d'inertie, appelées "désaturation", se font lors de l'application d'un couple antagoniste, généralement à l'aide de magnéto-coupleurs ou de propulseurs.
Les roues à inertie sont limitées en termes de capacité de couple. C'est la raison pour laquelle les satellites nécessitant de rapides manœuvres ou possédant des fortes inerties (comme les stations orbitales) utilisent plutôt des actionneurs gyroscopiques, ou gyrocoupleurs. Contrairement aux roues à inertie, le principe n'est plus de produire un couple en faisant varier la vitesse de rotation de la roue, mais en modifiant l'axe de rotation d'une roue tournant à une vitesse constante. Une variation du moment cinétique est ainsi créée, se traduisant par un couple perpendiculaire au moment cinétique de la roue et au vecteur vitesse de rotation qui lui est appliqué (suivant le principe du couple gyroscopique). Les actionneurs gyroscopiques consomment moins d'énergie et possèdent une plus grande capacité de couple pour des masses et des tailles comparables. Néanmoins, leur utilisation est limitée par l'importance des couples appliqués aux articulations (risques de panne mécanique) et aux précisions requises dans les mesures de position et de vitesse angulaire.
Un magnéto-coupleur est une bobine qui, parcourue par un courant, génère un moment dipolaire (en A.m2). En présence d'un champ magnétique tel que le champ magnétique terrestre
, le magnéto-coupleur fournit alors un couple
. On distingue trois types de magnéto-coupleurs :
La principale limitation de cet actionneur est que le couple généré est toujours orthogonal au champ magnétique, limitant à seulement deux angles d'attitude le contrôle du satellite en un point donné de son orbite. À l'instar des magnétomètres, leur utilisation est limitée aux orbites terrestres basses. Ils peuvent être utilisés soit pour effectuer du contrôle d'attitude soit pour "désaturer" des actionneurs inertiels. La plupart des applications des magnéto-coupleurs utilisent trois appareils produisant des couples sur trois axes orthogonaux. Il n'est pas toujours nécessaire d'employer plus de magnéto-coupleurs pour la redondance puisqu'ils ont habituellement un "double enroulement" fournissant une redondance interne.
Parmi les fonctions couvertes par le SCAO il y a la réalisation des manœuvres de modification de la vitesse ainsi que le contrôle d'attitude associé (assurer le pointage des propulseurs lors de la poussée). Le ΔV nécessaire au contrôle d'orbite ne peut être fourni que par des propulseurs, néanmoins ceux-ci peuvent également être utilisés pour générer des couples. Contrairement aux magnéto-coupleurs, ce sont des actionneurs utilisables sur n'importe quelle orbite car ils n'ont pas besoin d'un environnement particulier pour fonctionner. Leur principal inconvénient est une durée de vie limitée inhérente à l'utilisation d'un carburant, lui-même en quantité finie.
Il faut différencier la propulsion des lanceurs de celle des satellites. La première doit permettre des incréments de vitesse de l'ordre de 7 à 100 km/s et de très importants niveaux de poussée. Elle se caractérise par une faible capacité d'emport et se présente sous la forme de puissants propulseurs chimiques. La seconde, qui nous intéresse ici, sert à effectuer des transferts orbitaux et des voyages interplanétaires, du contrôle d'orbite et du contrôle d'attitude. Le sous-système propulsif d'un satellite remplit ainsi certaines fonctions :
Pour cela, il doit délivrer des forces et des couples. Les forces, ou poussées, sont obtenues par l'éjection de matière à grande vitesse et varient entre quelques μnewtons et quelques centaines de newtons. Suivant les axes de poussée, deux cas de figure sont possibles :
Tous les types de systèmes de propulsion sont basés sur un processus de conversion d'énergie. Du carburant est libéré à grande vitesse (vitesse d'expulsion notée qui représente la vitesse relative entre le satellite et le carburant expulsé) avec une quantité de mouvement associée
, ce qui, par conservation de la quantité de mouvement, résulte en une quantité de mouvement opposée pour le véhicule. En partant de la troisième loi de Newton et en considérant que la vitesse d'expulsion est constante, on obtient :
.
Ecrivons que la variation de la quantité de mouvement du satellite est opposée à la variation de la quantité de mouvement du carburant expulsé :
On peut directement en déduire la capacité d'incrément de vitesse total () du satellite :
On en déduit l'équation de Tsiolkovski :
Voici quelques exemples d'incréments de vitesse associés à des lancements et à des manœuvres orbitales issus de "Spacecraft propulsion - A brief introduction" par Peter Erichsen :
Manœuvre | ΔV typique [m/s] |
---|---|
Kourou → LEO (équatorial) | 9300 |
Kourou → GTO | 11443 |
Cap Canaveral → LEO (équatorial) | 9500 |
Cap Canaveral → GEO | 13600 |
LEO → GEO (changement d'inclinaison de 28°) | 4260 |
GTO → GEO (changement d'inclinaison de 9°) | 1500 |
GTO → GEO (changement d'inclinaison de 28°) | 1800 |
Maintien à poste Nord/Sud | 50 / an |
Maintien à poste Est/Ouest | 5 / an |
LEO → Orbite de libération terrestre | 3200 |
LEO → Orbite lunaire | 3900 |
LEO → Orbite martienne | 5700 |
Si l'on veut déterminer la quantité de carburant nécessaire à la réalisation d'un manœuvre spatiale , il ne reste plus qu'à déplacer les termes de l'équation précédente afin d'obtenir :
Nous pouvons maintenant définir de nouveaux termes. L'impulsion minimum (ou "impulse bit" en anglais, Ibit) est la plus petite modification de la quantité de mouvement permise par le système de propulsion. C'est un paramètre important lorsque l'on veut effectuer du contrôle fin de l'attitude et de l'orbite.
L'impulsion totale (Itot) quant à elle représente la capacité de modification de la quantité de mouvement pour une quantité donnée de carburant : .
Il est essentiel de définir des paramètres permettant de comparer la performance des différents systèmes propulsifs. Le plus utilisé, l'impulsion spécifique (Isp), peut être obtenue expérimentalement. Elle se définit comme l'impulsion délivrée par unité de poids de carburant : , avec
le champ standard de la pesanteur (9,81 m.s-2). Les impulsions spécifiques sont notées en secondes et parfois données en N.s.kg-1, ce qui correspond à la formule précédente multipliée par l'accélération standard de la pesanteur, donnant l'impulsion délivrée par unité de masse.
Dans le but de déterminer la performance du système propulsif dans son ensemble, en incluant la masse de l'ensemble (l'électronique, le carburant et réservoir, l'alimentation) mps, on introduit l'impulsion spécifique du système, notée Issp : .
Le sous-système de propulsion est en interaction proche avec les sous-systèmes mécanique et thermique, notamment pour l'implantation des réservoirs et le contrôle thermique de la propulsion. Il doit également respecter les exigences du contrôle d'attitude et d'orbite (SCAO). Si son principe de fonctionnement est basique (une énergie emmagasinée est libérée afin de transmettre une énergie cinétique à un véhicule) il existe différents types de propulsion, eux-mêmes divisés en sous-groupes :
Dans le but de répondre aux exigences du SCAO, les systèmes de propulsion sont en particulier caractérisés par :
Certains de ces critères sont repris dans le tableau suivant pour les différents types de propulsion introduits dans ce cours.
Type de propulsion | Fiabilité | Coût | Isp | Poussée | Puissance électrique | |
---|---|---|---|---|---|---|
Gaz froids | Gaz | Très bonne | Très bas | Très basse | Faible | Très faible |
Liquide | Bonne | Très bas | Très basse | Faible | Très faible | |
Gaz chauds | Solide | Bonne | Bas | Moyenne | Très forte | Très faible |
Mono-carburant | Bonne | Bas | Basse | Faible | Très faible | |
Bi-carburant | Moyenne | Haute | Moyenne | Très faible | ||
Électrique | Électrothermique | Moyenne | Haute | Très faible | Forte | |
Électromagnétique | Faible | Très haute | Extrêmement faible | Forte | ||
Électrostatique | Faible | Extrêmement haute | Très faible | Très forte |
Une comparaison de la force de poussée et de l'impulsion spécifique de systèmes de propulsion adaptés aux nano.micro-satellites est proposée dans cette figure.
La propulsion chimique utilise des gaz à haute température et/ou pression, accélérés à travers une tuyère. Les systèmes de propulsion chimique sont généralement associés à des impulsions spécifiques plus faibles que les propulsions électriques, mais de plus grandes poussées. On peut les diviser en deux catégories : les systèmes à gaz froid et à gaz chaud.
Ces systèmes utilisent des gaz stockés sous haute pression ou sous forme liquide. Les gaz sont détendus dans une tuyère convergente-divergente pour obtenir la force de poussée. Ce sont les systèmes les plus simples à mettre en œuvre, mais cela s'accompagne d'une faible force de poussée et d'un faible rendement (impulsion spécifique). Ils présentent une bonne aptitude au fonctionnement en mode pulsé, du fait du faible temps de réponse, les rendant attrayant pour assurer le contrôle d'attitude. Ils ont également l'avantage de limiter les contaminations de l'environnement, ce qui est intéressant notamment pour les optiques des missions scientifiques.
La simplicité de ces systèmes les rend intéressants pour les CubeSats. Néanmoins, du fait de la nécessité de pressuriser le carburant, ils ne respectent pas le cahier des charges décrit par le CDS ("CubeSat Design Specification").
Pour les missions requérant des niveaux de poussée et d'impulsion supérieurs, les gaz froids ne sont plus adaptés et il est nécessaire d'utiliser des carburants plus énergétiques générant des gaz chauds. Les systèmes à gaz chaud sont le type le plus commun de propulsion spatiale. Les ergols des systèmes à gaz chaud sont stockés à l'état liquide ou solide. Une réaction de combustion exothermique de l'ergol est nécessaire pour obtenir des produits à haute température qui sont ensuite expulsés dans la tuyère. Ils nécessitent donc généralement une étape de plus que les gaz froids. On les classe en deux catégories en fonction de leur ergol :
Le mono-ergol le plus utilisé est l'hydrazine. Il se décompose dans le propulseur par catalyse. Les gaz chauds résultant sont explulsés par la tuyère. Il présente l'avantage d'être fiable tout en conservant de bonnes performances, mais sa haute toxicité a poussé les chercheurs à s'orienter vers des aternatives appelée "mono-ergols verts". Ces ergols sont des sels dérivés de l'acide nitrique, tels que le dinitramide d'amonium.
Dans les systèmes à bi-liquides, deux ergols, un comburant et un carburant, produisent une force de poussée par combustion. Ils sont introduits séparément dans la chambre de combustion où ils s'inflamment spontanément par contact et génèrent des gaz chauds, une nouvelle fois détendus dans la tuyère. Ces systèmes sont plus complexes et plus chers que les systèmes présentés précédemment, mais ils sont également plus efficaces (meilleure Isp) et plus puissants (meilleure poussée).
La propulsion électrique contourne la limitation fondamentale de la propulsion chimique, c'est-à-dire que l'énergie du carburant expulsé ne dépend que de son énergie chimique et du débit. Une énergie électrique ou électromagnétique est utilisée afin d'éjecter de la matière à des vitesses beaucoup plus élevées. En d'autres termes, on utilise la puissance électrique issue du sous-système électrique (panneaux solaires, batteries...) pour accélérer le carburant et produire une force de poussée. Ces vitesses d'éjection plus importantes se traduisent immédiatement par une plus grande efficacité (moins de carburant est nécessaire pour obtenir un même incrément de vitesse). Néanmoins, les forces de poussée produites sont nettement plus faibles que dans le cas de la propulsion chimique. Par conséquent, la propulsion électrique est préférée lorsque le ΔV à réaliser est important ou lorsque il est nécessaire des manœuvres avec des poussées très faibles (contrôle d'attitude très précis, etc.).
La propulsion électrique offre une grande gamme de performances en fonction du type de sous-système utilisé. On les classe ainsi en trois catégories : les systèmes électrothermaux, électromagnétiques et électrostatiques.
Historiquement, ces systèmes sont une amélioration par rapport aux systèmes de propulsion chimiques. Le gaz est chauffé en passant le long d'une surface chauffée électriquement ou à travers un arc électrique afin de lui conférer plus d'énergie. Le gaz ainsi chauffé bénéficie d'une détente plus efficace.
La propulsion électromagnétique utilise la conversion d'un gaz en plasma. Le plasma est constitué d'électrons (de charge électrique négative), d'ions (pour la plupart de charge électrique positive) et d'atomes ou molécules neutres (non chargés électriquement). Les ions positifs résultants sont alors accélérés à de très grandes vitesses par l'énergie électrique grâce à la force de Laplace , où
et
sont respectivement le flux de courant ionique dans le plasma et le champ magnétique. Il en résulte une force de poussée sur le satellite dans la direction opposée.
Contrairement aux systèmes électrostatiques qui vont être présentés par la suite, les systèmes électromagnétiques expulsent un plasma globalement neutre, ce qui est intéressant pour éviter de charger électriquement le reste du satellite. Cette famille de propulseurs contient notamment les PPT (Pulsed Plasma Thrusters), les VAT (Vacuum Arc Thrusters) ou encore les MPDT (Magneto Plasma Dynamic Thrusters).
À la manière de l'accélération électromagnétique, l'énergie électrique est dans un premier temps utilisée pour transformer le fluide propulsif en plasma. La différence se situe au niveau de l'accélération des ions qui n'est plus obtenue par les forces de Laplace mais par l'application d'un champ électrostatique créant une force de Coulomb (
). Les systèmes de propulsion électrostatiques nécessitent généralement l'installation d'un neutraliseur (cathode) qui fournit des électrons au faisceau d'ions, afin de conserver la neutralité électrique du jet.
Parmi les propulseurs électrostatiques, on peut citer les propulseurs ioniques, les propulseurs à effet Hall et propulseurs FEEP (Field Emission Electric Propulsion).
Le filtrage et les lois de commande sont présentés car ce spaont des aspects essentiels d'un SCAO. Néanmoins, ce cours a simplement pour ambition de vous en faire une brève introduction.
En mathématiques et en ingénierie, la théorie du contrôle a comme objet l’étude du comportement de systèmes dynamiques. En électronique et traitement du signal, un filtre est originellement un circuit qui rejette une partie indésirable d'un signal. On appelle également filtre un outil logiciel dont le but est la séparation des fréquences contenues dans un signal numérisé.
L'estimation d'attitude consiste à estimer l'état actuel de l'orientation d'un satellite à partir d'un jeu d'observations et de références obtenues à partir de modèles. Ces observations ont été préalablement effectuées par des capteurs fixés sur le satellite. L'objectif est ici de trouver la meilleure estimation de l'état réel du système sous forme de matrice de changement de repère ou de quaternion d'attitude. La résolution exacte du problème n'est généralement pas possible car les observations sont entachées d'erreurs (erreurs de mesure, d'orientation du capteur, de modélisation...). De plus, on dispose souvent d'une surabondance d'information puisque plusieurs capteurs fournissent des informations par rapport à des références différentes (Soleil, champ magnétique, étoile...). On cherche alors à exploiter de manière optimale ces sources d'information en leur associant des modèles d'erreur.
Les problèmes de détermination d'attitude font intervenir des observations (orientation d'objets) pris à certaines dates. La détermination d'attitude statique représente le cas le plus simple, dans lequel on considère que toutes les mesures sont effectuées au même instant. Au contraire, lorsque le temps est introduit, on parle de détermination d'attitude récursive.
La qualité de la connaissance d'attitude dépend des limitations des capteurs, de la quantification des données, du temps d'échantillonnage et du traitement numérique. La détermination d'attitude embarquée est limitée par les capacités de filtrage de l'ordinateur de bord. Il arrive que pour obtenir une meilleure connaissance de l'attitude a posteriori les données des capteurs soient transmises au segment sol où elles sont post-traitées puis exploitables (par le segment sol ou le satellite).
Le cas particulier de l'estimation d'attitude à partir de mesures simultanées de directions non parallèles est ici introduit. À chaque observation sont associés deux vecteurs. Le premier est un vecteur unitaire définissant la direction mesurée (observée) de la source (la Terre, le Soleil, une étoile, le champ magnétique terrestre...), exprimée dans le repère lié au satellite. Le second est un vecteur unitaire
qui définit la direction de référence de la source, exprimée dans le repère origine (généralement inertiel). L'estimation d'attitude consiste ici à déterminer la matrice de transformation orthogonale
satisfaisant pour chaque observation i :
La méthode TRIAD se base sur l'observation de deux directions non-parallèles. Il s'agit de déterminer la MCD permettant de transformer les vecteurs de référence
et
en vecteurs d'observation
et
. Puisque l'on cherche à obtenir l'attitude suivant 3 axes, il nous faut créer deux bases orthonormées (y1, y2, y3) et (x1, x2, x3), respectivement associées aux vecteurs d'oservation et de référence. Il ne reste plus qu'à déduire la matrice de transformation orthogonale (ou MCD)
satisfaisant :
,
,
Cette méthode présente l'avantage d'être extrêmement simple, d'où son utilisation dans de nombreuses missions passées. De nos jours, cette méthode n'est plus considérée comme suffisamment précise. En effet, les mesures d'observation sont entachées d'erreur, ce qui empêche d'obtenir le même résultat suivant le vecteur d'observation choisi au départ. C'est pour cette raison que l'on choisit généralement l'observation la plus précise. Des techniques de calcul de la covarience de l'erreur de l'estimation ont été développées pour parer à ces inconvénients.
Un critère quadratique peut être utilisé pour déterminer la matrice d'attitude. Cela revient à chercher la matrice orthogonale minimisant la fonction de moindres carrés :
La minimisation de ce critère n'a rien d'évident et de nombreuses méthodes ont été proposées. Il s'agit d'identifier les 9 paramètres de la MCD respectant les différentes contraintes énoncées précédemment (moindres carrés et règles de la MCD). L'algorithme QUEST (QUaternion ESTimation) offre une alternative intéressante. La forme quadratique est alors utilisée à la place de la MCD, permettant de réduire le nombre de paramètres. Nous ne rentrerons pas dans le détail de cette méthode dans le cadre de ce cours.
Dans le cas général où nous ne disposons pas de plusieurs mesures de directions non parallèles effectuées au même instant, le problème d'estimation devient dépendant du temps. Bien que des méthodes récursives basées sur l'algorithme QUEST aient été développées et utilisées, le filtrage de Kalman est le moyen le plus utilisé pour estimer l'attitude d'un satellite en présence de bruits de mesure.
Le filtre de Kalman a été développé en 1960 comme une nouvelle approche pour le filtrage linéaire et les problèmes de prédiction. Il permet de maintenir une estimation de l'état d'un système dynamique en dehors des périodes d'observation, à partir d'un modèle de son erreur. Puisqu'il s'agit d'un filtre récursif, la quantité d'informations à traiter reste limitée, ce qui en fait un filtre très apprécié à bord des satellites. On a pour habitude de distinguer deux phases dans ce type de filtres, la prédiction et la mise à jour :
C'est la version la plus simple du filtre de Kalman, seules l'estimation de l'état précédent et les mesures actuelles sont nécessaires.
Ici, le processus stochastique à estimer est gouverné par une équation différentielle linéaire :
La mesure devant permettre l'estimation s'écrit :
et
représentent respectivement les bruits de processus et de mesure. On les suppose indépendants, blancs et de distribution de probabilité normale.
est la matrice qui relie l'état précédent k-1 à l'état actuel k,
est la matrice qui relie l'entrée de commande
à l'état
.
est la matrice reliant l'état
à sa mesure
.
Durant la phase de prédiction, l'état et l'estimation de la covariance sont projetés dans le temps de l'état k-1 à l'état k :
est la matrice de covariance du bruit de processus
,
est la matrice d'estimation a priori de la covariance de l'erreur.
Trois étapes se succèdent dans la phase de mise à jour. Il faut d'abord calculer le gain de Kalman , puis générer une estimation de l'état a posteriori en incorporant la mesure. Enfin, on obtient la matrice de covariance de l'erreur d'estimation a posteriori
.
est la matrice identité. Deux équations supplémentaires permettent d'obtenir l'innovation, ou résiduel,
, et la covariance de l'innovation
:
À chaque étape le processus est répété afin d'obtenir de nouvelles estimations a posteriori à partir des estimations a priori. En pratique, la matrice de covariance du bruit de mesure est déterminée avant d'utiliser le filtre et peut être mise à jour par la suite. Il est plus compliqué de déterminer la matrice de covariance du bruit de processus
car nous ne pouvons généralement pas directement observer le processus à estimer. Afin d'améliorer les performances du filtre, il est habituel de régler ces deux paramètres.
La plupart des systèmes physiques, et notamment ceux étudiés, sont non linéaires. Le filtre de Kalman classique n'est donc optimal que sur une faible portion des phénomènes pris en compte. Dans le cas de systèmes non-linéaires, nous utilisons donc un filtre de Kalman étendu, ou "Extended Kalman Filter".
La théorie du contrôle s'intéresse au comportement de systèmes dynamiques en fonction de leurs paramètres. Elle peut être vue comme une stratégie permettant de sélectionner la bonne entrée d'un système pour que le sortie soit celle désirée. Cela fait partie du domaine de l'automatique.
Un système de contrôle est un mécanisme altérant l'état futur d'un système. En l'absence de retour d'information concernant la sortie du système, on se trouve dans le cas d'une boucle ouverte. Prenons l'exemple d'un lave-vaisselle. Celui-ci est programmé pour tourner un certain temps, à une certaine température et avec une certaine quantité d'eau. Ces paramètres ne dépendent pas de l'état de la vaisselle qu'il contient.
Une boucle de rétroaction peut être ajoutée afin de modifier intelligemment la durée du cycle. On obtient alors ce que l'on appelle une boucle fermée, puisqu'une information sur l'état de sortie de notre système, obtenue à l'aide de capteurs, va être comparée à un signal de référence afin de nourir un contrôleur qui a la charge de choisir la bonne entrée. On peut ici parler d'asservissement.
Les boucles de contrôle d'attitude ont pour but d'assurer un contrôle stable de l'orientation du satellite, en prenant en compte les contraintes opérationnelles (temps de réponse aux commandes par exemple) et les perturbations externes et internes. On met en place un asservissement dans le but d'atteindre une valeur de consigne et de la maintenir. Pour ce faire, l'asservissement, ou correcteur, mesure en permanence l'écart entre la valeur réelle de la grandeur à asservir et la valeur de consigne. Il en déduit la commande appropriée que les actionneurs devront ensuite appliquer afin de réduire cet écart.
Un système linéaire est un objet qui peut être décrit par des équations linéaires. De tels systèmes sont essentiels car nous pouvons les résoudre. Pourtant, presque aucun système réel n'est un système linéaire. L'objectif est donc de simplifier l'objet étudié (actionneur, capteur, système dynamique...) afin de pouvoir l'approximer par un système linéaire. On parle alors de son domaine linéarité.
La réponse d'un système linéaire peut être obtenue en sommant ses réponses impulsionnelles. Cette sommation dans le domaine temporel est appelée convolution. Soit un signal d'entrée u(t) et une réponse impulsionnelle g(t), la sortie y(t) s'exprime :
Afin de simplifier cette opération, on introduit la fonction de transfert. Une fonction de transfert est la transformée de Laplace de la réponse impulsionnelle d'un système linéaire lorsque ses conditions initiales (ou aux limites) sont nulles. Elle permet de transformer le produit de convolution en simple produit :
Soit une fonction du temps. Sa transformée de Laplace unilatérale
est
définie par
où
est la variable complexe.
f(t) | F(p) |
---|---|
![]() | ![]() |
![]() | ![]() |
![]() | ![]() |
![]() | ![]() |
![]() | ![]() |
Soit l'équation
où
et
sont respectivement l'entrée et la sortie et
et
sont des polynômes à coefficients réels en (d/dt). Si l'on considère que les conditions initiales sont nulles, on peut réécrire l'équation différentielle précédente pour obtenir la fonction de transfert H :
Les pôles d'une fonction de transfert sont les valeurs pour lesquelles le dénominateur D, aussi appelé équation caractéristique, s'annule. Attention, tout ceci est vrai à condition que la fonction de transfert soit sous forme irréductible. Pour que le système soit stable, il faut que tous les pôles soient strictement à l'intérieur du cercle unité ().
On représente la boucle du SCA comme un contrôle en boucle fermée, avec le terme de rétroaction. On note R(p) le signal de référence, Y(p) le signal de sortie, D(p) la perturbation, U(p) le signal de contrôle, Gc(p) le contrôleur, E(p) l'erreur, Gp(p) le matériel à contrôler et C(p) la dynamique des capteurs. Si l'on considère que les perturbations sont nulles, la fonction de transfert s'écrit :
Le dénominateur de cette équation est un polynome dont les racines déterminent le type de réponse. Le contrôleur peut être utilisé pour stabiliser le système ou lui donner des caractéristiques particulières.
Le contrôleur a pour objectif de convertir l'erreur, c'est-à-dire l'écart entre la mesure de la sortie de la boucle et le signal de référence, en un signal de contrôle qui va finir par ramener l'erreur à 0.
Les performances du contrôleur et a fortiori de l'asservissement sont décrites par plusieurs paramètres :
L'asservissement doit ainsi assurer un compromis entre performance et stabilité. La performance est proportionnelle à la valeur du gain du correcteur, mais à partir d'une certaine valeur celui-ci a tendance à déstabiliser le système.
Le contrôleur "Proportionnel-Intégral-Dérivé" est la logique de contrôle la plus utilisée pour les régulateurs avec boucle de rétroaction. Ce contrôleur agit de trois manières :
La fonction de transfert d'un régulateur PID s'exprime :
Considérons un système de contrôle d'attitude mono-axe simple. L'équation d'Euler s'exprime :
où est la matrice d'inertie,
est l'angle,
est le couple de contrôle et
est le couple perturbateur extérieur.
Un simple contrôle proportionnel ne pourrait pas atteindre une réponse asymptotiquement stable, nous introduisons donc un régulateur PD (proportionnel-dérivé) :
où et
sont des gains qu'il faut déterminer. Le système en boucle fermée et son équation caractéristique s'écrivent alors :
Dans le but d'identifier les valeurs des deux gains, nous introduisons et
, respectivement la fréquence propre (fréquence de la réponse sinusoïdale du système non amorti) et le facteur d'amortissement. L'équation caractéristique est réécrite en introduisant ces deux nouvelles grandeurs :
Les gains du contrôleur s'expriment alors : et
. On choisit généralement le facteur d'amortissement de tel sorte que
. Il est important de noter que l'information sur la dérivée provient de gyroscopes ou de différences finies de l'attitude.
Pour une perturbation constante de valeur unitaire, le système asservi par le contrôleur PD produit une attitude en régime permanent non-nulle : . Idéalement nous souhaitons que l'attitude en régime permanent soit nulle, c'est la raison pour laquelle nous introduisons le contrôleur PID (proportionnel-intégral-dérivé) :
L'équation caractéristique s'écrit cette fois :
où et
sont toujours la fréquence propre et le facteur d'amortissement, et
est la constante temporelle associée au contrôle intégral. Les gains du contrôleur PID s'expriment :
,
et
. On choisit souvent la constante
telle que :
.
Cette section doit vous permettre de vous exercer sur certaines des notions présentées dans ce cours. Un QCM reprend la première partie du cours, soit la découverte d'une mission spatiale, du standard CubeSat et du système de contrôle d'attitude et d'orbite. Des exercices plus poussés sont ensuite proposés, recouvrant la représentation d'attitude, les équations du mouvement, les couples perturbateurs et le contrôle d'attitude, la propulsion et enfin les lois de commande. La majeure partie des aspects abordés dans ce cours trouvent ainsi un écho dans ces exercices.
Ce QCM reprend des notions de la partie "Découvrir". Pour certaines questions plusieurs réponses sont possibles.
Difficulté : ☆
Difficulté : ☆
On souhaite montrer que la MCD est une matrice orthonormale, c'est-à-dire que .
Soit la MCD entre deux référentiels orthogonaux décrits par les vecteurs unitaires
et
:
Ecrire le vecteur transposé de .
Calculer le produit et conclure.
Difficulté : ☆
Cet exercice a pour but de démontrer l'expression de la MCD à partir d'une certaine séquence d'angles d'Euler. On reprend la notation du cours en nommant ,
et
les trois angles d'Euler.
Démontrer qu'en choisissant la séquence afin de passer du référentiel
au référentiel
, on obtient bien la formule présentée dans le cours :
Considérons maintenant la séquence suivante : . Exprimer la MCD associée à cette séquence.
Difficulté : ☆
Considérons la séquence de rotations fixées par rapport à un satellite allant du référentiel au référentiel
:
Les quaternions associés à ces rotations sont :
,
,
Montrer que les angles d'Euler de cette séquence de rotation sont reliés aux quaternions de la manière suivante :
où et
Vérifier que pour des angles infinitésimaux on obtient un quaternion très simple.
Difficulté : ☆☆
On souhaite démontrer l'équation de la cinématique exprimée avec la MCD.
avec
et
Soit la MCD entre deux référentiels orthogonaux décrits par les vecteurs unitaires
et
.
Rappeler la propriété principale de la MCD .
Exprimer la dérivée de l'équation exprimant un vecteur du référentiel (B) en fonction d'un vecteur du référentiel (A).
Obtenir l'équation de la cinématique exprimée avec la MCD.
À partir de l'équation de la cinématique que nous venons de démontrer, exprimer les différentes coordonnées du vecteur vitesse angulaire.
Difficulté : ☆☆
Cet exercice cherche à établir les équations de la cinématique pour certaines représentations d'Euler. Les premières questions considèrent la séquence d'Euler permettant de passer du référentiel (A) au référentiel (B) suivante :.
Ecrire les trois vecteurs vitesse angulaire correspondant à chaque transformation élémentaire en fonction des dérivées des angles d'Euler.
Exprimer le vecteur de vitesse angulaire en fonction des vecteurs de vitesse angulaire précédents.
Reformuler cette équation afin de faire apparaître les vecteurs de base des différents repères.
Exprimer les vecteurs de base des repères et
en fonction de ceux de (B).
Montrer la relation de la cinématique pour cette séquence d'Euler :
Considérons maintenant la séquence suivante : . Exprimer alors l'équation de la cinématique.
Difficulté : ☆☆
Il est maintenant question de démontrer l'équation de la cinématique avec les quaternions.
Reprendre la forme de l'équation de la cinématique trouvée dans la dernière question du premier exercice sur les équations du mouvement :
Substituer les coefficients de la MCD par leur forme avec les quaternons.
Exprimer la dérivée de l'équation contraignant les quaternions.
Regrouper ces 4 équations sous forme matricielle.
Utiliser une propriété remarquable de la matrice de quaternion obtenue dans la questions précédente pour exprimer la dérivée du quaternion.
Réécrire l'équation afin d'obtenir l'équation de la cinématique avec les quaternions.
Difficulté : ☆☆
Une mission scientifique nécessite l'envoie d'un CubeSat 3U sur une orbite circulaire à 300km d'altitude (ce qui correspond à une vitesse de 7726 m/s). On considère que le centre de masse de satellite se trouve décalé du centre géométrique de + [1; 1; 2] cm et que la surface du satellite est homogène. Étant donnée l'altitude, il est possible d'utiliser le champ magnétique pour effectuer le contrôle de l'attitude du CubeSat. Une combinaison de trois magnétocoupleurs, chacun étant orienté selon un axe du satellite, est proposée. Le courant maximum parcourant les bobines est ±0,2 A et le rayon du fil mesure 10,4 mm.
Voici différentes données nécessaires :
Masse volumique de l'atmosphère à 300 km | ![]() |
Coefficient de trainée | ![]() |
Constante gravitationnelle de la Terre | ![]() |
Rayon de la Terre | ![]() |
Irradiance solaire moyenne | ![]() |
Coefficient de réflexion moyen du satellite | ![]() |
Champ magnétique terrestre à 300 km | ![]() |
Dipôle résiduel du satellite | ![]() |
Courant maximum dans magnéto-coupleurs | ![]() |
Diamètre de la bobine des magnéto-coupleurs | ![]() |
Que signifie le fait que la surface du satellite est homogène ?
Estimer les dimensions et la masse totale du satellite.
Quels sont les principaux moments d'inertie du satellite ?
Identifier les couples perturbateurs.
Exprimer les couples perturbateurs maximums créés par les différentes perturbations agissant sur le satellite si son axe +Y est aligné avec sa vitesse. On utilisera les notations données en introduction de l'exercice.
Estimer l'ordre de grandeur de la somme de tous les couples perturbateurs agissant sur le satellite.
Combien de spires la bobine du magnétocoupleur doit-elle contenir pour contrebalancer le couple perturbateur précédemment estimé ?
Difficulté : ☆
On reprend le CubeSat présenté lors de l'exercice précédent. Cette fois-ci, nous nous plaçons dans le cas où celui-ci doit effectuer une manœuvre orbitale nécessitant un incrément de vitesse de 50 m/s. Six systèmes de propulsion vous sont proposés, chacun étant défini par sa masse sèche Msèche (masse du système de propulsion sans le carburant), son impulsion spécifique Isp, sa force de poussée F et sa consommation électrique P.
Type de propulsion | Modèle | Msèche [kg] | Isp [s] | F [N] | P [W] |
---|---|---|---|---|---|
Gaz froid | Palomar MiPS | 0,89 | 50 | 3,5.10-2 | 5 |
Mono-carburant | BGT-X5 | 1,24 | 220 | 5.10-1 | 20 |
Bi-carburant | PM200 | 1,10 | 285 | 5.10-1 | 6 |
Électromagnétique | PPTCUP | 0,28 | 670 | 4.10-5 | 2 |
Électrostatique | IFM Nano | 0,64 | 3800 | 3,5.10-4 | 32 |
Quel lien peut-on faire entre la vitesse d'expulsion du carburant l'impulsion spécifique Isp ?
Estimer la quantité de carburant nécessaire pour effectuer la manœuvre souhaitée avec chacun des systèmes de propulsion.
Sachant que l'on cherche généralement à éviter d'allouer plus de 33% de la masse d'un satellite au système de propulsion
La puissance électrique disponible à bord d'un CubeSat 3U recouvert de panneaux solaires en orbite autour de la Terre est estimée à 7 W. Qu'est-ce que cela change au niveau de vos choix ?
En supposant que l'efficacité de la manœuvre ne dépend pas du lieu où celle-ci est effectuée, c'est à dire du moment, combien durerait-elle pour chacun des systèmes de propulsion proposés ? Cette hypothèse est fausse dans de nombreux cas, notamment lorsque les forces de poussée en jeu sont faibles et les manœuvres importantes (ce qui est le cas ici).
Difficulté : ☆
Cet exercice a pour but de vous entraîner à utiliser les transformations de Laplace pour résoudre une équation différentielle.
Considérons une masse m accrochée à un ressort de constante de rappel K. On mesure le déplacement vertical de la masse, provoqué par une stimulation u(t), par la grandeur x. L'installation est illustrée par cette figure.
Quelle est l'équation de déplacement de la masse ?
On veut étudier le cas d'une stimulation impulsionnelle. Que devient u(t) ?
Exprimer la fonction de transfert du système.
Effectuer la transformée de Laplace inverse de la fonction de transfert afin d'exprimer le déplacement issu d'une stimulation impulsionnelle dans le domaine temporel.
Supposons maintenant que la stimulation n'est plus impulsionnelle mais une rampe . Afin d'obtenir la réponse dans le domaine temporel, il faudrait faire le produit de convolution de cette rampe avec la réponse impulsionnelle :
Passer par la transformée de Foutier.
Nous allons retrouver la fonction de transfert de la boucle de contrôle d'attitude :
On note R(p) le signal de référence, Y(p) le signal de sortie, D(p) la perturbation, U(p) le signal de contrôle, Gc(p) le contrôleur, E(p) l'erreur, Gp(p) le matériel à contrôler et C(p) la dynamique des capteurs.
Exprimer le signal de sortie en fonction du signal de contrôle.
Sachant que l'on considère que les perturbations sont nulles, exprimer le signal de contrôle en fonction de l'erreur.
Appliquer la même approche pour trouver l'expression de l'erreur.
Réorganiser les résultats précédents afin de retrouver l'expression de la fonction de transfert.
Quatre mini-projets vous sont proposés afin de tester vos connaissances. Si certaines informations utiles peuvent être retrouvées dans le cours, il sera également nécessaire d'aller en chercher en dehors. Une liste de questions commune aux différents mini-projets vous est proposée, tâchez d'y répondre pour chacun des cas présentés. Ce cours n'étant qu'une introduction aux nanosatellites et au contrôle d'attitude et d'orbite, les questions sont avant tout qualitatives. De plus, face à la complexité d'une mission spatiale, une approche plus poussée nécessiterait de répondre à ces questions plusieurs fois, de manière itérative, afin de prendre en compte l'impact de chaque décision sur les choix effectués précédemment.
Le travail d'un ingénieur spatial est de développer une mission capable de répondre à des besoins. Dans notre cas, ces besoins sont spécifiés par des chercheurs. Quatre missions nous ont ainsi été proposées. Nous intervenons au tout début de ces projets puisque nous sommes chargés d'étudier leur faisabilité.
Il nous est demandé d'étudier l'ionosphère terrestre. L'ionosphère représente l'atmosphère supérieure d'une planète, de 85 à 600 km d'altitude, une région où le gaz est partiellement ionisé par les radiations solaires. Son fonctionnement est important car elle constitue la partie intérieure de la magnétosphère de notre planètre. Elle joue notamment un rôle essentiel dans les télécommunications et la géolocalisation par satellite, puisqu'elle a tendance à retarder voire même réfléchir certains signaux. Si de nombreux satellites ont déjà acquis des données sur ce milieu, son étude est plus que jamais d'actualité.
Afin d'effectuer des mesures du contenu de l'ionosphère terrestre, il nous est demandé d'utiliser une sonde de Langmuir. C'est un appareil capable de mesurer la température électronique, la densité électronique ainsi que le potentiel électrique du plasma. Une telle sonde permet d'étudier le plasma in-situ, c'est-à-dire à l'endroit où elle se trouve.
Une équipe de chercheurs est en train de développer une nouvelle optique permettant d'améliorer grandement la performance des télescopes d'observation de la Terre en orbite basse. Afin de qualifier en vol leur système, dernière étape de leur développement, ils souhaitent l'embarquer sur un CubeSat. L'ensemble du télescope avec son électronique de lecture doit faire 1,5 U de volume. La lecture se fait avec un capteur CMOS.
Suite à la première tentative initiée par la mission PICSAT de l'Observatoire de Paris, des scientifiques veulent observer un nouveau transit d'exoplanète. L'étoile autour de laquelle orbite cette exoplanète se trouve dans le plan de notre galaxie. Le même instrument scientifique que celui embarqué par Picsat est envisagé. Son utilisation permet d'effectuer la photométrie du transit, c'est-à-dire de mesurer la luminosité de l'étoile brillante.
Surfant sur la recrudescence de missions d'étude d'astéroïdes, un chercheur nous propose une mission d'accompagnement avec un CubeSat. La mission principale doit étudier le système d'astéroïdes géocroiseur nommé 65803 Didymos. Un CubeSat présente l'intérêt de pouvoir s'approcher beaucoup plus proche du système d'astéroïde (faibles risques associés à son faible coût). Les perturbations provoquées par les astéroïdes lors des survols doit permettre d'en déduire leur champ gravitationnel. Pour ce faire, une mesure précise de l'orbite du satellite est nécessaire. De l'astronomie radio-science est envisagée pour réaliser la mesure précise de la position du CubeSat au cours des survols.
Le CubeSat permet d'étudier les populations d'astéroïde (masse, composition...) et en particulier les nombreux astéroïdes doubles pourtant complexes à examiner. L'enjeu est de comprendre leur origine et leur contribution dans la formation du système solaire. D'une manière plus générale, cette étude doit également permettre d'identifier les lois régissant la formation des systèmes exo-planétaires. C'est cette technique qui a permis d'obtenir la majorité des informations concernant la structure interne des corps du système solaire.
L'utilisation d'un transpondeur similaire à ceux utilisés pour la télécommunication nous offre le suivi du CubeSat depuis le sol ou un autre satellite en effectuant des mesures d'effet Doppler et de distance. Ces mesures permettent d'obtenir la vitesse radiale et la distance entre le CubeSat et l'observateur, permettant de calculer son accélération et de déduire in fine le champ gravitationnel de l'astéroïde. Afin d'obtenir des mesures suffisamment précises, le transpondeur Iris, développé par le JPL, est proposé. Cela veut dire que le suivi peut se faire depuis la mission principale ou depuis le sol avec un réseau d'antennes tel que le Deep Space Network ou le ESA Tracking Network..
Voici une liste de questions auxquelles vous devez essayer de répondre, en le justifiant, pour les quatre missions qui vous ont été proposées.
Bienvenue dans ce cours portant sur l'imagerie directe des exoplanètes.
Vous allez découvrir ici cette technique de prospection et d'étude, à la pointe de la technologie et qui fait partie des quelques méthodes pouvant prétendre à la découverte d'une planète jumelle de la Terre...
Pour pouvoir suivre ce cours dans les meilleurs conditions il vous faut maîtriser les bases des domaines suivants :
Dynamique newtonienne, pour comprendre la position et les déplacements de la planète
Optique géométrique, pour comprendre le fonctionnement de la collecte de photons sur un détecteur
Optique ondulatoire, pour pouvoir comprendre le fonctionnement des instruments :
Vous êtes invités à au moins parcourir les liens mis à disposition dans cette page pour pleinement bénéficier de ce cours.
L'imagerie directe d'exoplanètes se propose d'obtenir l'image d'une planète tournant autour d'une autre étoile que le soleil.
L'idée de base est de prendre des photographies comme on le fait pour les planètes du système solaire.
Malheureusement, à cause de leurs distances, il est exclu pour le moment de pouvoir distinguer le disque de n'importe laquelle des exoplanètes connues. Nous les voyons donc comme une source ponctuelle, et de plus, l'image de ce point est déformée par l'optique de l'instrument utilisé.
Les planètes du système solaire sont facilement observables, la plupart le sont même à l'oeil nu ! Et pendant des siècles on les a étudiées uniquement par l'imagerie dans le visible, d'abord à l'oeil nu puis avec des lunettes et des télescopes.
Chercher à faire l'image d'une planète tournant autour de son étoile peut sembler, de prime abord, la meilleure façon de découvrir une exoplanète.
À la différence des méthodes comme la vélocimétrie radiale ou l'étude des transits, l'idée n'est pas ici d'étudier une étoile perturbée par de la présence d'une planète mais bien d'étudier la lumière de la planète elle-même. Cette lumière comprend pour partie la lumière de l'étoile réfléchie par la surface de la planète et, pour partie, de la lumière émise par la planète elle-même.
Une planète possède une luminosité très faible par rapport à son étoile hôte, cette dernière est aveuglante en comparaison !
Et l'on doit pouvoir séparer, sur le détecteur, l'étoile et la planète, très proches l'une de l'autre (8 minutes-lumière pour une planète à une unité astronomique de son étoile) mais toutes deux situées à plusieurs années-lumière de nous !
Les techniques d'imageries directes ont plusieurs buts :
L'imagerie directe permet d'accéder aux planètes situées loin de leur étoile et suffisamment grosses (de masse supérieure à celle de Jupiter). Ces planètes sont difficiles à déteminer par les méthodes indirectes (transits ou vitesses radiales) car elles demandent une étude sur au moins une période orbitale complète, soit plusieurs (dizaines d') années .
Si on arrive à identifier la lumière émise par une planète, et que la quantité de lumière reçue est suffisante, on peut la décomposer par spectroscopie. Cette technique nous permet de déterminer la composition chimique de l'atmosphère de la planète, d'obtenir des informations, comme la température efficace (ou effective temperature en anglais).
Cette technique nous permettra peut être un jour prochain d'identifier la première exo-Terre dotée d'une atmosphère ressemblant à la nôtre...
La formation des planètes et la formation des systèmes planétaires sont des phénomènes encore mal compris, augmenter nos connaissances sur les planètes géantes, jeunes, éloignées de leur étoile, nous permettra de déterminer lesquels parmi les modèles actuels sont valides.
Or les jeunes Jupiter sont justement les cibles privilégiées de l'imagerie directe, voyons pourquoi dans les écrans suivants ...
L'observation par imagerie directe nécessite certaines conditions sur les cibles observables :
C'est en comparant les flux lumineux du Soleil et de ses planètes que l'on peut remarquer au moins deux choses :
Attention : un contraste d'un facteur X correspond à un rapport de !
Comme vous pouvez facilement l'imaginer, pour pouvoir détecter/voir la planète, la différence de luminosité entre l'étoile et la planète doit être aussi faible que possible. Il est donc plus facile de chercher des exoplanète autour d'étoiles peu brillantes.
La luminosité de l'étoile dépend de sa température, cette dernière dépendant de sa masse, et la durée de vie d'une étoile st inversement proportionnelle à cette masse. Suivant sa position dans le diagramme HR (voir ci-dessous) l'étoile évolue donc plus ou moins vite.
Si on cherche à étudier les exoplanètes autour d'une étoile de faible luminosité, on va donc être intéressé par des étoiles de faible masse et faible température, voire même par des naines brunes. Dans les faits, la première exoplanète imagée l'a été autour d'une naine brune.
Mais une planète comme β Pictoris b tourne autour d'une étoile A (blanc-bleutée) de la séquence principale ! Comment se fait-il que l'on puisse imager une planète autour d'une étoile aussi brillante ? Une étoile de type A est très massive, elle quitte donc rapidement la séquence principale. Une étoile A sur la séquence principale est donc jeune, et ses planètes le sont aussi : ainsi β Pictoris a un âge compris entre 10 et 20 millions d'années seulement. Pourquoi est-il intéressant de cibler un système planétaire si jeune ?
Les sources d'énergie permettant à une planète de rayonner peuvent être de deux types :
Comme nous l'avons présenté précédemment, notre problème est similaire à celui d'observer à plusieurs kilomètres de distance la lumière d'une chandelle posée à côté de la lampe d'un phare. Si vous collez la chandelle à la lampe du phare vous n'avez aucune chance de la voir car vous serez totalement éblouis. En revanche, si vous attachez la chandelle à un bras télescopique de plusieurs mètres, vous pourrez la détecter plus facilement.
De plus, si, avec votre bateau, vous vous éloignez trop du phare, vous êtes sûr de ne pas pouvoir observer la chandelle. Pour augmenter les chances d'observer directement une exoplanète, il faut donc que la séparation apparente entre l'étoile et l'exoplanète sur le ciel soit aussi grande que possible, ce qui nécessite :
Dans les écrans qui suivent vous trouverez quelques exemples d'instruments qui sont utilisés ou vont être utilisés dans un proche avenir pour imager les exoplanètes. Cette liste est loin d'être exhaustive mais se veut constituée d'exemples concrets d'instruments dédiés ou non à cette technique.
En premier lieu nous présentons deux satellites dont les archives (observations anciennes) regorgent peut-être de planètes à découvrir (avis aux amateurs) :
De nombreux concepts de satellites dédiés à l'imagerie directe ont été développés, que ce soit par coronographie ou interférométrie, à l'instar de SPICES, Darwin ou TPF. Les développements techniques pour permettre la réalisation de ces missions sont en cours au moment où sont rédigées ces lignes.
Les deux instruments au sol que nous présentons ici sont des instruments européens (contrairement à Hubble et Spitzer qui sont pour leur part américains). Il s'agit de NaCo et de SPHERE.
Ce second instrument, SPHERE, fait partie d'une génération d'instruments pour grands télescopes qui comprend, entre autres, le Projet 1640, MagAO et GPI . L'arrivée de tous ces instruments, pour la plus part dédiés à l'imagerie directe d'exoplanètes, promet une moisson de découvertes dans les prochaines années.
Le télescope spatial Hubble (Hubble Space Telescope, HST en anglais) de la NASA est une des sources d'images d'exoplanètes. Son principal point fort est de se trouver hors de l'atmosphère et donc d'atteindre un pouvoir de séparation angulaire permettant la détection de l'exoplanète.
Remarque : nous verrons comment l'on tente de corriger les perturbations causées par l'atmosphère terrestres pour les instruments situés au sol, dans la partie sur l'optique adaptative.
Pour l'imagerie directe on utilise ACS (pour Advanced Camera for Surveys) qui possède un coronographe, permettant de masquer la lumière d'une étoile pour voir seulement celle provenant des planètes situées autour (voir suite du cours). Cette caméra, installée en 2002, est la plus utilisée pour l'imagerie astronomique en général. L'autre instrument utilisé est STIS (pour Space Telescope Imaging Spectrograph) qui nous donne par exemple l'image ci-dessous.
Un exemple de détection par HST : Fomalhaut b. Cette planète a été annoncée par Paul Kalas, James R. Graham et collaborateurs en 2008 dans la revue Science, autour d'une étoile âgée de 400 millions d'années et située à 7,7 pc de nous. Une non-détection par un autre satellite a jeté un doute sur son existence (voyez la page suivante)...
Un autre satellite jouant un rôle important dans l'imagerie directe d'exoplanètes est le télescope spatial Spitzer. C'est le télescope spatial spécialisé dans l'infrarouge de la NASA, il est utilisé dans notre cas pour vérifier la présence de planètes ou pour contraindre leur rayon et leur masse.
C'est l'instrument IRAC (InfraRed Array Camera), qui est utilisé dans une de ses bandes dans le proche infrarouge pour rechercher les jeunes exoplanètes géantes.
Certains chercheurs expliquent la non-détection par Spitzer de Fomalhaut b (voir la page précédente sur HST) par le fait que la planète serait de faible rayon. Dans ce cas, Spitzer nous donne une limite sur le rayon maximal de la planète.
NaCo est un instrument du Very Large Telescope (VLT) de l'Observatoire Européen Austral (ESO en anglais), il a permis de faire la première image d'une exoplanète confirmée en 2005 par Gaël Chauvin, Anne-Marie Lagrane et collaborateurs.
Son nom vient de la fusion de NAOS et de CONICA, qui sont respectivement un système d'optique adaptative (Nasmyth Adaptive Optics System) et un imageur, polarimètre, coronographe et spectrographe dans le proche infrarouge (Near-Infrared Imager and Spectrograph) et est utilisé par de nombreuses communautés d'astronomes.
Spectro Polarimetric High contrast Exoplanet REsearch (SPHERE) est un instrument de seconde génération du VLT, il doit permettre d'obtenir le spectre des planètes cibles et d'étendre le nombre de planètes étudiées en imagerie directe. Il conjugue une optique adaptative de pointe, la coronographie et l'imagerie différentielle spectrale, polarimétrique et angulaire. Ces concepts vont vous être présentés dans ce cours.
Pour conclure cette partie d'introduction sur le sujet de l'imagerie directe des exoplanètes, voici deux exemples de systèmes planétaires, confirmés et étudiés.
Autour de l'étoile HR 8799 se trouve un système d'au moins 4 planètes géantes plus massives que Jupiter, c'est une étoile jeune (moins de 100 millions d'années), chaude (7230 K de température efficace) et plutôt proche de nous (40 pc).
Ce système de planètes nous permet de rappeler ici la nomenclature utilisée actuellement pour nommer une exoplanète : on commence par le nom de son étoile hôte suivi d'un lettre minuscule partant de "b", les lettres étant distribuées dans l'ordre de découverte des exoplanètes qui ne correspond pas forcément avec un ordre de taille ou de distance à l'étoile hôte. Ainsi, HR 8799 e a été la dernière à être découverte car la plus proche de son étoile et donc la moins facilement séparable.
Autour de la jeune (20 millions d'années) et chaude (8040 K de température efficace) étoile β Pictoris tourne la planète β Pictoris b, située à seulement 20 pc (60 années-lumière) de nous. C'est un jeune Jupiter massif qui perturbe le disque de gaz et de poussières gravitant autour de son étoile.
Nous commencerons cette partie par quelques rappels sur la physique des objets que nous étudions.
Puis nous verrons les informations que nous donne la lumière provenant de ces objets.
Enfin nous verrons comment capturer cette lumière et extraire ces informations.
Commençons par étudier ce qui se passe d'un point de vue physique dans le système planétaire que l'on va chercher à imager:
La planètes suivent les lois de la mécanique découvertes par Newton. En particulier, elles sont soumises à la force de gravitation universelle qui définit des orbites képlériennes.
La position et le mouvement relatif de la planète par rapport à son étoile vont nous permettre de contraindre les éléments de l'orbite (demi grand axe, inclinaison, excentricité), sa période et donc les masses des corps.
Une planète commence sa formation sous la forme d'un noyau solide qui grossit par accrétion de matière.
Si la masse de ce planétoïde dépasse quelques dizaines de (1
correspondant à une fois la masse Terre) , l'accrétion de gaz augmente brutalement pour former une planète géante.
Le modèle précédent, dit de "core accretion" ou accrétion de coeur, n'est pas le seul existant pour expliquer la formation des planètes géantes, un autre modèle est basé sur les modèles de formation des étoiles. En effet les instabilités gravitationnelles dans le disque protoplanétaire provoquent une fragmentation de celui-ci suivi d'effondrements locaux menant à la formation directe d'astres principalement gazeux... Identifier le mode de formation est donc une tache complexe, et l'imagerie directe donne des pistes pour ce faire (notamment la luminosité ou la température en fonction de l'âge de la planète mais aussi sa position par rapport à l'étoile).
Pour en savoir plus, reportez-vous au cours sur la formation des planètes en cliquant ici.
Lorsqu'une étoile vient de se former, elle est entourée d'un disque de poussière et de gaz comme β Pictoris par exemple RAJOUTER LE LIEN. C'est dans ce dernier que vont se former les planètes. Au fil de l'évolution du système planétaire, ce disque va être alimenté par les collisions entre les comètes et les astéroïdes. Ce disque de poussière est très lumineux dans les systèmes jeunes. Il absorbe le rayonnement de l'étoile et son émission (principalement dans l'infrarouge lointain) va avoir tendance à gêner l'observation directe des exoplanètes.
Dans le système solaire le contraste moyen entre la lumière zodiacale et la lumière solaire est de 7 ordres de grandeur.
alors que le rapport des masses entre le disque de poussière et les planètes vaut et que le disque s'étend de 5 à plusieurs centaines d'UA.
Il existe des étoiles autour desquelles on trouve un disque plus de 1200 fois plus brillant, comme η Corvi !
On exprime l'intensité diffusée par la poussière interplanétaire en zodi, 1 zodi étant l'intensité diffusée par le disque de notre système solaire.
Tout corps, à une température donnée, émet un rayonnement particulier appelé rayonnement thermique (ou par abus, rayonnement de corps noir, un corps noir étant un corps parfaitement absorbant à toutes les longueurs d'onde).
Le spectre du rayonnement d'un corps noir ne dépend que de sa température . La longueur d'onde
où ce spectre atteint son maximum est donnée par la loi de Wien:
.
,
et
désignent respectivement les constantes de Planck, la vitesse de la lumière et la constante de Boltzmann. Un corps chaud présente donc un pic d'émission décalé vers les courtes longueurs d'onde par rapport à un corps plus froid. Aux températures ambiantes, ce pic est dans l'infrarouge (dit infrarouge thermique), mais pour des corps atteignant une température plusieurs milliers de Kelvins, ce maximum se décale dans le spectre visible : c'est le cas des étoiles par exemple, ou bien d'un tison chauffé à blanc.
Le flux total (intégré sur toutes les longueurs d'onde) émis par un corps noir ne dépend également que de sa température, suivant la loi de Stefan-Boltzmann :
où
désigne la constante de Stefan-Boltzmann. Un corps chaud rayonne donc bien davantage qu'un corps froid.
La température du corps noir émettant autant de flux thermique que la planète est appelée température efficace () de la planète. Elle est en règle générale voisine de la température physique de la région de la planète d'où est principalement issue l'émission thermique (atmosphère, voire surface solide pour des planètes telluriques dotées d'une atmosphère mince).
Or, on a pu voir précédemment, que le processus de formation des planètes était un processus impliquant des chocs et autres phénomènes violents, ce qui provoque un dégagement d'énergie considérable sous forme de chaleur.
Vous pouvez remarquer que, une fois formée, plus la planète est jeune, plus elle est chaude, et donc plus important est le flux lumineux qu'elle émet. Mais aussi plus la longueur d'onde du maximum de luminosité est courte (et se rapproche du domaine visible) ! Ainsi Jupiter émet actuellement son maximum d'émission autour de 30 µm, tandis que β Pictoris b l'émet autour de 1,7 µm.
Le rayonnement de corps noir des jeunes exoplanètes géantes culmine généralement dans le proche infrarouge. C'est une chance car il y a de nombreuses raies moléculaires (méthane, monoxyde de carbone...) et atomiques (Na, K ...) dans ce domaine spectral, ce qui permet potentiellement d'analyser la composition chimique de ces planètes.
Pour observer depuis le sol dans ce domaine de longueurs d'onde, il faut hélas se restreindre aux fenêtres de transparence de l'atmosphère terrestre, comme les fenêtres J,H et K situées dans le proche infrarouge (voir l'image ci-dessous).
La formation des planètes étant quasi-concomittante à celle de leur étoile hôte, on assimile souvent l'âge de la planète à celui de son étoile. Par exemple la Terre a terminé sa formation 20 millions d'années après le Soleil, ce qui est négligeable en comparaison des 4,6 milliards d'années du système solaire.
Pour déterminer l'âge d'une étoile on peut déterminer, par son mouvement propre, à quel groupe d'étoiles elle appartient. Le groupe d'étoiles, dont les étoiles ont été formées au même moment et se déplaçant dans la même direction, peut nous donner son âge grâce à sa répartition au sein du diagramme HR. http://astro.unl.edu/naap/hr/animations/hr.html
On peut aussi relier, pour un type stellaire donné, l'âge à l'activité et à la couleur de l'étoile. La couleur s'obtient en prenant deux mesures de flux photométriques dans deux domaines de longueur d'onde différents. Pour l'activité, l'observation de plusieurs marqueurs spectroscopiques est possible ainsi que l'émission dans le domaine des rayons X.
La rotation de l'étoile est aussi liée à l'activité et donc à son âge, la comparaison de la rotation propre d'une étoile avec sa couleur va donc nous permettre de remonter à ce premier paramètre, pour un type spectral donné.
Les planètes et les étoiles émettent des photons dans l'espace et certains vont arriver jusqu'à la Terre... Notre seule source d'information, ce sont ces photons !
Les observations sont effectuées avec un ou plusieurs télescopes, qui vont collecter et envoyer un grand nombre de photons au foyer de l'instrument. L'image se forme alors sur un capteur CCD (Charge-Coupled Device, dispositif à transfert de charges), qui est un récepteur à photons transformant ces derniers par effet photoélectrique en courant électrique. Ceci permet donc l'enregistrement d'une image notamment pour être envoyée et traitée par un ordinateur.
Sont identifiables sur l'image obtenue par le capteur CCD :
Pour voir la planète, il faut que son image et celle de l'étoile ne soient pas superposées, cela sous-entend que leur écartement angulaire sur le ciel soit suffisamment important. La mesure de cet angle se fait en seconde d'arc (aussi noté "), qui est une subdivision du degré, un degré correspondant à 60 minutes d'arc (60') et une minute d'arc à 60 secondes d'arc (60").
Cette séparation angulaire dépend de la distance séparant les deux corps (voir la partie mécanique) et de la distance séparant le système exoplanétaire de l'observateur terrestre
.
Or, si l'on prend un cas typique d'un planète à 100 UA autour d'un étoile située à 10 pc de nous, le rapport
vaut plus de cent mille ! La séparation angulaire
entre l'étoile et l'exoplanète vues depuis la Terre est alors donnée simplement par la formule trigonométrique
. Comme
, cette formule se simplifie en
si l'on mesure
en radians (il faudra alors le convertir en secondes d'arc :
).
La lumière qui nous permet d'identifier la planète provient de plusieurs mécanismes physiques. L'étoile émet de la lumière au niveau de sa photosphère, dont l'intensité et la couleur vont dépendre de sa température efficace (cf. corps noir). Mais la planète (suivant son éloignement par rapport à son étoile) va réfléchir une partie de la lumière stellaire suivant son albédo (littéralement sa capacité à réfléchir la lumière). Elle va aussi émettre sa propre émission thermique selon sa propre température efficace. AJOUTER LIEN.
On exprime la différence d'intensité lumineuse entre l'étoile et la planète grâce au contraste, définit comme :
Le contraste en magnitude est défini comme la différence de magnitude (LIEN VERS PAGE SUIVANTE) entre la planète et l'étoile.
Pour mesurer la luminosité d'un objet en astrophysique, on utilise les magnitudes.
Par définition la magnitude est liée au flux spectral émis ou réfléchi
par la formule
où
est le flux spectral d'une étoile de référence (par défaut Véga) qui correspond arbitrairement à une magnitude de 0.
En général on considère deux types de magnitudes :
Les magnitudes sont d'usage courant en astronomie et très utiles. Elles permettent, entre autres choses, de construire des diagrammes couleur-magnitude ou couleur-couleur qui donnent des informations similaires au diagramme HR tout en pouvant être construits beaucoup plus facilement à partir des observations disponibles. Ici, une couleur désigne la différence entre deux magnitudes observées dans deux bandes spectrales différentes.
Une fois les photons observés, il faut trouver puis étudier les éventuelles planètes... Or ce n'est pas chose facile : les planètes ne sont pas du tout visibles directement dans les données brutes (les deux premières images en partant de la gauche de la figure ci-dessus).
Il faudra donc utiliser certains concepts avancés de traitement du signal :
La lumière est une onde électromagnétique, et l'intensité lumineuse est proportionnelle au carré de l'amplitude de cette onde. Comme toute onde, elle est sujette aux phénomènes de diffraction et d'interférence, qui vont être particulièrement importants ici. Ainsi l'image de l'étoile hôte, que l'on assimile a une source ponctuelle vue depuis la Terre, va devenir une tache d'Airy (voir image ci-dessous) sur le récepteur du fait de l'utilisation d'instruments d'ouverture finie (l'ouverture est directement reliée au diamètre du miroir principal du télescope). La lumière de l'étoile va donc s'étaler sur l'ensemble du détecteur, compliquant la détection de la ou des planètes éventuellement présentes !
Il est important de remarquer que cette tache centrale a une taille caractéristique proportionnelle à la longueur d'onde et inversement proportionnelle à l'ouverture du télescope. Cela implique que pour avoir une résolution suffisante, il faut une ouverture en adéquation avec la longueur d'onde : pour pouvoir espérer observer une planète proche de son étoile dans l’infrarouge lointain, il faudrait ainsi un télescope de plusieurs dizaines de mètres d'ouverture !
Mais cet aspect ondulatoire présente aussi des avantages : il permet de mettre en œuvre des techniques d'observation basées sur la combinaison de plusieurs télescopes. Ainsi, l'interférométrie permet ainsi de combiner plusieurs télescopes individuels et distants les uns des autres pour obtenir un gain de séparation angulaire. L'interférométrie permet aussi d'occulter l'étoile hôte en jouant sur les interférences destructives.
Comme constaté précédemment, l'image de l'étoile hôte formée sur le récepteur d'un instrument se présente sous la forme d'une tache qui recouvre les images des planètes tournant éventuellement autour d'elle. Notre but va donc être de retirer l'image de l'étoile et d'autres résidus parasites qui pourraient se former à cause des phénomènes de diffraction et d'interférence (les tavelures). Un moyen naturel de retirer la lumière d'une étoile, observable sur Terre depuis l'aube des temps, est le phénomène de l'éclipse solaire, où le Soleil est masqué par la Lune.
C'est sur ce principe que l'astrophysicien Bernard Lyot développa au début du vingtième siècle un coronographe, instrument qui permet de cacher la lumière du soleil par l'utilisation d'un masque disposé sur le chemin optique et d'un collimateur pour atténuer les résidus. Les instruments qui font de l'observation en imagerie directe d'exoplanète utilisent ce même concept, voire des versions plus évoluées : coronographie de phase, coronographie interférentielle achromatique, etc.
[Pour en savoir plus sur les coronographes actuels et futurs cliquez ici.]
Voici ce qui se passe dans un coronographe de Lyot, expliqué au moyen de l'optique géométrique. La lumière de l'étoile (vert) et celle de la planète (rouge), sont légerement décalées d'un certain angle sur le ciel. Si l'on place la lumière de l'étoile dans l'axe de l'instrument, celle de la planète arrive avec un certain angle, on dit que la planète est située hors-axe. Une lentille placée en A va donc faire converger en son foyer image les rayons de l'étoile mais pas ceux de la planète, il suffit alors de placer un petit écran au foyer image (dans le plan B) de la lentille (placée en A) pour arrêter toute la lumière provenant de l'étoile et ne garder que celle de la planète, dont on forme finalement l'image seule sur l'écran D.
Malheureusement cela ne fonctionne pas directement. En effet, il faut considérer ici le fait que l'ouverture de l'instrument est finie (le télescope a un certain diamètre), ce que l'on modélise ici par la présence d'un collimateur en A.
En tenant compte du phénomène de diffraction par l'entrée de l'instrument (rayons en bleu), une partie importante des rayons difractés ne sont pas arrétés par l'écran en B. Il faut donc placer un autre diaphragme sur le chemin, en C, qui va bloquer la plus grande partie des rayons diffractés.
Dans une approche pleinement ondulatoire (on utilisera le formalisme complexe par la suite) : si l'on considère l'amplitude de l'étoile avant l'entrée dans l'instrument de diamètre
et sa phase
, alors la phase du rayon provenant de la position
sur le plan A, vu à la position angulaire
au niveau du plan B est donnée par
dans l'approximations de Gauss (petits angles hors-axe).
L'amplitude reçue au niveau du plan B depuis tous les points source virtuels dans l'ouverture en A est alors donnée par intégration : ou, en omettant le facteur de normalisation :
. L'amplitude de lumière reçue dans l'instrument, venant de l'étoile, est donc dépendante du diamètre
de l'instrument et de la longueur d'onde d'observation
.
En fait, à chaque étape, les images intermédiaires vont être convoluées (voir ici, partie Transformée de Fourier et de Laplace, là et là) par la fonction de transmission de l'instrument (masque, diaphragmme ...) et va voir son intensité diminuer.
Au niveau du plan C (indiqué par stop dans le schéma ci-dessus), après le passage du masque (mask), on obtient une amplitude de formule : où
est la fonction de transmission du masque placé en B. Dans le cadre d'un coronographe,
. L'amplitude au niveau du plan C va être donc être atténuée par rapport à celle au niveau du plan B, ce rapport dépendant de celui entre la taille angulaire du masque
et l'ouverture
de l'instrument.
Au niveau où l'on place le détecteur, en D, l'amplitude finalement observée est donnée par : où
est la fonction du transmission du Lyot-Stop, un diaphragme dont on considérera la fonction de tranmission également rectangulaire :
.
On montre alors que l'amplitude de la lumière entrant dans l'axe de l'instrument (celle de l'étoile) va diminuer selon le rapport : plus le masque sera grand et le Lyot-Stop fermé, plus la lumière de l'étoile sera "éteinte" et donc plus facilement la planète sera visible. Attention toutefois, la lumière provenant d'une éventuelle planète doit quant à elle être transmise ! Il faut donc trouver un compromis entre la diminution d'intensité de la lumière de l'étoile et la conservation de l'intensité en provenance d'une éventuelle planète, dont on ne connaît pas a priori la séparation angulaire avec l'étoile...
Nous venons de voir que la coronographie permet de retirer la majorité de la lumière provenant de l'étoile... mais d'une étoile théorique, considérée comme ponctuelle ! Or il n'y a pas que les effets d'optique ondulatoire au sein de l'instrument qui entrent en jeu, mais aussi (dans le cas des instruments au sol) les effets de l'atmosphère terrestre. À elle seule cette dernière va modifier la forme de l'image de l'étoile, ce qui va accentuer les résidus et ce d'une façon très variable dans le temps, du fait notamment du vent. Ces effets atmosphériques se manifestent par la déformation des fronts d'onde, et dégradent la résolution angulaire de l'instrument au-delà des limites théoriques imposées par l'optique ondulatoire (dépendant de l'ouverture et de la longueur d'onde). Dans les cas les plus extrêmes, ces déformations optiques sont mêmes visibles à l'oeil nu : c'est le fourmillement apparent d'un objet observé au-dessus d'une route asphaltée en été, ou au-dessus d'un barbecue...
Pour s'opposer à ces effets, on utilise l'optique adaptative. Cette technique analyse le front d'onde après réflexion sur un miroir déformable, puis modifie la forme du miroir pour compenser les effets de l'atmosphère en temps réel.
Dans les précédentes parties nous avons vu les techniques utilisées pour retirer la lumière de l'étoile hôte et corriger les perturbations sur le chemin de la lumière... mais ces corrections ne sont pas parfaites ! Sur le détecteur, nous voyons des taches dispersées qui sont les résidus que la coronographie et l'optique adaptative n'ont pas réussi à corriger. Le problème est que ces taches peuvent être prises pour des planètes ou se superposer aux images de ces dernières. Nous allons donc devoir tenter de retirer ces résidus, aussi appelés artefacts.
Une manière différente d'aborder le problème est de passer par l'interférométrie, et en particulier l'interférométrie annulante. L'idée de base va être d'utiliser au moins deux télescopes assez éloignés pour augmenter la résolution angulaire (et donc bien distinguer l'étoile de l'éventuelle planète), et d'essayer de diminuer l'intensité en provenance de l'étoile (mais pas de la planète !) au moyen d'interférences destructives.
Au lieu d'avoir comme facteur limitant, en résolution angulaire, le diamètre de l'instrument, l'interférométrie permet de passer d'une résolution proportionnelle à
à un résolution proportionnelle à
où
est la ligne de base d'interférométrie (dans le cas de deux télescopes, il s'agit de la distance entre ces deux télescopes). Ces télescopes éloignés sont reliés entre eux par un chemin optique conçu de telle sorte que les interférences produites par la lumière arrivant dans l'axe des télescopes (la lumière de l'étoile) conduisent à une annulation des deux ondes en provenance des deux télescopes. On obtient donc sur le récepteur une figure de franges d'interférences centrées sur l'étoile au coeur d'une frange sombre. Mais la planète, elle, est située hors-axe : elle apparaît donc légèrement décalée et, si la figure d'interférences est correctement mis en place, échappe non seulement aux interférences destructives mais profite même d'interférences constructives pour augmenter le signal.
Nous avons parlé précédemment de la coronographie qui est utilisée sur des grands télescopes, notamment ceux de 8 m de diamètre du VLT. Ces instruments travaillent dans le proche infrarouge et le visible mais ne peuvent pas atteindre de plus grandes longueurs d'onde comme l'infrarouge moyen qui serait pourtant très intéressant pour étudier les raies spectrales des molécules, ou pour étudier des planètes plus froides émettant leur spectre thermique à de plus grandes longueurs d'onde. Le problème vient du fait qu'un télescope de 8 m de diamètre ne peut pas facilement séparer les sources à grandes longueurs d'onde, le pouvoir de résolution d'un télescope étant proportionnel à . Il faut donc augmenter la taille du télescope, ou combiner le flux de plusieurs télescopes comme nous le présentons ici. On peut alors aisément obtenir une ligne de base de 100 m en séparant 2 télescopes de cette distance.
Plusieurs étapes-clés sont à mettre en oeuvre pour l'interférométrie annulante :
Chaque téléscope collecte une partie du même front d'onde en provenance du système exoplanétaire.
On relie les télescopes entre eux par fibres optiques, et on ajuste les chemins optiques dans chaque fibre pour égaliser les phases.
On déphase ensuite au moins l'un des chemins optiques par rapport aux autres (déphasage de 180° dans le cas d'un système à deux télescopes).
On combine alors tous les flux sur le même détecteur.
Ce système annule alors la lumière située sur l'axe optique (celle de l'étoile) par interférences destructives mais pas la lumière hors axe (celle des planètes). Le déphasage en entrée de l'instrument sera donné par où
désigne l'écart sur le ciel entre la planète et l'étoile (donc dans une direction normale à l'axe optique), et
est la séparation entre la planète et l'étoile dans la direction de l'axe optique.
Deux satellites de recherche d'exoplanètes par interférométrie font partie des projets à long terme des agences spatiales européenne et américaine, ce sont respectivement les missions Darwin et TPF-I. Difficiles à mettre en oeuvre techniquement, ces missions nécessitent encore des développements technologiques pour envisager leur réalisation.
Comme vous pouvez le voir sur l'illustration ci-dessus, l'idée et de faire voler en formation 4 quatres satellites "miroirs", combinant leurs faisceaux sur un cinquième satellite, la longue ligne de base étant négligeble devant la "distance focale" de l'instrument (le dernier satellite est très éloigné des 4 premiers). Pour être efficace, chaque faisceau va recevoir un déphasage précis selon deux configurations (appelées droite et gauche).
Configuration | ![]() | ![]() | ![]() | ![]() | Signal attendu |
---|---|---|---|---|---|
Gauche | 0° | 180° | 90° | 270° | étoile annulée + disque de poussière gauche + planète gauche |
Droite | 0° | 180° | 270° | 90° | étoile annulée + disque de poussière droite + planète droite |
L'idée de base de l'imagerie différentielle est de prendre plusieurs images de l'étoile et de sa planète (ou ses planètes) et de profiter des différences entre les images de ces objets pour les identifier et les distinguer. Après l'acquisition des données brutes par l'instrument, il faut commencer par les corriger des biais instrumentaux, de la réponse des pixels du capteur CCD, on obtient alors les images dites scientifiques. Il faut ensuite corriger les effets de l'instrument (on appelle cela déconvoluer l'image de l'étoile (selon la PSF, ou Point Spread Function de l'instrument, c'est-à-dire l'étalement d'un point source sur le détecteur). Pour ce faire, plusieurs méthodes sont possibles suivant l'instrument.
L'imagerie différentielle angulaire (ADI en anglais), va exploiter la rotation des objets sur la voûte céleste, comme vous pouvez le voir sur cette [ animation ]. Les étoiles présentent un déplacement apparent dans le ciel au cours de la nuit suivant des arcs de cercle centrés sur le pôle céleste. En général, un télescope moderne compense cette rotation automatiquement, mais ici nous bloquons cette rotation et suivons seulement le déplacement apparent de l'étoile sans rotation de l'instrument. Cela a pour effet d'appliquer une rotation de l'image de la planète (à ne pas confondre avec la révolution de la planète autour de son étoile) dans le ciel autour de l'axe de rotation de la Terre. Il "suffit" alors de faire la médiane des différentes images pour annuler les signaux non fixes (comme les éventuelles planètes), ce qui revient à ne garder que la PSF de l'étoile (ponctuelle) comme image médiane. Ensuite on soustrait cette PSF de toutes les images scientifiques, puis on applique une rotation de sens opposée à celle observée sur les images de façon à corriger la rotation sur le ciel, et finalement on additionne les images pour faire ressortir les planètes (si il y en a).
La lumière émise par les étoiles n'est pas polarisée, mais quand celle-ci est diffusée ou réfléchie par des disques ou des planètes elle peut acquérir une polarisation LIEN VERS GRAIN POLARISATION. Forts de ce constat, nous pouvons prendre deux images acquises avec deux polariseurs dans des directions perpendiculaires. L'étoile apparaît inchangée, tandis que les sources secondaire par réflexion ou diffusions présenteront des différences. On peut dont soustraire l'une des images à l'autre pour ne garder que les disques et les planètes proches.
Les planètes et les étoiles émettent des spectres caractéristiques, comportant des raies spectrales diverses selon la physico-chimie de ces objets (température, gravité, composition). Dans certaines bandes de longueurs d'onde, seul l'un des deux types de corps possède des absorbants : c'est par exemple le cas du méthane pour les planètes (du moins celles assez froides pour que des molécules puissent exister dans leurs atmosphères). Les tavelures, quant à elles, apparaissent à une distance angulaire proportionnelle à la longueur d'onde. L'imagerie différentielle spectrale (SDI en anglais) part du principe que l'on acquiert plusieurs images, simultanément, dans plusieurs bandes de longueurs d'onde judicieusement choisies. On ajuste ensuite leur échelle relative afin de pouvoir identifier et de retirer les tavelures. Ceci nous permet d'exploiter les différences entre étoiles et planètes pour extraire des informations sur ces dernières.
Acquérir une image de la planète, dans différentes bandes spectrales, permet d'obtenir quelques informations sur celle-ci. Mais ces informations sont dégénérées, c'est-à-dire que plusieurs jeux de paramètres physiques vont pouvoir correspondre aux différentes images observées. Ces dégénérescences peuvent être en partie levées si l'on obtient un véritable spectre de la planète (avec une résolution spectrale suffisante), ce qui explique pouquoi les instruments qui sont mis en service depuis 2013 (SPHERE, GPI, Project 1640, etc.) soient conçus pour en obtenir.
Pour ce faire, ces instruments comportent un IFS (Integral Field Spectrograph), qui va disperser spectralement la lumière censée arriver sur chaque pixel. Ainsi, au lieu d'avoir une image en deux dimensions comme pour l'imagerie pure, on obtient un cube spectral (une image en 3 dimensions) : les deux coordonnées de position sur la grille des pixels et la troisième coordonée selon la longueur d'onde observée. Une coupe du cube selon les dimensions horizontales donnera une image à la longueur d'onde de la "tranche" choisie, tandis qu'une ligne à position spatiale donnée suivant la dimension spectrale donnera le spectre observé en ce point de l'image. L'observable brut obtenu est donc un cube correspondant au flux reçu par le capteur CCD en fonction de la position du pixel et de la longueur d'onde.
Il faut retirer des cubes spectraux les artefacts lumineux provenant de l'étoile et les tavelures pour pouvoir localiser les éventuelles planètes.
Les artefacts proviennent des phénomènes d'interférence et de diffraction qui ont lieu le long du chemin optique, leurs positions vont changer proportionnellement à la longueur d'onde. Il est donc possible d'effectuer un changement d'échelle du cube suivant la longueur d'onde pour superposer toutes les images d'une tavelure en fonction de la longueur d'onde (dans ce nouveau cube où toutes les longueurs d'onde sont ramenées à la même échelle c'est désormais l'image de la planète qui va changer de position suivant la longueur d'onde). Il est alors possible de déterminer la forme exacte des tavelures et artefacts (indépendante de la longueur d'onde dans ce cube mis à l'échelle). On peut alors remettre les tavelures et artefacts seuls à lPuis on cherche quelle est la forme du flux en fonction de la longueur d'onde, et on retire les pixels où elle apparaît. Enfin on change à nouveau l'échelle du cube à sa valeur initiale pour toutes les longueurs d'onde.
Dans ce cube, débarrassé des tavelures, on peut maintenant chercher les spectre d'une ou plusieurs planètes. Pour faire cela on effectue une corrélation croisée avec un jeu de spectres synthétiques sur chaque pixel et on se concentre sur les meilleurs coefficients de corrélations. On extrait ensuite le spectre de la planète identifié si elle existe.
On a déjà vu qu'il fallait une séparation angulaire minimale pour pouvoir imager une planète, du fait de la proximité de l'étoile bien plus brillante. En pratique, pour les instruments modernes, cette séparation minimale est de l'ordre du dixième de seconde d'arc. Attention cependant, la zone du capteur CCD où l'optique adaptative est efficace est restreinte à une petite partie du champ de vue. Les techniques de recherche d'objets se focalisent ainsi sur une zone restreinte... Pour l'instrument SPHERE, par exemple, on peut considérer que l'on recherche des planètes entre 0,1" et 3". Les planètes trop loin de leur étoile hôte sont donc difficiles à imager !
Avoir une cible qui se comporte lors d'une observation comme une exoplanète ne suffit pas à annoncer la découverte d'une exoplanète. On recense avec le satellite Kepler 4234 candidats, en juillet 2014, et (seulement ?) 977 exoplanètes confirmées. Dans le cas de l'imagerie directe, une première détection ne suffit pas à annoncer la découverte d'une exoplanète, il en faut au moins deux pour prouver que l'objet en question est lié gravitationnellement à une étoile, et cela permet de se faire une idée de l'orbite de l'objet. Le problème étant que les planètes détectées en imagerie directe sont éloignées de leurs étoiles et donc ont un mouvement autour de leur étoile très lent, il faut attendre plusieurs mois voire années pour obtenir des positions significativement différentes !
En effet, la source lumineuse que l'on observe à côté de l'étoile (un possible candidat planétaire), peut, en définitive, se révéler être une étoile située plus loin sur la ligne de visée (une étoile de champ), ou bien une zone plus dense que la moyenne dans le disque autour de l'étoile. En imagerie directe il faut au moins deux observations de l'objet, avec des images différentes, cohérentes avec une orbite képlérienne et un masse minimale inférieure à 13 masses de Jupiter, pour confirmer la présence d'une exoplanète. On peut alors déclarer la détection d'un objet lié à l'étoile et de masse planétaire (au dessus de 13 masses de Jupiter on entre dans le domaine des naines brunes).
Une autre grande inconnue laissée par l'imagerie directe est la masse de la planète, paramètre essentiel qui va déterminer si l'objet est une planète ou une naine brune ! Or, si l'on se restreint à l'imagerie directe, seule l'utilisation de modèles plus ou moins bien contraints permettent d'en estimer une.
Une mesure, indirecte, en vitesse radiale ou en astrométrie, si celles-ci sont possibles, permettraient de contraindre la masse de la cible ainsi que sa période de révolution autour de l'étoile..
C'est autour de l'étoile Fomalhaut que se trouve un objet, peut-être encore sujet à controverse. En effet dans le disque d'accrétion de cette étoile, on a annoncé avoir trouvé dans des images visibles du HST une planète.
Mais les images prises par Spitzer en infrarouge ne montrent rien ! Pour les défenseurs de la "découverte", c'est que la planète est trop petite pour être vue par Spitzer. Pour les détracteurs de cette "découverte" un objet vu en visible mais pas en infrarouge, ne peut pas être une planète.
Voici quelques questions sur les paramètres importants à prendre en compte dans l'imagerie directe des exoplanètes :
Voici quelques questions sur les cibles de l'imagerie directe :
Voici quelques questions sur les effets de l'atmosphère terrestre, et comment on tente de les corriger.
Hors atmosphère, avec un optique parfaite, il n'est toujours pas simple de séparer les planètes de leurs étoiles. Voici quelques questions sur ces techniques :
Au sol, nous devons corriger les effets de l'atmosphère terrestre et le fait que l'optique n'est pas parfaite. Voici quelques questions sur la correction de ces effets:
L'une des données les plus importantes pour l'imagerie directe d'exoplanète est l'angle sur le ciel entre la planète et son étoile, les questions qui suivent vont vous permettre de comprendre les liens entre la dynamique du système observé et cette importante observable.
![]() | ![]() | constante de la gravitation universelle |
![]() | ![]() | luminosité solaire |
![]() | ![]() | masse de la Terre |
![]() | ![]() | masse de Jupiter |
![]() | ![]() | masse du Soleil |
![]() | ![]() | nombre d'Avogadro |
![]() | ![]() | constante des gaz parfaits |
![]() | ![]() | rayon terrestre équatorial |
![]() | ![]() | rayon jovien équatorial |
![]() | ![]() | rayon solaire équatorial |
Ryd | ![]() | constante de Rydberg |
UA | ![]() | unité astronomique |
![]() | ![]() | vitesse de la lumière dans le vide |
![]() | ![]() | charge électrique élémentaire |
![]() | ![]() | constante de Planck |
![]() | ![]() | constante de Boltzmann |
pc | ![]() | parsec |
![]() | ![]() | constante de Stefan-Boltzmann |
![]() | ![]() | température efficace du Soleil |
51 Peg b est la première exoplanète découverte autour d'une étoile de type solaire, elle a été découverte par la méthode des vitesses radiales.
Elle est en orbite à 52 millièmes d'unités astronomiques autour de l'étoile 51 Peg, qui se situe à 14,7 parsec de nous.
Quel est l'ordre de grandeur de la séparation angulaire entre la planète de son étoile ?
Corot 7 b est une planète de type super-Terre, d'un rayon inférieur à 2 fois le rayon terrestre, découverte par le satellite du CNES CoRot grâce à la technique des transits.
Elle est en orbite à 17 millièmes d'unités astronomiques autour de l'étoile Corot 7, qui se situe à 150 parsec de nous.
Quel est l'ordre de grandeur de la séparation angulaire entre la planète de son étoile ?
2M1207 b est la première planète imagée, autour d'une naine brune.
Elle est en orbite à 46 unités astronomiques autour de la naine brune 2M1207 qui se situe à 52 parsec de nous.
Quel est l'ordre de grandeur de la séparation angulaire entre la planète de son étoile ?
Les deux premières questions de cette page portent sur des planètes découvertes par les techniques des vitesses radiales et par celle des transits.
Au vu des résultats que vous avez obtenu, pensez-vous qu'il soit possible d'imager facilement ces deux planètes ?
Pouvoir observer un objet va dépendre de plusieurs facteurs.
Pour faire de l'imagerie directe, on utilise soit des instruments au sol, soit des satellites. Ces deux méthodes ont leurs avantages et leurs inconvénients... Quels sont-ils ?
La gamme de longueur d'onde que vous utilisez pour observer est essentielle. Pour observer un planète, il faut que le flux qui en provient soit suffisant en comparaison de celui de son étoile hôte. La sélection du domaine spectral va dépendre de l'âge de la planète, de sa distance à l'étoile et des domaines spectraux accessibles.
Déterminez pour les trois planètes qui suivent, à quelle longueur d'onde se trouve le maximum spectral de leur émission, et calculez leur flux surfacique.
Concluez sur la facilité de détecter ces planètes.
Fin 2012, une planète ressemblant à la Terre et tournant autour de l'étoile α Centauri B (faisant partie du système stellaire le plus proche de nous) a été annoncée. Elle a été découverte par vélocimétrie radiale. [Pour plus d'information cliquez ici]
Le système α Centauri est constitué des 3 étoiles :
Imaginons qu'une forme de vie intelligente, au même niveau technologique que nous, y habite et cherche à étudier notre système solaire. Auraient ils la possibilité de détecter la Terre ? Ou au moins Jupiter ? Pour le savoir répondons aux quelques questions des pages suivantes...
Masse | Période | Vitesse orbitale | Rayon | Température efficace | |
Terre | ![]() | d'après vous ? | 30 km/s | ![]() | ![]() |
Jupiter | ![]() ![]() | ![]() | à calculer | ![]() ![]() | ![]() |
α Cen B a une parallaxe de 796,92 milliarcsecondes.
Quel la distance entre la Terre et le Soleil ? Entre Jupiter et le Soleil ?
Sous quel angle apparent dans le ciel de α Cen Bb observerait-t-on la distance Terre-Soleil ? la distance Jupiter-Soleil ?
Dans quelle gamme de longueur d'onde rechercher ces planètes ?
Quel est le contraste entre la Terre et le soleil, entre Jupiter et le soleil ?
Si ces extraterrestres ont un petit peu d'avance sur nous et ont à disposition les télescopes au sol que nous prévoyons d'avoir au cours des décennies à venir. Peuvent-ils observer, voire étudier la Terre ou Jupiter ? Si oui est-ce une tache facile ?
Sachant que le contraste entre la lumière zodiacale et la lumière solaire dans le système solaire est de 10-7 entre 5 et plusieurs centaines d'UA, cela change-t-il vos conclusions ?
Ce projet va vous confronter au travail que les astrophysiciens effectuent pour étudier les planètes extra-solaires par la technique de l'imagerie directe.
Pour ce faire, vous allez partir des contrastes photométriques obtenus pour une planète, déterminer les magnitudes de l'objet, et comparer ces caractéristiques à celles des naines brunes. Pourquoi les naines brunes ? Parce que ce sont de objets étudiés de façon similaire aux jeunes exoplanètes géantes et que l'on a beaucoup plus d'observations sur ces étoiles avortées.
Les données qui suivent proviennent d'un article scientifique, et d'observations par imagerie directe coronographique. Le premier tableau donne des informations sur la date des observations, les filtres utilisés (ici J, H, et M') et le contraste entre l'objet et l'étoile, en magnitude.
Dates : | Filtre | Contraste en magnitude |
---|---|---|
16/12/2011 | J | ![]() |
16/12/2011 | J | ![]() |
16/12/2011 | J | ![]() |
18/12/2011 | H | ![]() |
18/12/2011 | H | ![]() |
18/12/2011 | H | ![]() |
11/01/2012 | H | ![]() |
11/01/2012 | H | ![]() |
11/01/2012 | H | ![]() |
11/01/2012 | H | ![]() |
26/11/2012 | M' | ![]() |
26/11/2012 | M' | ![]() |
26/11/2012 | M' | ![]() |
26/11/2012 | M' | ![]() |
Le second tableau, extrait du même article, vous donne des informations sur les caractéristiques de l'étoile.
Paramètres | Valeur |
---|---|
Distance depuis la Terre (pc) | ![]() |
![]() | ![]() |
![]() | ![]() |
![]() | ![]() |
![]() | ![]() |
![]() | ![]() |
Type spectral | A6V |
Température efficace (K) | [8052, 8036] |
Luminosité : ![]() | ![]() |
Masse (en masse solaire) | ![]() |
Une base de données contenant des informations sur les naines brunes est disponible ici : DwarfArchives
Question subsidiaire : Quel type de naine brune est le plus proche de ces observations?
Les observations présentées ici consistent en des contrastes entre la planète et l'étoile. Il vous faut donc utiliser les magnitudes de l'étoile et la distance nous séparant du système pour déterminer les magnitudes de la planète.
Pour comparer la température de l'étoile et la planète il est préférable d'utiliser les flux émis par ces deux corps.
Calculer le flux observé pour l'étoile et la planète dans les bandes disponibles.
Tracer les flux émis par l'étoile et de la planète en fonction de la longueur d'onde dans les différentes bandes
Conclure sur la différence de température entre les deux corps.
La table suivante réunit des informations sur les naines brunes connues.
Couleur magnitude naines brunes
Construire un diagramme magnitude - couleur des naines brunes en utilisant l'application et en choisissant judicieusement les bandes spectrales. Placer la planète dans la diagramme.
En comparant les types spectraux (L, T) des naines brunes et leur position dans le diagramme, conclure sur le type spectral de la planète.
Référez vous à l'article de Mickael Bonnefoy et collaborateur dans Astronomy & Astrophysics en 2013 pour une étude détaillée de ce qui est demandé ici.
-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------
L'observation directe d'exoplanètes est délicate à cause du grand contraste entre l'étoile et la planète. La plupart des détections sont faites en utilisant un effet de la planète sur l'étoile. Par exemple, la technique des transits consiste à mesurer une baisse de luminosité reçue, éventuellement due à une planète passant devant l'étoile observée.
Les techniques d'observations dont il est question dans ce cours reposent sur un principe simple: si des planètes orbitent autour d'une étoile, alors celle-ci aura un mouvement dépendant des planètes. En l'analysant, on infère la présence ou non de planètes et si oui, leurs orbites.
En effet, en astrométrie on mesure les variations de position angulaire de l'étoile et la détection par vitesse radiale consiste à mesurer la vitesse de l'étoile sur la ligne de visée. Le phénomène physique exploité et la réduction des données est similaire, c'est pourquoi ces deux méthodes seront présentées conjointement. Ce cours a deux objectifs:
On présentera un modèle d'observations "sans bruit" relativement réaliste, les principales sources d'incertitude, le principe des instruments utilisés et des éléments de traitement de données.
Lorsque la distance entre une source d'onde et un observateur varie dans le temps, la longueur d'onde vue par l'observateur varie aussi. Ce phénomène, appelé effet doppler, est ce qui permet la détection du mouvement radial de l'étoile. Cet effet est géométrique, et présent pour tous les types d'ondes. Un exemple bien connu est celui de la sirène d'ambulance: le son qu'elle émet a l'air plus grave une fois qu'elle est passée devant nous. Pour le comprendre, considérons une personne qui se baigne sur une plage (suffisament loin pour que les vagues se brisent derrière elle). Si elle reste statique les vagues vont l'atteindre avec une certaine période. Selon qu'elle s'avance vers le large ou revient vers la plage elle rencontrera les vagues plus fréquemment ou moins fréquemment. De la même manière, plus vite l'étoile s'avance vers la Terre, plus la lumière reçue est décalée vers les hautes fréquences.
L'énergie par longueur d'onde d'une source lumineuse, ou de manière équivalente, le nombre de photons reçus par longueur d'onde, est appelé le spectre de cette source. Cette définition fait intervenir une mesure, le spectre dépend donc de l'observateur. La lumière provenant d'une étoile est composée à priori d'une infinité de longueurs d'ondes. Certaines d'entre elles sont absorbées par l'atmosphère de l'étoile, de sorte qu'elles sont absentes du spectre mesuré. On parle de raies d'absorption. Le spectre d'une étoile a un aspect proche de la figure 1. Si la source lumineuse et l'observateur sont immobiles l'un par rapport à l'autre, l'observateur verra un certain profil spectral (intensité par longueur d'onde
. Si maintenant la source et l'observateur ont une vitesse relative
au temps
, l'observateur verra un spectre décalé
avec
où
est la vitesse de la lumière, dans l'hypothèse où
est très petit par rapport à
. En mesurant
on peut remonter à
. La présence d'une planète autour d'une étoile engendre un mouvement périodique de celle-ci, donc un décalage périodique du spectre (voir figure 2).
La mesure du décalage du spectre est utilisée depuis la fin du XIXe siècle pour détecter des étoiles binaires. La vitesse de l'étoile dont on observe le spectre (étoile cible) diminue avec le rapport de masse du compagnon et de l'étoile cible. Plus faible est la masse du compagnon plus il est difficile de le détecter. Les techniques ont été perfectionnées pour détecter des compagnons de masses de plus en plus faible.
Remarque: Une des limitations des mesures de vitesse radiale est qu'on ne mesure qu'une masse minimale car on mesure la projection du mouvement selon une direction. En notant l'angle entre la ligne de visée et le plan orbital d'un objet de masse
, on mesure
.
En 1989, Latham trouve un objet d'une masse minimale de 11 masses de Jupiter (notée ) en orbite autour d'une étoile de type solaire. Etant
donné que la limite admise à la masse d'une planète (au delà de laquelle le deutérium entre en fusion) est de 13
, la conclusion de l'article est encore valide: il est possible que ce compagnon soit une Naine brune ou une super Jupiter, selon la valeur de
. La première planète confirmée comme telle est découverte en 1995 par Michel Mayor et Didier Queloz à l'observatoire de Haute Provence.
Pour donner une idée des ordres de grandeur considérées, la Terre engendre un déplacement du Soleil d'environ 9 cm/s, Jupiter de 12.5 m/s. Un déplacement d'1 m par seconde correspond à un décalage relatif de longueurs d'onde . La précision attendue doit être maintenue sur plusieurs mois, voire plusieurs années.
L'astrométrie désigne la mesure de la position des astres. Chronologiquement, l'astrométrie peut être considérée comme la première discipline de l'astronomie. Les anciens s'étaient déjà aperçus que certains astres semblent mobiles: les planètes, mais l'observation à l'oeil nu et avec les premiers instruments astronomiques sont trop imprécises pour détecter le mouvement des étoiles. Ils pensaient donc qu'elles sont fixes, mais ce n'est pas du tout le cas.
Plus précisément, on mesure la position des astres sur la Sphère céleste: Il s'agit d'une manière d'appeler l'ensemble des coordonnées angulaires d'un système de coordonnées sphériques. Selon le contexte, le centre de centre de ce repère est le barycentre du système solaire ou celui de la Terre, l'observateur, ou un autre point. Les directions du repère fixe peuvent être définies par rapport à des étoiles très lointaines (quasars), ou l'intersection du plan de l'orbite de la Terre (l'ecliptique) et de l'équateur.
Les observations doivent être exprimées dans un même système de référence. En l'occurrence, le repère fixe choisi est le référentiel barycentrique du système solaire qui est un référentiel galiléen. De ce fait, on peut modéliser simplement la trajectoire de l'étoile dans ce référentiel. Si l'étoile a des compagnons planétaires, le mouvement dû aux planètes projeté aura l'aspect d'ellipses imbriquées les unes dans les autres (voire figure). Le mouvement rectiligne uniforme a une amplitude bien supérieure au mouvement dû aux planètes, il n'est pas représenté sur la figure pour cette raison.
Une mesure astrométrique comporte toujours plusieurs étoiles dans le champ, de sorte que l'on peut mesurer le déplacement de l'étoile cible par rapport aux étoiles du champ. Ce qui nous intéresse est en effet un mouvement différentiel (on compare les mesures les unes aux autres, on ne cherche pas une position absolue). Un mouvement global des étoiles du champ provient des turbulences atmosphériques ou de bruits instrumentaux, qui peuvent être corrigés.
En mars 2015, deux planètes on été découvertes par astrométrie (DE0823-49 b et HD 176051 b). La résolution nécessaire à la détection de planètes est difficilement atteignable à cause des perturbations atmosphériques. Pour les corriger, il est possible d'utiliser une technique appelée astrométrie différentielle. Sa présentation sort du cadre de ce cours. Il est probable que la mission astrométrique spatiale GAIA, dont la précision est de l'ordre de 20 μas permettra de faire de nombreuses découvertes.
Les mouvements de l'étoile autour du centre de gravité du système planétaire sont de l'ordre du rayon de l'étoile en général. Par exemple, le mouvement de Jupiter entraine un mouvement quasi circulaire du Soleil dont le rayon est environ 1.06 rayon solaire.
L'ordre de grandeur du déplacement observé dépend de la distance de l'étoile, des masses de l'étoile et de la planète et du demi-grand axe de l'orbite.
Type de planète | Distance à l'étoile | Amplitude du mouvement | |
Jupiter | 10 parsec | 500 µas | |
100 parsec | 50 µas | ||
Terre | 10 parsec | 0.3 µas | |
100 parsec | 0.03 µas |
Difficulté : ☆
Difficulté : ☆
Difficulté : ☆
Une seconde d'arc est égale à un degré divisé par 3600. Une micro seconde d'arc (µas) est un millionième d'une seconde d'arc.
Notez que si on observait uniquement l'effet de la planète si petit soit-il, on aurait toujours accès à toute l'information. Malheureusement, de nombreuses autre sources perturbent le signal, comme on va le voir dans les pages suivantes.
Le principe de ces techniques de détection est simple, mais pour obtenir la précision désirée il faut prendre en compte une grande quantité d'effets affectant les observations. Les mesures sont issues in fine de capteurs CCD, situés au plan focal d'un télescope ou en sortie d'un spectrographe, respectivement dans les cas de l'astrométrie et de la mesure de vitesses radiales. Ces capteurs fonctionnent par effet photoélectrique: lorsqu'un photon les percute, un électron est émis (si le photon a une énergie supérieure à une certaine limite). Ils sont exposés à la lumière pendant un certain temps appelé temps d'intégration. Le nombre d'électrons reçus pendant ce temps est ensuite compté pixel par pixel. Finalement, on obtient un tableau de nombre: le nombre de photons reçus par pixel de la caméra CCD. A chaque mesure est attachée une erreur, calculée selon une méthode explicitée par l'observateur. On effectue ensuite une série d'opérations mathématiques sur les mesures obtenues pour en extraire l'information souhaitée.
Avant d'arriver sur ces capteurs, les photons passent par les instruments, par l'atmosphère, par le milieu interstellaire. De plus, le mécanisme d'émission des photons par les étoiles est complexe: même si l'étoile était fixe par rapport à l'observateur, son spectre et sa position sembleraient variables. Comme les instruments ne permettent pas de résoudre angulairement l'étoile (elle n'apparait que sur un pixel), on mesure la lumière moyenne de sa photosphère, c'est à dire la fine partie de son enveloppe dont la lumière nous parvient. L'astrométrie est sensible à son photocentre. Enfin, il est possible que la lumière reçue provienne partiellement d'une autre source céleste située à proximité de l'étoile, ou du Soleil.
Chacune de ces étapes affecte le signal reçu, de sorte que l'information recherchée n'en représente qu'une petite partie. Par exemple, la vitese radiale apparente d'une étoile est de l'ordre de quelques dizaines de km/s, les techniques actuelles permettent de réduire le bruit instrumental à un peu moins de 0.3-0.5 m/s, qui est aussi l'ordre de grandeur de l'erreur due à une étoile de type solaire. Le signal d'une planète tellurique est de l'ordre de 0.5 m/s, c'est à dire moins que l'ordre de grandeur du bruit. Pour chercher des signaux de plus en plus faibles, il faut améliorer à la fois la modélisation du signal, des instruments, et des méthodes de traitement de données.
Idéalement, on voudrait directement avoir accès aux orbites et aux masses exactes des planètes autour d'une étoile donnée. C'est jusqu'à présent impossible, et probablement pour longtemps ! Les techniques dont il est question ici visent à mesurer la position ou la vitesse de l'étoile, ce sont lessignaux recherchés. Cependant, comme on l'a vu page précédente, la quantité effectivement mesurée contient non seulement le signal mais aussi de nombreux processus aléatoires qu'on appelle bruits. Notre problématique est d'extraire les paramètres du signal (les paramètres des orbites) dans des mesures entachées de bruits.
Pour savoir si un signal sera détectable à priori, on calcule le rapport signal sur bruit qui est le rapport de "la puissance du signal" sur "la puissance du bruit". Ce rapport est fondamental. Le sens précis de cette expression varie selon le contexte mais typiquement, si un signal et un bruit
forment une mesure
, le rapport signal sur bruit est
. Plus ce rapport est grand, plus la mesure est précise.
Supposons que l'on veuille estimer une variation de position angulaire ou de vitesse (resp. et
) d'une étoile de type solaire à 10 parsec autour de laquelle une planète de type jupiter orbite. On a
et
Les mesures sont contaminées par des variations aléatoires d'amplitudes
as (précision de la mission Gaia, mission astrométrique la plus précise) et
m/s (ordre de grandeur pour les meilleurs spectrographes actuels) . Le rapport signal sur bruit est de l'ordre de
et
. La technique par vitesse radiale est pour l'instant plus précise.
Lorsqu'on mesure une quantité modélisée par une variable alétoire (par exemple le nombre de photons reçus pendant une seconde), le rapport signal sur bruit peut être défini comme le rapport de la moyenne et de l'écart-type.
Attention: il ne faut pas confondre l'amplitude d'un effet indésirable et le bruit qui lui est associé. Par exemple, le mouvement de la Terre dans le système solaire induit une vitesse apparente de plusieurs dizaines de km par secondes. Cependant, sa position est connue avec une très bonne précision, de sorte que l'incertitude liée à la soustraction du mouvement de la Terre est de l'ordre d'1 m/s. Remarque: On distingue en général la précision et l'exactitude. On peut disposer d'un instrument très précis mais comme d'autres effets perturbent la mesure, la mesure donne une valeur inexacte de ce que l'on cherche à mesurer. Dans l'exemple précédent, si on ne soustrait pas la vitesse de la Terre, l'instrument peut être aussi précis qu'on veut on aura un signal parasite entre 1000 et 60000 fois plus gros que celui qu'on cherche à mesurer.
La problématique de la détection par vitesse radiale et astrométrie est la suivante: quelles sont les orbites et les masses des planètes compagnons de l'étoile cible ? Comme les mesures sont entachées de bruit, on ne peut pas donner des paramètres orbitaux exacts. On estime aussi la "confiance" dans les valeurs des paramètres, souvent donnée sous forme de probabilités. On est aussi amené à se demander si toutes les planètes ont été détectées, et si les détections annoncées sont vraisemblables. En particulier, on étudie la stabilité du système trouvé.
La détection de planètes extrasolaires, comme d'autres problématiques de détection peut être subdivisé comme suit:
Ce cours se focalisera sur les trois premières problématiques, car la quatrième est transverse à toutes les techniques d'observation et fait l'objet d'un cours à part entière.
Difficulté : ☆
Les observations traitées sont des mesures de position sur le plan focal d'un télescope et des mesures de spectres lumineux; respectivement pour l'astrométrie et les vitesses radiales. Faire l'hypothèse que les mesures ne sont que le résultat du mouvement d'une étoile parfaitement homogène donnerait des résultats invraisemblables. La fonction de la page précédente prend en général en compte plusieurs effets présentés ici. Compte tenu du format du cours, seuls certains d'entre eux seront développés dans la suite.
Pour pouvoir annoncer qu'une planète a été découverte, il faut avoir une certaine confiance dans le résultat. Cependant, comme on vient de le voir, les mesures sont contaminées par de nombreuses sources qui peuvent être aléatoires. La détection d'exoplanète, comme toutes les problématiques de détection en astronomie, donne l'occasion de présenter des modélisations de phénomènes aléatoires. Introduire ces outils permettra en particulier de définir proprement ce que sont les barres d'erreurs. On donnera un sens à une phrase comme: la période d'une orbite estimée est 100 jours, plus ou moins 10 jours à trois sigmas.
Le cadre mathématique utilisé pour les prendre en compte est la théorie des statistiques. Les quantités physiques dont le comportement est imprévisible sont modélisées par des variables aléatoires qui prennent une certaine valeur à chaque mesure. Etant donné que cette notion intervient dans:
On donnera une description fonctionnelle, permettant de comprendre le cours sans avoir besoin de rentrer dans les détails des statistiques. Le lecteur intéressé pourra se référer à un ouvrage spécialisé, par exemple le cours de Didier Pelat (en libre accès), cité dans la bibliographie.
Une variable alétoire peut être vue comme un programme informatique donnant une valeur réelle à chaque fois qu'on lui demande. La valeur retournée dépendra de la distribution de probabilité de cette variable aléatoire, notée
. Par exemple, si on veut modéliser le lancer d'une pièce de monnaie, chaque lancé correspond à une requête au programme qui retournera "face" ou "pile" avec une probabilité 1/2. Dans le cas de distributions continues,
prendra une valeur entre
et
avec une probabilité
. La distribution la plus utilisée est la gaussienne (parfois appelée courbe en cloche), elle vérifie
où
est sa moyenne et
est sa variance. L'analyse des données repose sur l'hypothèse que nous observations des réalisations d'une variable aléatoire. Comme si réaliser une expérience consistait à demander à un ordinateur de sortir une valeur (la mesure) avec une certaine loi de probabilité.
Les variables aléatoires ont deux caractéristiques particulièrement importantes: leur moyenne et leur variance, définie respectivement comme et
. La racine carére de la variance est appelée l'écart-type. Cette quantité donne "l'écart-typique" à la moyenne des réalisations. Dans la plupart des cas et en particulier dans le cas gaussien, l'écart-type a une interprétation univoque: il quantifie les déviations à la moyenne. Plus il est petit, plus les valeurs éloignées de la moyenne seront improbables. Dans la limite ou l'écart-type tend vers 0, on aura une variable aléatoire certaine, qui prend la valeur
avec une probabilité 1. En physique, on manipule souvent des incertitudes, qui sont implicitement modélisées comme des écart-types de variables aléatoires. Si un observateur dit "j'ai mesuré une vitesse radiale de
km/s avec une incertitude de
km/s", implicitement on suppose qu'il existe une variable aléatoire dont la moyenne correspond à la "vraie" valeur de la vitesse radiale et dont l'écart-type vaut
km/s.
Remarque: nous utilisons une terminologie vague, pour des définitions précises voir les références.
Difficulté : ☆
Citer des éléments à prendre en compte dans la modélisation des mesures de vitesses radiales ou astrométriques (on ne demande pas une liste très précise, encore moins exhaustive).
Difficulté : ☆☆
La démarche consistant à écrire un problème direct comportant une partie déterministe et une partie aléatoire n'est pas propre à la détection d'exoplanète. En majorité - si ce n'est en totalité - les détections reposent sur la même démarche. Dans chaque item de la liste suivante, on donne un phénomène à observer et un moyen d'observation. Dans chaque cas, lister des effets déterministes et/ou aléatoires à prendre en compte dans le modèle. Par exemple: "Mesurer une tension avec un voltmètre" peut se modéliser par , où
est la tension mesurée,
la tension vraie et
un bruit gaussien dû aux fluctuations intrinsèques de la tension et aux erreurs de mesure. On peut aussi supposer que le voltmètre réalise en réalité une moyenne de tensions sur un certain intervalle de temps.
Dans cette section on répond à la question suivante: pour un système planétaire donné, quelles seront les observations ? Dans la section précédente on a introduit la fonction , où
désigne un espace de variables aléatoires, qui donne des observations
en fonction d'instants d'observation
, d'erreurs alétoires
et de paramètre du modèle
incluant masse de la planète, de l'étoile, paramètres de l'orbites, etc. qui seront précisés. En l'occurrence, l'erreur est bien représentée par un "bruit additif", c'est à dire les observations
sont de la forme
, où
désigne une fonction modélisant la physique du phénomène observée, celle qui donnerait les observations "parfaites", sans aucune source d'erreur aléatoire. L'erreur
modélise tous les phénomènes aléatoires intervenant dans les mesures. Selon la distinction adoptée ici, les paramètres du modèle peuvent inclure une source indésirable mais non aléatoire.
L'objet de ce chapitre est de construire cette fonction avec une modélisation physique. La modélisation la plus précise, utilisant tout ce que l'on sait de la physique serait ici inutilement complexe, car compte tenu des erreurs de mesures la différence avec certains modèles plus simples serait si faible qu'il serait impossible de la détecter avec un niveau de confiance acceptable. Le niveau de précision du modèle présenté ici est couramment utilisé par les observateurs.
Remarque: En pratique, les algorithmes d'estimation de paramètres sont des algorithmes d'optimisation, qui nécessitent tous de donner un ou plusieurs points de départs pour la recherche. Lorsque des modèles plus complexes sont utilisés, les estimations précises peuvent être utilisées comme tels.
On présentera d'abord une modélisation physique de l'objet étudié, puis d'autres effets physiques à prendre en compte. Les bruits instrumentaux seront traités dans le chapitre suivant. Les effets physiques "indépendants de l'observateur" qui seront pris en compte sont:
Ensuite, on modélise "comment" la lumière émise par l'étoile nous parvient, ce qui amènera à présenter:
Les planètes et l'étoile ont un certain volume. Cependant, on peut montrer que lorsque la distance entre deux corps en intéraction gravitationnelle augmente, leur comportement se rapproche de plus en plus de celui de deux points matériels. On néglige aussi les effets relativistes, de sorte que l'on est ramené à la modélisation de l'intéraction de deux points matériels, dont la résolution va suivre.
Considérons deux points matériels (planète) et
(pour "star" de sorte à éviter un conflit de notation avec l'anomalie excentrique
) de masses respectives
et
et
l'origine d'un repère Galiléen. Le principe fondamental de la dynamique s'écrit:
où
est la constante universelle de gravitation.. En posant
et
on obtient:
On va montrer que la solution de cette équation décrit une conique plane, une ellipse dans le cas des planètes liées à une étoile. On suppose que le système est isolé, on peut donc choisir comme origine du repère le barycentre du système, ce qui permet d'obtenir facilement et
par la relation
.
On suppose que le système est isolé, donc le mouvement du barycentre du système {Etoile+planètes} est rectiligne uniforme dans un référentiel galiléen (par exemple le référentiel barycentrique du système solaire).
L'équation de Newton est une équation différentielle de degré deux sur des vecteurs de . Pour la résoudre il faut trouver six quantités conservées au cours du mouvement (ou intégrales premières du mouvement) indépendantes. En l'occurrence on peut facilement montrer que deux vecteurs sont conservés au cours du mouvement (ce qui fait deux fois trois composantes, on a bien six scalaires conservés).
Notons
, où
est un vecteur unitaire (et donc
est la norme de
) et
la dérivée par rapport au temps d'un vecteur
.
On a la conservation du moment cinétique par unité de masse
et du vecteur excentricité
au cours du mouvement c'est à dire leur dérivée temporelle est nulle
En effet, soit une solution de l'équation de Newton. Alors
car d'après l'équation de Newton,
est colinéaire à
. D'autre part,
, or
Donc .
Les quantités conservées définies page précédente permettent de donner une description géométrique de l'évolution de .
On déduit de la conservation du moment cinétique que le mouvement est plan. En effet, et comme
est un produit mixte, il est invariant par permutation circulaire:
car le produit vectoriel de deux vecteurs colinéaires est nul. Le vecteur
est orthogonal à
à tout instant, autrement dit le mouvement est dans un plan orthogonal à
.
Notons l'angle entre
et
et posons
. Alors comme
est unitaire,
d'autre part en remplaçant
par sa définition, on a
et comme
est un produit mixte,
. où
est la norme de
. On obtient alors
en fonction de
:
Où , qui est l'équation polaire d'une conique du plan. Cette équation donne une paramétrisation de la solution en fonction de
, appelée anomalie vraie. Cependant, nous voulons exprimer la solution en fonction du temps, l'objet de la page suivante est d'exhiber une relation entre
et le temps.
On sait que lorsque
, il s'agit de l'équation d'une ellipse. On peut montrer géométriquement que
où
est le demi-grand axe de l'ellipse. Si
ou
, la trajectoire est respectivement parabolique ou hyperbolique. Dans ces deux cas le mouvement n'est pas borné, il concernerait une planète en phase d'éjection, événement dont l'observation est très improbable et indiscernable d'une planète à très longue période ou du mouvement propre sur les données actuelles.
L'orbite est dans un plan perpendiculaire à , et le vecteur
est parallèle à
. Notons
et
. On introduit un vecteur
de sorte que
forme une base orthonormale.
Nous avons montré que la solution au problème des deux corps est plane, et peut s'exprimer en fonction de l'anomalie vraie , angle entre le vecteur excentricité et le vecteur
.
Afin d'exprimer en fonction du temps on va introduire successivement deux variables,
et
appelées respectivement 'anomalie moyenne et 'anomalie excentrique.
Avec les notations précédentes, , donc
en remplaçant dans,
on obtient:
Cette équation s'appelle la Loi des aires et signifie que balaie les aires à vitesse constant
. En particulier l'aire totale de l'ellipse est parcourue en un certain temps
fixe: le mouvement est périodique. L'aire de l'ellipse vaut:
On retrouve bien la troisième loi de Kepler : avec
. On définit alors l'anomalie moyenne par
où
est le temps de passage au périastre (
sur la figure), qui est proportionnelle à l'aire
(voir figure).
Difficulté : ☆☆
Pour établir l'équation du mouvement, les conservations du moment cinétique et du vecteur eccentricité suffisent. On a une autre intégrale du mouvement: l'énergie. Considérons deux points matériels et
de masses respectives
et
. On pose
,
et
où
est la constante universelle de gravitation.
L'équation de Kepler est une relation entre l'anomalie excentrique et l'anomalie moyenne, cette page présente un moyen de l'établir. L'aire est proportionnelle à l'anomalie moyenne
.
L'ellipse de la trajectoire est obtenue par une affinité sur l'axe de rapport
. Donc
Par ailleurs en notant l'angle
L'aire du triangle s'obtient facilement car
On a finalement l'équation de Kepler
Cette équation est "transcendante", en conqéquence il n'existe pas d'expression analytique de en fonction de
. Cependant, on peut développer
en puissances de
.
Il reste à trouver une relation entre et
, ce qui s'obtient aisément en exprimant la position
de
dans le plan
:
On en déduit les relations utiles:
A ce point, rappelons que l'objectif est d'exprimer la position et la vitesse de l'étoile comme des observables. En exprimant en fonction de
puis
en fonction de
on a la position du corps à un instant quelconque. En ce qui concerne l'astrométrie, on peut s'arrêter aux équations ci-dessus et simplement faire un changement de référentiel, c'ést à dire exprimer la projection de
sur la sphère céleste et choisir un jeu de paramètres
à ajuster. Pour les vitesses radiales nous avons besoin de
. En dérivant l'équation de Kepler par rapport à
on obtient:
D'où:
En pratique, il n'est pas nécessaire de calculer en fonction de
. Les expressions ci-dessus suffisent. Pour mémoire, en remplaçant
dans la formule trigonométrique
, on obtient:
Les observations sont disponibles dans un référentiel où
est la direction d'observation et
sont choisis de sorte que le repère est orthonormé direct. Le repère
est lui aussi orthormé direct. La matrice de passage du repère orbital au repère d'observation est donc une rotation, que l'on décompose en trois rotations dont les angles ont des noms usuels.
Où:
Soit le barycentre du système {planète+étoile}, on note
où
sont appelées les constantes de Thiele-Innes. On conserve la notation classique pour ces constantes, qui sautent quelques lettres de l'alphabet pour une raison inconnue des auteurs. La notation
n'est en revanche qu'une convention pour ce cours et ne se trouve pas spécialement dans la littérature. On ne donne pas de nom particulier aux éléments de la dernière colonne de la matrice car étant donné que
, ils n'apparaissent jamais dans les calculs
On peut caractériser l'orbite par les éléments suivants:
Ces éléments donnent la géométrie de l'orbite. Pour déterminer la position de la planète à un instant donné, il faut de plus connaître l'instant de son passage au périastre
. On peut alors calculer
connaisant
on peut calculer l'anomalie excentrique
par l'équation de Kepler, puis l'anomalie vraie
. On en déduit la position sur l'ellipse par l'équation donnée page "Loi des aires",
. Enfin, la position sur l'orbite est donnée par les rotations explicitées ci-dessus.
Dans un référentiel galiléen quelconque de centre , le mouvement de l'étoile
en fonction du temps peut s'écrire:
Où est la position du barycentre
du système {Etoile, Planète} à
,
est la direction du mouvement de
et
son module.
où
vérifiel'équation de Newton
, qui est une équation différentielle de degré deux sur l'espace. Lorsque
est fixé et la position et la vitesse à
,
sont connus, la position et la vitesse sont données par le flot:
. En d'autres termes, les sept paramètres
définissent une orbite de manière univoque. On peut faire un changement de variables pour décrire l'orbite par un autre jeu de sept paramètres, par exemple
et
, qui sont les paramètres classiques présentés dans la section précédente. La plupart des auteurs les utilisent pour ajuster le mouvement des planètes, mais ils ont l'inconvénient d'être très sensibles aux erreurs pour de faibles excentricités et inclinaisons. Pour palier à ce problème on définit:
Ces éléments sont des fonctions continues de l'inclinaison et de l'excentricité.
Difficulté : ☆☆
On définit un repère où la direction
est selon la droite observateur - étoile. Avec les notations des pages précédentes, pour quelles valeurs de l'inclinaison
les observations de vitesses radiales ne donnent aucune information sur le système ? lequelles rendent la configuration optimale ?
Même question pour les angles
et
en astrométrie.
Difficulté : ☆☆☆
On définit un repère où la direction
est selon la droite observateur - étoile. On note
les composantes du mouvement dans le plan orbital.
Calculer la composante du mouvement de l'étoile selon la direction d'observation. On mettra les observations sous la forme
, où
est une constante à déterminer.
Quels paramètres de l'orbite peut-on observer par vitesse radiale ? Montrer en particulier qu'on ne peut pas déterminer la masse exacte de la planète.
Les expressions établies jusqu'ici permettent de paramétrer le mouvement d'une étoile autour de laquelle une planète orbite, en faisant l'hypothèse que les deux corps sont ponctuels, forment un système isolé. Nous allons utiliser ces expressions pour donner un modèle général, lorsque planètes orbitent autour de l'étoile.
En notant et
respectivement la position et la masse de l'étoile et
,
les positions et masses des
planètes , les équations de la mécanique (classique) dans le référentiel barycentrique de ce système sont:
En négligeant tous les termes du type , c'est à dire l'intéraction entre les planètes, on obtient:
En résolvant les problèmes à deux corps associés à chacune des planètes, par
(dont la première équation du système ci-dessus est la dérivée seconde) on obtient le mouvement de l'étoile. Le modèle de trajectoire complet dans un référentiel galiléen est:
Le modèle précédent donne le mouvement de l'étoile observée dans un référentiel galiléen, en particulier le référentiel barycentrique du système solaire , que l'on munit d'un repère de coordonnées sphériques
repérant l'étoile
. Supposons que l'observateur est situé en
. A un instant
il mesure:
On peut facilement montrer avec un développement limité qu'au premier ordre en ,
,
, de même
(à faire en exercice).
Supposons que
planètes indéxées par
gravitent autour de l'étoile en
et
le repère orbital de la planète
. On projette le mouvement
dans le repère orthonormé direct
associé aux coordonnées sphériques
(voir figure). Avec les notations de la page Changement de référentiel:
Le modèle précédent donne l'évolution de l'étoile dans le repère barycentrique du système solaire (RBSS). Or les observations sont disponibles depuis la Terre. Si est la position de l'observateur,
l'étoile cible on a
La dérivée temporelle des vecteur est toujours définie par rapport à un référentiel. Ici la notation désigne la dérivée temporelle par rapport au RBSS.
La détermination de la position du centre de masse de la Terre par rapport au barycentre du système solaire est un sujet à part entière. La trajectoire d'un corps céleste au cours du temps dans un référentiel donné est appelée une éphéméride. Les principaux laboratoires de calcul des éphémérides sont le JPL (NASA) et l'IMCCE (Observatoire de Paris). Les liens envoient sur les générateurs en lignes d'éphémérides respectifs des deux laboratoires. .
La vitesse de l'observateur par rapport au barycentre du système solaire peut se décomposer en
. La partie
est donné par les éphémérides, comme expliqué plus haut. La correction de la deuxième partie est essentielle: l'observateur parcourt deux fois le rayon terrestre en une nuit, ce qui donne une vitesse d'environ 300 m/s. Si
désigne la matrice de changement de repère entre le référentiel lié à la Terre et le référentiel barycentrique du système solaire, on a
où
désigne la position de l'observateur dans le référentiel terrestre.
La détermination de est aussi un sujet à part entière, appelé "rotation de la Terre". Les paramètres de rotations officiels sont donnés par le Service de rotation de la Terre au SYRTE (Observatoire de Paris).
En ce qui concerne l'astrométrie, il faut exprimer la relation entre les positions mesurées et la position dans le RBSS, ce qui peut se décomposer en deux étapes: passer du référentiel terrestre au RBS translaté au centre de masse de la Terre (passer du référentiel rouge au référentiel noir à droite sur la figure), puis passer du référentiel translaté au RBS. Comme on le verra plus tard, il est aussi possible de se passer de cette étape en prenant un champ contenant des étoiles de référence.
Notons la position de la Terre dans le RBS. En exprimant
dans le RBSS de deux manières on obtient une relation entre les coordonnées
et
:
Lorsque est suffisamment loin, ces expressions différenciées au voisinage de
donnent au premier ordre en
,
et
On appelle la quantité la parallaxe de l'étoile (en général notée
ou
, qui sont des symboles déjà utilisés dans le cours). Elle considérée comme constante au cours des observations et est ajustée aux observations en astrométrie.
Remarque: la procédure de changement de référentiel passe par des changements d'échelle de temps (UTC, UT1, TDB...) qui ne seront pas détaillés ici.
L'accélération de perspective est un effet purement géométrique, qui tient à la définition du mouvement propre d'une étoile. Le mouvement propre est en effet défini comme où
est la vitesse du système observé,
la distance entre l'observateur et le système,
est l'angle entre la ligne de visée et la vitesse du système observé.
Nous supposons que les mesures astrométriques sont sur un plan. Cependant, on mesure la projection du mouvement sur une sphère, donc
n'est pas constant au cours du temps. En dérivant par rapport au temps, comme
est constant:
On voit sur le triangle que
et
. D'où:
En pratique on ajuste un terme quadratique , où le mouvement angulaire sur la sphère céleste est donné par
.
La variation de parallaxe vaut: . Comme elle est du deuxième ordre en
, elle n'est en général pas prise en compte.
L'ajustement des paramètres orbitaux permet de connaître ou bien
dans le cas des vitesses radiales. Il est impossible de distinguer les masses
et
séparément a priori. Cependant, on peut mesurer la masse de l'étoile de sorte à lever l'indetermination.
La modélisation des étoiles permet de distinguer les effets sur le spectre de la variation de leur flux lumineux de la présence de compagnons planétaires. Ces variations sont modélisées par des variables aléatoires suivant une certaine loi de probabilité, dont l'amplitude varie de plusieurs ordres de grandeur selon le type d'étoile. Plus l'étoile est active, plus l'amplitude du mouvement dû à la planète doit être grande pour distinguer la planète du bruit. En particulier certains types d'étoiles sont trop actives pour pouvoir détecter des potentielles super-Terres compagnon.
La description physique des étoiles est complexe car de nombreux phénomènes, tous interdépendants, ont lieu: convection, radiation, magnétisme... Les modèles utilisés en détection par vitesses radiales comprennent trois phénomènes
L'impact de ces effets sur les mesures n'est pas simple à quantifier. Selon le type d'étoile et les instants d'observations, l'effet peut être très variable. Certains auteurs estiment les incertitudes par des simulations numérique, d'autres par des modèles théoriques. Nous donnons une description qualitative de ces phénomènes et une modélisation possible, mais il faut garder à l'esprit que c'est un sujet de recherche ouvert. Dans le cas des vitesses radiales, ces bruits sont classiquement modélisées par un processus stochastique d'une certaine densité spectrale de puissance, notion importante en statistique, qui est définie dans cette page.
La mesure de la masse de l'étoile peut se faire de deux manières
Dans le premier cas, si la distance à l'étoile est connue (par exemple par mesure de parallaxe), on peut mesurer sa luminosité intrinsèque (si on ne connaît pas la distance on ne mesure évidemment que la luminosité apparente). Par son spectre, on peut mesurer sa température effective
. Des modèles d'intérieurs stellaires permettent ensuite d'évaluer la masse. Cette estimation peut être rafinée avec un modèle d'atmosphère stellaire. On peut alors avoir la gravité à la surface de l'étoile
. Comme
et
, on peut avoir une estimation de la masse.
Dans le cas des étoiles binaires (systèmes de deux étoiles), le spectre présente des raies des deux étoiles. Le mouvement de ces raies se fait à la même fréquence, mais dans des directions opposées (lorsqu'une étoile approche l'autre s'éloigne). La période de ces mouvements est liée à la masse du système par l'équation de Kepler. L'amplitude relative de ces mouvements permet de déterminer la masse des deux étoiles séparément. Comme dans le cas de la détermination des orbites des planètes, la masse n'est connue qu'à un faceteur près. Pour lever cette indetermination, il faut déterminer l'inclinaison de l'orbite par rapport à l'observateur
. Si on observe des eclipses (une binaire passe devant l'autre),
. Si le système n'est pas dans cette configuration, on peut séparer angulairement les deux étoiles par des techniques d'interférométrie.
La notion de densité spectrale de puissance (DSP) n'est pas simple à définir, cependant très utilisée dans la littérature de traitement du signal. Nous donnons une définition mathématique pour qu'il n'y ait pas d'ambiguités mais compte tenu de la sophistication des notions introduites, le lecteur pourra se référer à la description qualitative suivante.
La densité spectrale de puissance est une propriété relative à plusieurs variables aléatoires. Les familles de variables aléatoires peuvent par exemple représenter des mesures sur lesquelles on a une incertitude. A chaque instant de mesure on associe une variable alétoire qui a une certaine densité de probabilité. En physique théorique ou en économie, on rencontre des processus stochastiques continus - typiquement le mouvement brownien, qui représente des mouvements d'atomes ou des fluctuations de prix. Formellement, un processus stochastique est une famille de variables aléatoires indexées par un ensemble totalement ordonné , toutes définies sur le même espace de probabilité (
. Dans ce cours on aura seulement besoin de
ou
. On note
l'espérance mathématique.
Dans le cas général, la densité de probabilité de la variable aléatoire (pour
) dépend des valeurs prises à d'autres "instants" par les autres variables aléatoires. En particulier on peut s'intéresser à une éventuelle probabilité de périodicité. Par exemple si on modélise un nombre de ventes de vêtement par jour, on verra des ventes plus importantes au moment des soldes (à peu près tous les six mois). La densité spectrale de puissance est un outil qui permet de visualiser ce genre de périodicité. Dans la section suivante, on voit que si on prend une famille de variables aléatoires certaines, c'est à dire que
vaut une certaine valeur réelle
avec la probabilité 1, la DSP en une fréquence
est égale à
, où
est la transformée de Fourier de
. Si maintenant
est une variable alétoire, la DSP sera la "transformée de Fourier typique" d'une réalisation de
.
Pour définir cette notion mathématiquement, on doit d'abord introduire les notions de convergences et intégrales en moyenne quadratique. Pour plus de précision le lecteur peut se référer au cours de Timo Koski à KTH.
Rappelons d'abord que si sont des variables aléatoires et
une fonction mesurable alors
est une variable aléatoire. En particulier, si
est un scalaire,
et
sont des variables aléatoires. Pour un rappel sur les variables aléatoires, voir le cours de Didier Pelat.
Soit un espace de probabilités, on dit que la suite de variables aléatoires
telle que
, définies sur cet espace converge en moyenne quadratique si et seulement si:
Soit un processus stochastique continu (
) tel que chacune des variables aléatoires
a une espérance finie (
). L'intégrale en moyenne quadratique du processus
sur l'intervalle
est définie comme la limite en moyenne quadratique (lorsqu'elle existe) de:
Pour et
. On la note alors
.
On définit alors la densité spectrale de puissance comme:
Où
Cette définition un peu complexe peut être vue comme une généralisation de la transformée de Fourier à des processus stochastiques. En effet, lorsque le processus est telle que
avec une probabilité 1, l'intégrale en moyenne quadratique se comporte comme l'intérale de Riemann, alors
est le carré du module de la transformée de Fourier de la fonction réelle d'une variable réelle
. Dans le cas où les
sont aléatoire,
est le carré de la transformée de Fourier "en moyenne" des réalisations de
Par exemple si
modélise une tension mesurée au cours du temps dans une expérience d'électronique réalisée un grand nombre de fois, donnant
profils de tension
à l'expérience
(des réalisations du processus stochastique
), la moyenne des carrés du module des transformées de Fourier des
notée
sera approximativement égal à
. Si le nombre d'expérience
tend vers l'infini
en norme 2.
Dans le cas d'un processus stationnaire discret (), on peut directement définir
et
.
La densité spectrale de puissance a une définition plus simple lorsque le processus est stationnaire, c'est à dire lorsque le processus vérifié:
Les processus stationnaires modélisent des phénomènes qui ont une certaine invariance dans le temps, en particulier la covariance ne dépend pas de de manière absolue, mais de manière relative à un autre instant. Dans ce cas, la densité spectrale de puissance est égale au carré du module de la transformée de Fourier de la fonction
. L'équivalence avec la définition de la densité spectrale de puissance donnée plus haut est établie par le théorème de Wiener-Khinchin.
Le phénomène de granulation est lié à la convection du gaz dans l'étoile. La lumière rayonnée par le gaz chaud remontant à la surface va vers l'observateur, la longueur d'onde reçue est donc décalée vers le bleu. En rayonnant, le gaz se refroidit, puis repart vers le centre de l'étoile. Etant moins chaud, il émet moins de lumière, si bien que la lumière est globalement décalée vers le bleu. Ce phénomène est variable dans le temps, donc le décalage vers le bleu aussi. Cette variation peut apparaître dans le spectre et créer des fréquences parasites. La nature aléatoire du phénomène fait que même après ajustement, il reste un bruit résiduel. Pour une étoile de type solaire, il est de l'ordre de 0.5 - 1 m/s sur une observation.
La granulation est en général modélisée par un processus stochastique dits de bruits en créneaui (popcorn noise ou burst noise en anglais). Il s'agit de processus stochastiques pouvant prendre deux valeurs, par exemple -1 ou 1 avec une probabilité de changement suivant une loi de Poisson (loi exponentielle). Si à la valeur passe de 1 à -1, la densité de probabilité pour que la valeur passe à 1 à
est
où
est un réel positif. Pour les vitesses radiales, la densité spectrale de puissance de ces bruits peut être modélisée par::
Cette modélisation, due à Harvey (1985) a depuis été revue et d'autres densités spectrales de puissances ont été proposée à partir de simulations 3d de convection au sein d'une étoile. En pratique, le bruit dû à la granulation apparaitra comme un signal périodique de l'ordre de cinq minutes. Cependant, on observe aussi des phénomènes appelés meso-granulation et super-granulation sur des échelles de temps plus longues. La contribution totale de ces bruits est:
Où les indices g, mg et sg se réfèrent respectivement à la granulation, la méso granulation et la super-granulation. En anticipant un peu sur le troisième chapitre, lorsque ces bruits sont pris en compte, les valeurs des et
sont ajustés sur le spectre de puissance du signal.
La formation d'arcs de champ magnétique à la surface de l'étoile inhibe le mouvement des particules, donc réduit la température et provoque donc des tâches sombres. Cet effet à des effets à court termes (à la fréquence de rotation de l'étoile mois), et à plus long terme à travers des cycles d'activité magnétique.
A court trerme, la tache introduit une dissymétrie entre la partie de l'étoile tournant vers l'observateur, et la partie s'en éloignant, ce qui engendre un décalage du spectre mesuré. D'autre part, la tache engendre un déplacement du photocentre de l'étoile périodique, pouvant être confondu avec la présence d'une planète. Pour éviter ces confusions, on estime la période de rotation de l'étoile par spectroscopie, et on ajuste des sinusoïdes à cette période et ses premières harmoniques.
L'activité magnétique peut se mesurer à travers divers indicateurs, dont on analyse les corrélations.
Toujours selon le modèle de Harvey (1985), la densité spectrale de puissance du bruit de vitesse radiale induit par une tache solaire est:
Des inhomogénéités de densité dues aux mouvements convectifs font que des ondes mécaniques se propagent au sein des étoiles. Certaines de ces ondes sont radiales, ce qui provoque un mouvement d'ensemble de la photosphère qui a une signature sur le décalage du spectre mesuré. L'étude de ces ondes est un domaine de la physique stellaire appelé "astérosismologie". Etant donné que la théorie est accessible au niveau licence, nous en donnons des principes généraux.
La théorie procède comme suit: on écrit localement 1) l'équation du mouvement linéarisée au premier ordre au voisinage d'un état d'équilibre, 2) la conservation de la masse ou équation de continuité, 3) l'équation de Poisson, liant le potentiel gravitationnel et la densité, 4) Le premier principe de la thermodynamique. On néglige l'effet du champ magnétique. En général, on fait l'hypothèse que le terme de transfert thermique dans le 1er principe est nul.
L'atmosphère peut influencer la mesure de vitesses radiales de deux manières:
La présence de lignes spectrales d'émission ou d'absorption est difficile à corriger. C'est pourquoi on ne considère que des plages de fréquences où l'intensité des raies atmosphériques est inférieure à 1/10000 de l'intensité de la cible. De plus, la réponse de l'atmosphère dépend de la longueur d'onde. Le spectre obtenu est pondéré de sorte à corriger ces inhomogénéités.
Avant de parvenir au télescope, la lumière issue de l'étoile traverse l'atmosphère. Les turbulences aux hautes altitudes créent des inhomogénéités de densité, donc d'indice optique, qui distordent le front d'onde de la lumière pénétrant dans l'atmosphère. La modélisation classique de ce phénomène passe par l'introduction de "Structure functions" qui modélisent la densité de probabilité des champs de vitesses, densité etc.
Afin de ne pas surcharger le cours, nous ne donnerons qu'un modèle très simple de ce phénomène. Les mouvements de turbulence forment des "cellules" de composition homogène et d'une taille typique . Vue du dessus, l'atmosphère se comporte approximativement comme un tableau de pixels de taille
dont chaque cellule introduit une déviation angulaire du faisceau incident. Cette déviation est de l'ordre de
. Dans le cas limite où une cellule a un indice 0 et les cellules avoisinantes ont un indice 1 (sont opaques), on retrouve l'ordre de grandeur de la diffraction. Les fronts d'ondes issus de ces différents pixels arrivent au télescope avec des angles différents, donc donnent chacun une image différente appelé "speckle". L'union de ces speckle forme une tache lumineuse élargie de taille environ égale à
.
Les effets expliqués précédemment sont pour la plupart périodiques, donc peuvent être confondus avec le signal d'une planète. Le tableau suivant récapitule ces effets, leurs amplitudes et périodes typiques pour des étoiles de type solaire.
Effet | Description | Amplitude (vitesse radiale) | Amplitude (astrométrie) | Echelle de temps |
---|---|---|---|---|
Mouvement des planètes | Le mouvement des planètes autour de l'étoile engendre un mouvement périodique | 1 cm/s - 200 m/s | Terre: 0.3, 0.03 ![]() ![]() | de un jour à plusieurs centaines d'années |
Mouvement propre | Mouvement rectiligne uniforme | Dizaines de kilomètres par seconde | 10 - 1000 mas pour les étoiles observables | Mouvement non périodique |
Taches | La présence de taches sombres ou lumineuses dues à l'activité magnétique provoque une disymétris entre la luminosité de la partie bleue et la partie rouge de l'étoile, engendrant un décalage du spectre ou du photocentre. | 1 m/s | Avec ces trois effets,
0.5 - 10 ![]() | Période de rotation de l'étoile (quelques jours) |
Activité magnétique (long terme) | Le nombre de tâche à la surface de l'étoile peut varier de quelques unes à plusieurs centaines. Par exemple le soleil a une périodicité de 11 ans. L'effet précédent est modulé par ces variations à long terme. | 10 m/s | 1 - 10 ans | |
Granulation | Le mouvement convectif à l'intérieur de l'étoile provoque un mouvement du gaz dans la photosphère | 0.5 - 1 m/s | Granulation: quelques minutes, mesogranulation: | |
Oscillations radiales (p-modes) | La propagations d'ondes acoustiques dans le manteau de l'étoile entraîne une oscillation de celui-ci | 0.5 - 1 m/s | inconnu | 5 - 10 minutes |
Système multiple | La présence d'autres étoiles orbitant autour de l'étoile cible engendre un mouvement décrit par les mêmes équations que celles utilisées pour les planètes. Les autres étoiles étant beaucoup plus massives que des planètes, l'effet est plus important. | 1 - 30 km/s | 0.1 - 1 as/an | 10 - 100 ans |
Effet | Description | Amplitude (vitesse radiale) | Amplitude (astrométrie) | Echelle de temps |
---|---|---|---|---|
Mouvement de l'observateur dans le RBSS | Comme l'observateur est en mouvement dans un référentiel galiléen, | 30 km/s (après soustraction, on a une erreur![]() | 0.01 - 0.1 as/an | Une année |
Perturbations atmosphériques | La présence de raies spectrales atmosphériques peut perturber les observations par vitesses radiale, et les turbulences dévient les fronts d'ondes, engendrant un déplacement apparent des sources. | 0.5 m/s | 1 mas | Quelques minutes |
Jusqu'à présent, on a modélisé la lumière qui parvient à un observateur théorique situé au voisinage de la Terre. Dans cette section, on présentera l'aspect concret de l'observation, en particulier les instruments. En astrométrie on mesure la position sur le detecteur CCD sur le plan focal du télescope, pour les vitesses radiales on utilise un spectrographe dont l'entrée est située au point focal du télescope . Il est essentiel de bien comprendre le fonctionnement des instruments pour des raisons évidentes: ils constituent notre seule source d'information et leur étude permet de mieux modéliser les mesures, donc d'exploiter au mieux les données.
Dans le cas de l'astrométrie comme celui des vitesses radiales, deux conditions sont nécessaires pour obtenir des mesures suffisamment significatives:
En astrométrie comme en détection par vitesses radiales on place un dispositif sur le plan focal d'un télescope, respectivement des capteurs CCD et l'entrée d'un spectromètre (ou spectrographe). C'est pourquoi les principes généraux des télescopes seront présentés. On évoquera le fonctionnement des spectrographes utilisés pour les détections par mesures de vitesses radiales.
Un télescope est un appareil permettant de recueillir un rayonnement eléctromagnétique. Pour observer un rayonneme
nt dans le visible ou dans l'infrarouge proche, on utilise des télescopes à miroir parabolique. Pour éviter les ambiguités, on définira le plan focal comme le plan perpendiculaire à l'axe optique (ici l'axe de symétrie du télescope) passant par le foyer, et on fait l'hypothèse que les rayons reçus font un angle faible avec l'axe optique. Dans ces conditions, La relation donnant la distance au point focal de l'image d'un rayon arrivant avec un angle sur le plan focal est en première approximation
, où
est la distance focale. Pour les angles faibles, on peut travailler avec une lentille équivalente au télescope, de même diamètre et distance focale. On va introduire trois notions de bases sur les télescopes: le champ, la résolution angulaire et la vitesse d'acquisition.
Le champ est la portion du ciel observée par le détecteur du télescope. Comme le détecteur est au plan focal, il est égal à
La résolution angulaireest l'angle minimal entre deux sources permettant de les séparer par le système de détection. Cette définition est vague, et Supposons qu'une source ponctuelle émettant à une longueur d'onde soit placée en un point du plan focal
. A cause du phénomène de diffraction, la lumière ne sera pas émise selon une direction unique, mais son énergie sera répartie sur certains angles centrés sur
. Comme la lumière suit le même trajet dans les deux sens, ce détecteur reçoit de la lumière provenant de ces angles.
Le rapport du diamètre et de la distance focale du télescope donne la "vitesse" de l'instrument. En effet, considérons une source circulaire de taille angulaire , son image sur le plan focal est un cercle d'aire
. L'intensité observée est proportionnel à l'aire du télescope, donc l'énergie par unité de temps reçue est proportionnelle à
. On définit l'ouverture du télescope par
Le rapport signal sur bruit des mesures de CCD est égal à
où
est le nombre moyen d'électron par unité de temps et
est le temps d'intégration (voir Bruit de photon). On peut calculer le temps d'intégration minimal pour obtenir un certain signal sur bruit compte tenu de l'ouverture du télescope, de la taille de la source et de son intensité. Plus l'aire et grande, plus la distance focale est petite, et plus l'instrument collecte rapidement le nombre de photons requis.
Cependant, lorsque l'ouverture augmente, la résolution angulaire diminue.
Un détecteur CCD est composé de trois partie: des électrodes en silicium, un isolant en et une jonction de semiconducteurs NP. Les électrodes en polysilicium sont reliées périodoquement par un fil conducteur (toutes les trois électrodes sur la figure) de sorte à créer un profil de potentiel électrique alternant puits et régions plates. Le principe d'un capteur CCD est le suivant (voir figure)
Le contrôle de l'erreur induite par la CCD est primordial et peut s'avérer très complexe. Nous ne rentrerons pas dans ces considérations.
Le bruit de photon est une limitation fondammentale en astronomie car il est dû à la nature de l'émission de la lumière. En effet, les instants d'émission de deux photons sont indépendants les uns des autres.On peut montrer mathématiquement qu'une suite d'évènement indépendants, sans mémoire et stationnaire est nécessairement un flux de Poisson. Dans notre cas, si on note le temps d'attente entre deux émission de photon, la probabilité que
soit supérieure à
sachant que
est
où
est une constante.
Cette constante a une interprétation physique: plus elle est grande, plus diminue rapidement à
donné, c'est à dire plus la probabilité que
soit long diminue. On peut montrer
est le nombre d'évènement par unité de temps moyen, proportionnelle à l'intensité. Rappelons que le détecteur capte des photons pendant le temps d'intégration
. Le nombre de photons reçus
pendant ce temps est une variable aléatoire suivant la loi:
Qui est appelée loi de Poisson. La moyenne et la variance d'une telle loi sont égales et valent . En conséquence, l'écart-type vaut
donc le rapport signal sur bruit (Signal-to-Noise Ratio) est:
Difficulté : ☆☆
Au deuxième siècle avant J.-C., l'astronome Hipparque a classé cinquante étoile par ordre de brillance en 6 catégories, les plus brillantes occupant la première. L'échelle de magniture apparente moderne est sous la forme où
est le flux lumineux reçu et un flux de référence. Le choix de 2.5 et
W
fait que les étoiles de classe 1 d'Hipparque aient une magnitude comprise entre 0 et 1, les classes 2 on une magnitude entre 1 et 2 etc. De ce fait, il semble naturel que les objets les moins lumineux visibles à l'oeil nu soient environ de magnitude 6. On considère un télescope de diamètre
, on suppose qu'on observe dans le visible
nm, et que le flux lumineux reçu ne dépend pas de la longueur d'onde sur cette plage.
On considère une source d'ondes et un observateur. Selon leur vitesse relative, la fréquence reçue par l'observateur varie: c'est ce qu'on appelle l'effet Doppler. Dans le cadre de la physique classique et d'une onde harmonique (purement sinusoidale), on peut le calculer simplement. En effet, notons la distance entre la source et l'observateur,
la vitesse de l'onde et. Par définition d'une onde harmonique de pulsation
et d'amplitude
, l'amplitude mesurée à
et
vaut
Où donne en particulier la phase en
. Si la distance
varie avec le temps selon
, alors en
et
on mesure
Donc pour l'observateur, tout se passe comme s'il recevait une onde de pulsation ou de longueur d'onde
et de phase
.
Cependant, lorsque est la vitesse de la lumière, la relativité générale donne une description beaucoup plus précise du phénomène. Nous ne présenterons pas le calcul menant à l'expression de l'effet Doppler dans ce cadre mais en donnons l'expression:
Où est l'angle entre la direction de la vitesse relative et la ligne de visée observateur-source. Remarquons que lorsque
tend vers
et
tend vers 0, l'expression tend vers l'expression classique.
L'observation des vitesses radiales nécessite de mesurer des longueurs d'onde très précisément, pour cela on utilise des spectrographe. Les équipes américaines et européennes utilisent des appareils différents, mais dans les deux cas ce sont des spectrographes d'échelle. Le principe d'un tel instrument est d'observer simultanément plusieurs ordres élevés de diffraction à l'aide de deux diffractions successives. La lumière est d'abord diffractée par un premier réseau. Un dispositif, appelé "echelle grating" est placé à un certain angle (blazing angle) du premier réseau de sorte à recevoir des ordres élevés de la première diffraction, qui sont diffractés à nouveau.
Ce dispositif permet "d'étaler" le spectre de sorte qu'une rangée de détecteurs CCD reçoit des longueurs d'ondes très proches, ce qui permet une haute résolution spectrale. En contrepartie, l'énergie est elle aussi répartie, ce qui augmente le temps d'intégration nécessaire pour recevoir suffisamment de lumière pour obtenir un certain rapport signal sur bruit.
D'une mesure à l'autre, à cause de variations internes à l'instrument (température, pression), une longueur d'onde donnée peut se décaler. Comme les mesures doivent pouvoir être comparées entre elles; ce problème doit être résolu efficacement: il faut étalonner l'instrument. Sur ce point, les instruments européens et américains diffèrent. Pour les premiers: ELODIE, CORALIE, HARPS, HARPS-N, l'étalonnage se fait en observant simultanément l'étoile cible est une source dont le spectre est connu. ELODIE observe le ciel, HARPS une lampe thorium-argon calibrée et HARPS-N utilise deux calibrations: un spectre de Fabry-Perot et un "laser frequency comb" (un laser dont le spectre est constitué de raies régulièrement espacées). Les instruments américains font passer la lumière par une cavité contenant de l'iode, dont la position des raies d'absorption est connue. Dans les deux cas on peut comparer Les raies du spectre de référence et celles de l'étoile observée. Si leur déplacement est corrélé (elles se décalent simultanément), il est dû à l'instrument.
La résolution spectrale de ces spectrographes, c'est à dire le rapport d'une longeur d'onde
et de la sa variation détectable par le dispositi f
est de l'ordre de 100000. Des simulations numériques (Hatzes & Cochran 1992) ont montré que l'écart type sur la mesure finale de vitesse radiale
vérifie:
Où est l'intensité reçue,
est la plage de fréquences considérées et
est une constante de proportionnalité. Comme certaines longueurs d'ondes jugées contaminées peuvent être exclues de certaines mesures, cette valeur varie d'une mesure à l'autre.
Nous avons expliqué que la mesure des vitesses radiales se fait par mesure du déplacement du spectre. Cependant, nous n'avons pas précisé comment ce déplacement était mesuré. Il y a a priori beaucoup d'estimateurs classiques. La méthode majoritairement adoptée repose sur une "cross correlation function" (CCF) ou fonction de corrélation.
Les étoiles ont certains types de spectres que l'on sait reconnaître. Pour une étoile donnée, on définit un "masque" valant 1 pour
correspondant à une raie d'absorption de l'étoile et 0 ailleurs. Le spectre de l'étoile observée
est multiplié par ce masque décalé d'une valeur
et on mesure
. Où
et
désignent les bornes inférieures et supérieures du spectre observé. Ensuite, une fonction gaussienne
est ajustée sur la CCF. La valeur
correspondant au minimum de la fonction ajustée est prise comme valeur moyenne du déplacement. L'analyse consiste ensuite à comparer les
issus d'observations différentes.
La CCF n'est elle même pas symétrique. Ses propriétés d'assymétrie sont analysées, car elles sont significatives d'effets physiques.
La modélisation physique du phénomène nous a permis d'obtenir un modèle où
sont les paramètres du modèle et
sont les instants d'observation. De nombreuses sources d'erreurs ont aussi été listées. On se pose maintenant la question suivante: comment estimer les paramètres du modèle compte tenu des observations ?
Après avoir listé diverses sources de signal et de bruits de l'émission de la lumière à la valeur donnée par le déteteur, nous allons maintenant donner une expression finale au modèle. Cette expression n'est pas universelle, et selon l'étoile observée, la précision recherchée, d'autres formulations peuvent être préférables.
Après avoir établi ce modèle, on donnera quelques principes d'analyse statistique et des moyens algorithmiques pour estimer les paramètres du modèle. On verra en particulier que l'analyse "dans le domaine fréquenciel" est particulièrement importante.
Le modèle comportera une partie déterministe et une partie aléatoire. Pour l'astrométrie, la position
sur la sphère céleste est
Où est la position initiale de l'étoile,
sont les composantes du mouvement propre
sont des termes d'accélération de perspective,
sont les constantes de Thiele-Innes de la planète
,
et
sont ses coordonnées sur son plan orbital,
est la parallaxe,
sont les coefficients parametrant le mouvement de la Terre, Les
sont les bruits résiduels modélisés par des bruits gaussiens.:
sont les bruits stellaires,
sont les bruits atmosphériques et
représentent des bruits instrumentaux.
Où est la vitesse de l'observateur dans le référentiel barycentrique du système solaire,
est la composante du mouvement propre dans la direction radiale,
est le signal stellaire dû à la granulation, aux oscillations et à l'activité,
est le bruit stellaire résiduel et
le bruit associé à la mesure.
Dans les deux cas, les techniques de réduction de données visent à trouver des paramètres qui sont "plausibles", en l'occurrence, qui reproduisent les observations.
Rappelons qu'une variable aléatoire peut être vue comme un programme informatique qui délivre des valeurs suivant une certaine distribution de probabilité lorsqu'on lui demande. Le problème que nous posons maintenant est équivalent au suivant. Supposons qu'un ordinateur ait en mémoire des paramètres (nombre de planètes, leurs caractéristiques orbitales, la période de rotation de l'étoile etc.). S'il n'y avait pas de bruit, une mesure à l'instant
reviendrait à demander à l'ordinateur d'évaluer une fonction
. Nous connaissons
et
(c'est l'un des modèles de la page précédente), mais nous ne connaissons pas
. Notre but est de le déterminer à partir des mesures
. Ce principe est similaire à la résolution d'une énigme: quelqu'un connaît une information
et nous essayons de la deviner en posant une question. Dans le cas sans bruit, celui qui pose l'énigme ne nous induit pas en erreur, mais cela ne veut pas dire que la résolution est facile !
Exemple: on veut trouver les paramètres d'une fonction affine du temps (ici
). On évalue la valeur de
en
, on obtient
: on a deux inconnues pour une équation, on ne peut pas résoudre. Si on a
, avec
, alors on a
et
.
Notre cas est plus compliqué. Les valeurs que nous obtenons sont où
est la réalisation d'une variable aléatoire
. A l'appel numéro
du programme, l'ordinateur fait appel à un autre programme qui délivre une variable alétoire selon une certaine loi. En l'occurrence, nous supposons cette loi gaussienne. Si nous faisons
mesures, tout se passe comme si un programme principal évaluait la fonction
et
programmes secondaires
,
retournent chacun une valeur
. Si nous pouvions remonter le temps et faire les mesures plusieurs fois aux mêmes instants, on aurait des des vecteurs de mesures
, puis
etc. (notez qu'ici
et
sont des vecteurs.
Comme nous ne connaissons que la loi suivie par les variables , ils nous est impossible de connaître les paramètres avec certitude. On leur attache une "erreur", qui quantifie l'incertitude que l'on a sur eux. En reprenant l'exemple précédent on mesure
et
. Si on estime
et
avec les mêmes formules, on fera une erreur
sur
et une erreur
sur
(admis).
Dans le modèle , le symbole
désigne un bruit gaussien. Comme ils apparaissent constamment en détection de planètes extrasolaires et ailleurs, nous allons en donner quelques propriétés.
A une expérience donnée, prendra une valeur
imprévisible. La probabilité que la valeur de
soit comprise entre
et
est
où
est la densité de probabilité de
. Dire que
est un bruit gaussien veut dire que sa densité est de la forme
où
et
sont des réels, qui sont égaux respectivement à la moyenne et à l'écart-type de
. On note souvent
, qui signifie "
suit une loi gaussienne de moyenne
et de variance
. Dans la plupart des cas, le bruit est de moyenne nulle (c'est le cas ici).
Dans le modèle, des bruits d'origines différentes s'additionnent. Sachant que le résidu de l'activité stellaire que nous n'avons pas ajusté et le bruit de mesure
suiven une certaine loi, quelle loi suivra
? Nous pouvons déjà dire que la moyenne de
sera égale à la somme des moyennes de
et
car l'espérance est un opérateur linéaire. Peut-on dire plus ? Si ces bruits dépendaient l'un de l'autre, la réponse pourrait être complexe. En l'occurrence, la physique de l'étoile cible et les erreurs instrumentales sont totalement indépendantes. On peut montrer que dans ces conditions, la variance de
est égale à la somme des variances de
et
. Nous pouvons même aller plus loin car la somme de deux variables gaussiennes indépendante est une variable gaussienne. En résumé,
en l'occurrence
et
sont nulles.
Lorsqu'on dispose de plusieurs mesures, à l'expérience numéro on a un certain bruit
réalisation d'une variable
de densité
. La plupart du temps, on fait l'hypothèse que les brutis
sont indépendants, c'est à dire que la probabilité d'obtenir le bruit
à l'expérience
ne dépend pas des valeurs prises aux expériences précédentes et suivantes. Lorsque ce n'est pas le cas on parle de bruits corrélés. Pour les caractériser, on utilise souvent leur densité spectrale de puissance. Un certain profil de densité spectrale correspond à une "couleur" du bruit.
A retenir: la somme de variables gaussienne indépendantes où
est une variable gaussienne suivant la loi
.
Il esiste plusieurs outils pour s'assurer qu'une détection possible n'est pas due au bruit. L'un des plus utilisé est le test de signification (significance en anglais), qui consiste à calculer la probabilité d'avoir le signal observé "au moins aussi grand" s'il n'y avait en réalité que du bruit. Par exemple, qupposons que l'on veuille mesurer une quantité qui est perturbée par un bruit gaussien additif
de moyenne nulle et d'écart-type
, donnant une mesure
.
Si il n'y avait en réalité pas de signal (), les mesures seraient uniquement dues au bruit. On imagine deux cas de figures:
Ces valeurs ont une interprétation: si on réalisait exactement le même type de mesure alors qu'il n'y a pas de signal, on observerait dans
% des cas et
dans
% des cas.Dans le premier cas, la probabilité d'avoir un signal aussi grand que celui que l'on a mesuré est grande. On ne peut pas assurer qu'un signal a été détecté. Par contre, dans le deuxième cas on serait dans un des deux cas sur un milliard où le signal serait dû au bruit. On peut alors dire qu'on a détecté un signal à
, car la valeur de l'écart-type du bruit est
, sa moyenne est
, donc on a
.
Détecter un signal "à 10 sigmas" est un luxe que l'on peut rarement se payer. Les détections sont annoncées plutôt pour des valeurs de sigmas.
Remarque importante: on calcule la probabilité d'avoir les observations sachant qu'il n'y a pas de signal et non la probabilité d'avoir un signal sachant les observations qui est une quantité qui a davantage de sens. Le calcul de cette dernière quantité se fait dans le cadre du calcul bayésien, outil très puissant qui ne sera pas développé dans ce cours.
Difficulté : ☆☆☆
On rappelle que l'espérance et la variance d'une variable alétoire de densité de probabilité
sont données par
et
Nous nous sommes toujours ramenés à des modèles du type: modèle déterministe + bruit gaussien. Afin de vérifier que les observations sont compatibles avec le modèle, on étudie les résidus, définis comme "les observation - le modèle ajusté".
La loi du est un outil commode pour étudier le comportement de plusieurs variables gaussiennes. Considérons d'abord une famille de
variables aléatoires gaussiennes indépendantes
, de moyenne nulle et de variance unité. On forme la quantité
. Comme les
sont des variables aléatoires, les
le sont aussi. La somme de variables alétoires étant toujours une variable alétoire,
suit une certaine loi de probabilité. Dans l'analogie avec un programme informatique, la variable alétoire
se comporte comme un programme qui appelle
programmes générant une variables gaussiennes, puis additionne leurs carrés. Elle est appelée loi du
à m degrés de liberté. On peut montrer qu'en moyenne une variable gaussienne au carré
a une moyenne de 1. En conséquence,
vaudra typiquement
.
Pourquoi cette loi serait utile pour notre cas ? Si le modèle est bien ajusté, les résidus doivent se comporter comme un bruit gaussien. En supposant que les erreurs sont toutes indépendantes, de moyenne nulle et de variance unité, les résidus en sont une réalisation. Donc
est une réalisation d'une loi du
à
degrés de liberté. Si
est de l'ordre de
, le modèle est cohérent. Sinon, le modèle ou les paramètres ajustés sont à revoir.
En pratique, les erreurs ne sont évidemment pas de variance unité et parfois pas indépendantes. Par contre on peut à bon droit supposer qu'elles sont de moyenne nulle. Pour se ramener au cas précédent, on calcule non pas une réalisation de
mais de
où
,
est sa transposée et
est la matrice des variances-covariances de
. Dans le cas où les
sont indépendantes, la matrice des variances-covariances est diagonale, son
-ème terme diagonal étant
, soit l'inverse de la variance de
.
Etant donné des paramètres , le modèle global
est une variable aléatoire: il est somme d'une variable aléatoire valant
avec une probabilité 1 et d'un vecteur de variables aléatoires gaussienne
. A ce titre, il a une certaine densité de probabilité que l'on note
. Le symbole | se lisant "sachant". La lettre L vient de Likelihood, qui veut dire vraisemblance en anglais. Il s'agit dans l'idée de la probabilité d'obtenir
pour une valeur de
donnée..
La fonction est souvent appelée "fonction de vraisemblance". La valeur de
maximisant
est appelé l'estimateur du maximum de vraisemblance. Il a de bonnes propritétés statistiques. En effet, on peut montrer que c'est un estimateur:
Dans notre cas, si les sont des variables indépendantes, leur densité de probabilité jointe est égale au produit de leurs densité de probabilité.
où
est la densité de probabilité de la variable
. De plus, si ces varibles sont gaussiennes et indépendantes, on a:
Pour des bruits gaussiens indépendants, maximiser la vraisemblance, revient à minimiser puisque
est une fonction décroissante. La méthode consistant à minimiser
s'appelle la méthode des moindres carrés. C'est la méthode d'estimation de loin la plus utilisée dans tous les domaines. Elle est parfois utilisée quand les bruits ne sont pas gaussiens, mais il faut garder à l'esprit qu'elle n'a alors plus de propriétés statistiques sympathiques (sauf quand le modèle est linéaire en
.
Dans notre cas, les paramètres sont les éléments des orbites, les paramètres du bruit stellaire, du mouvement propre, etc. La fonction
a donc de nombreux paramètres, et trouver son minimum global est une tâche ardue qui fait l'objet d'une littérature très vaste.
Lorsque le modèle est linéaire en i. e.
où
est une certaine matrice dépendant des instants d'observation
, l'ajustement est beaucoup plus simple car il a une solution explicite (voir mini-projet). On essaye de se ramener autant que possible à des ajustements linéaires. La plupart du temps, on estime les paramètre les uns après les autres, puis un ajustement global est réalisé. Une démarche classique consiste à:
Sur la figure, on représente les étapes d'un ajustement d'un signal astrométrique simulé (2 planètes, 45 observations). De gauche à droite et de haut en bas:
Evaluer les résidus sur une grille d'un modèle à paramètres, où chacun d'eux peut prendre
valeurs recquiert
évaluations, ce qui devient rapidement ingérable numériquement. Les planètes ont un mouvement périodique, donc il est raisonnable de checher des signaux périodiques dans le signal en ne faisant varier que la période du signal recherché. Pour des signaux échantillonnés à intervalles réguliers, on utilise la transformée de Fourier. Le périodogramme est un moyen de checher des signaux périodiques dans des données échantillonnées irrégulièrement. On les notera
. Le périodogramme de Lomb-Scargle d'un signal
échantillonné aux instants
est défini comme suit pour une fréquence quelconque
:
où
vérifie:
Cette expression est équivalente à où
et
sont les paramètres minimisant
. Le modèle
est linéaire en
, on a donc une solution explicite à la minimisation.
Le périodogramme a une propriété très intéressante: si le signal d'entrée est un bruit gaussien de variance unité,
une valeur réelle fixée et
une fréquence quelconque, la probabilité que
dépasse
est
. En d'autres termes, la probabilité qu'une valeur du périodogramme à
fixée soit "au moins aussi grand que
" par hasard décroît exponentiellement. Supposons que l'on ait un signal
où
est un bruit gaussien de variance unité et nous trouvons un pic de taille
, on calcule la probabilité de trouver un pic au moins aussi grand si le signal n'est composé que de bruit:
. Si cette valeur est petite, on pourra confirmer la détection d'un signal avec une erreur de fausse alarme de
. Ce procédé n'est autre qu'un test de signification statistique.
La figure montre un exemple de périodogramme. Il s'agit d'un périodogramme d'une des coordonnées d'un signal astrométrique simulé dont on a soustrait le mouvement propre et la parallaxe. En bleu, on représente un périodogramme idéal, sans bruit, avec 10000 observations. Le périodogramme représenté en rouge est lui calculé pour 45 observations. Le pic le plus haut correspond bien à une fréquence réelle. Par contre, le deuxième pic le plus important (à 0.37 rad/s) ne correspond pas à une sinusoïde. C'est ce qu'on appelle un alias de la fréquence principale.
En pratique, la variance du bruit n'est pas unitaire et dépend de l'instant de mesure. On peut corriger ce problème en minimisant un critère pondéré où
est la variance du bruit à la mesure
.
L'objectif de ce mini projet est de réaliser un code permettant de calculer un périodogramme. On commence par établir la formule des moindres carrés dans le cas d'un modèle linéaire.
On se donne des observations et on considère une matrice réelle
de taille
avec
et de rang
. On veut calculer
, minimisant
. On pose
matrice diagonale dont les éléments diagonaux valent
et
.
En termes vectoriels,
. Comme on veut trouver le minimum de
et que cette fonction est différentiable, ce minimum vérifie
où
est la différentielle de
.
Montrer que la solution de
est
où
désigne la transposition. Montrer que c'est un minimum global. (On pourra utiliser le fait que
.
Nous voulons trouver la sinusoïde qui a la distance minimale aux données au sens des moindres carrés. En d'autres termes, on veut ajuster
où les
sont des instants d'observation. Calculer avec la formule précédente
minimisant
. On notera
Dans le langage informatique de votre choix, écrire un programme permettant de:
-------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------FIN DU CHAPITRE -------------
Ce chapitre présente la recherche et l'étude des exoplanètes par la méthode des transits. Il décrit les techniques d'observation, ainsi que les phénomènes observés et les paramètres déduits de ces observations concernant la planète, son environnement, sa structure interne et son atmosphère.
La lecture de ce cours demande quelques connaissances sur les atmopshères planétaires disponibles ici.
Vus depuis la Terre, les objets célestes peuvent passer les uns devant les autres, ce qui conduit à l’obscuration partielle ou totale de l'objet le plus lointain. Lorsque deux objets ont une taille apparente différente, le passage du plus petit devant le plus grand est appelé transit . Celui du plus grand devant le plus petit est appelé occultation ou plus improprement éclipse .
Dans le système solaire, les transits les plus courants sont ceux des satellites galiléens devant Jupiter, ainsi que leurs transits, occultations et éclipses mutuels. Dans le cas de Jupiter, lorsque la planète est proche de son équinoxe (tous les 5.5 ans environ), on peut observer les phénomènes mutuels de ses satellites galiléens, parmi lesquels on distingue entre transits, occultations et éclipses.
Moins fréquents mais plus connus sont les transits de Mercure (13 ou 14 fois par siècle) et Vénus (2 fois, séparées de 8 ans, tous les 243 ans) devant le Soleil.
En principe, le terme éclipse (littéralement : privation de lumière) devrait être réservé aux situations dans lesquelles un corps passe dans l’ombre d’un autre et non derrière lui. Il est ainsi employé correctement lorsqu’on parle d’une éclipse de Lune – la Lune passant dans l’ombre de la Terre – mais improprement lorsqu’on parle d’une éclipse de Soleil, ce phénomène devant en toute rigueur être appelé occultation du Soleil par la Lune .
Les planètes et petits corps du système solaire extérieur, très peu lumineux, passent assez souvent devant des étoiles du fond de ciel plus brillantes qu'eux. Ces occultations d'étoiles, comme les "ombres chinoises" révèlent des informations inaccessibles autrement.
Quelques-uns des résultats obtenus grâce à ces phénomènes sont décrits ci-dessous.
En sciences exoplanétaires, la méthode des transits consiste à mesurer les timings et l’ensemble des phénomènes observables lors du passage apparent d’une planète devant (figure ci-jointe- et derrière son étoile-hôte, lorsque ceux-ci se produisent en raison d’une orientation favorable de l’orbite planétaire (nous parlerons ci-après d’une planète transitante). Comme on le verra en détail, ces observations fournissent des informations irremplaçables sur la taille de la planète, ses caractéristiques orbitales, la structure et la composition de son atmosphère, voire la présence éventuelle de planètes supplémentaires dans le système.
Le passage de la planète derrière l’étoile (stricto sensu son occultation) est dans la littérature le plus souvent désigné par « transit secondaire » voire « éclipse secondaire », ou «anti-transit». Dans ce qui suit, on utilisera les termes transit (ou transit primaire) et éclipse secondaire pour le passage d’une planète devant et derrière l’étoile. L’observation de la planète hors transit, c’est-à dire dans la période de temps située entre le transit et l'éclipse secondaire fournit elle aussi des renseignements très intéressants sur la planète.
Dans différentes branches de l’astrophysique, l’observation de ces phénomènes de masquage ont donné historiquement des résultats scientifiques majeurs. Il y a exactement 400 ans, la mesure du timing des éclipses de Io par Jupiter a conduit le Danois Ole Rømer à la première estimation de la vitesse de la lumière (figure ci-jointe).
L’observation des transits de Vénus depuis différents points de la Terre a permis de calibrer les distances dans le système solaire (c’est-à-dire de mesurer l’unité astronomique) en employant la méthode des parallaxes. Elle a aussi fourni les premières indications sur la présence d’une atmosphère autour de Vénus (transit de 1761).
Les observations des éclipses de Soleil, qui permettent d’isoler la chromosphère, ont fourni de très nombreux résultats, parmi lesquels on se bornera à citer ici la découverte de l’hélium (1868), et la confirmation de la prédiction d’Einstein sur la déflection gravitationnelle de la lumière (1919) en comparant la distance apparente entre des étoiles selon que le Soleil était absent du champ ou présent (i.e. pendant une éclipse de Soleil).
Même si on se limite au système solaire, ces phénomènes continuent à fournir des informations majeures. La mesure des positions précises des satellites de Jupiter grâce aux phénomènes mutuels a permis de reconstituer leur mouvement orbital avec une précision suffisante pour en déduire le taux de dissipation d’énergie lié aux forces de marée dans l’intérieur de Io.
Dans des situations géométriquement semblables à celle des exoplanètes, la spectroscopie de Mercure et Vénus lors des transits récents devant le Soleil, et de Io en transit devant Jupiter, ont fourni de nouvelles information sur la composition et la structure de leurs atmosphères.
Un outil puissant d’étude des objets du système solaire lointain (objets trans-neptuniens) est fourni par la méthode de l’occultation stellaire : elle permet, par mesure du temps d’occultation – c’est-à-dire le temps de disparition de l’étoile derrière l’objet – la détermination de leur taille avec une précision (de l’ordre du kilomètre) inégalable par d’autres techniques. Les systèmes d'anneaux d'Uranus, de Neptune, du Centaure Chariklo (figure ci-jointe) et du transneptunien Haumea ont été découverts grâce à de telles occultations stellaires. Cette même technique permet de mesurer et de suivre l’évolution temporelle de la pression à la surface d’un objet comme Pluton.
L'observation des transits donne accès à des informations sur
La figure ci-jointe montre schématiquement la géométrie d’observation d’une exoplanète transitante. L’observable la plus directe est la mesure de la variation de flux pendant le transit primaire et l'éclipse secondaire. Hors transit, le flux mesuré correspond à la somme du flux de l’étoile et celui de la planète
. Pendant l'éclipse secondaire, le flux mesuré est restreint à
.
Pendant le transit primaire, une fois que la planète est entièrement devant le disque de l’étoile, une fraction de la surface de l'étoile est cachée, , où
et
sont respectivement le rayon de l'étoile et de la planète. Le flux de lumière de l'étoile est réduit d'une fraction δ. Comme la planète est devant l’étoile, elle nous présente sa face non-éclairée, donc sa contribution au flux observé est nulle. En conséquence, le rapport du flux mesuré pendant le transit primaire à celui mesuré pendant l'éclipse secondaire (ou en pratique à celui mesuré à n’importe quel moment hors du transit) donne directement le rapport du rayon de la planète à celui de l’étoile.
Calculez la baisse de luminosité du Soleil dû à un transit de Jupiter, de la Terre.
L'exercice ci-dessus montre que le transit de Jupiter devant le Soleil conduit à une baisse de luminosité de celui-ci de 1.05%. Pour la Terre passant devant le Soleil, l’assombrissement relatif n’est que de 0.0084%.
La perte de flux mesurée pendant l'éclipse secondaire dépend elle non seulement du rapport , mais également du rapport de l’intensité lumineuse spécifique (i.e. pour une surface donnée) émise par les deux objets. Comme on le verra plus loin, il dépend de de la longueur d’onde, et selon celle-ci, des températures de la planète et de l’étoile, ou de l’albédo de la planète.
L’expression de la perte de flux au moment du transit montre que la détection d’un transit d’une exoplanète de rayon donné autour d’une étoile naine (de type M) est plus favorable qu’autour d’une étoile de type solaire ou d’une étoile géante. Par exemple, l’étoile Kepler- 42 a un rayon égal à 0.17 rayon solaire (120 000 km). Elle abrite 3 planètes, dont la plus petite (Kepler-42 d), a un rayon de ∼0.57 rayon terrestre, ce qui donne un signal photométrique de l’ordre de 0.1%, plus de dix fois plus fort que la Terre devant le Soleil.
La grande puissance de la méthode des transits résulte de la reproductibilité du phénomène. Un système transitant peut être observé autant de fois que l’on souhaite, avec à chaque fois les mêmes caractéristiques en termes de timing et de profondeur de transit, ce qui permet l’accumulation de la précision sur ces deux paramètres. La précision sur la mesure des instants de transits est riche d’enseignements.
Dans le cas d’une orbite circulaire de période P, un transit et l'éclipse secondaire adjacente sont séparés temporellement de P/2. Ce n’est plus le cas pour une orbite elliptique, et la mesure de ces séparations temporelles (transit-éclipse et éclipse-transit) donne une information sur l’excentricité de l’orbite; plus précisément, elle contraint le produit e cos (ω), où e est l’excentricité et ω l’argument du périastre. La mesure des durées relatives du transit et de l'éclipse secondaire fournissent aussi des contraintes sur ces paramètres, mais avec moins de précision, eu égard à la courte durée des transits par rapport à leur périodicité.
Au-delà même de la caractérisation statistique des orbites planétaires, l’intérêt physique de ces mesures d’excentricité est grand. Ainsi, pour les planètes proches de leur étoile, les effets de marée associés aux orbites elliptiques produisent un chauffage interne qu’il est possible d’estimer, fournissant des contraintes sur la structure thermique des objets.
Par ailleurs, s’agissant de la connaissance de la période orbitale et des instants de transit et d’éclipse, la méthode des transits est presque toujours plus précise que la méthode des vitesses radiales. Pour autant, ces paramètres interviennent dans l’interprétation des courbes de vitesse radiale (ce sont 3 des 6 paramètres libres associés à cette méthode), donc leur connaissance indépendante via les transits a un grand intérêt pour l’amélioration de la précision sur les autres.
Une exoplanète qui transite devant son étoile possède une orientation favorable pour la spectroscopie des vitesses radiales : L'étoile et la planète tournent autour de leur centre de gravité. Au moment du transit planétaire, l'étoile est à son point le plus éloigné de la Terre (i.e. l'observateur) et sa vitesse Doppler s'annule.
S’y rajoute un effet subtil : en raison de sa rotation propre, le rayonnement d’une partie de l’étoile est décalé vers le bleu, l’autre vers le rouge (Fig. 2). Si la planète a une orbite prograde (dans le même sens que la rotation stellaire), elle masque d’abord des régions de l’étoile émettant un rayonnement décalé vers le bleu (zones grisées sur la Fig. 2), puis vers le rouge (zones claires). En conséquence, par rapport à sa valeur mesurée au centre du transit, la vitesse radiale globale de l’étoile est d’abord décalée vers le rouge, puis vers le bleu. C’est ce que l’on appelle l’effet Rossiter- McLaughlin. L’effet est loin d’être faible: en raison des fortes vitesses de rotation stellaires (typiquement 2 km/s pour le Soleil), il peut se chiffrer en quelques dizaines de mètre par seconde – soit souvent plus que la vitesse Doppler de l’étoile liée à la planète.
L’évolution du décalage Doppler de l’étoile pendant le transit permet alors non seulement de confirmer l’existence du transit, mais aussi de déterminer l’orientation de l’orbite planétaire, à savoir l’angle entre le plan orbital et l’axe de rotation de l’étoile (angle appelé obliquité de l’étoile).
Cette méthode a mis en évidence de nombreux cas de tels désalignements spin-orbite, voire d’orbites planétaires rétrogrades. L’origine de ces désalignements reste mal comprise, mais est sans doute liée à des phénomènes d’interaction, magnétique entre la jeune étoile et le disque proto-stellaire, ou gravitationnelle avec des compagnons stellaires au moment de la formation, qui auraient pu faire « basculer » l’axe de rotation stellaire. Une autre hypothèse serait que l’axe de rotation de l’étoile représente bien la direction perpendiculaire au plan du disque primordial, et que c’est le système planétaire dont le plan orbital a changé depuis sa formation.
De manière encore plus fine, la précision extraordinaire qui peut être atteinte sur les instants de transits peut révéler des cas d’orbites non-képleriennes. Ces situations peuvent résulter d’effets relativistes, de forces de marée liées à l’étoile, ou de perturbations associées à des forces gravitationnelles dues à des objets supplémentaires dans le système (deuxième étoile, planète additionnelle, etc.). Elles se manifestent par des variations sur les timings des transits primaire et secondaire, soit sur le long terme, ce qui peut indiquer une précession de l’orbite, soit à plus court terme, dans le cas de perturbations par des planètes non nécessairement transitantes dans le système.
Les planètes sur des orbites résonantes, c’est-à-dire présentant des commensurabilités de leurs périodes – produisent des variations particulièrement grandes des instants des temps de transit (figure ci-jointe). Cette effet est appelé TTV (transit time variation). L’ « inversion » des données de TTV en termes de propriétés (masse et orbite) des planètes perturbatrices est souvent « dégénérée » (i.e. n’a pas de solution unique), mais dans certains cas, une solution non-ambigüe peut être obtenue. Le plus souvent, l’ordre de grandeur des TTV est une très faible fraction de la période orbitale.
Un cas remarquable est celui de l’exoplanète Kepler-88b, une planète de 9 masses terrestres, qui présente des TTV de 12h d’amplitude, pour une période orbitale de 11 jours. Il a été prédit qu’ils étaient causés par une planète perturbatrice non-transitante de 0.7 masses de Jupiter, qui est ensuite été détectée par vélocimétrie radiale !
Tout récemment (22 février 2017), un système exceptionnel de 7 planètes, toutes transitantes, a été découvert autour d’une étoile naine (rayon = 0.11 rayons solaires, masse= 0.08 masses solaires) ultra-froide (2550 K) appelée TRAPPIST-1 et située à 40 années-lumière. Les périodes orbitales (de 1.5 à 20 jours) sont telles que plusieurs de ces planètes peuvent transiter en même temps, et même s’occulter mutuellement pendant le transit, ce qui conduit à des courbes lumières d’une superbe complexité (Fig. ci-jointe).
Les tailles (Rp = 0.75 à 1.1 rayons terrestres) et masses (0.85 à 1.38 masses terrestres, mesurées par la méthode des TTV) indiquent clairement des planètes telluriques et trois d’entre elles pourraient avoir une température compatible avec l’eau liquide. Le système dans son ensemble (0.063 UA pour la planète la plus externe) tiendrait aisément dans l’orbite de Mercure, et apparaît comme un cas intermédiaire entre le système des satellites galiléens de Jupiter et celui du système solaire interne (Fig. ci-jointe).
Dans ce qui précède, nous n’avons parlé de d’observations photométriques des transits – c’est-à-dire dans une seule bande de longueur d’onde (outre la description de l’effet Rossiter-McLaughlin). Par ailleurs, nous avons implicitement supposé que la planète a un « bord net », de sorte qu’on pouvait parler de son « rayon » sans ambiguÏté. La réalité est plus floue. Les planètes géantes n’ont pas de surface solide bien définie, et même une planète tellurique peut posséder une atmosphère, qui influence la manière dont la lumière stellaire est absorbée pendant le transit. Concrètement, l’absorption préférentielle de la lumière à certaines longueurs d’onde par les gaz et/ou aérosols/nuages rend le « rayon d’absorption » de la planète plus grand à ces longueurs d’onde. Du coup, la mesure spectroscopique du transit, c’est-à-dire la variation de la profondeur d’absorption du transit en fonction de la longueur d’onde, permet d’obtenir des informations sur la composition de l’atmosphère, voire sa dynamique. Nous verrons plus loin les équations générales régissant ces principes. Notons que cette spectroscopie de transmission peut être effectuée dans tout l’infrarouge et jusqu’à l’ultraviolet, ce qui permet en principe de sonder une vaste gamme verticale de niveaux dans l’atmosphère, allant des troposphères (pression de plusieurs bars) jusqu’aux thermosphères/exosphères (nanobar).
De même, il est extrêmement intéressant d’observer par spectroscopie l'éclipse secondaire. Comme on l’a vu, la différence entre le flux mesuré juste avant ou après le passage de la planète derrière l’étoile et celui mesuré pendant l'éclipse secondaire donne le rayonnement provenant de la planète elle-même (pour être précis, du côté éclairé de la planète). Selon le domaine de longueur d’onde, ce rayonnement planétaire peut-être de nature stellaire réfléchie ou thermique.
La première composante, qui domine dans le visible et le proche infrarouge, correspond à la lumière de l’étoile réfléchie par la planète. Le rayon étant approximativement connu par l’observation du transit, l’intensité de ce rayonnement réfléchi fournit l’albédo de la planète. Ce dernier résulte de la compétition entre les propriétés réfléchissantes/diffusantes et absorbantes de l’atmosphère (voire de sa surface). Pour une planète avec une atmosphère épaisse, les variations spectrales de l’albédo sont dues aux variations de ses propriétés de diffusion (par les gaz et/ou les nuages atmosphériques) avec la longueur d’onde, mais peuvent aussi faire intervenir la composition gazeuse (des espèces atomiques comme le sodium ou le potassium ont des raies d’absorption très fortes dans le visible). Comme on verra, la grande difficulté de la mise en œuvre de cette technique résulte dans la très faible intensité du signal planétaire à extraire.
Le domaine thermique, lui, correspond au rayonnement propre de l’atmosphère de la planète. Celui-ci dépend à la fois de la structure thermique verticale (la variation de la température avec la pression dans l’atmosphère de la planète) et des profils verticaux d’abondance des gaz – qui définissent le profil vertical de l’opacité atmosphérique. En termes de composition atmosphérique, la mesure du spectre thermique apparaît donc complémentaire de celle du spectre en transmission mesuré pendant le transit. Cette complémentarité reflète notamment le fait que les deux méthodes ne sondent pas les mêmes régions atmosphériques : le transit est sensible à la composition du limbe de la planète – i.e. les régions où la lumière stellaire est rasante (« terminateurs ») alors que l’émission thermique sonde le côté jour de la planète.
Par ailleurs, à une longueur d'onde donnée, le transit sonde des régions plus ténues de l'atmosphère que l'émission thermique.
A ce jour (janvier 2017), la spectroscopie des transits a permis de détecter un petit nombre d’espèces chimiques dans certaines exoplanètes (~20 objets en tout), parmi lesquelles les molécules H2O, CO2, CO, CH4, et les espèces atomiques H, C, O, Na, K. De manière très générale, l’intérêt de ces mesures est double, permettant (i) d’en déduire la composition élémentaire (par exemple le rapport C/O), qui donne des contraintes sur les processus de formation de ces objets (ii) de caractériser les processus physiques (photochimie, condensation, thermochimie à l’équilibre ou hors-équilibre, transport vertical, échappement atmosphérique...) qui gouvernent les atmosphères. L’étude des spectres exoplanétaires renseigne aussi sur la présence de nuages dans leurs atmosphères, dans la mesure où des nuages diffusants ou absorbants à haute altitude masquent les absorptions moléculaires attendues.
La figure montre qu’au cours de sa révolution autour de l’étoile, une exoplanète présente différentes phases : côté nuit au moment du transit, côté jour juste avant/après l'éclipse secondaire, et à l’instar de la Lune, des phases de croissant/quartier tout au long de l’orbite.
Le suivi de l’émission thermique avec la position de la planète sur son orbite – et ceci est vrai même pour une planète ne transitant pas – permet ainsi de mesurer les variations spatiales – en l’occurrence les variations avec l’heure locale pour une orbite circulaire – des propriétés atmosphériques. Ces courbes de phase renseignent principalement sur la variabilité diurne des températures atmosphériques. Par exemple, on pourrait s’attendre à ce que les Jupiter chauds, qui, dus aux effets de marée, sont en rotation synchrone autour de leur étoile, présentent des écarts de températures gigantesques entre les côtés éclairé et sombre. Ce n’est en fait souvent pas le cas (voir exemple sur la figure ci-jointe), ce qui implique une forte redistribution de la chaleur par des vents atmosphériques. Il est également généralement observé que le maximum de température ne se produit pas au midi local, mais est décalé vers les zones « de l’après-midi », ce qui s’explique par des effets d’inertie thermique.
Une méthode complémentaire consiste à résoudre temporellement l'éclipse secondaire dans le domaine thermique : la disparition progressive derrière l’étoile de la planète permet de déterminer successivement les températures de « tranches de planète » correspondant à des heures locales différentes, et ainsi d’établir une carte de températures.
La spectroscopie des transits donne enfin potentiellement un accès direct à la vitesse des vents atmosphériques. En effet si une molécule est détectée par spectroscopie du transit, la mesure précise de la longueur d’onde des raies planétaires peut éventuellement indiquer des décalages spectraux diagnostics de vitesses de vent. Ainsi, un décalage vers le bleu des raies de CO dans le cas de HD209458b a été interprété comme la signature de vents jour-nuit de l’ordre de 2 km/s. Des complications liées à la connaissance précise de l’orbite de la planète peuvent toutefois survenir. Dans un cas, il a aussi été possible de mesurer la période de rotation propre d’une exoplanète (β-Pictoris b) à partir de la largeur des raies de CO.
Nous n’avons ci-dessus parlé que de transits de planètes devant des étoiles. Le phénomène peut être généralisé au transit d’autres objets de nature planétaires, tels que : satellites, astéroïdes/comètes, anneaux. Un satellite d’une exoplanète transitante doit généralement lui-même transiter et peut donc en être détecté directement par une allure particulière des courbes ingress/egress. Même si le satellite est trop petit pour être observé directement, un autre effet potentiellement détectable serait la mesure de TTV, dues au fait que la position de la planète oscille autour du centre de masse planète-satellite. Les données de transit de la planète Kepler-1625 b ont montré la premiètre trace de présence d'un exo-satellite, appelé Kepler-1625 b I
En revanche, on connaît deux cas de systèmes exoplanétaires avec transits de comètes. Le plus célèbre et le premier découvert est celui du disque de débris de l’étoile β-Pictoris, dont le spectre présente des raies atomiques (Ca II par exemple) variables temporellement, qui sont interprétées comme la signature de comètes en évaporation passant devant l’étoile. L’analyse statistique de ces signatures prouve qu’il existe deux familles de comètes différant par leur type d’orbite. A noter que le système de β-Pictoris possède également une planète géante (β-Pictoris b), découverte par imagerie directe, d’environ 7 masses de Jupiter, de période 22 ans. La recherche de son éventuel transit n'a, pour le moment rien donné.
Des transits de comètes devant une étoile (transit par le noyau cométaire et pas signature spectrale du nuage comme dans le cas de β-Pictoris) ont été détectés par Kepler en 2017.
Enfin, on a découvert le cas exceptionnel d’une exoplanète qui semble entourée d’anneaux (1SWASP J1407 b ; compte tenu de sa masse, environ 20 masses de Jupiter, il pourrait s’agir d’une naine brune). Ces anneaux, dont l’existence est attestée par leur transit devant l’étoile (Fig. 4), constituent un système géant (rayon ~90 millions de km, soit 200 fois les anneaux de Saturne) et pourraient abriter une masse totale d’environ 1 masse terrestre. Un modèle invoquant 37 anneaux distincts permet de reproduire la courbe du transit, qui dure 56 jours. A noter que le modèle présente une zone vide d’anneaux à environ les 2/3 du rayon total, peut-être la conséquence d’une lune de ~1 masse terrestre.
L’une des limitations les plus importantes de la méthode est la faible probabilité qu’une exoplanète donnée passe devant ou derrière son étoile-hôte. Il faut en effet pour cela que l’observateur se trouve pratiquement dans le plan orbital de la planète (orbite vue « par la tranche »).
Considérons une planète découverte par vitesse radiale et dont l’orientation de l’orbite est inconnue. Pour qu’elle transite devant son étoile, en notant l’inclinaison entre la normale au plan orbital et la ligne de visée, il faut que l’on ait la relation :
, où
et
sont les rayons de l'étoile et de la planète,
est la distance projetée entre l’étoile et planète au moment où celle-ci est au plus proche de l’observateur. Compte tenu que la planète est toujours beaucoup plus petite que l’étoile, et en se limitant pour simplifier au cas d’une orbite circulaire de demi-grand axe a, on peut montrer que la probabilité de transit et celle d'éclipse secondaire sont toutes deux égales à
. Ceci prouve le résultat intuitif que la probabilité de transit est plus grande pour les planètes les plus proches de leur étoile.
Quelle est la probabilité, pour un extraterrestre, de détecter par transit,
- la Terre ? - Jupiter? - une planète à 0.05 UA d’une étoile de type solaire?
Cette probabilité peut se traduire en termes du nombre moyen d’étoiles qu’il faut observer pour espérer découvrir une exoplanète transitante à un rayon orbital donné. Si on note η la fraction des étoiles possédant une telle planète, ce nombre est de l’ordre de ∼
. Par exemple, les « Jupiters chauds » ont une distance type à leur étoile de 0.05 UA, et concernent environ 1 % des étoiles. Ceci donne p ∼0.1 et N ∼1000.
Même dans ce cas très favorable (planète proche), on voit que la recherche d’exoplanètes nouvelles par transit nécessite l’observation en aveugle de grands échantillons.
L'exercice ci-dessus montre que la probabilité de détecter la Terre par transit n'est que de 0.45%. Pour Jupiter, la probabilité est de 0.09%. En revanche, pour une planète à 0.05 UA autour d’une étoile de type solaire, la probabilité atteint 9 %. Les probabilités de transit et d'éclipse secondaire peuvent différer lorsque l’orbite planétaire est d’excentricité non-nulle (elliptique) de sorte qu’il est en principe possible d’observer un transit primaire sans transit secondaire et vice-versa.
La géométrie d’un transit est représentée sur la Fig. 5.
Appelons à
les 4 « temps de contact », c’est-à-dire les instants auxquels les disques de la planète et de l’étoile sont tangents. L’instant moyen de l’entrée (du disque planétaire devant le disque stellaire) est
; de même l’instant moyen de la sortie (du disque planétaire) est
. L’intervalle de temps séparant ces deux instants, noté T, est par définition la « durée du transit », alors que
et
sont respectivement la durée de l’entrée et de la sortie. On note également b le « paramètre d’impact », i.e. la distance minimale – exprimée en fraction de rayon stellaire – entre la position apparente de la planète et le centre de l’étoile.
Avec ces définitions, en se limitant au cas des orbites circulaires et en faisant les approximations raisonnables suivantes : , et
(transit non-rasant), on peut montrer que la durée du transit est égale à :
où
, P étant la période orbitale.
Par ailleurs, , où
En combinant l’expression de
ci-dessus avec la 3eme loi de Kepler, et en se ramenant au cas du système solaire, on obtient
expression dans laquelle la seconde parenthèse représente le rapport de la densité de l’étoile à celle du Soleil. Ainsi, vu depuis une autre étoile, le transit de la Terre devant le Soleil ne dure que 13 h une fois tous les ans, et celui de Jupiter ne dure que 30 h une fois tous les douze ans, ce qui illustre à nouveau la rareté du phénomène. Bien évidemment, la mesure de la période requiert l’observation d’au moins deux transits.
Les expressions ci-dessus montrent que les transits sont des événements a priori rares, puisque seule, une faible fraction des exoplanètes transitent, et parmi celles-ci, seulement pendant une faible fraction de leur période orbitale.
Il faut donc distinguer entre les différents objectifs suivants: (i) la recherche d’exoplanètes, qui comme on l’a vu nécessite l’observation de grands échantillons (ii) le suivi photométrique de systèmes planétaires découverts en vélocimétrie radiale pour voir s’ils donnent lieu à des transits (iii) la caractérisation d’exoplanètes transitantes, notamment par spectroscopie.
De par sa simplicité, la méthode est en principe accessible avec un équipement modeste, puisqu’au premier ordre il s’agit simplement (sauf pour le troisième objectif) de suivre photométriquement une étoile qui peut être relativement brillante. De fait, le premier transit d’exoplanète (celui de HD209458b, dont l’étoile a une magnitude ∼ 8) fut observé depuis le sol, en 2000, à l’aide d’un simple télescope de 25 cm, doté d’une caméra CCD. De nombreux programmes de recherche de transits au sol ont été développés, tels que TrES, XO, HAT, SuperWASP, avec des télescopes de ∼10 cm qui font des relevés sur des étoiles de magnitude 10 à 12, ou OGLE, avec un télescope de 1 m pour des étoiles de magnitude 14-16. A ce jour (fin 2016), ces relevés depuis le sol ont permis de découvrir environ 250 exoplanètes, notamment avec SuperWASP et HAT.
Comme on l’a vu plus haut, le transit d'une planète géante (resp. tellurique) autour d’une étoile de type solaire produit typiquement un signal photométrique de 1 % (resp. 0.01 %). En raison de la turbulence atmosphérique, les planètes telluriques ne sont pas à la portée des observations au sol, sauf autour des étoiles naines. Ce problème est éliminé par l’emploi d’observations depuis l’espace, qui ont en outre l’avantage de s’affranchir des aléas de la météo et des interruptions jour-nuit. Dans tous les cas, l’extraction des signaux planétaires requiert des techniques élaborées de photométrie de haute précision, excluant au maximum les erreurs systématiques éventuelles. Les projets spatiaux CoRoT et Kepler et leurs résultats sont décrits ci-après.
La description faite plus haut de la perte de flux pendant un transit suppose que le flux stellaire est indépendant de la position sur l’étoile et constant dans le temps. Dans la réalité, le rayonnement stellaire est généralement caractérisé par un assombrissement centre-bord, lié au fait que le rayonnement au limbe provient d’un niveau plus élevé, et par conséquent plus froid, dans l’atmosphère de l’étoile, que celui au centre. En conséquence, l’atténuation du rayonnement de l’étoile lors d’un transit planétaire n’est pas purement géométrique.
Aux longueurs d’onde où l’assombrissement centre-bord est important, les courbes de lumière apparaissent ainsi plus « piquées » (c’est-à-dire moins plates) près de leur centre, puisque la planète masque alors une zone de rayonnement plus intense.
De manière plus générale, les étoiles présentent des hétérogénéités locales de flux, associées notamment aux tâches stellaires liées à l’activité de l’étoile. Leur masquage pendant le transit peut conduire à des irrégularités dans le profil d’atténuation de l’étoile, ce qui compliquera la détermination du rayon planétaire. Ces problèmes sont particulièrement sérieux dans le cas des étoiles géantes et sous-géantes. L’activité stellaire, qui induit une variation temporelle du flux total émis par l’étoile, peut aussi conduire à des courbes de lumières non parfaitement reproductibles dans le temps.
Une faible atténuation temporaire et reproductible du flux stellaire peut sembler être la signature non-ambiguë d’un passage planétaire. Pourtant, il existe d’autres situations pouvant conduire au même type de signal (Fig. 6), telles que :
le transit rasant d’une étoile dans un système binaire à éclipses
le cas d’un système triple incluant une étoile brillante et une binaire à éclipses peu lumineuse : dans ce cas, l’effet du transit « normal » dans la binaire à éclipses est fortement dilué par la présence de l’étoile brillante, ce qui donne au phénomène l’apparence d’un transit planétaire de faible profondeur. Une variante de cette situation est le cas où la binaire à éclipse et l’étoile brillante ne font pas partie d’un système triple, mais se trouvent dans un alignement de circonstance.
Enfin, même dans les cas où on peut établir qu’il s’agit bien du transit d’un objet unique devant l’étoile étudiée, il faut encore prouver que l’objet en transit est bien une planète : en effet, les étoiles de faible masse (<10% de la masse du Soleil) et les naines brunes ont des rayons comparables à celles d’une planète géante comme Jupiter, et ne s’en distinguent que par leur masse bien plus élevée.
Il y a différentes manière de débusquer ces « faux positifs ». Ainsi les cas des transits rasants peuvent être identifiés par leur forme plus piquée (en « V ») que celle des transits planétaires (en « U »). Par ailleurs, comme on l’a vu plus haut, la durée du transit donne une mesure de la densité de l’étoile-hôte ; une solution aberrante (c’est-à-dire incohérente avec celle que l’on peut estimer à partir de la température de l’étoile) indiquera qu’il ne s’agit pas d’un transit planétaire. Enfin, pour distinguer entre une véritable planète et un objet sous-stellaire de même rayon, le seul moyen est de déterminer la masse de l’objet par vélocimétrie radiale. L’étude (et l’élimination) des faux positifs est fondamental pour les études statistiques de population planétaire. Ce taux s’avère important et fortement dépendant des types de planètes. Par exemple, dans le cas des données Kepler, il est de l’ordre de 10 à 20 % globalement, mais peut atteindre 35-55% pour les planètes géantes, plus difficiles à distinguer des étoiles de faible masse et naines brunes. En revanche, le taux de faux positifs dans le cas des systèmes multi-planétaires (en particulier dans le cas des systèmes à TTV, voir ci-dessus) est faible.
L’observation photométrique du transit ne fournit que le rapport du rayon de la planète à celui de l’étoile, pas le rayon absolu de la planète. Par ailleurs, sauf dans les cas où des perturbations gravitationnelles entrent en jeu (TTV), les transits en eux-mêmes ne contraignent pas les masses planétaires.
En revanche, l’avantage majeur des transits est que les exoplanètes détectées par cette méthode le sont également en principe par vitesse radiale, puisque l’inclinaison de l’orbite i est alors favorable et bien connue (proche de 90°). L’amplitude du signal Doppler sur l’étoile est relié à la masse planétaire par :
où
et
sont la masse planétaire et stellaire, e l’excentricité, P la période, et G la constante universelle de gravitation. L’avantage ici est qu’on peut écrire
.
A nouveau, une limitation est que n’est pas connue. Il faut donc combiner les mesures de transit et de vitesse radiale avec des informations indépendantes sur l’étoile, typiquement obtenues via les modèles d’évolution stellaire, qui donnent des relations entre âge, luminosité, rayon, masse et composition.
Par ailleurs, comme indiqué en 2.2, la profondeur du transit , la durée du transit T et la durée de l’ingress/egress contraignent le rapport
et le paramètre d’impact b, ce qui permet de « calibrer » le rayon planétaire en absolu. Si les propriétés stellaires sont suffisamment bien connues, on peut donc obtenir des valeurs absolues du rayon et de la masse planétaire, donc de sa densité, ce qui a évidemment une importance énorme pour contraindre la nature (gazeuse, glacée, rocheuse) et la structure interne de la planète.
Finalement, en combinant la relation ci-dessous avec la 3e loi de Kepler, on peut déterminer la gravité planétaire indépendamment des propriétés de l’étoile :
La connaissance de
est nécessaire pour l’élaboration de modèles d’atmosphères.
Comme exposé plus haut, le principe de la spectroscopie du transit est de mesurer des variations spectrales de la profondeur du transit comme diagnostic de composition atmosphérique. A une longueur d’onde où l’atmosphère absorbe, le rayon "effectif" de la planète est augmenté d’une quantité , où H est la hauteur d’échelle de l’atmosphère et α est généralement un nombre de l’ordre de quelques unités. La profondeur du transit δ est donc augmentée de :
∼
Cette relation montre fondamentalement que l’effet est d’autant plus grand que H est grande, i.e. que l’atmosphère est chaude, de faible masse moléculaire, et que la gravité est faible. Par exemple, pour un Jupiter chaud (,
, masse moléculaire = 2 amu (
),
), on obtient
, ce qui fait
en adoptant
. Pour une "Terre" (
,
, masse moléculaire = 28 amu (
),
), on trouve
et
, en prenant toujours
.
Dans les deux cas, l’ordre de grandeur est donc une augmentation relative de la profondeur du transit de l’ordre de 1% de sa valeur. Pour la planète tellurique, compte tenu que le transit géométrique est déjà inférieur à 0.01%, le signal spectral est donc inférieur à
, ce qui illustre l’extrême difficulté de ce type de mesures.
La spectroscopie du transit primaire permet d’estimer l’échelle de hauteur atmosphérique. Imaginons d’abord que le coefficient d’absorption intrinsèque de l’atmosphère varie avec la longueur d’onde λ, mais pas avec le niveau d’altitude dans l’atmosphère. Si on note la section efficace d’absorption à la longueur d’onde λ, l’opacité en visée verticale est
, où
est la concentration de l’espèce absorbante à l’altitude z. Comme le transit sonde les couches au limbe, l’opacité le long de la ligne de visée est multipliée par le facteur géométrique d’augmentation du parcours
, et vaut donc :
On peut montrer que le rayon planétaire effectif à la longueur d’onde λ est égal au rayon de la surface augmenté de la hauteur
pour laquelle l’opacité en visée horizontale vaut environ 0.56 :
Comme
est relié à la concentration
à la surface, selon
, on peut en déduire
ce qui confirme que l’augmentation du rayon effectif est essentiellement proportionnelle à H (le terme dans le ln variant lentement avec H).
Cette expression montre que la variation du rayon effectif avec la longueur d’onde suit :
Si l’on connaît le mécanisme physique responsable de l’absorption (par exemple, la diffusion Rayleigh où σ varie comme une puissance de λ), la mesure de la variation du rayon effectif avec la longueur d’onde fournit directement la hauteur d’échelle de l’atmosphère
, donc une estimation de sa composition principale si la température peut être estimée indépendamment.
Le raisonnement précédent est valable en première approximation lorsque l’opacité atmosphérique est le fait des brumes, mais l’est moins pour une absorption par les gaz, car celle-ci dépend intrinsèquement fortement de la pression. Ce développement analytique doit donc être remplacé par des modèles numériques. Il n’en reste pas moins vrai que le spectre en transmission montre la planète « plus grosse » dans les bandes d’absorption gazeuse qu’en dehors de ces bandes, et qu’il est alors possible de contraindre la composition chimique (Fig. 7).
Les premières découvertes d’espèces chimiques dans les spectres d’exoplanètes en transmission datent des années 2002-2003 avec la détection d’espèces atomiques (Na, H, et plus tard K, C, O) dans le spectre visible. Le cas de l’hydrogène atomique est particulier car il donne lieu à des transits extrêmement profonds (15%), causés par des atmosphères d’hydrogène très étendues et en échappement rapide. Dans l’infrarouge, dû à la grande difficulté d’extraire les spectres, des controverses ont eu lieu sur la réalité et surtout la quantification des signatures spectrales en termes de paramètres atmosphériques. Il semble toutefois qu’un nombre important de ces spectres montrent les signatures spectrales de H2O, celles de CH4, CO2, et CO étant également présentes sur quelques objets. Une caractéristique très fréquente est le rôle des brumes ou nuages de haute altitude, qui contribuent à l’émission dans le spectre visible et tendent à masquer les signatures des gaz dans l’infrarouge.
Comme on l’a vu plus haut, l’observation de l'éclipse secondaire permet en principe de déterminer par différence la quantité de radiation que nous envoie une exoplanètes, que ce soit sous forme de lumière stellaire réfléchie ou de rayonnement thermique propre. La difficulté est ici le contraste de luminosité entre la planète et l’étoile.
La profondeur de l'éclipse secondaire s'écrit :
où
et
sont les intensités (par élément de surface) émises par la planète et l’étoile et
est le rapport des rayons
.
Dans la composante stellaire réfléchie, juste avant l'éclipse secondaire, la planète – qui présente alors sa face entièrement éclairée – reçoit une fraction
du rayonnement
de l’étoile, et en réémet une fraction
où
est appelé l’albédo géométrique. Ceci correspond donc à une profondeur de l'éclipse secondaire égale à :
.
Comme (et peut être <<1) et que
(et normalement
), ceci implique le résultat intuitif que l'éclipse secondaire est (beaucoup) moins profonde que le transit primaire. Pour un albédo caractéristique de 10%, la profondeur de l'éclipse secondaire dans la composante stellaire réfléchie est de
pour un Jupiter chaud à 0.05 UA (contre 0,01 pour le transit). Pour une Terre à 1 UA de même albédo, elle vaudrait
! Si elles sont complètement hors de portée dans ce dernier cas, les mesures d’albédo sont possibles pour des Jupiters chauds (voir plus loin les résultats de Kepler) mais requièrent une haute précision photométrique et l’accumulation de nombreuses mesures.
Le contraste devient progressivement moins défavorable dans la composante thermique. Dans ce cas, le rapport s’écrit comme le rapport des fonctions de Planck aux températures caractéristiques de la planète
et de l’étoile
. Dans la limite des grandes longueurs d’onde, il tend vers le rapport
. Pour un Jupiter chaud (
) autour d’une étoile de type solaire, ce terme n’est plus pénalisant que d’un facteur
à
). Ceci explique l’allure des courbes d'éclipse les plus favorables (cf. Fig. 3). Dans ce cas, il devient envisageable d’effectuer la spectroscopie de l’émission thermique.
L’interprétation d’un spectre d’exoplanète dans le domaine thermique est très comparable à celle d’un objet du système solaire. Les paramètres libres sont essentiellement la structure thermique verticale, et les profils de composition qui stipulent la distribution verticale des gaz et des nuages. De manière générale, le rayonnement mesuré satisfait à l’équation dite du transfert radiatif, qui peut s’écrire (en négligeant les phénomènes de diffusion, et en supposant l’atmosphère suffisamment épaisse pour que la surface ne soit pas sondée) :
où
est l’intensité lumineuse sortante à la longueur d'onde λ, τ est l’opacité verticale intégrée sur la ligne de visée à cette même longueur d'onde, et
est la fonction de Planck à la température
du niveau atmosphérique d’opacité
, et où l’intégrale porte sur l’ensemble de l’atmosphère. Essentiellement, l’information sur le profil de température est contenue dans la fonction de Planck, alors que le profil vertical d’opacité contraint la composition chimique.
Une méthode dite d’inversion permet en principe de remonter aux deux paramètres, mais il est généralement impossible d’obtenir une solution unique ou même précise, compte tenu de la connaissance préalable très pauvre que l’on a des objets (contrairement aux atmosphères du Système Solaire), et le plus souvent de la qualité très modeste des spectres exoplanétaires (faibles résolution spectrale et signal-sur-bruit). Des contraintes supplémentaires peuvent être injectées pour aider à l’interprétation des spectres. Ainsi, on peut chercher des solutions physiquement cohérentes entre les profils de composition et de température, compte tenu des équilibres chimiques et de condensation entre les différents gaz et les nuages. Une autre complication est qu’on s’attend à ce que les profils atmosphériques présentent des variations horizontales considérables sur la planète (variations jour/nuit notamment), qui ne peuvent évidemment pas être appréhendées à partir d’un spectre planétaire unique.
Une approche alternative moderne est de construire des modèles atmosphériques auto-cohérents à 3 dimensions à l’aide d’outils de type MCG (modèles de circulation générale, GCM en anglais), puis de les tester en regard des observations. Il est aussi fructueux de combiner la mesure de l’émission thermique avec celle du spectre en transmission au moment du transit (cette dernière étant très sensible à la composition atmosphérique mais beaucoup moins aux détails du profil de température), tout en étant conscient que les deux mesures ne sondent pas les mêmes régions de la planète ; à nouveau le passage par un MCG peut s’avérer très utile.
Malgré tout, le plus souvent, au-delà de la présence avérée de certains gaz – H2O essentiellement – les interprétations du spectre d’un objet donné peuvent être diverses, avec des divergences sur les abondances gazeuses (parfois par des ordres de grandeurs), et sur la forme des profils de température – notamment la présence ou non de couches d’inversion (stratosphères).
La mesure de la courbe de phase est également une mesure de l’émission thermique d’une exoplanète, mais le focus est alors sur la variation photométrique de cette émission avec la position de la planète sur son orbite. Celle-ci renseigne sur les variations de la température « moyenne » (stricto sensu, la température au niveau d’émission dans l’atmosphère) le long de l’orbite. En général, comme indiqué plus haut, on a ainsi accès aux variations diurnes de température. Dans le cas d’une orbite de forte excentricité, les températures dépendent surtout de la distance à l’étoile, i.e. l’écart au périastre. Dans les deux cas, cela de permet de mesurer la constante de temps radiative de l’atmosphère, i.e. le temps caractéristique de réponse aux variations d’insolation.
A de très rares exceptions près, la spectroscopie atmosphérique requiert une stabilité et une sensibilité qui ne peuvent être atteinte que par des moyens spatiaux. Dans l’infrarouge proche, les meilleurs spectres d’exoplanète en transit et en éclipse secondaire ont été obtenus par le télescope spatial Hubble (instruments NICMOS, STIS et surtout WFC3, couvrant 0.9 – 1.7 microns). A plus grande longueur d’onde, ces spectres ont été complétés par le spectromètre IRS (couvrant 5-14 microns) du télescope spatial Spitzer, alors que les courbes de phases proviennent le plus souvent du photomètre IRAC dans 4 bandes de longueur d’onde (3.6, 4.5, 5.8, 8.0 micron, cf Fig. 3). Dans un futur proche, les observations avec le télescope spatial JWST s'annoncent très prometteuses.
Nous terminerons par une description de deux missions spatiales dédiées (au moins partiellement) à la recherche et l’étude des transits exoplanétaires, et de leurs principaux résultats.
CoRoT (COnvection ROtation et Transits planétaires), un programme mené par le CNES en collaboration avec l’ESA, a fonctionné de janvier 2007 à décembre 2012. Ce télescope de 27 cm en orbite géocentrique polaire était équipé de 4 détecteurs CCD couvrant un champ d’environ 3.5°. CoRoT a suivi des milliers d’étoiles de magnitude 11 à 16 avec une sensibilité photométrique d’environ 0.01 %. CoRot a permis la découverte de 31 exoplanètes. Parmi celles-ci, on peut relever les cas particulièrement intéressants suivants :
CoRot 7-b, dont le rayon (1.7 rayons terrestres) et la masse (5-8 masses terrestres, mesurée ultérieurement par vitesse radiale) impliquent une densité proche ou légèrement supérieure à celle de la Terre, ce qui en fit la première exoplanète tellurique découverte. Sa période orbitale est incroyablement courte (20.5 heures) et la distance à l’étoile n’est que de 6 rayons stellaires. D’après les modèles, la température côté jour pourrait dépasser 2000°C et la surface pourrait donc se présenter comme un océan de lave.
Kepler, une mission du programme « Discovery » de la NASA, a été lancée en mars 2009 et a fonctionné nominalement jusqu’en mai 2013. Malgré des avaries techniques, elle a pu poursuivre son programme exoplanètes après cette date, sous le nom de mission K2. Avec un télescope de 1.4 m en orbite héliocentrique, sa précision photométrique est de 3x10-5, ce qui permet d’atteindre les planètes sub-telluriques, même si de nombreux transits sont nécessaires pour garantir des détections sans ambiguïté. Avec un champ de 115 degrés carrés, Kepler surveille en permanence 150,000 étoiles, pour la plupart de magnitude 14-16, avec une mesure photométrique toutes les 30 minutes. Un traitement automatisé détecte les «candidats », appelés aussi les Kepler Objects of Interest (KOI), i.e. les signaux pouvant indiquer le transit d’une exoplanète, mais qui doivent ensuite être inspectés/validés pour éliminer les faux positifs.
Les résultats de Kepler sont annoncés sous forme de parution régulière de liste de candidats et de planètes confirmées. Le nombre de planètes Kepler confirmées a dépassé le millier en janvier 2015, et a atteint 2325 en mai 2016 (Fig. 8). La majorité est dans la gamme des « super-Terre » (1 à 2 rayons terrestres) et « mini-Neptune » (2 à 3 rayons terrestres) (Fig. 9a, 9b). A ce jour, le nombre total d’exoplanètes confirmées découvertes par la méthode des transits est de l’ordre de 2700 (correspondant à environ 2000 systèmes planétaires), sur un total de 4000 environ. La méthode des transits est devenue, et de loin, la plus prolifique.
Outre la richesse et les études statistiques que permettent ces découvertes, on peut, comme pour CoRoT, relever quelques cas de planètes ou systèmes Kepler remarquables :
Temps :
En 2005, il n'y avait que 160 exoplanètes découvertes, la plupart par la méthode des vitesses radiales. La planète HD 189733 a été découverte par François Bouchy et son équipe au cours d'une campagne de recherche associant le spectrographe à fibres ELODIE et une caméra CDD.
La courbe de lumière de HD 189733 montre plusieurs phénomènes. Expliquer à quels phénomènes physiques chaque phase correspond et quels paramètres de la planète ils permettent d'estimer.
A quoi correspond le flux = 1?
L'appliquette montre les données de vitesse radiale de HD 189733. A l'aide des curseurs, retrouvez les paramètres de la sinusoide.
Ce projet a pour but de mettre en application tout votre nouveau savoir théorique pour l'appliquer à un cas pratique. Nous allons prendre des données réelles de transit, chercher si une planète s'y cache, et le cas échéant, déduire les paramètres de la planète associée, tels que son rayon et sa période. Vous comparerez alors vos résultats à ceux qui ont vraiment étaient publiés par l'équipe de recherche qui a traité ces données il y a quelques années.
Nous allons analyser des données provenant de SuperWASP qui est composé de 8 télescopes de 11cm chacun, ce qui permet de couvrir presque 500 degrés carrés sur le ciel (i.e. la surface d'environ 2500 pleines lunes à chaque prise). Il y a en fait un SuperWASP au Nord (La Palma) et un au Sud (Afrique du Sud) pour pouvoir couvrir tout le ciel (plus de détails ici ).
Voici les données historiques qui ont mené à la première détection de la planète autour de l'étoile WASP-80 en 2013. Dans ce fichier, vous trouverez les mesures photométriques de l'étoile WASP-80 (située dans la constellation de l'Aigle) à différentes dates. Les 3 colonnes indiquent respectivement la date du point photométrique (en BJD pour Barycentric Julian Date, qui donne le jour julien correspondant à l'observation), la magnitude de l'étoile mesurée à cette date, et l'erreur associée sur la magnitude.
Nous allons utiliser python pour ce mini-projet. Vous pouvez aussi utiliser votre langage de prédilection si Python ressemble à des hiéroglyphes pour vous.
Commencez par charger le fichier wasp80data.txt qui contient les observations de WASP-80 et faites un graphe représentant la magnitude en fonction du temps, avec les barres d'erreurs associées à chaque point. En python, cela donne :
import numpy as np
import matplotlib.pyplot as plt
bjd, mag, err = np.loadtxt("wasp80data.txt", delimiter=' ', skiprows=1, unpack=True)
plt.errorbar(bjd,mag,err)
On pourrait travailler avec les magnitudes, mais il est plus commun de travailler directement en flux. En effet, un transit produit une baisse du flux total qui provient de l'étoile alors que ça provoque une augmentation de la magnitude et donc on ne verrait pas une baisse mais une croissance de la magnitude lors d'un transit en magnitude. Vous pourrez essayer plus loin de suivre la même procédure en travaillant sur les magnitudes (pour constater que l'on arrive aux mêmes résultats) mais pour le moment on travaillera en flux.
Reproduire le même graphique que précédemment en unité de flux
Que voyons-nous ? Est-ce ce à quoi l'on s'attend ? Voyons-nous un transit ? Pas vraiment ! Ça ne ressemble pas exactement aux courbes théoriques que l'on a vues dans le cours avec une belle chute de flux quand la planète passe devant son étoile. Pour cela il va falloir travailler un peu les données.
Un œil averti se rendra compte que ces données on été pré-traitées. On voit que la magnitude oscille autour de zéro, la composante de magnitude due à l'étoile a donc été retirée. On voit aussi que les données semblent suivre une ligne horizontale, sans qu'il y ait de variations linéaires ou polynomiales. En réalité, quand on obtient les données brutes, c'est beaucoup moins propre que cela, et il faut retirer les effets qui ne sont pas dûs au transit mais plutôt à l'observation en tant que telle. Il peut y avoir des déviations du signal dues à l'instrumentation (par exemple à cause de variations thermiques), ou même des variations de l’atmosphère au cours de l'observation. Il y a différentes méthodes pour réajuster les données afin de corriger ces variations qui ne sont pas dues au transit. De manière générale et simplifiée, cela revient à trouver une fonction polynomiale qui suit au mieux les variations à long terme et de retirer cette fonction du signal. On appelle cela le detrending. Les données que l'on traite ici ont déjà subi ce detrending et peuvent être maintenant exploitées pour chercher un transit potentiel et trouver les paramètres de la planète le cas échéant.
Que faut-il faire pour essayer de voir un transit dans ces données ?
Ici, on a la magnitude (ou le flux) du système en fonction du temps. Pour pouvoir voir un transit, et c'est là toute la puissance de cette méthode de détection, il va falloir sommer les différents transits potentiels qu'il y a dans ces données. Pour cela, il faut trouver la bonne période sur laquelle sommer les données, et peut-être qu'alors avec une somme de plusieurs transits, on verra effectivement une courbe de lumière typique avec une baisse de flux quand la planète passe devant son étoile.
On peut essayer par exemple de sommer les signaux sur une période de 2 jours. En python cela donne :
from PyAstronomy.pyasl import foldAt
best_period=2#jours
phases = foldAt(bjd, best_period)
sortIndi = np.argsort(phases)
phases = phases[sortIndi]*best_period
mag = mag[sortIndi]
plt.plot(phases, mag)
On ne voit toujours rien. Idéalement, il faudrait pouvoir faire cela pour un très grand nombre de périodes et visualiser le résultat jusqu'à l'obtention potentielle d'une baisse de flux à un endroit de la courbe (i.e. voir le transit). C'est la méthode que l'on va utiliser, mais bien sûr, il est impossible de visualiser des millions de courbes à l'oeil et il faut trouver un bon indicateur que l'ordinateur puisse tester lui-même pour nous dire quand il y a effectivement une baisse de flux visible et donc un transit.
La méthode la plus couramment utilisée dans le domaine de la recherche est la méthode BLS (pour Box Least Square, développée par Kovacs et al. 2002). L'idée est de dire qu'un transit peut être en première approximation modélisé par une fonction porte (fonction rectangulaire). Un transit est en effet bien plus proche d'une fonction porte que d'un sinus ou cosinus car les variations lors de l'entrée ou de la sortie du transit qui peuvent être non rectangulaires ne représentent qu'une petite partie du signal et le reste du transit est plutôt plat. La décomposition en série de Fourier ne fournirait pas une fréquence donnée dominante mais plutôt un ensemble de fréquences alors que la fonction porte ne requiert qu'un terme pour bien modéliser le signal, d'où l'avantage.
On crée alors un modèle simple de fonction porte avec trois paramètres : sa profondeur, sa longueur (durée du transit) et sa phase (la date où le transit a lieu). On fait ensuite tourner le modèle sur un très grand nombre de périodes. Pour chaque période testée, l'algorithme BLS essaye de trouver les meilleurs paramètres (profondeur, longueur, phase) du modèle pour expliquer les observations. L'algorithme compare le meilleur modèle aux données et estime alors la vraisemblance (en log) du modèle en question (par exemple par une méthode des moindres carrés) et crée un périodogramme qui donne la vraisemblance du modèle en fonction de la période. On peut alors voir si certaines périodes paraissent plus vraisemblables que d'autres. Les pics dans le périodogramme indiquent la présence de planètes en transit ou du bruit non pris en compte dans le pré-traitement (detrending). Il faut faire attention aux faux-positifs avec cette méthode et les repérer est un champ actif de recherche dans lequel nous ne rentrerons pas en détails.
Trouvez la période du transit et sa profondeur dans les données de WASP-80.
Vérifiez ces valeurs en sommant les données initiales sur la période trouvée et en affichant le flux en fonction de la phase (vous pouvez utiliser le code de la question 1 ci-dessus pour sommer les différents transits sur une période donnée). Vous produirez aussi une deuxième courbe où vous moyennerez le signal dans des bins temporels d'environ 15 minutes pour avoir une courbe de transit plus lisse.
En faisant ce travail , on trouve le diagramme de la figure ci-jointe. :
Maintenant, on reconnaît une courbe de transit typique. On peut même zoomer sur la phase de transit pour obtenir la figure ci-jointe.
On voit alors que la durée du transit totale est inférieure à 0.1 jours, i.e. <2.4h. Pour obtenir la courbe rouge rebinnée en python, on peut écrire un code ad hoc ou procéder ainsi :
from scipy.stats import binned_statistic
bin_means = binned_statistic(phases, mag, bins=300)
bin_means2 = binned_statistic(phases, phases, bins=300)
plt.plot(bin_means2[0], bin_means[0],color='red',linewidth=5)
Déduisez maintenant le rayon de la planète et son demi-grand axe.
Il faudra d'abord trouver le rayon de l'étoile WASP-80 afin de pouvoir déterminer le rayon de la planète.
Le calcul du rayon de l'étoile que l'on vient de mener n'est qu'un calcul approximatif etTriaud et al. (2013) sont capable d'estimer ce rayon plus précisément à partir de leur jeu de données, ils trouvent , que l'on utilisera par la suite pour comparer à leurs résultats.
Maintenant on peut déduire le rayon de la planète. En supposant que l'orbite est circulaire, on peut aussi déduire facilement son rayon orbitale à partir de la 3ème loi de Kepler
On peut maintenant comparer aux valeurs trouvées dans le papier originel de Triaud et al. (2013) (tableau ci-joint).
On voit que nos valeurs pour , la période et le demi-grand axe sont très proches des valeurs originelles.
On peut aussi comparer les valeurs trouvées avec celles de l'encyclopédie exoplanet.eu.
Comme vu dans le cours, on peut faire une première vérification pour tester pour un faux positif, en comparant la durée du transit théorique avec sa durée réelle que l'on a obtenue à la question 3 de la page précédente.
Pour aller plus loin vous pouvez aussi essayer d'obtenir plus d'informations à partir des données, par exemple en utilisant, au lieu de la fonction porte, un vrai modèle de transit à la Mandel & Agol (2002) pour pouvoir déduire le paramètre d'impact et une possible excentricité en prenant en compte les effets d'assombrissement centre au bord (il y a une fonction python qui implémente ce modèle ).
Ce dossier(une fois décompressé, le fichier readme.txt décrit les différents fichiers) donne un ensemble de données qui permettent de faire d'autres analyses de cette planète:
Le dossier donne aussi des données Spitzer (infrarouge) du même système qui ont été utilisées dans Triaud et al. (2015). Dans ces données, on peut voir l'éclipse secondaire (en plus du transit) car le contraste dans l'infrarouge est plus favorable. Attention, il va falloir faire du detrending pour bien corriger les données brutes. Vous pouvez alors déduire la température de brillance de la planète. On s’attend à ce que la température d’équilibre et de brillance soient du même ordre, mais pas exactement les mêmes. On s'attend à ce que le côté jour de la planète soit légèrement plus chaud et le côté nuit légèrement en dessous de la température d’équilibre.
Pour avoir un jeu de données complet, on fournit aussi les observations en vélocimétrie radiale avec Coralie et HARPS pour ce même système afin de pouvoir aussi déterminer la masse de la planète et ainsi connaître sa densité (et donc pouvoir inférer sa composition).
Vous pouvez faire une courbe de la vitesse radiale en fonction de la phase (comme pour la courbe de transit) et voir ce qu'il se passe, en particulier pendant le transit. On peut, en effet, voir l'effet de Rossiter-McLaughlin dans les données HARPS, ce qui permet de contraindre le sens de rotation de l'orbite de la planète et l’orientation de l’orbite planétaire, à savoir l’angle entre le plan orbital et l’axe de rotation de l’étoile.
Au boulot !
-------------FIN DU CHAPITRE ------------- -------------FIN DU CHAPITRE ------------- -------------FIN DU CHAPITRE -------------
L'étude des atmosphères des exoplanètes n'est pas uniquement limitée aux observations. On peut en effet faire des découvertes intéressantes au moyen de modèles qui simulent leur atmosphère. Ces modèles sont des outils informatiques complexes bien que reposant sur des lois physiques simples, issus de décennies de recherche dans la modélisation de l'atmosphère de la Terre, puis des planètes du système solaire.
Avant de suivre ce cours, il est conseillé d'avoir suivi les deux cours précédents sur l'atmosphère : dynamique et température.
Commençons par dresser une rapide chronologie de l'histoire des modèles numériques qui, bien que spécifique à l'atmosphère terrestre, nous éclaire sur leur démarche de compréhension de la réalité et qui sera reprise plus tard pour les planètes de notre système solaire, puis pour les exoplanètes.
Tout commence avec les développements de la physique des fluides au XIXe siècle, qui permet l'émergence d'un cadre scientifique et rigoureux pour poser les bases de la physique atmosphérique et la compréhension des mécanismes à l'œuvre dans l'atmosphère. Plus précisément, la formulation des équations primitives atmosphériques par Bjerknes en 1904 montre que l'écoulement de l'air dans l'atmosphère est régi par sept équations à sept inconnues. Dès lors, selon Bjerknes, prédire le devenir de l'atmosphère reviendrait à intégrer dans le temps ces équations en les initialisant avec des données provenant de stations de mesures météorologiques
Le problème décrit pas Bjerknes s'avère complexe : on ne sait pas résoudre ces équations analytiquement en raison de leur forte non-linéarité. En 1922, Richardson tente de surmonter ce problème en découpant une zone géographique d'étude en cellules où il intègre les équations primitives en les discrétisant avec la résolution de différences finies. Pour ce faire, les calculs sont résolus à la main, une tâche qui semblerait aujourd'hui bien fastidieuse.
Bien que son intuition et son ambition soient remarquables, son expérience « d'ordinateur humain » échoue à reproduire les résultats espérés de l'écoulement atmosphérique. En effet, son système d'équation ne prenait pas en compte des termes d'ondes atmosphériques à haute fréquence pourtant présentes à l'initialisation du problème, ce qui a conduit à la divergence de la solution. Son expérience ne sera tentée à nouveau qu'après l'avènement de l'ère informatique dans la seconde moitié du XXe siècle.
En 1948 et 1949, Charney, Fjørtoft et von Neuman réussirent la première prédiction météorologique à l'aide d'un modèle numérique. Pour ce faire ils utilisèrent uniquement l'équation de vorticité pour une atmosphère barotrope, c'est-à-dire supposée homogène, de densité uniforme et sans mouvement vertical. S'ensuivirent quelques années plus tard le premier service de prédiction météorologique en temps réel au moyen d'un modèle numérique par Rossby en 1954.
Ces expériences suggérèrent que l'intégration des équations primitives ne suffisait pas à modéliser toute l'atmosphère. En effet, ces équations sont l'équation de Navier-Stokes et une équation d'état pour l'air, appliquée sur une sphère en rotation. Charney propose de prendre en compte également les phénomènes physiques à plus petite échelle, tels que la condensation de l'eau, les radiations visibles et infrarouges et les flux turbulents de chaleur et de moment. La prise en compte de ces effets, au moyen de paramétrisations, a été depuis et demeure encore actuellement un sujet de recherche majeur dans la modélisation numérique de l'atmosphère.
Depuis les années 1950, de très nombreux groupes de recherche ont développé des modèles numériques pouvant simuler l'atmosphère de par le monde. Comme on vient de le voir, leur motivation première provient de la volonté de prédire l'écoulement de l'air, ou autrement dit sa circulation. Le nom donné à de tels modèles est MCG, pour Modèle de Circulation Générale, mais on utilise plus communément l'acronyme anglais GCM. Aujourd'hui les applications des GCMs se sont diversifiées : en plus de la prédiction météorologique, on les utilise pour étudier le climat de la Terre et les effets du changement climatique, les climats passés, présents et futurs d'autres planètes (Mars, Vénus, Jupiter, Saturne, Pluton) ou satellites (Titan, Triton) dotés d'une atmosphère dans le système solaire ainsi que du climat d'exoplanètes.
Les observations que nous possédons aujourd'hui sur les exoplanètes ne suffisent pas encore à contraindre précisémment un GCM. En effet, il faudrait une bonne connaissance de leur orbite, rayon, masse, etc ... et évidemment de leur topographie (pour les planètes telluriques) et composition atmosphérique pour être à même de simuler spécifiquement l'atmosphère d'une exoplanète. Le plus souvent, l'utilisation d'un GCM pour modéliser des atmosphères d'exoplanètes tient dans des études assez générales qui nous renseignent sur le comportement d'une atmosphère avec des hypothèses génériques. Toutefois, on constate qu'un nombre grandissant d'études visent à simuler l'état atmosphérique d'exoplanètes connues de la manière la plus fidèle possible afin d'interpréter au mieux les premières observations de leur atmosphère.
Pour l'étude de la Terre, le terme de GCM peut aussi bien faire référence à un modèle qui simule son atmosphère ou ses océans. Le couplage d'un modèle d'océan et d'atmosphère, avec également d'autres modèles pour la surface (hydrologie, végétation, glace d'eau) conduit à l'apparition d'un modèle qu'on qualifie de Global Climate Model, et dont les initiales restent GCM. Le terme de GCM est ainsi utilisé avec ambiguité et peut désigner un modèle d'atmosphère seul, d'océan seul, ou de l'addition d'un modèle d'atmosphère, d'océan et de surface. Les initiales GCM peuvent indifférement vouloir dire Global Circulation Model ou Global Climate Model, mais on préférera le terme de climat à celui de circulation car bien souvent le but d'un GCM est de connaître le climat d'une exoplanète plutôt que sa circulation à un instant donné.
Un GCM (Global Climate Model) est un modèle numérique dont le but est de simuler l'atmosphère d'un corps planétaire. L'ambition est de pouvoir reproduire toutes les observations instrumentales possibles, par exemple la température, les vents, etc ... Le développement d'un GCM n'est jamais finalisé, et les accords aussi bien que les désaccords avec les observations disponibles poussent à améliorer le modèle, ce qui nous permet au passage d'en apprendre toujours plus sur les processus physiques à l'oeuvre dans le système climatique d'une corps planétaire.
Un GCM est basé sur un nombre limité d'équations, qui permet néanmoins d'atteindre un certain niveau de réalisme et de complexité. Il est fondamental de souligner que grâce à l'hypothèse d'universalité des lois de la physique, on arrive à adapter un GCM construit pour la Terre à d'autres corps dotés d'une atmosphère, moyennant un changement de certains paramètres (orbite, taille, composition, etc...), et l'ajout ou le retrait de certains processus physiques spécifiques au corps étudié. Par la suite, les explications sur la structure d'un GCM restent générales et ne sont pas, sauf mention autre, spécifiques à un corps en particulier.
Cette vidéo de l'Institut Pierre-Simon Laplace explique ce qu'est un GCM terrestre appliqué à la modélisation du climat.
Une équation d'une loi physique comprenant une dérivée temporelle et/ou spatiale décrit l'évolution de variables continues avec le temps et/ou l'espace. On peut vouloir résoudre une telle équation au moyen de ressources informatiques, si par exemple sa résolution analytique est impossible ou si on veut l'intégrer à un ensemble plus complexe d'autres lois physiques. Pour ce faire, on procède à une discrétisation du temps et de l'espace, qui consiste à ne plus considérer les axes temporels ou spatiaux comme continus, mais au contraire comme un ensemble fini de valeurs. Ceci permet la discrétisation d'une équation, qui pourra dès lors être résolue par un ordinateur comme dans l'exemple suivant :
On utilise une grille régulière unidimensionnelle dont l'espacement entre deux points consécutifs est , qu'on appelle pas spatial. De même, deux instants consécutifs sont espacés d'une durée
, qu'on appelle pas de temps.
On souhaite discrétiser sur cette grille un champ
qui est solution de l'équation d'advection :
, avec
ayant la dimension d'une vitesse.
Pour procéder, on discrétise la variable
en un champ
sur la grille, dont la valeur au j-ième point de la grille au n-ième instant t est notée
.
Une manière de discrétiser l'équation d'advection est de l'écrire: . Cette forme s'appelle un schéma amont.
La manière d'écrire les différentielles peut être différente. Ainsi on aurait pu l'écrire sous la forme d'un schéma centré pour la dimension spatiale : .
Ce qu'il faut retenir de cet exemple est que la discrétisation comporte une part d'arbitraire : il faut faire des choix, qui peuvent avoir des conséquences différentes sur la solution numérique finale.
Une équation discrétisée est donc une approximation de la véritable équation.
La première question de la discrétisation est de savoir si, pour reprendre l'exemple précédent, le champ discrétisé va tendre vers le champ analytique
lorsque
et
tendent vers zéro.
La deuxième question est de savoir à quel point la solution obtenue sera une approximation de la solution analytique. La manière de discrétiser puis utiliser une équation est une discipline en soi et il serait vain de vouloir introduire le sujet ici. Il faut juste garder à l'esprit qu'un GCM est un ensemble d'équations discrétisées, et par conséquent une approximation de la réalité. Cette approximation n'est pas du tout rédhibitoire et n'est pas le principal contributeur d'erreur d'un GCM. Toutefois, la discrétisation impose une règle forte sur le dimensionnement du GCM.
Cette règle, appelée condition de Courant-Friedrich-Lévy, repose sur le nombre de Courant :
avec
la vitesse maximale,
le pas de temps et
le pas d'espace.
Cette condition stipule que dans un cas simple ce nombre ne doit pas dépasser 1. Autrement dit, on choisit les pas de temps et d'espace tels qu'aucune particule d'air ne traverse plus d'une parcelle géométrique en un pas de temps. En pratique, l'utilisation de plusieurs équations dans un modèle, ainsi que l'utilisation de techniques de discrétisation plus poussées, font que cette simple condition n'est pas la seule à prendre en compte. Toutefois, cette condition demeure une limite forte et on aura toujours
dans un GCM.
La structure d'un GCM peut se décomposer en "briques" indépendantes qui communiquent entre elles. Du fait de l'universalité de ces équations, la nature de ces briques est la même quel que soit le corps étudié. La structure d'un GCM est en général composée des briques suivantes :
Étant donné que l'atmosphère est fortement stratifiée à grande échelle en vertu de l'équilibre hydrostatique, les longueurs caractéristiques horizontales et verticales ne sont pas les mêmes. Ceci permet de découper le GCM en deux parties différentes :
La première, appelée « dynamique », est le coeur hydrodynamique. Dans cette partie on calcule l'écoulement du fluide qu'est l'air autour d'un corps sphérique planétaire. Elle consiste en l'implémentation des équations primitives et calcule la circulation atmosphérique. A un niveau vertical donné, les mouvements sont uniquement horizontaux. Le terme de "coeur" provient du fait que la partie dynamique sert à propager les mouvements à l'échelle horizontale, laquelle échelle domine la circulation globale de l'atmosphère.
La seconde, appelée « physique », rassemble tous les autres processus physiques à l'œuvre dans l'atmosphère sous forme de paramétrisation. Cela correspond donc au moins aux briques 2 à 5, mentionnées ci-dessus. La partie physique est une colonne verticale d'atmosphère : il s'agit d'un même modèle unidimensionnel démultiplié autant de fois qu'il existe de points dans la grille horizontale (donc dynamique) du modèle.
Les colonnes de la partie physique sont indépendantes les unes des autres et ne communiquent que via la partie dynamique par des mises à jour de pression, températures, vents et traceurs. On peut également voir la situation dans le sens inverse : la partie dynamique consiste en des couches sphériques imbriquées les unes dans les autres qui ne communiquent que via la partie physique.
Ce découpage en deux parties permet de faire appel à la partie physique moins souvent qu'à la partie dynamique, car les processus physiques en jeu ont des temps caractéristiques différents et donc des pas de temps d'intégration différents. Typiquement, on utilise la partie physique tous les 10 à 20 utilisations de la partie dynamique.
Un GCM consiste en la discrétisation du temps en des instants régulièrement espacés (typiquement de l'ordre de la minute pour une planète comme la Terre) et en la discrétisation d'un espace tridimensionnel qu'on suppose être une sphère d'épaisseur mince. Il existe deux grandes manières de discrétiser la sphère pour les champs atmosphériques. La première consiste à placer un certain nombre de points pour recouvrir la sphère, dans une méthode qu'on appelle différences finies. La deuxième consiste à discrétiser non pas en coordonnées géométriques, mais en coordonnées spectrales : les champs atmosphériques sont décomposés en harmoniques sphériques et tronqués au-delà d'une certaine harmonique. Dans ce dernier cas, il est nécessaire de faire la transformation des variables atmosphériques de l'espace fréquentiel vers l'espace géométrique avant l'appel à la partie physique et inversement.
En utilisant la méthode des différences finies, on peut trouver plusieurs façons de découper une sphère. Dans le cas d'une grille latitude-longitude, la dimension horizontale est tout simplement découpée en longitudes et latitudes également espacées, ce qui produira un point singulier à chaque pôle. Afin d'éviter ce problème on peut utiliser un découpage dit cube sphère, qui consiste en la projection d'un cube discrétisé sur la sphère, et donnera 8 points singuliers au lieu de deux dans le cas d'une grille latitude-longitude, mais qui seront plus simples à gérer. On peut également s'affranchir de tout point singulier au moyen d'un grille icosahédrique qui utilise des triangles pour couvrir la sphère. On peut imaginer d'autres manières de procéder, mais ces trois là constituent l'immense majorité des GCMs.
Le nombre et l'emplacement des points dans les dimensions horizontale et verticale restent fixés lors de l'exécution du programme informatique. Il est possible d'utiliser une résolution qui s'adapte aux conditions atmosphériques à un moment donné, mais cette particularité est encore (en 2017) peu répandue parmi les GCMs, et induit des complications qui font qu'on considérera que la résolution est fixée pour le reste de ce cours. On utilise le terme de résolution pour parler de la quantité de points utilisés dans la discrétisation spatiale. Ce terme s'utilise aussi dans le cas d'une discrétisation spectrale, et il correspond au nombre de modes employés dans la représentation des champs atmosphériques.
La résolution spatiale d'un GCM va typiquement de quelques centaines de kilomètres jusqu'à quelques milliers de kilomètres. Ce qui se passe en dessous de cette échelle n'est pas directement représenté. S'il s'avère nécessaire de tenir compte d'un