Liste des offres de thèses du laboratoire.
The last piece of the standard model of particle physics, the Higgs boson, was discovered by the ATLAS and CMS collaborations in 2012. Following the Higgs boson discovery, the LHC focus has shifted to identifying new physics beyond the Standard Model. The ATLAS group at CPPM have a leading role in detecting and studying the Higgs boson properties in several of its production and decay modes. The group is currently concentrating on the detection of the production of two Higgs bosons or two scalar bosons and the search for new physics with LHC data. It is also leading a project to use machine learning techniques, implemented on FPGA, for the computation of the energy deposited in liquid argon calorimeter.
The thesis will concentrate on developing and optimizing a neural network capable of detecting anomalies in LHC data that correspond to new physics signatures. The neural network will be trained in a unsupervised (or weekly supervised) manner so that it is sensitive to any deviation from the Standard Model regardless of the theoretical model describing the new physics. This provides a general algorithm capable of detecting unknown new physics that might exist in nature.
The successful candidate will develop a neural network with an auto-encoder architecture, train it on simulated Standard Model data, and check its performance on a wide variety of simulated signal models. Physics informed layers will be investigated to improve the performance. The network can also be optimized to fit on hardware boards for trigger applications. An engineer at CPPM will help implementing this network in firmware that will run on FPGAs.
Prior knowledge of programming languages (especially python) and of Neural network tools (especially Keras) is an advantage but is not mandatory.
This thesis is expected to start in October 2025 (if funding is obtained).
L'étude de la production de paires de bosons de Higgs suscite un intérêt croissant dans la communauté de la physique des particules, en particulier en vue de la phase de haute luminosité du LHC. En plus du couplage de soi du Higgs, le couplage VVHH est également un paramètre important pour améliorer notre compréhension de la brisure de symétrie électrofaible, que l'on peut explorer par la recherche d'événements di-Higgs dans le mode de production par fusion de bosons vecteurs (VBF).
Le détecteur ATLAS est idéalement conçu pour de telles études, avec une conception optimisée pour reconstruire et identifier la plupart des produits de désintégration des particules du Modèle Standard produites dans des processus physiques rares impliquant des bosons de Higgs, tels que les modes de production di-Higgs. Cette thèse comprendra un travail d'optimisation des algorithmes utilisés pour identifier les jets produits lors de l'hadronisation des quarks b dans le cadre de la mise à niveau du détecteur ATLAS prévue pour la phase de haute luminosité du LHC. Ces algorithmes jouent un rôle majeur dans tous les états finaux impliquant des quarks b, produits dans la désintégration du quark top et du boson de Higgs par exemple.
De fortes contraintes sur le couplage VVHH peuvent déjà être atteintes avec le jeu de données de la Run 3 du LHC, notamment en combinant les régions de faible et de haute masse m(HH). Les analyses correspondantes font l'objet d'un effort de recherche collaboratif impliquant plusieurs laboratoires français membres de la collaboration ATLAS au CERN. Le poste de doctorat viendrait compléter cet effort de recherche, avec un accent particulier sur l'analyse de l'état final boosté bbtautau, en bénéficiant de la forte expertise du groupe ATLAS au CPPM en identification de quarks b, en identification d'objets boostés et en études di-Higgs [1-2].
Les candidatures doivent inclure un CV, une lettre de motivation, les relevés de notes de la licence au master et les contacts de deux personnes de référence prêtes à fournir des lettres de recommandation.
[1] ATLAS flavour-tagging algorithms for the LHC Run 2 pp collision dataset https://atlas.web.cern.ch/Atlas/GROUPS/PHYSICS/PAPERS/FTAG-2019-07/
[2] Combination of searches for Higgs boson pair production in collisions at sqrt(s)=13 TeV with the ATLAS detector
https://atlas.web.cern.ch/Atlas/GROUPS/PHYSICS/PAPERS/HDBS-2021-18/
The last piece of the standard model of particle physics, the Higgs boson, was discovered by the ATLAS and CMS collaborations in 2012. The newly discovered boson provides a unique possibility to search for new unknown physics beyond the Standard Model. The ATLAS group at CPPM have a leading role in detecting and studying the Higgs boson properties in several of its production and decay modes. The group is currently concentrating on the detection of the production of two Higgs bosons or two scalar bosons, a process that was never observed before.
This thesis will concentrate on the study of the production of two Higgs bosons decaying to a pair of photons and a pair or b-quarks (HH->bbyy). The detection of such process is a strong proof of the Higgs self coupling and the electroweak symmetry breaking as described by the standard model. The run 3 of the LHC, currently in operation, will provide enough data (in combination with previous data) to improve the discovery potential of such process. A contribution to the search for new physics in the same decay mode is expected. This will involve searching for a heavy particle decaying to two Higgs bosons (X->HH->bbyy) or a Higgs boson and a new scalar boson (X->SH->bbyy). The search, detection and measurement of the Standard Model process ZH->bbyy, which has the same final state products, is important to validate the previous analysis. A contribution to the understanding of ZH->bbyy will be also considered.
The analyses described above with the run 3 LHC data is being prepared now by a group of several ATLAS institutes around the world that collaborate at CERN. The analysis will look for the HH production as described by the Standard Model as well as with beyond the Standard Model models where the Higgs self coupling is modified or where new scalar particles exist and couple to the Higgs boson.
The efficient identification of photons in the ATLAS detector is one of the main ingredient for the analysis described above. The candidate is expected to work on improving the photon identification in ATLAS. This work involves understanding the shower shapes that a photon leave in the Liquid Argon calorimeter as well as developing modern method (based on neural networks) to identify photons and separate them from the background.
The successful candidate will work within this collaboration and will take part of preparing and studying simulation samples that describes the physics processes. The candidate will work within a team of four researchers and two PhD student at CPPM. He/She will analyze the kinematic and topological distributions of the signal in order to improve the selection of signal events and separate them from the background. He/She will also work on the estimation of the background and extract the corresponding uncertainties. The last task would be to measure the Higgs boson self coupling and compare it with predictions from the Standard Model and/or set limits of the production cross section of beyond the Standard Model processes in case additional scale bosons are not discovered.
Prior knowledge of programming language especially C++/root or python is an advantage but is not mandatory.
This thesis is expected to start in October 2025 (if funding is obtained).
Objet :
Étant interdites dans le Modèle Standard (SM) de la physique des particules, les désintégrations violant la saveur leptonique sont parmi les sondes les plus puissantes pour rechercher une physique au-delà du SM. Compte tenu des anomalies récentes observées par LHCb sur les tests de l'universalité de la saveur leptonique dans les processus et , l'intérêt pour les désintégrations violant la saveur leptonique impliquant des leptons tau dans l'état final a été grandement renforcé. En particulier, plusieurs modèles de nouvelle physique prédisent des fractions d'embranchement des désintégrations and juste en dessous des limites expérimentales actuelles. Cela vaut également pour le processus FCNC .
L'expérience Belle II, située au KEK, Japon, a commencé à collecter des données en 2019, avec pour objectif de rassembler beaucoup plus de données que son prédécesseur, Belle. L'objectif de cette thèse est d'exploiter les données de Belle II afin d'obtenir les meilleures limites expérimentales sur les désintégrations violant la saveur leptonique telles que , où X est un système hadronique et ll un électron ou un muon, ainsi que sur les transitions , comme . En particulier, nous aimerions explorer de nouvelles méthodes de tagging des B dans Belle II.
Activités :
Analyse de données utilisant des techniques d'apprentissage automatique (Machine Learning),
Participation à la prise de données,
Contribution aux tâches de service pour Belle II,
Activités de vulgarisation et de dissémination.
Contexte de travail :
Cette thèse se déroulera au CPPM, Marseille (https://www.cppm.in2p3.fr/web/en/index.html). Des déplacements au KEK pour des réunions de collaboration ainsi que des séjours prolongés pour participer à la prise de données sont prévus.
Informations complémentaires :
Les candidats doivent être titulaires d'un Master en physique (ou équivalent) ou prévoir de l'obtenir avant le début de l'emploi. La candidature doit inclure un CV, les relevés de notes, une lettre de motivation et trois lettres de recommandation.
Références :
https://arxiv.org/abs/1808.10567
https://arxiv.org/abs/1703.02508
https://arxiv.org/abs/hep-ex/0511015
Decays of heavy-quark hadrons allow to perform indirect searches for effects beyond the Standard Model, by comparing the measured decay properties to their Standard Model predictions. Although our world is made of baryons, most such studies in heavy-flavour physics to date are performed with mesons, and our knowledge of heavy-quark baryon properties remains very limited.
In particular, the hierarchy of charm-baryon lifetimes is not well understood theoretically. In fact, for some of the charm baryons, very little is known about their decay rates: many decays have not been observed yet, and the absolute decay rates have never been measured. This is a significant limitation for any searches for physics beyond the Standard Model involving charm-baryon decays, or beauty baryons decays into charm baryons.
The Belle II detector at KEK (Japan) is aimed at precision measurements of properties of beauty and charm hadrons, as well as tau leptons (https://inspirehep.net/literature/1692393). The Belle II collaboration consists of more than 1000 scientists and is taking data since 2019. The key feature of the Belle II detector is the nearly 4pi angular acceptance, which allows to perform the full reconstruction of the visible collision products and calculation of the missing energy. Combined with conservation laws in e+e-->ccbar process (baryon number, electric charge, quark flavours), this allows to fully reconstruct only one charm hadron and deduce the properties of the other one.
This makes Belle II the only current experiment that can collect inclusive samples of charm baryons, regardless of their decay mode, and this way measure the absolute rates of specific decays (https://inspirehep.net/literature/1275621).
This PhD project will focus on applying this technique to measure the absolute decay rates of baryons that contain both charm and strange quarks, where the current knowledge is very limited.
Activities:
Data analysis using Machine Learning techniques, participation to data taking, participation to Belle II service tasks, activities of outreach and dissemination.
Work context:
This PhD will take place at CPPM, Marseille (https://www.cppm.in2p3.fr/web/en/index.html). Travels to KEK for collaboration meetings, and longer stay for participation to the data taking, are foreseen.
Additional information:
Applicants must hold a Master degree (or equivalent) in Physics, or expect to hold such a degree by the start of employment. Application must include a CV, grade records, a motivation statement and three letters of recommendations.
Prior knowledge of ROOT, C++ or python, is an advantage, but not mandatory.
This thesis is expected to start in October 2025 (if funding is obtained).
The CTA (Cherenkov Telescope Array) is a worldwide project to construct the next generation ground based very high energy gamma ray instrument [1]-[2]. CTA will use tens of Imaging Air Cherenkov Telescopes (IACT) of three different sizes (mirror diameter of 4 m, 12 m and 23 m) deployed on two sites, one on each hemisphere (La Palma in the Canary Islands and Paranal in Chile). The observatory will detect gamma-rays with energy ranging from 20 GeV up to 300 TeV by imaging the Cherenkov light emitted from the charged particle shower produced by the interaction of the primary gamma ray in the upper atmosphere.
The unconventional capabilities of CTA will address, among others, the intriguing question of the origin of the very high energy galactic cosmic rays by the search for galactic sources capable of accelerating cosmic rays up to the PeV energies, called PeVatrons. The last few years have been extremely exciting for the PeVatron search since the large field of view detector LHAASO has detected several ultra high energy gamma-ray sources (E??>100 TeV) proving that PeVatrons exist in our Galaxy [3]-[4]. Nevertheless the nature of these sources is still unknown and CTA, thanks to its excellent angular and energy resolution, will be able to precisely study these PeVatrons and to disclose their hadronic or leptonic nature.
The construction of the CTA observatory has started and a first Large-Sized Telescope (LST-1) is already installed and taking data in La Palma. Three more LST telescopes and one Medium-Sized Telescope (MST) will be installed in the next 1-2 years. The camera of the first MST telescope on La Palma (NectarCAM) is fully equipped and should be installed on the structure in 2025.
The PhD project will be divided in two parts. A first part will be devoted to the preparation of the commissioning of NectarCAM and science verification measurements of the Crab nebula which is the standard calibration source for very high energy gamma-ray observations. To this end the candidate will perform the full simulation of the observation that consists in particle shower and telescope Monte Carlo simulations. A detailed simulation of the camera has been developed in the past and will have to be adapted comparing the simulation results to real data taken in the laboratory and on-sky. For the data analysis of both simulation and on sky data the official dataPipe pipeline of the CTA Observatory will be used. The main goal of this part will be to predict the expected performance of the MST telescope in detecting the Crab and prepare the data analysis of on-sky data.
The second part of the PhD project will be focused on the analysis of the data of the coming observation campaign of LST-1 of PeVatron sources detected by LHAASO. Some of these sources are unidentified with no very high energy counterpart. Even if LST-1 cannot reach enough sensitivity to access energies above 10-50 TeV, it should be able to detect some of them in the 100 GeV-10 TeV energy region for the first time or to provide stringent upper limits contributing significantly to the understanding of these intriguing sources. In the case of detection, thanks to the good angular resolution of the telescope, energy dependent morphology study can be performed. A possible extension of the measurement could be to observe the source at large zenith angle maximizing the detection efficiency at very high energy. The latter would allow to explore the energy region above 10 TeV and to extend to higher energies the study of energy dependent morphology to understand the nature of the source.
The project will include the participation to the LST-1 observation campaign with stays of four weeks in the Roque de los Muchachos Observatory in La Palma.
The CPPM CTA group works since several years both in the building of the NectarCAM camera for MST and in the building and commissioning of the LST-1 telescope. The group also works on the preparatory studies for the research of galactic PeVatrons with CTA [6] and is leading the observation campaign with LST-1 and MAGIC of SNR G106.3-2, which is one of the PeVatron LHAASO sources.
Candidates should send their CV and motivation letter as well as grades (Bachelor, M1, M2) to costantini@cppm.in2p3.fr and cassol@cppm.in2p3.fr. Applications will be selected on the base of qualifications and an oral interview.
[1] Science with the Cherenkov Telescope Array: https://arxiv.org/abs/1709.07997
[2] https://www.cta-observatory.org/
[3] Z. Cao et al. Nature, 594, 3336 (2021)
[4] Z. Cao et al. (2023) https://arxiv.org/abs/2305.17030
[5] F. Acero et al., Astroparticle Physics, 2023, 150, pp.102850.
Neutrinos are unique messengers to study the high-energy Universe as they are neutral and stable, interact weakly and therefore travel directly from their point of creation to the Earth without absorption and path deviation. Nowadays, the sources of very high-energy cosmic rays are still unknown. Doing neutrino astronomy is a long quest for neutrino telescopes. Several observational hints have been detected by ANTARES and IceCube (active galaxy nuclei, tidal disruption events).
KM3NeT is the second-generation neutrino detector in the Mediterranean Sea. It will be distributed in two sites: a low energy site ORCA in France (1 GeV-10 TeV) and a high energy site ARCA in Italy (1 TeV-10 PeV). Its main goals are to study of neutrino oscillations, with as flagship measurement the determination of the neutrino mass ordering and to perform neutrino astronomy. Both detectors are already collecting data with the first detection units and will soon reach significantly better sensitivities for the detection of cosmic neutrinos surpassing by far the ANTARES one. Thanks to the unprecedented angular resolution, the extended energy range and the full sky coverage, KM3NeT will play an important role in the rapidly evolving multi-messenger field. A good sensitivity over such a large energy coverage can only be obtained by combining the data of the two detectors. KM3NeT will achieve a precision of <0.1 degrees for the muon neutrino tracks at very high energies, and <1.5º for the cascade events (electron, tau charge current + all flavor neutrino neutral current interactions). With KM3NeT, we will be able to perform a very efficient all-flavour neutrino astronomy.
The main goal of the thesis is to develop multi-messenger analyses in the two KM3NeT detectors. With the early data, we have performed a lot of studies to understand the behaviour of the detectors by setting the calibration procedures and by implementing very detailed Monte Carlo simulations that reproduce quite well the data taking. It has also permitted to start the development of the online analysis framework. Most of the elements are in operation (online reconstruction, neutrino classifier, reception of external transient triggers, alert sending). At the beginning of the PhD, the student will have to develop and implement efficient all-flavour neutrino selection over the atmospheric backgrounds. These selections will be performed using advanced analysis methods such as machine learning algorithms, that will be used to classify the nature of all the KM3NeT events between neutrino tracks (charged current muon neutrinos), neutrino cascades (all others neutrino flavours) and background events (atmospheric muons and neutrinos). The second step of the PhD will be to use these neutrino streams to look for time and space correlation with external triggers from electromagnetic transients, gravitational waves and high-energy neutrinos. This correlation analysis will be developed in two steps, starting with the implementation of a simple counting analysis that looks for a signal excess in a pre-optimized region of interest and in a given time window. For the most interesting neutrinos, the PhD student will also participate to the development of the alert sending system and the multi-wavelength follow-ups (radio, visible, X-ray and VHE), especially with the SVOM satellite and COLIBRI robotic telescope which will start their observations in Summer 2024. The student will have to develop the neutrino filters based on the false alarm rates of those alerts, their energies and angular resolutions Real-time multi-messenger campaigns are crucial in unveiling the sources of the most energetic particles and the acceleration mechanisms at work. The student will also participate to set the multi-wavelength follow-up of the KM3NeT alerts.
The candidate should have a good background in astroparticle physics and astrophysics. The interest in the data analysis is expected together with knowledge of statistics. The analyses will be performed using C++, Python and Root on Linux platforms.
KM3NeT: http://www.km3net.org
KM3NeT is an international collaboration aiming at the construction and operation of neutrino telescopes in the Mediterranean Sea. Two such devices are currently under construction: ARCA in the Ionian Sea optimised for the detection of neutrinos in the TeV/PeV energy range and ORCA, offshore Toulon, focused on the measurement of GeV/TeV neutrinos.
The goal of the thesis is to analyse atmospheric neutrinos which have been measured by the KM3NeT/ORCA detector. The detector takes data with a growing number of detection lines. The candidate will participate in the calibration process of newly assembled lines and assist the shore station team during the sea operations to deploy additional detection lines. Further he/she will help processing the data which have been taken and confront them with simulations. A particle identification procedure needs to be developed to identify on a statistical level the tau neutrino component in the event sample. This will ultimately allow to derive unitarity constraints in the lepton sector.
Le groupe LHCb du Centre de Physique des Particules de Marseille (CPPM) lance un appel à candidatures pour un poste de doctorant sur l'étude de désintégrations semileptoniques de mésons B et sur le logiciel hétérogène de sélection de données en temps réel de LHCb.
L'expérience LHCb istallée auprès du collisionneur proton-proton LHC au CERN est dédiée à l'étude de la physique des saveurs lourdes, avec pour objectif principal de trouver des déviations du modèle standard de la physique des particules. Après une mise à niveau majeure, LHCb a recommencé à prendre des données en 2022 avec le troisième cycle du LHC (Run 3). L'échantillon de données sans précédent à collectionner jusqu'à 2025 sera la base de ce projet de doctorat.
En tant que candidat(e) retenu(e), vous jouerez un rôle actif dans l'analyse des désintégrations de mésons beaux dans des états finaux avec un méson charme excité, un lepton et un neutrino en utilisant les données du Run 3. Le but de ces études est de characteriser les désintégrations avec des electrons dans l'état final.
Vous étudierez les distributions cinématiques des produits de désintégration et les asymétries dans ces désintégrations, qui sont sensibles aux effets de la nouvelle physique.
À cette fin, vous étudierez les distributions multidimensionnelles des paramètres cinématiques qui caractérisent les degrés de liberté internes des désintégrations multicorps semileptoniques. Vous utiliserez un ajustement multidimensionnel, en modélisant les processus de bruit de fond et en incluant les effets de résolution du détecteur. Le projet nécessitera l'utilisation de techniques informatiques modernes et d'apprentissage automatique.
En plus de l'analyse physique, vous réaliserez des études pour étendre le logiciel d'analyse en temps réel existant qui exécute des algorithmes de reconstruction et de sélection sur des cartes graphiques (GPUs). Il s'agit de préparer la prochaine mise à jour de LHCb, qui nécessitera le traitement d'un volume de données cinq fois supérieur à celui du Run 3. Vous acquerrez ainsi de l'expérience dans le développement d'un cadre logiciel hétérogène.
Le groupe LHCb du CPPM est composé de cinq chercheurs permanents, quatre ingénieurs, deux chercheurs postdoctoraux et trois doctorants. Nous avons participé activement à l'étude des désintégrations semi-leptoniques et rares de mesons B, ainsi qu'au développement du système d'acquisition de données installé au CERN.
Le poste est financé par l'ERC Starting Grant ALPaCA pour trois ans exactement. En tant que candidat(e) retenu(e), vous ferez partie de l'école doctorale Physique et sciences de la matière d'Aix Marseille Université et vous vous rendrez régulièrement au CERN.
Compétences attendues
Les candidat(e)s doivent être titulaires, ou sur le point d'obtenir, un master en physique. Une bonne connaissance de la physique des particules, des méthodes mathématiques d'analyse des données et de la programmation informatique est requise.
Détails et délais de candidature :
Les candidatures doivent comprendre une déclaration d'intérêt (1 page), un CV (2 pages maximum), deux lettres de référence et, s'ils sont déjà disponibles, les résultats (préliminaires) du master. La déclaration d'intérêt, le CV et les résultats du master doivent être téléchergés sur le portail CNRS:
https://emploi.cnrs.fr/Offres/Doctorant/UMR7346-ANNPOR-122/Default.aspx?lang=FR
Veuillez faire en sorte que les lettres de référence soient envoyés à Dorothea vom Bruch (dorothea.vom.bruch@cern.ch) avant la date limite de dépôt des candidatures. La nomination débutera le 1er octobre 2024.
La matière noire est une des grandes énigmes actuelles de la physique fondamentale. En effet, sa contribution à la masse totale de l'Univers est de 85% mais elle ne peut être expliquée dans le cadre du Modèle Standard de la physique des particules (MS). Plusieurs candidats pour la matière noire existent dans les théories au-delà du MS : c'est le cas de l'axion, un des candidats les mieux motivés car il explique aussi l'absence de violation de CP dans l'interaction forte.
La découverte des axions nécessite d'inventer de nouvelles techniques expérimentales. Plusieurs propositions ont émergé ces dernières années. Parmi celles-ci, MADMAX est l'une des seules qui est sensible au domaine en masse autour de 100 micro-eV, favorisé par la théorie. Pour cette raison, elle a attiré l'attention de la communauté scientifique depuis 2016, date à laquelle elle a été proposée. Aujourd'hui, MADMAX est une collaboration de 50 scientifiques de laboratoires allemands et français (dont le CPPM depuis 2019) et fait partie du laboratoire de recherche international DMLab installé à DESY-Hambourg. Basé sur le concept novateur d'haloscope diélectrique, MADMAX sera composé d'un booster fait de 80 disques de 1 mètre de diamètre qui doivent être positionnés à la précision du micromètre à une température de 4 degrés Kelvin et dans un champ magnétique de 9 T. Afin de réaliser ce détecteur, qui prendra des données à DESY après 2030, la collaboration MADMAX est en phase de R&D qui sera conclue par la construction et l'opération d'un prototype dont le but principal est de démontrer la faisabilité du concept de booster diélectrique.
Le but de la thèse est de mener une recherche d'axions dans un espace des phases inexploré en mettant en uvre et en analysant les données du prototype. L'étudiant(e) contribuera à la réalisation et la caractérisation mécanique des disques diélectriques et leur interface avec les moteurs piézo-électriques développé au CPPM. Le prototype sera assemblé dans un hall expérimental sur le campus de DESY et inséré puis testé à la température de l'hélium liquide dans un cryostat en 2025-2026. Après ces premiers tests, dont les données seront analysées par l'étudiant, le prototype sera envoyé au CERN pour des tests de longue durée entre 2027 et 2029, sous la supervision du CPPM, dans un champ magnétique de 1.6 T. L'analyse des données effectuée par l'étudiant permettra de rechercher des axions autour de 100 micro-eV en utilisant le concept innovant de l'haloscope diélectrique, avec une sensibilité sans précédent sur le couplage axion-photon.
Dans ce cadre l'étudiant sera amené à effectuer des séjours réguliers à DESY et au CERN, notamment pour participer à l'installation du détecteur et à la prise de données.
Prérequis :
1. Formation : master en physique expérimentale des particules
2. Programmation : connaissances en python et/ou C++
3. Langue : maîtrise de l'anglais parlé et écrit
La candidature sera composée :
1. d'une lettre de motivation
2. d'un CV (2 pages maximum) et des relevés de notes universitaires (pour tous les diplômes)
3. trois lettres de recommandation
Plus de détails sur le groupe Matière Noire du CPPM : https://www.cppm.in2p3.fr/web/fr/recherche/physique_particules/#Mati%C3%A8re%20Noire
A la fin des années 90, la mesure de la distance des Supernovae de type 1a (SN1a) et du décalage vers le rouge de leur galaxies hôtes a révélé que l'expansion de l'Univers était en accélération. Plus de 20 ans après cette découverte, la nature de l'énergie noire qui serait à l'origine de ce phénomène reste inconnue.
Le modèle de concordance CDM décrit un Univers homogène et isotropes aux grandes échelles, soumis aux lois de la relativité générale (RG). Dans ce modèle, la majorité du contenu énergétique de l'Univers provient de la matière noire froide et de l'énergie noire, introduite comme une constante cosmologique. Celle-ci se comporte comme un fluide parfait avec une pression p négative, d'équation d'état p = - rho, où rho est la densité d'énergie.
Certains modèles alternatifs (cf [1] pour une revue) introduisent par exemple des champs scalaires (quintessence) dont l'évolution est responsable de l'expansion accélérée. Ces champs scalaires peuvent varier dans le temps et l'espace. Ils peuvent donc avoir une équation d'état dépendant du temps ainsi que générer des anisotropies de l'expansion.
D'autres modèles proposent de modifier la loi de la gravitation aux grandes échelles imitant le rôle de l'énergie noire.
Aujourd'hui encore, les supernovae restent l'une des sondes les plus précises pour mesurer l'expansion de l'Univers et son homogénéité. Par ailleurs, une partie du décalage vers le rouge des galaxies provient d'un effet Doppler dû à leurs vitesses particulières. On peut alors grâce aux supernovae reconstruire le champ de vitesse à grande échelle, et mesurer le taux de croissances des structures cosmiques. Cela nous permettra de tester la loi de la gravitation.
Une anisotropie de l'expansion aux grandes échelles, une modification de la RG, ou une évolution de l'équation d'état de l'énergie noire, seraient toutes des observations révolutionnaires qui remettraient en cause notre modèle actuel.
Jusqu'à aujourd'hui les relevés de supernovae compilaient des données de multiples télescopes compliquant leur analyse statistique. Les relevés du Zwicky Transient Facility (ZTF: https://www.ztf.caltech.edu/) et de l'observatoire Vera Rubin/LSST (https://www.lsst.org/) vont changer la donne. Ils couvrent la totalité du ciel et mesurent avec précision la distance de dizaines (centaines) de milliers de supernovae proches (lointaines).
Le CPPM travaille sur les données de ZTF depuis 2021, et publiera la première analyse cosmologique en 2025 avec ~3000 SN1a. Nous participons à la construction et la mise en place de LSST depuis des années, en se préparant à l'arrivée des premières données cet été.
Dans le groupe, nous travaillons à la calibration photométrique du relevé ZTF, indispensable pour la précision de mesure dont nous avons besoin (cf ubercalibration [2,3]). Un doctorant venant de soutenir sa thèse a développé un pipeline pour simuler ZTF et mesurer le taux de croissance des structures ([4]) et un doctorant actuel adapte cet exercice à LSST et un autre a débuté en 2024 pour l'analyse de 3000 SN1a de ZTF. Par ailleurs deux postdoctorants ont rejoint le groupe pour travailler sur ZTF, et une chaire d'excellence (DARKUNI de Julian Bautista) étend ce travail en combinant ces données avec les données spectroscopiques de DESI.
L'objectif de la thèse est de développer et perfectionner ce pipeline d'analyse pour mesurer le taux de croissance des structures. La totalité des 30000 SN1a de ZTF sera disponible pour faire l'analyse cosmologique finale de ce relevé.
La thèse coïncide aussi avec l'arrivée des premiers catalogues de SN1a de LSST.
D'autres aspects pourront s'ajouter à la thèse, comme l'étude de l'homogénéité de l'expansion, la calibration photométrique des données etc.
Il s'agit donc d'une thèse de cosmologie observationnelle, pour un-e candidat-e intéressé-e par la cosmologie et l'analyse de données.
[1] https://arxiv.org/abs/1601.06133
[2] https://arxiv.org/abs/astro-ph/0703454v2
[3] https://arxiv.org/abs/1201.2208v2
[4] https://arxiv.org/abs/2303.01198 https://snsim.readthedocs.io/
Le contexte : Plus de vingt ans après la découverte de la nature accélérée de l'expansion de l'Univers, il n'existe toujours pas d'explication définitive de son origine physique. Plusieurs types d'énergie noire ou même des alternatives/extensions à la relativité générale ont été proposés dans la littérature pour tenter d'expliquer l'accélération de l'expansion. En mesurant avec précision les taux d'expansion de l'Univers et de la croissance des structures à grande échelle, en fonction du temps cosmique, nous pouvons en apprendre davantage sur ce mystère cosmologique. En particulier à faible redshift, lorsque l'expansion est accélérée et que l'énergie noire domine l'expansion, nous souhaitons obtenir les meilleures contraintes sur le taux de croissance des structures. Ces mesures peuvent être réalisées en combinant les positions des galaxies et leurs vitesses. Les propriétés statistiques du champ de densité et de vitesse sont étroitement liées au modèle cosmologique sous-jacent.
Expériences : La mesure des taux d'expansion et de croissance de l'Univers est le principal objectif scientifique des expériences actuelles et futures telles que l'instrument spectroscopique de l'énergie noire (DESI), le Zwicky Transient Facility (ZTF), Euclid et le Vera Rubin Observatory Legacy Survey of Space and Time (Rubin-LSST).
DESI mesure actuellement la position de 40 millions de galaxies (avec leur décalage vers le rouge) et l'échantillon de galaxies à faible décalage vers le rouge sera le plus complet à ce jour.
L'étude ZTF permettra de découvrir plus de 5 000 supernovae de type Ia, dont nous pourrons déduire la vitesse des galaxies. Le projet Rubin-LSST portera ce nombre à plusieurs centaines de milliers.
Objectif de la thèse : Le candidat sélectionné travaillera à l'analyse conjointe des ensembles de données DESI et ZTF, qui contiennent des millions de galaxies et des milliers de supernovae de type Ia. Le candidat se familiarisera avec la physique et les statistiques des regroupements de galaxies, codera son propre pipeline d'analyse, le testera sur des simulations de pointe et l'appliquera sur des données réelles. La mesure du taux de croissance des structures avec les galaxies de DESI et les vitesses de ZTF sera essentiel dans le test de la relativité générale aux échelles cosmiques. Cette étude est dans le plan de route principal des projets DESI et ZTF.
Profil requis : Le candidat doit avoir un grand intérêt pour la cosmologie, les statistiques, l'analyse de données et la programmation (nous utilisons principalement python). La maîtrise de l'anglais et la capacité à travailler en équipe sont également requises.
Contexte scientifique :
La mission Euclid, développée par l'Agence spatiale européenne (ESA), a pour objectif principal de cartographier la géométrie de l'Univers sombre et de mieux comprendre les propriétés de l'énergie noire et de la matière noire. Grâce à une combinaison des observations de la distribution des galaxies et d'observations du cisaillement gravitationnel faible, Euclid fournira des données à une échelle et avec une précision sans précédent.
Le galaxy clustering (distribution des galaxies à grande échelle) et l'effet de lensing gravitationnel faible sont deux des principales observables de la mission Euclid. Le galaxy clustering permet d'étudier la répartition des galaxies dans l'Univers, révélant des informations cruciales sur la structure de l'Univers, sa dynamique et la nature de l'énergie noire. De son côté, l'effet de lensing gravitationnel permet d'inférer la distribution de la matière noire en analysant la déformation des galaxies d'arrière plan par les masses situées en avant-plan.
L'analyse 3x2pt, qui combine l'analyse du galaxy clustering et du lensing gravitationnel faible (ainsi que leur corrélation croisée), est l'une des approches les plus prometteuses pour exploiter les données issues de ces observations. En effet, elle permet de maximiser les informations sur les paramètres cosmologiques, notamment ceux liés à l'énergie noire, en utilisant des mesures complémentaires pour restreindre les biais systématiques potentiels.
Le sujet de la thèse :
L'objectif de cette thèse est d'exploiter les données issues de la mission Euclid afin de réaliser une étude approfondie du galaxy clustering et de mener une analyse 3x2pt complète. Plus spécifiquement, cette thèse se déclinera en plusieurs étapes principales :
Étude du Galaxy Clustering : Analyser la distribution des galaxies en 3D à grande échelle, à partir des données photométriques et spectroscopiques du relevé d'Euclid.
Analyse 3x2pt : Réaliser une analyse combinée 3x2pt, en associant le galaxy clustering et le lensing gravitationnel faible, afin d'exploiter au mieux les informations croisées entre ces deux observables. Optimiser les méthodologies pour réduire les incertitudes systématiques, telles que la contamination par les biais de galaxies et la calibration des redshifts photométriques.
Contraintes cosmologiques : Appliquer ces outils et méthodes aux données DR1 et DR2 d'Euclid pour contraindre les modèles d'énergie noire et de matière noire. Comparer les résultats obtenus avec les prédictions théoriques des différents modèles cosmologiques (modèles ?CDM et ses extensions).
Cette thèse se situe à l'interface des observations cosmologiques et des techniques d'analyse avancées. En exploitant les données de la mission Euclid et en appliquant la méthode 3x2pt, ce projet vise à fournir des contraintes cosmologiques cruciales, tout en développant des outils méthodologiques essentiels pour l'analyse des relevés de nouvelle génération. Ce travail contribuera à améliorer notre compréhension de l'Univers sombre et à explorer de nouvelles approches pour l'étude de la matière noire et de l'énergie noire.
Environnement scientifique :
La thèse sera réalisée au Centre de Physique des Particules de Marseille, sous la direction de Stéphanie Escoffier et William Gillard. L'équipe de cosmologie du CPPM est impliquée dans de grands relevés cosmologiques comme DESI, Euclid et Rubin.
Compétences requises :
Le candidat doit être titulaire d'un Master (MSc) en astronomie/astrophysique, physique fondamentale ou science des données. Il/elle doit avoir une solide formation en cosmologie observationnelle et en statistiques, ainsi qu'un intérêt pour les approches méthodologiques avancées et les techniques d'inférence statistique appliquées aux relevés cosmologiques. Une expérience en analyse de données et en programmation (Python, C++) ainsi qu'une familiarité avec le traitement de grands ensembles de données ne sont pas obligatoires, mais constitueraient un atout.
Vingt ans après la découverte de l'accélération de l'expansion de l'univers par des mesures avec les supernovas, la sonde supernovas reste l'un des moyens les plus précis pour mesurer les paramètres de cette période récente de l'histoire de notre univers dominée par ce qu'on appelle l'énergie noire.
L'observatoire Rubin avec le relevé Large Survey of Space and Time (Rubin/LSST) sera mis en service en 2025 et débutera officiellement fin 2025. Il s'agit d'un télescope de 8,4 mètres doté d'une caméra de 3,2 milliards de pixels, la plus puissante jamais construite.
Ce télescope prendra une photo de la moitié du ciel toutes les trois nuits pendant dix ans. Ce sondage permettra de mesurer des milliards de galaxies avec une grande précision et de suivre la variation dans le temps de tous les objets transitoires. Avec de nombreuses autres études astrophysiques, ce sera une machine très puissante pour déterminer les paramètres cosmologiques à l'aide de nombreuses sondes différentes et, en particulier, elle imposera de fortes contraintes sur la nature de l'énergie noire. Le projet LSST vise à découvrir jusqu'à un demi-million de supernovae. Cette amélioration de deux à trois ordres de grandeur statistique par rapport à l'ensemble des données actuelles permettra de tester précisément les paramètres de l'énergie noire, de tester la relativité générale et imposera également de nouvelles contraintes sur l'isotropie de l'univers.
Au cours de la thèse, nous proposons de préparer puis de participer à l'analyse des premières supernovae de Rubin/LSST. La préparation se fera en utilisant les données HSC/Subaru existantes, et les premières images du télescope Rubin.
L'étudiant.e participera à la mise en service de Rubin/LSST. Elle/Il aura en charge de poursuivre les développements des méthodes de deep learning pour l'identification des supernovae et de les mettre en application sur les premières images.
Elle/Il participera ensuite aux premières analyses utilisant les supernovae qu'elle/il aura contribué à identifier.
Le groupe LSST du CPPM est déjà impliqué dans la photométrie de précision pour LSST, avec une implication directe dans la validation des algorithmes au sein de DESC/LSST [1][2][3], et a proposé une nouvelle méthode d'apprentissage profond pour améliorer l'identification photométrique des supernovas [4] et les redshifts photométriques [5].
[1] https://www.lsst.org/content/lsst-science-drivers-reference-design-and-anticipated-data-products
[2] https://arxiv.org/abs/1211.0310
[3] https://www.lsst.org/about/dm
[4] https://arxiv.org/abs/1901.01298
[5] https://arxiv.org/abs/1806.06607
[6] https://arxiv.org/abs/1401.4064