Liste des offres de thèses du laboratoire.
The predictivity of the Standard Model (SM) of particle physics remains unchallenged by experimental results. After the tantalizing discovery of the Higgs boson at LHC, the measurements of properties such as its mass, spin, parity and its couplings with other SM particles have confirmed its SM-like nature. This goes hand in hand with the absence of direct signs of TeV physics beyond the SM from current direct searches.
The excellent performance of the LHC in terms of delivered luminosity allowed the ATLAS and CMS experiments to set stringent limits on new particle masses well beyond the EW scale, thus worsening the naturalness problem. If the new physics scale lies well above the present experimentally probed energies, one would be left with the only experimental perspective of searching for deviations within the LHC precision measurements, and with no solid theoretical explanation of why the new physics should be so unnaturally heavy. There is, however, another logical possibility: new physics may be hidden at lower energies although weakly coupled to the SM known particles, so that its signals could be swamped in the SM background.
The possibility of recording low energy signatures rely on the capacity of processing the enormous amount of data provided by the LHC. For this ATLAS uses an advanced two-level trigger, the first level implemented in custom hardware, and High Level Trigger that relies on selections made by algorithms implemented in software. Moreover, a series of detector upgrades have been realized to face the challenges posed by the current Run 3 LHC high luminosity data taking. This allows the implementation of efficient algorithms to trigger low energy thresholds at much harsher LHC collision conditions.
In light of the above-mentioned theoretical scenarios, only little can be predicted in a model-independent way about the couplings of new light resonances to the SM. Therefore, we envisage considering specific models, focusing on particular final states. An example of this low mass resonance is an axion-like particle (ALP), which further acts as a mediator to Dark Matter. We will determine the region of parameter space where all existing collider, astrophysical, cosmology constraints are respected, and the relic density is obtained. We will then study the prospects of producing such an ALP which subsequently decays to b-anti-b pairs at the LHC. This will allow us to pinpoint novel signatures, providing a complementary handle on the models in question, signatures that will be then looked for by the candidate, analyzing ATLAS data recorded during Run 3.
L'Université d'Aix-Marseille et le groupe ATLAS du CPPM proposent une thèse (déjà financée) dans le domaine de la conception micro-électronique et la caractérisation de capteurs CMOS déplétés et pixel hybrides pour de futures applications auprès de collisionneurs de particules.
Le Centre de Physique des Particules de Marseille (CPPM) est une unité mixte de recherche relevant à la fois du Centre National de la Recherche Scientifique (CNRS) et de l'Université d'Aix-Marseille. Le CPPM est un acteur de premier plan pour la recherche en Physique des Particules, Astroparticules et la Cosmologie Observationnelle. Le CPPM est présent dans les plus grandes expériences en physique actuellement en cours ou en développement à travers le monde.
Le groupe ATLAS du CPPM a une longue expérience dans le développement de technologies pixels hybrides. Il prend part en ce moment au projet de jouvence du détecteur de traces central de l'expérience ATLAS (projet ITk), qui cible la phase de Haute Luminosité du Grand Collisionneur de Hadrons du CERN (projet HL-LHC), et participe aussi au développement de technologies pour de futures applications auprès de collisionneurs de particules.
Nous recherchons des candidats pour rejoindre notre équipe et s'impliquer dans le développement de capteurs CMOS et de détecteurs pixels hybrides dans un nud de process avancé, dans le contexte de plusieurs collaborations internationales et projets.
Nous recherchons des candidats motivés qui ont des compétences ou une volonté forte d'acquérir des compétences dans les domaines suivants :
- Micro-électronique et conception de circuits.
- Procédés technologiques dans le domaine des semiconducteurs siliciums.
- Conception CMOS dans un noeud avancé.
- Outils de conception, simulation, design et vérification.
- Vérification expérimentale, conception de systèmes de test et de software d'acquisition.
- Test de prototypes complexes, acquisition et analyse de données.
Pour plus d'informations, contacter : barbero@cppm.in2p3.fr
Acte de candidature sous:
https://emploi.cnrs.fr/Offres/Doctorant/UMR7346-ANNPOR-077/Default.aspx
The data acquisition and trigger electronics of the ATLAS liquid argon calorimeter will be fully replaced as part of the second phase of upgrade of the ATLAS detector. The new backend electronics will be based on high-end FPGAs that will compute on-the-fly the energy deposited in the calorimeter before sending it to the trigger and data acquisition systems. New state-of-the-art algorithms, based on neural networks, are being developed to compute the energy and improve its resolution in the harsh conditions of the HL-LHC.
The candidate is expected to take a role in the development of data processing algorithms allowing to efficiently compute the energies deposited in the LAr calorimeters in the high pileup conditions expected at the HL-LHC. These algorithms will be based on AI techniques such as recurrent neural networks will be adapted to fit on hardware processing units based on high-end FPGAs. The successful candidate will be responsible of designing the AI algorithms, using python and keras, and assessing their performance. The candidate will also assess the effect of employing such algorithms for electromagnetic object reconstruction (especially at trigger level). She/he will work closely with the engineers designing the electronic cards at CPPM in order to adapt the AI algorithm to the specifics of FPGAs. Candidates with a strong interest for hardware will be encouraged to take part in the design of the firmware to program the FPGAs.
Prior knowledge of keras, python and C++ is desirable but not mandatory.
La physique auprès du Large Hadron Collider (LHC) du Centre Européen de Recherche Nucléaire (CERN) constitue l'axe de recherche prioritaire de la communauté mondiale en physique des particules. ATLAS est l'une des deux expériences généralistes installées auprès de cet accélérateur qui a co-découvert le boson de Higgs en juillet 2012, pièce essentielle pour la compréhension des interactions fondamentales et de l'origine de la masse des particules élémentaires. Son programme de physique est néanmoins plus vaste et s'étend à l'étude des propriétés du boson de Higgs et plus généralement à l'obtention des premiers signes de physique au-delà du Modèle Standard de la physique des particules.
Le groupe ATLAS du Centre de Physique des Particules de Marseille (CPPM) est fortement impliqué dans ce programme scientifique, avec notamment une grande expertise liée au calorimètre électromagnétique. Ce dernier est un élément clé pour l'identification et la mesure de l'énergie des électrons et des photons, qui ont fait le succès de la découverte du boson de Higgs. Le groupe est également en pointe sur l'étude de ce boson et la recherche de supersymétrie dans la campagne de prise de données 2015-2018 dite « Run 2 » et celle en cours, dite « Run 3 », avec des implications majeures dans plusieurs analyses avec des particules électromagnétiques dans l'état final. De plus, en vue de l'amélioration des performances de l'accélérateur, phase de haute luminosité du LHC (HL-LHC), ce calorimètre fait l'objet d'un important programme d'évolution de son système de lecture et de déclenchement auquel participe activement le groupe du CPPM. Le « Run 3 » du LHC a débuté en 2022, et devrait se poursuivre jusqu'en 2025. Les données des collisions protonproton qui seront collectées au cours de cette période par l'expérience ATLAS permettront de poursuivre le large programme de recherche en physique des particules, améliorant les mesures du paramètres du Modèle Standard (MS) et les limites sur les phénomènes de nouvelle physique, avant la phase de haute luminosité du LHC (HL-LHC) à partir de 2029.
Parmi les processus étudiés, la recherche de la production de paires de boson de Higgs pp->HH fait figure de nouvelle frontière, car son observation permettrait de réaliser une mesure directe de l'auto-couplage de cette particule scalaire prédite de longue date, mais découverte seulement en 2012. Ce processus prédit par le MS est particulièrement rare, et l'analyse des données du HL-LHC devrait être nécessaire pour l'observer. Néanmoins, des théories au-delà du MS prédisent l'existence de nouvelles particules scalaires (S), qui pourraient être produites dans les collisions protonproton en association avec un boson de Higgs: pp->SH. L'équipe ATLAS du CPPM est très impliquée dans la recherche de processus pp->HH, notamment dans le canal où une paire de quark-antiquark bottom et deux photons sont présents dans l'état final.
Le sujet de thèse proposé vise à rechercher des processus pp->SH avec les données du « Run 3 », dans le même canal de désintégration. L'étudiant.e participera à cette analyse, aux études nécessaires de performance du détecteur touchant aux domaines d'expertise de l'équipe, notamment sur les aspects liés à la reconstruction et l'identification des photons, ainsi qu'à l'opération du calorimètre à argon liquide. Dans ce cadre l'étudiant.e sera amené à effectuer de nombreux séjours au CERN, et son travail de recherche combinera des analyses de physique (sur données et simulation) ainsi que l'étude et la mise en uvre de systèmes expérimentaux.
L'étude de la production de paires de bosons de Higgs suscite un intérêt grandissant dans la communauté de physique des particules, en particulier dans la perspective de la phase Haute-Luminosité du LHC. En plus de l'auto-couplage du champ de Higgs, le couplage VVHH est également un paramètre important pour parfaire notre compréhension de la brisure de symétrie électrofaible, qui peut être sondé au travers de la recherche d'événements di-Higgs dans le mode de production VBF.
Le détecteur ATLAS est idéal pour ces études, avec son design optimisé pour reconstruire et identifier la plupart des produits de désintégration des particles du Modèle Standard produites dans les processus rares impliquant des bosons de Higgs, tels que les modes de production di-Higgs. Cette thèse comportera un travail sur l'optimisation des algorithmes utilisés pour l'identification des jets produits dans l'harmonisation de quarks b pour l'upgrade du détecteur ATLAS prévue pour la phase Haute-Luminosité du LHC. Ces algorithmes jouent un rôle majeur pour tous les états finaux impliquant des quarks b, produits dans la désintégration du quark top ou du boson de Higgs par exemple.
Des contraintes très fortes sur le couplage VVHH peuvent déjà être obtenues avec le dataset du LHC au Run 3, en particulier grâce à la combinaison de régions à basse et haute m(HH). Les analyses correspondantes sont au coeur d'un effort de recherche collaboratif impliquant plusieurs laboratoires français membres de la collaboration ATLAS au CERN. Cette thèse s'inscrirait dans le cadre de cet effort de recherche, avec un focus particulier sur l'analyse de l'état final bbtautau résolu, bénéficiant de la forte expertise du groupe ATLAS au CPPM dans les domaines du b-tagging et des analyses di-Higgs [1-2].
Les candidatures devront inclure un CV, une lettre de motivation, les relevés académiques de la license au master et les contacts de deux personnes pouvant fournir des lettres de référence.
[1] ATLAS flavour-tagging algorithms for the LHC Run 2 pp collision dataset https://atlas.web.cern.ch/Atlas/GROUPS/PHYSICS/PAPERS/FTAG-2019-07/
[2] Search for Higgs boson pair production in the final state with two bottom quarks and two photons in pp collisions at ?s = 13 TeV with the ATLAS detector https://atlas.web.cern.ch/Atlas/GROUPS/PHYSICS/PAPERS/HDBS-2018-34/
La matière noire est une des grandes énigmes actuelles de la physique fondamentale. En effet, sa contribution à la masse totale de l'Univers est de 85% mais elle ne peut être expliquée dans le cadre du Modèle Standard de la physique des particules (MS). Plusieurs candidats existent pourtant dans les théories au-delà du MS : c'est le cas du WIMP (Weakly Interacting Massive Particle), un des candidats les mieux motivés car il permet de résoudre le problème de stabilité de la masse du boson de Higgs dans le MS.
Les expériences recherchant directement la matière noire utilisent ainsi le halo de notre galaxie comme source potentielle de WIMPs. Depuis 2010, la technologie de détection la plus performante repose sur la mesure de la lumière de scintillation qui serait émise lors de la diffusion d'un WIMP sur un atome de liquide noble - argon ou xénon. Dans ce cadre, l'expérience DarkSide-20k (DS-20k), qui sera installée à 1,4 km sous terre au laboratoire du Gran Sasso en Italie, est la troisième génération de détecteurs à argon liquide. Elle utilisera une chambre à projection temporelle cylindrique de 3,5 m de diamètre et de 3,5 m de hauteur remplie de 50 tonnes d'argon purifié et lue par 200 000 photomultiplicateurs au Silicium. Cela lui permettra d'avoir l'un des meilleurs potentiels de découverte des WIMPs au niveau mondial après quelques années de prise de données. La phase actuelle est consacrée à la construction du détecteur, commencée il y a un an. La prise de données est programmée pour 2027. L'augmentation du volume d'argon liquide par rapport aux expériences de première et deuxième génération permettra à DS-20k d'avoir la meilleure sensibilité de tous les détecteurs à argon liquide après seulement un mois de données.
Le sujet de cette thèse, financée par l'Agence Nationale de la Recherche entre octobre 2024 et septembre 2027, est de préparer et de participer aux analyses des premières données, pour lesquelles le CPPM a calculé la sensibilité aux WIMPs de basse masse (<10 GeV) et de haute masse (>100 GeV). L'étudiant(e) participera d'abord à la simulation et à l'installation du système de calibration, conçu et validé au CPPM. En parallèle, l'étudiant(e) améliorera les algorithmes de reconstruction des données en utilisant des techniques basées sur l'intelligence artificielle (e.g. réseaux de neurones), afin d'optimiser la séparation du signal et du bruit de fond. Enfin, il (elle) participera à l'analyse des données de calibration prises auprès de DS-20k et aux premières analyses de physique. Ces activités apportent une formation complète en physique des particules, incluant les aspects instrumentaux, software et analyse de données.
Dans ce cadre l'étudiant sera amené à effectuer des séjours réguliers au Gran Sasso, notamment pour installer le système de calibration.
Plus de détails sur le groupe Matière Noire du CPPM : https://www.cppm.in2p3.fr/web/fr/recherche/physique_particules/#Mati%C3%A8re%20Noire
The CTA (Cherenkov Telescope Array) is a worldwide project to construct the next generation ground based very high energy gamma ray instrument [1]-[2]. CTA will use tens of Imaging Air Cherenkov Telescopes (IACT) of three different sizes (mirror diameter of 4 m, 12 m and 23 m) deployed on two sites, one on each hemisphere (La Palma on the Canary Islands and Paranal in Chile). The observatory will detect gamma-rays with energy ranging from 20 GeV up to 300 TeV by imaging the Cherenkov light emitted from the charged particle shower produced by the interaction of the primary gamma ray in the upper atmosphere.
The unconventional capabilities of CTA will address, among others, the intriguing question of the origin of the very high energy galactic cosmic rays by the search for galactic sources capable of accelerating cosmic rays up to the PeV energies, called PeVatrons. Recently, the Supernova Remnant (SNR) G106.3-2.7 has been indicated as a highly promising PeVatron candidate [4]. In fact, G106.3-2.7 emits gamma-rays up to 500 TeV from an extended region (~0.2o) well separated from the SNR pulsar (J2229+6114) and in spatial correlation with a local molecular cloud.
The CTA observatory completion is foreseen in 2025 but the first Large-Sized Telescope (LST1) is already installed and taking data in La Palma. LST1 is placed very close to the two MAGIC telescopes [3], which are one of the presently active IACT experiments. This configuration permits to perform joint observations of the same source with the three telescopes LST1+MAGIC increasing the effective detection area and improving the energy and angular resolution, thanks to the enhanced quality reconstruction of stereoscopic data. While the LST1+MAGIC telescopes cannot reach enough sensitivity to access energies above 100 TeV, they can provide exclusive and unprecedented data for establishing the spectral morphology of this exciting PeVatron candidate in the 100 GeV-100 TeV energy region. A campaign of joint observations of G106.3-2.7 will start in 2022 and will continue in the following years.
The PhD project will be on the analysis of the data of the coming campaign, its ambitious target will be to contribute in disclosing the hadronic or leptonic nature of this promising PeVatron. In order to maximize the effective area at very high energy, G106.3-2.7 will be observed at large zenith angle (LZA), 62o-70o, which represents a challenging detection condition. The project will start with the development and verification of the joint LST1+MAGIC stereo reconstruction chain [5] at LZA, using Monte Carlo (MC) data. This MC study will aim to optimize the data reconstruction and selection in order to reach a high quality Instrument Response Function and sensitivity for this specific source. Real data will be then reconstructed so as to achieve both a morphological and a spectral reconstruction of the source in the 100 GeV-100 TeV energy range. Finally, the high-quality LST1-MAGIC data will be used for a multiwavelength analysis that will compare different emission models and try to disentangle the nature of the source.
The project will include the participation to the LST1+MAGIC observation campaign with stays of four weeks in the Roque de los Muchachos Observatory in La Palma.
The CPPM CTA group works since several years in the building and commissioning of the LST1 telescope and on the preparatory studies for the research of galactic PeVatrons with CTA [6][7].
Candidates should send their CV and motivation letter as well as grades (Licence, M1, M2) to cassol@cppm.in2p3.fr and costant@cppm.in2p3.fr before 10/4/2022. Applications will be selected on the base of qualifications and an oral interview.
References:
[1] Science with the Cherenkov Telescope Array: https://arxiv.org/abs/1709.07997
[2] https://www.cta-observatory.org/
[3] MAGIC Collaboration, Aleksi?, J. et al. Astropart. Phys. 72 (2016) 7694.
[4] Z. Cao et al. Nature, 594, 3336 (2021); M. Amenomori et al. Nature Astronomy, 5, 460464 (2021)
[5] https://github.com/cta-observatory/magic-cta-pipe
[6] O. Angüner et al. Cherenkov Telescope Array potential in the search for Galactic PeVatrons, ICRC 2019
[7] G. Verna et al. HAWC J2227+610: a potential PeVatron candidate for the CTA in the northern hemisphere, ICRC 2021
The Centre de Physique des Particules de Marseille (CPPM) in collaboration with the University of Toulon is opening a doctoral position (3 years), funded by the Aix Marseille University (AMU). The successful candidate will integrate CPPM to carry out research on neutrino oscillations with the ORCA detector and its possible upgrades.
ORCA is a megaton scale natural water Cerenkov neutrino detector being constructed by the KM3NeT collaboration on the sea bed at 40 km offshore Toulon and at a depth of 2400 m. The primary purpose of the detector is to study neutrino oscillations using atmospheric neutrinos. While the detector construction should be over by 2027, the first detection units deployed since 2018 are fully operational, and the data collected have already allowed to observe the neutrino oscillations phenomena. The detector is now reaching a size that allows to probe unexplored physics territories. The Ph.D. student will participate in these data analyses, in particular, to the study of the appearance of tauic neutrinos in the atmospheric neutrino flux.
In addition to the atmospheric neutrinos studies, the Ph.D. student will also participate in a team work to develop of a novel technique for accelerator-based experiments called neutrino tagging. The very large size of the natural water Cerenkov detectors such as ORCA (few megatons) allows to perform experiments with neutrino beams of modest intensity for which the beam line can be instrumented. These instruments allow to get first-hand information (energy, direction, flavour, chirality) on each of the produced neutrinos. Ongoing studies indicate that such experiments would offer an unprecedented precision on the leptonic CP violating phase. The Ph.D. will take part to this pioneering design phase of a tagged neutrino experiment (e.g. sensitivity estimate, tracker R\\&D etc...).
The research activities will be conducted in tight collaboration with the Signal and Tracking group at University of Toulon, but also with the CERN Physics Beyond Colliders (PBC) study group (for the tagging part).
We are seeking for a highly motivated person who would ideally have:
The student interested in applying for the internship must provide:
This information should be sent to -tln.fr?subject=">-tln.fr?subject=[PhD-2326-KM-04]>mathieu.perrin-terrin@cern.ch and antoine.roueff@univ-tln.fr by July 31st.
Neutrinos are unique messengers to study the high-energy Universe as they are neutral and stable, interact weakly and therefore travel directly from their point of creation to the Earth without absorption and path deviation. Nowadays, the sources of very high-energy cosmic rays are still unknown. Doing neutrino astronomy is a long quest for neutrino telescopes. Several observational hints have been detected by ANTARES and IceCube (active galaxy nuclei, tidal disruption events).
KM3NeT is the second-generation neutrino detector in the Mediterranean Sea. It will be distributed in two sites: a low energy site ORCA in France (1 GeV-10 TeV) and a high energy site ARCA in Italy (1 TeV-10 PeV). Its main goals are to study of neutrino oscillations, with as flagship measurement the determination of the neutrino mass ordering and to perform neutrino astronomy. Both detectors are already collecting data with the first detection units and will soon reach significantly better sensitivities for the detection of cosmic neutrinos surpassing by far the ANTARES one. Thanks to the unprecedented angular resolution, the extended energy range and the full sky coverage, KM3NeT will play an important role in the rapidly evolving multi-messenger field. A good sensitivity over such a large energy coverage can only be obtained by combining the data of the two detectors. KM3NeT will achieve a precision of <0.1 degrees for the muon neutrino tracks at very high energies, and <1.5º for the cascade events (electron, tau charge current + all flavor neutrino neutral current interactions). With KM3NeT, we will be able to perform a very efficient all-flavour neutrino astronomy.
The main goal of the thesis is to develop multi-messenger analyses in the two KM3NeT detectors. With the early data, we have performed a lot of studies to understand the behaviour of the detectors by setting the calibration procedures and by implementing very detailed Monte Carlo simulations that reproduce quite well the data taking. It has also permitted to start the development of the online analysis framework. Most of the elements are in operation (online reconstruction, neutrino classifier, reception of external transient triggers, alert sending). At the beginning of the PhD, the student will have to develop and implement efficient all-flavour neutrino selection over the atmospheric backgrounds. These selections will be performed using advanced analysis methods such as machine learning algorithms, that will be used to classify the nature of all the KM3NeT events between neutrino tracks (charged current muon neutrinos), neutrino cascades (all others neutrino flavours) and background events (atmospheric muons and neutrinos). The second step of the PhD will be to use these neutrino streams to look for time and space correlation with external triggers from electromagnetic transients, gravitational waves and high-energy neutrinos. This correlation analysis will be developed in two steps, starting with the implementation of a simple counting analysis that looks for a signal excess in a pre-optimized region of interest and in a given time window. For the most interesting neutrinos, the PhD student will also participate to the development of the alert sending system and the multi-wavelength follow-ups (radio, visible, X-ray and VHE). The student will have to develop the neutrino filters based on the false alarm rates of those alerts, their energies and angular resolutions Real-time multi-messenger campaigns are crucial in unveiling the sources of the most energetic particles and the acceleration mechanisms at work. The student will also participate to set the multi-wavelength follow-up of the KM3NeT alerts.
The candidate should have a good background in astroparticle physics and astrophysics. The interest in the data analysis is expected together with knowledge of statistics. The analyses will be performed using C++, Python and Root on Linux platforms.
KM3NeT: http://www.km3net.org
KM3NeT/ORCA (Oscillation Research with Cosmics in the Abyss) is a deep sea neutrino telescope currently under construction at a depth of 2500m in the Mediterranean Sea off the coast of Toulon. KM3NeT/ORCA is optimised for the detection of low energy (3-100 GeV) atmospheric neutrinos and will allow precision studies of neutrino properties. Currently the detector takes data with 15 detection strings which instrument a volume of about 1Mton - much larger than underground detectors with a similar science program. Several years of data are available, waiting to be analysed.
The task of the student is to participate in data taking, construction and calibration of the KM3NeT/ORCA detector and to analyse several Mton-years of neutrino data. This will allow for a cutting edge measurement of the atmospheric neutrino oscillation parameters and a first estimation of the neutrino mass ordering.
Links:
https://arxiv.org/abs/1601.07459
https://arxiv.org/abs/2103.09885
https://www.cppm.in2p3.fr/~mperrint/PhDOffer/Offer2023.html
Sujet d'études passionnantes, la mer se révèle également être un instrument de mesure unique comme l'ont démontré les détecteurs ANTARES et ORCA qui, depuis plus d'une décennie, utilisent l'eau des abysses de la baie de Toulon pour détecter les neutrinos. Ces dernières décennies, les études conduites sur ces particules ont été jalonnées de découvertes retentissantes donnant lieu à l'attribution de trois prix Nobel. Il est aujourd'hui établi que les propriétés quantiques de ces particules pourraient détenir la clef d'un des plus profonds mystères de la physique fondamentale~: l'origine de la matière dans l'Univers. À présent, il reste à relever le défi expérimental que la mesure de ces propriétés quantiques représente. De récentes études ont montré qu'une nouvelle méthode expérimentale le tagging pourrait permettre d'effectuer ces mesures avec une précision record en s'appuyant sur la technologie de détection sous-marine des neutrinos [Perrin-Terrin, M. (2022)].
Les neutrinos (?) existent selon trois espèces, appelées saveurs~: électronique (?e), muonique (?µ) et tauique (??). Les expériences de physique des neutrinos visent à mesurer, en fonction de l'énergie des neutrinos, la probabilité qu'ils ont de changer de saveurs durant leur propagation. Ces expériences consistent donc à comparer les caractéristiques des neutrinos avant et après propagation. Le dispositif expérimental conventionnellement employé par ces expériences est représenté schématiquement sur la partie gauche de la Figure 1.
https://www.cppm.in2p3.fr/~mperrint/Tagging/tagging.svg>
Ces études expérimentales sont rendues difficiles par la très faible probabilité qu'ont les neutrinos d'interagir dans le détecteur. En effet, la majorité d'entre eux le traversent sans laisser de traces. Ainsi pour collecter des échantillons de neutrinos suffisamment grands, les expériences requièrent des faisceaux de protons intenses, O(1) MW, et des cibles instrumentées de très grandes taille, O(10)kton. D'autre part, les mécanismes physiques qui décrivent les interactions des neutrinos sont mal connues et très variées. Inférer les propriétés des neutrinos à partir de ces interactions est donc très difficile et peu précis.
La méthode du tagging contourne ces difficultés en proposant de déterminer les caractéristiques des neutrinos à partir des désintégrations, ?+,K+?µ+?µ les générant. En s'appuyant sur les lois de conservation de l'énergie et de l'impulsion (p sur la Figure 1 à droite), les caractéristiques de chaque ?µ sont obtenues à partir de celles du ?+ et µ+ ou du K+ et µ+ qui sont facilement mesurables pour des particules chargées en utilisant des plans consécutifs de pixels en silicium (TAGGER sur la Figure 1).
Cette méthode permet d'estimer l'énergie des neutrinos avec une précision 10 fois supérieure à celle des méthodes basées sur leurs interactions. L'énergie de chaque neutrino étant ainsi connue,~il ne reste plus qu'à déterminer sa saveur après propagation. Une cible instrumentée moins finement que dans les dispositifs conventionnels est alors suffisante pour cette tâche de classification. Il est donc possible d'utiliser de grands volumes naturels d'eau de mer instrumentés avec des capteurs de lumières tels qu'ANTARES et ORCA représentés sur la Figure 2. Les masses d'eau ainsi instrumentées atteignent plusieurs méga-tonnes, ce qui est 100 fois supérieur aux cibles conventionnellement utilisées.
https://www.cppm.in2p3.fr/~mperrint/Tagging/km3net-m-destelle.jpg>
Technologiquement, le tagging repose sur deux développements~innovants : celui de pixels en silicium capables de détecter des taux élevés de particules~(1010part./s/cm2) et, celui de lignes de faisceaux de neutrinos non-pulsées dans le temps. Ces dernières permettent d'abaisser significativement le taux de particules des faisceaux de neutrinos, qui est normalement très haut (1018part./s/cm2), et donc d'instrumenter celles-ci avec des pixels pour détecter les ?+'s et µ+'s. Une preuve de principe est en cours en utilisant les données recueillies par l'expérience NA62 au CERN qui a développé, pour d'autres applications, les premières versions de ces technologies. L'échantillon nécessaire à cette étude est en train d'être collecté depuis 2022. Les premières données ont permis de mettre en place les outils d'analyse et indiquent qu'un échantillon significatif (O(10)) de neutrino tagués seront collectés jusqu'à la fin de la prise de données en 2025.
Le but de cette thèse est la conception et la preuve de principe d'un système dédié à la détection de neutrinos sur la technique du tagging. La conception de ce système sera fondée sur l'optimisation des performances en estimation et en détection, c'est-à-dire en prenant en compte notamment les incertitudes sur la ligne de faisceau et sur les capacités du détecteur à pixel. Ce travail de «~co-conception~» consistera à développer des études statistiques sur la performance du système en amont de sa construction.
Ce travail se fera en collaboration avec l'équipe Signal et Tracking basée à l'université de Toulon, spécialiste des traitements statistiques et avec les ingénieurs faisceau du CERN.
Le premier travail de l'étudiant.e sera de mettre en place un simulateur de la ligne instrumentée en identifiant les incertitudes du système. Le deuxième travail sera de choisir la configuration expérimentale qui permet d'aboutir à des bornes de performances (e.g. borne de Cramer-Rao pour l'estimation de l'énergie) optimale. Le recours à une borne de performance permet de réaliser une étude indépendante de la technique d'estimation (ou de détection). Celle-ci ne dépend que de la modélisation du système, et en particulier à ses incertitudes. Ce n'est qu'une fois que la configuration a été choisie, si les performances sont satisfaisantes, que l'on abordera le troisième travail qui consiste à construire les algorithmes d'estimation et de détection.
Enfin, l'étudiant(e) pourra tester ces algorithmes sur le dispositif expérimental NA62 au CERN. En effet, bien qu'étant dédié à d'autre études, ce dispositif est accessoirement une expérience de physique des neutrinos à échelle réduite qui peut être utilisé pour établir la première preuve de concept expérimentale du tagging [De Martino, B 202]. Ainsi, l'étudiant.e participera aux prises de données au CERN et analysera les données collectées.
Détecteur à Neutrinos Sous-Marin, Physique des Neutrinos, Co-conception d'expériences, Science des Données
Compétences/connaissances pré-requises pour le sujet :
The Standard Cosmological Model has passed many precise observational tests in both the early and late-time universe. Nonetheless, the Cosmological Model still suffers from some important observational and theoretical difficulties. On the observational side, there are discrepancies between different independent measurements of the expansion rate of the Universe, the Hubble constant (H0).
Gravitational waves (GWs) open a new opportunity to shed light on the H0-tension. Differently from SNIa, GWs sources are unique tracers of the luminosity distance and can therefore be used to measure the expansion history of the Universe through the distance-redshift relation (Schutz, Nature 1986). These GW detections used as standard sirens provide independent measurements of H0. However, one of the key ingredients is precisely to obtain an independent measurement of the redshift of the galaxy that hosted the merger. In case the GW event is detected together with its electromagnetic (EM) counterpart (bright standard sirens), the redshift information is inferred from the unique identified host galaxy. In the absence of EM counterpart, which concerns the ~100 GW observations without an identified host galaxy, GW events are called dark standard sirens. Dark sirens require knowledge of the position and redshift of the ensemble of potential host galaxies within a volume of confidence. Among the different ways to extract the redshift information from GW sources, a promising method is to use galaxy surveys.
The proposed PhD project aims to establish that the new generation of galaxy surveys, such as the Dark Energy Spectroscopic Instrument (DESI) and the Euclid mission, used in the context of gravitational waves can provide competitive constraints on the measurement of the Hubble constant H0, and can overcome the inconsistency between historical measurements from the CMB and from supernovae. To this end, several objectives have been identified: a) to build novel techniques for GW cosmology, by developing new statistical approaches applied to galaxy samples; b) to infer cosmological constraints using current data, with the goal to bring competitive constraints on the Hubble constant H0 compared to other methods; and c) to prepare tomorrow's analyses with the arrival of the next generation observatories.
The Centre de Physique des Particules de Marseille (CPPM) team in Marseille, France, invites applications for a 3-year PhD fellowship in the area of Gravitational Wave (GWs) Cosmology. The PhD programme will be jointly tutored by the Aix-Marseille Université (IPhU [Institute for the Physics of the Universe] / CPPM [Centre de Physique des Particules de Marseille]) and Sapienza University of Rome, in the framework of the CIVIS European University Alliance.
The successful candidate will spend the first half of the PhD programme at the University of Rome Sapienza, working in collaboration with Dr. S. Mastrogiovanni and other scientists of the Virgo group, and will be joining the Virgo collaboration.
(S)he will spend the second half of the PhD programme at CPPM in Marseille working in collaboration with Dr. S Escoffier, Dr. E. Kajfasz and other experts in large galaxy surveys, and will be joining the Euclid consortium.
(S)he will also have the opportunity to travel for collaboration with other French Virgo groups such as the L2IT group in Toulouse led by Dr. N. Tamanini. At the end of the successful PhD programme, a diploma will be released by both Aix-Marseille Université and Sapienza University of Rome.
Application is now open until June 19th, 2023. Interviews will be scheduled during the first 10 days of July. The expected thesis starting date is November 1st, 2023. The PhD funding is acquired.
Applicants must hold a Master of science or equivalent in fundamental physics or astrophysics (or related subjects) by the end of October 2023. A good level of English is necessary. Programming skills (python, C++), strong motivation and interest in cosmology as well as the ability to work in large international collaborations will be valuable assets.
Please send your application to Dr. E. Kajfasz (eric.kajfasz@univ-amu.fr), including:
? A motivation letter (maximum two pages).
? A curriculum vitae
? A brief description of research interest and past achievements
? Two reference letters (Head of the Master's program, supervisor of the Master internship) to be sent directly to eric.kajfasz@univ-amu.fr
? A transcript of all university records (Bachelor and Master)
? A copy of the master's diploma
Le contexte : Plus de vingt ans après la découverte de la nature accélérée de l'expansion de l'Univers, il n'existe toujours pas d'explication définitive de son origine physique. Plusieurs types d'énergie noire ou même des alternatives/extensions à la relativité générale ont été proposés dans la littérature pour tenter d'expliquer l'accélération de l'expansion. En mesurant avec précision les taux d'expansion de l'Univers et de la croissance des structures à grande échelle, en fonction du temps cosmique, nous pouvons en apprendre davantage sur ce mystère cosmologique. En particulier à faible redshift, lorsque l'expansion est accélérée et que l'énergie noire domine l'expansion, nous souhaitons obtenir les meilleures contraintes sur le taux de croissance des structures. Ces mesures peuvent être réalisées en combinant les positions des galaxies et leurs vitesses. Les propriétés statistiques du champ de densité et de vitesse sont étroitement liées au modèle cosmologique sous-jacent.
Expériences : La mesure des taux d'expansion et de croissance de l'Univers est le principal objectif scientifique des expériences actuelles et futures telles que l'instrument spectroscopique de l'énergie noire (DESI), le Zwicky Transient Facility (ZTF), Euclid et le Vera Rubin Observatory Legacy Survey of Space and Time (Rubin-LSST).
DESI mesure actuellement la position de 40 millions de galaxies (avec leur décalage vers le rouge) et l'échantillon de galaxies à faible décalage vers le rouge sera le plus complet à ce jour.
L'étude ZTF permettra de découvrir plus de 6 000 supernovae de type Ia, dont nous pourrons déduire la vitesse des galaxies. Le projet Rubin-LSST portera ce nombre à plusieurs centaines de milliers.
Objectif de la thèse : Le candidat sélectionné travaillera à l'analyse conjointe des ensembles de données DESI et ZTF, qui contiennent des millions de galaxies et des milliers de supernovae de type Ia. Le candidat se familiarisera avec la physique et les statistiques des regroupements de galaxies, codera son propre pipeline d'analyse, le testera sur des simulations de pointe et, si possible, l'appliquera sur des données réelles. Cette thèse est proposée comme suite du stage de M2 de même nom.
Profil requis : Le candidat doit avoir un grand intérêt pour la cosmologie, les statistiques, l'analyse de données et la programmation (nous utilisons principalement python). La maîtrise de l'anglais et la capacité à travailler en équipe sont également requises.
Vingt ans après la découverte de l'accélération de l'expansion de l'univers par des mesures avec les supernovas, la sonde supernovas reste l'un des moyens les plus précis pour mesurer les paramètres de cette période récente de l'histoire de notre univers dominée par ce qu'on appelle l'énergie noire.
L'observatoire Rubin avec le relevé Large Survey of Space and Time (Rubin/LSST) sera mis en service en 2024 et fonctionnera à plein régime mi-2025. Il s'agit d'un télescope de 8,4 mètres doté d'une caméra de 3,2 milliards de pixels, la plus puissante jamais construite.
Ce télescope prendra une photo de la moitié du ciel toutes les trois nuits pendant dix ans. Ce sondage permettra de mesurer des milliards de galaxies avec une grande précision et de suivre la variation dans le temps de tous les objets transitoires. Avec de nombreuses autres études astrophysiques, ce sera une machine très puissante pour déterminer les paramètres cosmologiques à l'aide de nombreuses sondes différentes et, en particulier, elle imposera de fortes contraintes sur la nature de l'énergie noire. Le projet LSST vise à découvrir jusqu'à un demi-million de supernovae. Cette amélioration de deux à trois ordres de grandeur statistique par rapport à l'ensemble des données actuelles permettra de tester précisément les paramètres de l'énergie noire, de tester la relativité générale et imposera également de nouvelles contraintes sur l'isotropie de l'univers.
Au cours de la thèse, nous proposons de préparer puis de participer à l'analyse des premières données de supernova du LSST. La préparation se fera en utilisant les données HSC/Subsaru existantes.
L'étudiant.e participera à la mise en service de Rubin/LSST. Elle/Il aura en charge de poursuivre les développements des méthodes de deep learning pour l'identification des supernovae et de les mettre en application sur les premières observations.
Ell/Il participera ensuite aux premieres analyses utilisant les supernovae qu'elle/il aura contribué à identifier.
Le groupe LSST du CPPM est déjà impliqué dans la photométrie de précision pour LSST, avec une implication directe dans la validation des algorithmes au sein de DESC/LSST [1][2][3], et a proposé une nouvelle méthode d'apprentissage profond pour améliorer l'identification photométrique des supernovas [4] et les redshifts photométriques [5].
[1] https://www.lsst.org/content/lsst-science-drivers-reference-design-and-anticipated-data-products
[2] https://arxiv.org/abs/1211.0310
[3] https://www.lsst.org/about/dm
[4] https://arxiv.org/abs/1901.01298
[5] https://arxiv.org/abs/1806.06607
[6] https://arxiv.org/abs/1401.4064
Although the universe is well described by the concordance model ?CDM, the nature of its components, dark matter and dark energy, remains a major puzzle of modern cosmology. While historically most attention has been paid to the overdense regions, the underdense regions account for about 80 per cent of the total volume of the observable Universe and strongly influence the growth of large-scale structure. As voids are nearly devoid of matter, they have proved to be very promising objects for exploring the imprint of possible modifications of General Relativity (GR) such as f(R) gravity or extended gravity theories.
The RENOIR cosmology team at CPPM focuses on the understanding of the history and composition of our Universe, particularly on its dark components. The team is particularly involved in large spectroscopic surveys Dark Energy Spectroscopic Instrument at Mayall, US and the European space mission Euclid, that will provide the observation of 40 million of galaxies, the largest 3D map of the Universe ever made.
A promising way to probe modified gravity models is to constrain the growth of structure of the Universe using information from Redshift Space Distortions around cosmic voids. The aim of the PhD thesis is on the extraction of cosmological constraints using Alcock-Paczynski deformation information and RSD information around voids, with DESI data which started its observations in June 2021 for 5 years, and the Euclid mission that will be launched in July 2023.
A la fin des années 90, la mesure de la distance des Supernovae et du décalage vers le rouge de leur galaxies hôtes a révélé que l'expansion de l'Univers était en accélération. Plus de 20 ans après cette découverte, la nature de l'énergie noire qui serait à l'origine de ce phénomène reste inconnue.
Le modèle de concordance CDM décrit un Univers homogène et isotropes aux grandes échelles, soumis aux lois de la relativité générale (RG). Dans ce modèle, la majorité du contenu énergétique de l'Univers provient de la matière noire froide et de l'énergie noire, introduite comme une constante cosmologique. Celle-ci se comporte comme un fluide parfait avec une pression p négative, d'équation d'état p = - rho, où rho est la densité d'énergie.
Certains modèles alternatifs (cf [1] pour une revue) introduisent par exemple des champs scalaires (quintessence) dont l'évolution est responsable de l'expansion accélérée. Ces champs scalaires peuvent varier dans le temps et l'espace. Ils peuvent donc avoir une équation d'état dépendant du temps ainsi que générer des anisotropies de l'expansion.
D'autres modèles proposent de modifier la loi de la gravitation aux grandes échelles imitant le rôle de l'énergie noire.
Aujourd'hui encore, les supernovae restent l'une des sondes les plus précises pour mesurer l'expansion de l'Univers et son homogénéité. Par ailleurs, une partie du décalage vers le rouge des galaxies provient d'un effet Doppler dû à leurs vitesses particulières. On peut alors grâce aux supernovae reconstruire le champ de vitesse à grande échelle, et mesurer le taux de croissances des structures cosmiques. Cela nous permettra de tester la loi de la gravitation.
Une anisotropie de l'expansion aux grandes échelles, une modification de la RG, ou une évolution de l'équation d'état de l'énergie noire, seraient toutes des observations révolutionnaires qui remettraient en cause notre modèle actuel.
Jusqu'aujourd'hui les relevés de supernovae compilaient des données de multiples télescopes compliquant leur analyse statistique. Les relevés du Zwicky Tansient Facility (ZTF: https://www.ztf.caltech.edu/) et de l'observatoire Vera Rubin/LSST (https://www.lsst.org/) vont changer la donne. Ils couvrent la totalité du ciel et mesurent avec précision la distance de dizaines (centaines) de milliers de supernovae proches (lointaines).
Le CPPM travaille sur les données de ZTF depuis 2021 et participe à la construction et la mise en place de LSST depuis des années, en se préparant à l'arrivée des données en 2025.
Dans le groupe, nous travaillons à la calibration photométrique du relevé ZTF, indispensable pour la précision de mesure dont nous avons besoin (cf ubercalibration [2,3]). Un doctorant venant de soutenir sa thèse a développé un pipeline pour simuler ZTF et mesurer le taux de croissance des structures ([4]) et un doctorant actuel adapte cet exercice à LSST. Par ailleurs un postdoctorant vient de rejoindre le groupe pour travailler sur ZTF, et une chaire d'excellence (DARKUNI, cf. stage/thèse de Julian Bautista) étend ce travail en combinant ces données avec les données spectroscopiques de DESI.
L'objectif de la thèse est de développer et perfectionner ce pipeline d'analyse pour mesurer le taux de croissance des structures avec les données réelles de ZTF et de préparer l'analyse des données LSST.
D'autres aspects pourront s'ajouter à la thèse, comme l'étude de l'homogénéité de l'expansion, la calibration photométrique des données etc.
Il s'agit donc d'une thèse de cosmologie observationnelle, pour un-e candidat-e intéressé-e par la cosmologie et l'analyse de données.
[1] https://arxiv.org/abs/1601.06133
[2] https://arxiv.org/abs/astro-ph/0703454v2
[3] https://arxiv.org/abs/1201.2208v2
[4] https://arxiv.org/abs/2303.01198 https://snsim.readthedocs.io/
Durant la dernière décennie, l'infrarouge est devenu de plus en plus prépondérant aussi bien dans les missions spatiales que terrestres, lesquelles incluent systématiquement un instrument ou un canal en infrarouge (IR) en photo- ou spectrométrie, permettant ainsi l'observation d'objets avec des décalages vers le rouge plus importants. Un composant clé de ces instruments est le détecteur en infrarouge proche (NIR), dont les performances ont récemment atteint des niveaux proches de celles des détecteurs visibles. Actuellement, le CPPM est impliqué dans deux missions importantes comprenant des détecteurs NIR : SVOM/Colibri avec son canal IR unique au sol et le détecteur ALFA de la caméra CAGIRE, ainsi que Euclid avec son spectrophotomètre IR NISP et son réseau focal de 16 détecteurs H2RG, le plus grand réseau focal IR volant jamais construit. Un objectif fondamental de toute mission utilisant des détecteurs hybrides de pixels NIR est d'obtenir une estimation précise et non biaisée du flux, définie comme la pente du signal d'une acquisition non destructive, pixel par pixel. Pour ces deux missions, bien qu'elles aient des objectifs scientifiques et des stratégies d'observation radicalement différents (reconnaissance des sursauts gamma de haute énergie pour l'une, cartographie de galaxies de très faible flux pour l'autre), les problématiques liées aux détecteurs se chevauchent. L'évaluation du flux est à la fois critique et délicate car elle est directement influencée par les propriétés intrinsèques des détecteurs et des paramètres associés tels que le gain de conversion, l'IPC (capacité inter-pixels), la non-linéarité ou la persistance.
Dans une récente thèse de doctorat au CPPM, sur la mission Euclid, l'importance de prendre en compte les variations spatiales a été démontrée et les paramètres de performance ont été dérivés au niveau du pixel plutôt qu'au niveau du réseau, risquant sinon d'induire des biais dans la détermination des paramètres physiques fondamentaux. De plus, la nécessité de décorréler les effets induits par l'IPC et la non-linéarité dans la réponse du détecteur a conduit à adapter des méthodes existantes pour déterminer un gain de conversion par super-pixel (16*16 pixels) et à proposer des méthodes originales pour décorréler l'IPC et la non-linéarité, corrigeant ainsi les biais qu'ils introduisent dans la détermination du gain de conversion et, par conséquent, du flux.
Clairement, les corrélations observées des différents paramètres de performance requièrent une approche globale et une modélisation pour les déterminer au niveau du pixel, prenant en compte à la fois les variations et corrélations spatiales et temporelles. Ce n'est que dans ces conditions qu'il sera possible d'extraire les cartes de performance non biaisées requises pour l'étalonnage du flux.
L'objectif de ce nouveau travail est de pousser davantage la décorrélation dans une approche globale, potentiellement en développant de nouvelles méthodes et en utilisant les nouvelles stratégies offertes par l'apprentissage automatique. Plusieurs aspects de ce sujet impliquent une approche novatrice avec des avantages indéniables pour les missions présentes et futures et le traitement des données provenant des détecteurs NIR : l'analyse au niveau du pixel et la prise en compte des corrélations sont toutes deux essentielles pour une mission comme Euclid et intensives en calcul, nécessitant une optimisation des algorithmes de calcul et de la programmation ; de plus, une approche par apprentissage automatique pourrait améliorer à la fois les temps de calcul et la précision des résultats (par exemple, obtenir un gain de conversion par pixel plutôt que par super-pixel) ; les analyses seront basées sur une quantité substantielle de données provenant de deux types de détecteurs hybrides calibrés au CPPM, le détecteur ALFA de Lynred et le détecteur H2RG de Teledyne, tous deux basés sur des technologies similaires de couche sensible en MCT mais montrant des comportements clairement différents déjà observés lors des tests initiaux. La comparaison des deux détecteurs affinera les analyses et les modèles et permettra de mieux prendre en compte les comportements subtils.
Les candidats devront avoir une solide formation en instrumentation, statistiques, analyse de données et programmation en python. La thèse sera co-financée par le CNES et le CNRS.
Les différentes observations de l'Univers indiquent depuis une vingtaine d'années que l'expansion de l'Univers s'accélère. Le modèle standard de la cosmologie, connu sous le nom de modèle LCDM, décrit l'Univers comme étant composé de 27% de matière noire et de 68% d'énergie noire. Comprendre la nature de ces deux composantes énergétiques reste l'un des plus grands défis de la physique contemporaine. Les relevés de galaxies de nouvelle génération, comme Euclid ou DESI, permettront de mesurer plusieurs dizaines de millions de spectres de galaxies dans la prochaine décennie et de resserrer les contraintes sur le modèle cosmologique, ou de sonder ses alternatives comme les modèles de gravité modifiée.
Les outils les plus prometteurs pour contraindre les propriétés de l'énergie noire et de la gravité sont basés sur l'observation de grandes structures dans l'Univers. La structure de l'Univers révèle également la présence de grandes régions sous-denses, entourées de filaments de matière. Ces vides cosmiques, qui occupent près de 80% du volume de l'Univers, contiennent très peu de matière, et constituent donc un laboratoire idéal pour tester des scénarios d'énergie noire.
Le sujet de la thèse est d'extraire le signal intégré de Sachs-Wolfe (ISW) par corrélation croisée des vides cosmiques avec le fond diffus cosmologique (CMB). En effet, l'évolution temporelle des potentiels gravitationnels imprime des anisotropies secondaires dans le CMB, en plus des anisotropies primordiales du CMB générées près de la dernière surface de diffusion. Ces anisotropies supplémentaires sont causées par les interactions gravitationnelles des photons du CMB avec la structure cosmique à grande échelle en expansion. Le signal ISW est difficile à mesurer car il est très faible par rapport aux photons primordiaux du CMB. Cependant, la signature de l'effet ISW peut être observée comme un signal non nul dans la corrélation croisée entre la distribution des traceurs d'avant-plan de la matière noire (tels que les galaxies) et la température du CMB, fournissant une sonde directe de l'expansion tardive de l'Univers.
Des travaux récents (Kovacs 2021) ont montré que l'amplitude du signal ISW présente un excès par rapport aux attentes du modèle standard LCDM, au niveau 3 sigma, en particulier lorsque l'étude est appliquée à des superstructures telles que les supervoïdes.
Le projet de thèse se concentre sur l'effet ISW et la corrélation croisée entre le CMB et les vides cosmiques. Le travail de l'étudiant consistera à construire les catalogues de vides à partir des catalogues de galaxies, à développer des estimateurs et des likelihood associés à l'effet ISW et à quantifier l'impact de l'effet ISW sur les paramètres d'énergie noire et de gravité modifiée.
Le CPPM est impliqué dans les deux projets DESI et Euclid, tous deux dédiés à la mesure des paramètres cosmologiques pour contraindre l'énergie sombre et tester les modèles de gravité modifiée. DESI est un relevé de galaxies qui a débuté en 2021 pour 6 ans et qui observera près de 40 millions de spectres de galaxies jusqu'à un redshift de 3,5. La mission Euclid a été sélectionnée par l'Agence spatiale européenne (ESA) en 2011 et sera lancée en 2023 pour sonder l'Univers sur une période de 6 ans. Ces données révolutionneront notre capacité à cartographier l'Univers et à mieux comprendre la nature de l'énergie noire ou à mettre en défaut la relativité générale (GR) d'Einstein.
Il faut appliquer sur le site du CNES:
Un financement CNES/CNRS peut etre obtenu pour cette thèse.