Stages
Le CPPM accueille chaque année plus d’une dizaine de stagiaires répartis dans les différentes équipes de recherche du laboratoire. Les stages proposés par le laboratoire peuvent être de plusieurs natures :
- Stages de physique de niveau licence/master : ils sont spontanés ou obligatoires et s’adressent aux étudiants de niveau Licence et Master ayant suivi une formation de physique. Des offres précises sont déposées par les différents équipes de recherche en cours d’année.
- Stages techniques (BTS, IUT, Ingénieur) : ils font en général partie de votre cursus scolaire. Des offres précises sont déposées par les différents équipes et services en cours d’année.
- Stages de collégiens/lycéens : nous accueillons les élèves du secondaire pour des stages d’observation pendant des périodes bien définies.
Pour candidater, aux stages de physique ou aux stages techniques, vous devez joindre à votre dossier de candidature un CV, une lettre de motivation ainsi que votre dernier relevé de notes (relevé de notes de l'année précédente ou celui du dernier semestre de l'année en cours s'il est à votre disposition). Pour les stages de Master, des lettres de recommandations de vos professeurs ou anciens encadrants de stage pourront vous être demandées.
Quelle que soit la nature de votre stage, une réponse favorable d’un personnel de notre laboratoire ne vous octroiera pas l'obtention du stage au CPPM. En effet, seuls, l'accord de la direction du CPPM et l'établissement d'une convention, seront les deux conditions pour formaliser l'accueil au CPPM en tant que stagiaire.
Contacts : Timothée Theveneaux-Pelzer (stages de physique), Frédéric Hachon (stages techniques), Fabrice Feinstein et Julien Zoubian (stages pour les troisièmes), Marlon Barbero et Julien Cogan (stages pour les secondes), Jocelyne Munoz et Bérénice Fatela (partie administrative)
Stages M2
Le Centre de Physique des Particules de Marseille est une Unité Mixte de Recherche (UMR 7346) ayant pour tutelles le CNRS et Aix Marseille Université.
Les recherches conduites au CPPM sont à la croisée des deux infinis l'infiniment petit et l'infiniment grand de l'étude des composantes élémentaires de la matière à l'exploration du cosmos. La majeure partie de nos recherches se poursuivent au sein de collaborations internationales de premier plan et nos contributions sont mondialement reconnues. Nous participons à la formation des jeunes à la recherche et par la recherche, à l'enseignement universitaire, et à la valorisation de nos résultats.
Suite aux récentes évolutions dans les modes de financement de la recherche (appels à projets, Infrastructures de Recherche, recrudescence des enquêtes et évaluations, valorisation des collaborations internationales), le CPPM souhaite aujourd'hui définir une stratégie de développement de ses relations à l'international sur le long terme pour pérenniser les collaborations porteuses en cours et faire naitre de nouvelles collaborations avec des laboratoires et chercheurs émergents.
Toutes les activités du CPPM reposent sur des valeurs éthiques, déontologiques et d'intégrité, avec la dimension science et société. Le CPPM s'engage à mener des recherches dans le cadre de la science ouverte, à promouvoir la diversité et l'inclusion sur le lieu de travail et à préserver l'environnement.
The last piece of the standard model of particle physics, the Higgs boson, was discovered by the ATLAS and CMS collaborations in 2012. The newly discovered boson provides a unique possibility to search for new unknown physics beyond the Standard Model. The ATLAS group at CPPM have a leading role in detecting and studying the Higgs boson properties in several of its production and decay modes. The group is currently concentrating on the detection of the production of two Higgs bosons or two scalar bosons, a process that was never observed before.
This internship will concentrate on the study of the production of two Higgs bosons decaying to a pair of photons and a pair or b-quarks (HH->bbyy). The detection of such process is a strong proof of the Higgs self coupling and the electroweak symmetry breaking as described by the standard model. The run 3 of the LHC, currently in operation, will provide enough data (in combination with previous data) to improve the discovery potential of such process. The analysis of the run 3 data is being prepared now by a group of several institutes around the world that collaborate at CERN. The analysis will look for the HH production as described by the Standard Model as well as with beyond the Standard Model models where the Higgs self coupling is modified or where new heavy scalar particles exist and decay to a pair of Higgs bosons.
The successful candidate will work within a team of four researchers and two PhD student at CPPM. He/She will analyze the kinematic and topological distributions of the signal in order to improve the selection of signal events and separate them from the background.
Prior knowledge of programming language especially C++/root or python is an advantage but is not mandatory.
The ATLAS (http://atlas.cern) and CMS collaborations at the LHC have celebrated this year the 10th anniversary of the Higgs boson discovery, which led to a Nobel Prize for F. Englert and P. Higgs in 2013. LHC has started this year its new Run 3 data-taking period, which will allow to collect a lot of new data, in order to better characterize the Higgs boson and to possibly find evidences of new physics beyond the Standard Model. However, in order to increase by a factor 100 the amount of useful data we already have, the LHC and its detectors will be upgraded for the High-Luminosity phase of LHC (HL-LHC, 2029-2040). The ATLAS group at CPPM, building on its previous expertise, is developing a new pixel detector and the corresponding reconstruction algorithms to this end.
This high-tech detector plays a fundamental role to measure the trajectories of charged particles and to identify jets of particles stemming from the hadronization of bottom quarks. This ability, also known as b-tagging, is instrumental to the success of the ATLAS and LHC physics program and has played a major role in the past observation of the associated production mode of a Higgs boson with top quarks and in the search for the production of a pair of Higgs bosons. Recent b-tagging algorithms based on Deep-Learning techniques have already demonstrated sizeable improvements with the current Run 3 ATLAS detector and are therefore investigated also for HL-LHC.
The student will use detailed Monte-Carlo simulations to assess the b-tagging performance associated with the most recent detector simulation and investigate potential improvements for those. The project provides an opportunity for the student to get an exposure to a broad spectrum of topics: LHC physics notably the Higgs sector; basics of silicon detectors, track-finding and pattern-recognition; b-tagging algorithms based on Deep-Learning techniques. The project requires the use of existing analysis frameworks and plotting scripts, mostly based on Python. The prior knowledge of this language is desirable but not mandatory.
The last piece of the Standard Model of particle physics, the Higgs boson, was discovered by the ATLAS and CMS collaborations in 2012. The newly discovered boson provides a unique opportunity to search for unknown physics beyond the Standard Model. The ATLAS group at CPPM had a leading role in detecting and studying the Higgs boson's properties in several of its production and decay modes. The group is currently concentrating on detecting the production of two Higgs bosons or two scalar bosons decaying into a pair of photons and b-quarks (HH/SH->bbyy), a process that has never been observed before. The CPPM group also has a strong contribution to the design, production, and installation of the ATLAS liquid argon calorimeter and its electronics.
Efficient identification of photons in the ATLAS liquid argon calorimeter is essential for detecting the HH/SH->bbyy processes. The internship will focus on developing neural networks capable of identifying photons and separating them from the background, mainly consisting of hadronic jets. The candidate will build various variables describing the electromagnetic shower shape of the photon in the calorimeter and design and train a neural network to identify photons using these shower shapes. Prior knowledge of programming languages, especially C++/ROOT or Python, and machine learning tools such as Keras, is an advantage but not mandatory.
The last piece of the standard model of particle physics, the Higgs boson, was discovered by the ATLAS and CMS collaborations in 2012. Following the Higgs boson discovery, the LHC focus has shifted to identifying new physics beyond the Standard Model. The ATLAS group at CPPM have a leading role in detecting and studying the Higgs boson properties in several of its production and decay modes. The group is currently concentrating on the detection of the production of two Higgs bosons or two scalar bosons and the search for new physics with LHC data.
The internship will concentrate on developing and optimizing a neural network capable of detecting anomalies in LHC data that correspond to new physics signatures. The neural network will be trained in a unsupervised (or weekly supervised) manner so that it is sensitive to any deviation from the Standard Model regardless of the theoretical model describing the new physics. This provides a general algorithm capable of detecting unknown new physics that might exist in nature. The successful candidate will develop a neural network with an auto-encoder architecture, train it on simulated Standard Model data, and check its performance on a wide variety of simulated signal models.
Prior knowledge of programming languages (especially python) and of Neural network tools (especially Keras) is an advantage but is not mandatory.
The top priority of particle physics community for the future is the construction of a Higgs factory: An electron-positron collider, to study the Higgs boson, discovered at CERN in 2012.
The clean collision environnement provided by such colliders enables easier and more precise analysis and measurements. One of the popular options for such a factory is the Future Circular Collider (FCC), which is being evaluated by Monte Carlo methods, including detailled simulation of detectors which would be built at FCC collision points, if this project is chosen. The FCC will have a circumference of 91 km, be located 200 m under the french-swiss boarder near Geneva and hoped to start on 2045.
One of the concept-detector being evaluated is ALLEGRO. It will be equipped by a highly granular lead/nobel liquid sampling electromagnetic calorimeter. The intership is about optimising this calorimeter by looking at the performance of different options. The options are about absorber material (lead or tungestene), noble liquid (argon or krypton), front-end electronics location (inside or outside the cryostat) and cryostat material (aluminium or carbon fibers). The performace includes naturally energy resolution, but also particle flow capability, MIP tagging and detection of photons down to 200 MeV.
The trainee will determine performance of different calorimeter options by analysing simulated calorimeter response to generated particles at different energies and locations.
The Belle II detector, located at KEK in Tsukuba, Japan, is aimed at precision measurements of the properties of beauty and charm hadrons, as well as tau leptons (https://inspirehep.net/literature/1692393). The Belle II collaboration (https://www.belle2.org/) consists of more than 1,000 scientists and has been taking data since 2019. The key feature of the Belle II detector is the nearly 4? acceptance, which allows for the full reconstruction of the visible collision products and the calculation of missing energy. This enables not only the study of B-meson decays with neutrinos in the final state, which are sensitive probes of physics beyond the Standard Model, but also to obtain inclusive datasets of charm hadrons allowing novel types of precision measurements. To achieve this, reliable particle identification is required across the entire momentum range. However, currently, the reconstruction and identification efficiency of low-momentum tracks is one of the limiting factors.
Identification of charged particles at Belle II is performed by combining several methods: Cherenkov radiation, time-of-propagation measurement, as well as the energy loss in the tracking detectors (dE/dx). At low momentum, the main sensitivity comes from the energy deposit in the silicon vertex detector (SVD).
This internship will focus on improving the performance of particle identification with the SVD, as well as its calibration. The student will learn the basics of particle physics experiments, work with real data collected by Belle II using modern data analysis tools, and understand how particle identification is applied to physics measurements.
This topic is linked to the PhD topics proposed by the CPPM Belle II group, which will rely on the concepts learned and developed in this internship.
Prior knowledge of ROOT, C++, or Python is an advantage, but not mandatory.
Les processus impliquant des courants neutres changeant de saveur (FCNC), où un méson B se désintègre en une paire de leptons de charges opposées, sont des moyens puissants pour explorer la physique au-delà du Modèle Standard (SM). Notamment, la désintégration a été observée dans les expériences au LHC, et sa fraction d'embranchement mesurée est en accord avec la prédiction du SM, imposant des contraintes strictes aux théories au-delà du SM.
Les recherches sur les modes tauoniques , où B peut être un B0 ou un Bs0 sont particulièrement intéressantes en raison des indications de non-universalité de saveur des leptons, observées dans plusieurs expériences sur les processus et . Les modèles expliquant ces anomalies prédisent que la fraction d'embranchement des modes pourrait être significativement augmentée par rapport aux prédictions du SM, potentiellement de plusieurs ordres de grandeur. Peu de mesures ont été effectuées jusqu'à présent sur ces modes, mais Belle II devrait permettre des améliorations significatives.
L'expérience Belle II, située au KEK au Japon, a commencé à collecter des données en 2019 dans le but d'accumuler beaucoup plus de données que son prédécesseur, Belle. L'objectif sera d'explorer de nouvelles façons de reconstruire (plus inclusivement) le méson B (pas du signal) dans l'evenement ou de réaliser l'analyse sans reconstruire le méson B (pas du signal), en utilisant les désintégrations appropriées des taus du signal.
Activités
Analyse des données en utilisant possiblement des techniques d'apprentissage automatique.
Contexte de travail
Le stage se déroulera au CPPM, Marseille (https://www.cppm.in2p3.fr/web/en/index.html).
Informations supplémentaires
La candidature doit inclure un CV, des relevés de notes et une lettre de motivation.
Références
https://arxiv.org/abs/1808.10567
https://arxiv.org/abs/1703.02508
https://arxiv.org/abs/hep-ex/0511015
KM3NeT/ORCA (Oscillation Research with Cosmics in the Abyss) est un
télescope à neutrinos actuellement en construction à une profondeur de 2500m dans le Mer Méditerranée au large de Toulon. ORCA est optimisé pour la détection de
neutrinos atmosphériques de faible énergie (3-100 GeV) et permettra des études de précision des propriétés d'oscillation des neutrinos. ORCA fait partie de l'infrastructure de recherche multi-sites KM3NeT, qui intègre également un deuxième réseau de télescopes (en Sicile) optimisé pour la détection des neutrinos cosmiques de haute énergie.
Les premières lignes de détection ORCA fonctionnent depuis plus d'un an et fournissent des données de haute qualité. Au cours de cette stage, l'étudiant appliquera des techniques d'apprentissage automatique à l'analyse des données dans le but d'améliorer les résolutions angulaires et énergié des algorithmes de reconstruction d'événements actuels. Il est prévu que le candidat suive cette stage avec un doctorat sur la mesure des paramètres d'oscillation des neutrinos.
Links:
http://www.cppm.in2p3.fr/rubrique.php3?id_rubrique=259
La matière noire est une des grandes énigmes actuelles de la physique fondamentale. En effet, sa contribution à la masse totale de l'Univers est de 85% mais elle ne peut être expliquée dans le cadre du Modèle Standard de la physique des particules (MS). Plusieurs candidats pour la matière noire existent dans les théories au-delà du MS : c'est le cas de l'axion, un des candidats les mieux motivés car il explique aussi l'absence de violation de CP dans l'interaction forte.
La découverte des axions nécessite d'inventer de nouvelles techniques expérimentales. Plusieurs propositions ont émergé ces dernières années. Parmi celles-ci, MADMAX est l'une des seules qui est sensible au domaine en masse autour de 100 micro-eV, favorisé par la théorie. Pour cette raison, elle a attiré l'attention de la communauté scientifique depuis 2016, date à laquelle elle a été proposée. Aujourd'hui, MADMAX est une collaboration de 50 scientifiques de laboratoires allemands et français (dont le CPPM depuis 2019) et fait partie du laboratoire de recherche international DMLab installé à DESY-Hambourg. Basé sur le concept novateur d'haloscope diélectrique, MADMAX sera composé d'un booster fait de 80 disques de 1 mètre de diamètre qui doivent être positionnés à la précision du micromètre à une température de 4 degrés Kelvin et dans un champ magnétique de 9 T. Afin de réaliser ce détecteur, qui prendra des données à DESY après 2030, la collaboration MADMAX est en phase de R D. Plusieurs tests de prototypes ont été réalisés au CERN en 2024, dont certains ont été effectués pour la première fois à la température de l'hélium liquide.
Le but du stage est de participer à l'analyse de ces données et de chercher des axions dans un espace de phases encore non exploré. Ce travail s'appuiera sur l'expérience développée par le CPPM dans l'analyse des données des autres tests de prototypes, qui ont déjà donné lieu à des publications. En cas d'absence de signal, l'étudiant(e) pourra interpréter ces résultats pour mettre des contraintes sur des photons sombres (un autre candidat à la matière noire).
Plus de détails sur le groupe Matière Noire du CPPM : https://www.cppm.in2p3.fr/web/fr/recherche/physique_particules/#Mati%C3%A8re%20Noire
Le 1er juillet 2023, le satellite Euclid a été lancé avec succès à bord d'une fusée SpaceX Falcon 9 depuis Cap Canaveral et est désormais pleinement opérationnel sur orbite de halo autour du deuxième point de Lagrange du système Soleil-Terre. Au cours des six prochaines années, Euclid mènera relevé représentant 1/3 du ciel, recueillant des données inestimables pour étudier la distribution spatiale de la matière noire et lumineuse, tout apportant des éléments de réponses sur les origines de l'accélération de l'expansion de l'Univers.
Au cours des six premiers mois, des champs spécifiques ont été observés pour leur importance scientifique et pour évaluer les performances d'Euclid. Ces observations, appelées Early Release Observations (ERO), incluent des données d'imagerie spectroscopique sans fente. Ce stage se concentrera sur l'analyse des données spectroscopiques sans fente du cluster de Persée issues des donnée ERO, avec pour objectif d'extraire des spectres de cibles d'intérêts, de confirmer leur redshift afin de déterminer si elles sont gravitationnellement liées à l'amas de Persée.
Le stage nécessitera le développement et la mise en uvre de techniques de traitement d'images adaptées à la spectroscopie sans fente. Plus précisément, les tâches comprendront :
1- Identification et localisation des cibles : Actuellement, cette tâche est effectuée manuellement, en identifiant les sources d'intérêt à l'il nu sur les image. La première étape du stage consistera donc à adapter des algorithmes pour effectuer une calibration astrométrique des images de spectroscopie sans fente de manière autonome. Cette calibration permettra par la suite de localiser les objets d'intérêt sur les images en fonction de leurs coordonnées astrométriques, accélérant ainsi l'identification de leurs spectrogrammes.
2- Extraction automatisée des spectres : Une fois les cibles localisées, la tâche suivante consistera à adapter les scripts existants, utilisés pour extraire manuellement les spectrogrammes, en une chaîne de traitement autonome.
3- Décontamination et réduction du bruit : Une étape importante sera d'améliorer la chaîne d'extraction et de décontamination, qui souffre actuellement d'aliasing introduit par le binning des pixels des spectrogrammes 2D.
4- Confirmation du redshift : En utilisant les spectres nettoyés, vous travaillerez ensuite à la confirmation des redshifts des cibles en identifiant des caractéristiques spectrales clés telles que les raies d'émission ou d'absorption. Cette étape est essentielle pour déterminer si ces galaxies ou objets font partie de l'amas de Persée ou s'ils se situent en dehors de celui-ci. Comprendre les conditions physiques de ces objets à travers leur redshift permettra également une interprétation astrophysique plus approfondie.
En résumé, ce stage offrira une expérience complète en traitement de données astronomiques, se concentrant sur l'extraction autonome de spectres, la confirmation des redshifts, et l'analyse avancée des images, tout en contribuant aux objectifs scientifiques initiaux de la mission Euclid.
Vingt ans après la découverte de l'accélération de l'expansion de l'univers par des mesures avec les supernovas, la sonde supernovas reste l'un des moyens les plus précis pour mesurer les paramètres de cette période récente de l'histoire de notre univers dominée par ce qu'on appelle l'énergie noire.
L'observatoire Rubin avec le relevé Large Survey of Space and Time (Rubin/LSST) sera mis en service en 2025 et débutera officiellement fin 2025. Il s'agit d'un télescope de 8,4 mètres doté d'une caméra de 3,2 milliards de pixels, la plus puissante jamais construite.
Ce télescope prendra une photo de la moitié du ciel toutes les trois nuits pendant dix ans. Ce sondage permettra de mesurer des milliards de galaxies avec une grande précision et de suivre la variation dans le temps de tous les objets transitoires. Avec de nombreuses autres études astrophysiques, ce sera une machine très puissante pour déterminer les paramètres cosmologiques à l'aide de nombreuses sondes différentes et, en particulier, elle imposera de fortes contraintes sur la nature de l'énergie noire. Le projet LSST vise à découvrir jusqu'à un demi-million de supernovae. Cette amélioration de deux à trois ordres de grandeur statistique par rapport à l'ensemble des données actuelles permettra de tester précisément les paramètres de l'énergie noire, de tester la relativité générale et imposera également de nouvelles contraintes sur l'isotropie de l'univers.
Dans ce stage de Master 2, nous proposons d'analyser les premières images Rubin/LSST en utilisant le logiciel LSST et notre méthode d'apprentissage profond pour l'identification des transitoires/supernovas. Le travail sera préparé et mené en parallèle sur les données HSC/Subaru existantes. En effet, les données HSC ont des caractéristiques très proches de celles que nous attendons de Rubin/LSST.
Le groupe LSST du CPPM est déjà impliqué dans la photométrie de précision pour LSST, avec une implication directe dans la validation des algorithmes au sein de DESC/LSST [1][2][3], et a proposé une nouvelle méthode d'apprentissage profond pour améliorer l'identification photométrique des supernovas [4] et les redshifts photométriques [5].
[1] https://www.lsst.org/content/lsst-science-drivers-reference-design-and-anticipated-data-products
[2] https://arxiv.org/abs/1211.0310
[3] https://www.lsst.org/about/dm
[4] https://arxiv.org/abs/1901.01298
[5] https://arxiv.org/abs/1806.06607
[6] https://arxiv.org/abs/1401.4064
A la fin des années 90, la mesure de la distance des Supernovae de type 1a (SN1a) et du décalage vers le rouge de leurs galaxies hôtes a révélé que l'expansion de l'Univers était en accélération. Plus de 20 ans après cette découverte, la nature de l'énergie noire qui serait à l'origine de ce phénomène reste inconnue.
Le modèle de concordance CDM décrit un Univers homogène et isotropes aux grandes échelles, soumis aux lois de la relativité générale (RG). Dans ce modèle, la majorité du contenu énergétique de l'Univers provient de la matière noire froide et de l'énergie noire, introduite comme une constante cosmologique. Celle-ci se comporte comme un fluide parfait avec une pression p négative, d'équation d'état p = - rho, où rho est la densité d'énergie.
Certains modèles alternatifs (cf [1] pour une revue) introduisent par exemple des champs scalaires (quintessence) dont l'évolution est responsable de l'expansion accélérée. Ces champs scalaires peuvent varier dans le temps et l'espace. Ils peuvent donc avoir une équation d'état dépendant du temps ainsi que générer des anisotropies de l'expansion.
D'autres modèles proposent de modifier la loi de la gravitation aux grandes échelles imitant le rôle de l'énergie noire.
Aujourd'hui encore, les supernovae restent l'une des sondes les plus précises pour mesurer l'expansion de l'Univers et son homogénéité. Par ailleurs, une partie du décalage vers le rouge des galaxies provient d'un effet Doppler dû à leurs vitesses particulières. On peut alors grâce aux supernovae reconstruire le champ de vitesse à grande échelle, et mesurer le taux de croissances des structures cosmiques. Cela nous permettra de tester la loi de la gravitation.
Une anisotropie de l'expansion aux grandes échelles, une modification de la RG, ou une évolution de l'équation d'état de l'énergie noire, seraient toutes des observations révolutionnaires qui remettraient en cause notre modèle actuel.
Jusqu'aujourd'hui les relevés de supernovae compilaient des données de multiples télescopes compliquant leur analyse statistique. Les relevés du Zwicky Tansient Facility (ZTF: https://www.ztf.caltech.edu/) et de l'observatoire Vera Rubin/LSST (https://www.lsst.org/) vont changer la donne. Ils couvrent la totalité du ciel et mesurent avec précision la distance de dizaines (centaines) de milliers de supernovae proches (lointaines).
Le CPPM travaille sur les données de ZTF depuis 2021, et publiera la première analyse cosmologique en 2025 avec ~3000 SN1a. Nous participons à la construction et la mise en place de LSST depuis des années, en se préparant à l'arrivée des premières données cet été.
Dans le groupe, nous travaillons à la calibration photométrique du relevé ZTF, indispensable pour la précision de mesure dont nous avons besoin (cf ubercalibration [2,3]). Un doctorant venant de soutenir sa thèse a développé un pipeline pour simuler ZTF et mesurer le taux de croissance des structures ([4]) et un doctorant actuel adapte cet exercice à LSST et un autre a débuté en 2024 pour l'analyse de 3000 SN1a de ZTF. Par ailleurs deux postdoctorants ont rejoint le groupe pour travailler sur ZTF, et une chaire d'excellence (DARKUNI de Julian Bautista) étend ce travail en combinant ces données avec les données spectroscopiques de DESI.
L'objectif de ce stage est d'adapter ce pipeline d'analyse pour mesurer le taux de croissance des structures avec la totalité des 30000 SN1a de ZTF. Il faudra alors utiliser des algorithmes de machine learning pour classifier les SN1a à partir des données photométriques [5].
Il s'agit donc d'un stage de cosmologie observationnelle, pour un-e candidat-e intéressé-e par la cosmologie et l'analyse de données.
[1] https://arxiv.org/abs/1601.06133
[2] https://arxiv.org/abs/astro-ph/0703454v2
[3] https://arxiv.org/abs/1201.2208v2
[4] https://arxiv.org/abs/2303.01198 https://snsim.readthedocs.io/
[5] https://arxiv.org/abs/2401.02945
Le contexte : Plus de vingt ans après la découverte de la nature accélérée de l'expansion de l'Univers, il n'existe toujours pas d'explication définitive de son origine physique. Plusieurs types d'énergie noire ou même des alternatives/extensions à la relativité générale ont été proposés dans la littérature pour tenter d'expliquer l'accélération de l'expansion. En mesurant avec précision les taux d'expansion de l'Univers et de la croissance des structures à grande échelle, en fonction du temps cosmique, nous pouvons en apprendre davantage sur ce mystère cosmologique. En particulier à faible redshift, lorsque l'expansion est accélérée et que l'énergie noire domine l'expansion, nous souhaitons obtenir les meilleures contraintes sur le taux de croissance des structures. Ces mesures peuvent être réalisées en combinant les positions des galaxies et leurs vitesses. Les propriétés statistiques du champ de densité et de vitesse sont étroitement liées au modèle cosmologique sous-jacent.
Expériences : La mesure des taux d'expansion et de croissance de l'Univers est le principal objectif scientifique des expériences actuelles et futures telles que l'instrument spectroscopique de l'énergie noire (DESI), le Zwicky Transient Facility (ZTF), Euclid et le Vera Rubin Observatory Legacy Survey of Space and Time (Rubin-LSST).
DESI mesure actuellement la position de 40 millions de galaxies (avec leur décalage vers le rouge) et l'échantillon de galaxies à faible décalage vers le rouge sera le plus complet à ce jour.
L'étude ZTF permettra de découvrir plus de 5 000 supernovae de type Ia, dont nous pourrons déduire la vitesse des galaxies. Le projet Rubin-LSST portera ce nombre à plusieurs centaines de milliers.
Objectif de la thèse : Le candidat sélectionné travaillera à l'analyse conjointe des ensembles de données DESI et ZTF, qui contiennent des millions de galaxies et des milliers de supernovae de type Ia. Le candidat se familiarisera avec la physique et les statistiques des regroupements de galaxies, codera son propre pipeline d'analyse, le testera sur des simulations de pointe et l'appliquera sur des données réelles. La mesure du taux de croissance des structures avec les galaxies de DESI et les vitesses de ZTF sera essentiel dans le test de la relativité générale aux échelles cosmiques. Cette étude est dans le plan de route principal des projets DESI et ZTF.
Profil requis : Le candidat doit avoir un grand intérêt pour la cosmologie, les statistiques, l'analyse de données et la programmation (nous utilisons principalement python). La maîtrise de l'anglais et la capacité à travailler en équipe sont également requises.
L'équipe de recherche imXgam conduit des activités de recherche interdisciplinaire pour les applications d'imagerie des rayonnements ionisants dans le champ de la santé et de l'énergie. Elle participe au projet PGTI (Prompt Gamma Time Imaging) financé par l'ERC, dont l'objectif est de réduire les incertitudes liées au parcours des protons lors de traitements par protonthérapie grâce au développement d'un détecteur pour l'imagerie par temps-de-vol des rayons gammas prompts (GP) créés lors de l'irradiation. Ce projet s'appuie sur le développement du détecteur TIARA (Time-of-flight Imaging Array).
La précision de la protonthérapie est aujourd'hui limitée par les incertitudes liées au parcours des protons, qui résultent de la composition des tissus du patient, des mouvements physiologiques ou des modifications transitoires de l'anatomie, et qui conduisent à utiliser de marges de sécurité importantes (jusqu'à 1 cm) pour éviter l'irradiation des tissus sains. L'imagerie des GP a pour but de permettre de contrôler en temps réel le traitement de la tumeur [1]. Pour exploiter pleinement son potentiel, un détecteur innovant de contrôle des traitements en temps réel, basé sur une imagerie des GP par temps-de-vol avec une résolution temporelle de 100 ps est proposé [2]. Ce détecteur consiste en un ensemble de convertisseurs Tcherenkov en fluorure de plomb d'environ 1 cm3 chacun entourant le volume irradié lus en coïncidence avec un moniteur de faisceau. Le principe consiste à mesurer précisément (à mieux que 100 ps) la différence de temps entre le temps de passage des protons dans le moniteur faisceau basé sur un détecteur en diamant et le temps d'arrivée des GP dans les convertisseurs Tcherenkov, qui correspond au temps-de-vol du proton entre son passage dans le moniteur faisceau jusqu'à son interaction dans les tissus suivi du temps de vol du GP émis lors de cette interaction jusqu'à sa détection par TIARA. Cette différence de temps, connaissant la position des détecteurs, contraint les coordonnés du point d'émission des GP, ce qui permet une reconstruction 3D du parcours des protons en temps réel avec une précision millimétrique [3].
Un algorithme de reconstruction 3D du parcours des protons en temps réel spécifique au détecteur TIARA et à sa physique a été développé et validé sur données analytiques et sur données Monte Carlo. L'objectif de ce stage consiste à développer et étudier les performances des méthodes d'apprentissage (machine et/ou profond) de ce problème. Dans une première partie, il s'agira de construire une base de données conséquente en exploitant la modélisation de l'expérience PGTI/TIARA sur la plateforme de simulation Monte-Carlo GEANT4 qui est déjà réalisée. Ces données devront correspondre à un benchmark réaliste. Dans un second temps, il s'agira d'utiliser cette base de données pour entraîner des réseaux de neurones qui devront être capables d'estimer le dépôt d'énergie dans le patient à partir de temps de vol. La robustesse et la précision de ces sera évaluée et comparée à un algorithme analytique déjà développé.
Ces développements utiliseront principalement les langages Python et GATE/Geant4.
Les candidats sont invités à prendre contact avec le responsable du sujet de stage en lui joignant un CV accompagné d'une lettre de motivation et des derniers relevés de notes (celui de l'année précédente ainsi que celui du semestre actuel, si disponible).
[1] J Krimmer et al., Prompt-gamma monitoring in hadrontherapy: A review, Nucl. Instrum. Methods A 878 (2018) 58-73
[2] S. Marcatili et al., Ultra-fast prompt gamma detection in single proton counting regime for range monitoring in particle therapy, Phys. Med. Biol. 65 (2020) 45033
[3] M. Jacquet et al., A time-of-flight-based reconstruction for real-time prompt-gamma imaging in protontherapy, Phys. Med. Biol. 66 (2021) 135003
L'équipe de recherche imXgam conduit des activités de recherche interdisciplinaire pour les applications d'imagerie des rayonnements ionisants dans le champ de la santé et de l'énergie. Elle participe au projet ClearMind dont l'objectif est de développer un détecteur optimisé pour les applications hautement résolues en temps, notamment pour la tomographie par émission de positons (TEP) à temps-de-vol.
La mesure du temps de vol d'une paire de photons d'annihilation, à savoir du temps séparant la détection des deux photons de 511 keV, permet de contraindre l'inversion tomographique dans une plage de rétroprojection déterminée par la précision de la mesure du temps-de-vol, qui est donnée par la résolution temporelle de la coïncidence (CTR en anglais). Sachant que la vitesse de la lumière dans le vide est de 30 cm/ns, une CTR de 10 ps FWHM permettrait de localiser l'annihilation électron-positon avec une précision de 1,5 mm FWHM, ce qui serait suffisant pour obtenir une image de la distribution des points d'annihilation virtuellement sans reconstruction et de limiter ainsi la dose nécessaire pour obtenir une qualité d'image équivalente à celle des caméras TEP clinique. Actuellement, les caméras à l'état de l'art atteignent une CTR de 215 ps FWHM. L'objectif du projet ClearMind est d'améliorer la résolution temporelle des détecteurs en utilisant un cristal scintillant de tungstate de plomb (PWO) utilisé comme fenêtre d'entrée d'un tube photomultiplicateurs à galette de micro-canaux (MCP-PMT en anglais) et de déposer une photocathode directement sur la face interne du cristal de PWO dans le but d'éviter les réflexions totales des photons de scintillation et Tcherenkov sur l'interface PWO/photocathode afin d'améliorer la collection des photons Tcherenkov dont l'émission est pratiquement instantanée lors de l'émission d'un électron photoélectrique dont la vitesse est supérieure à la vitesse de la lumière dans le PWO [1].
Il est nécessaire de déposer une couche de passivation sur le cristal de PWO afin de protéger la photocathode. Le dépôt d'une couche mince affecte la transmittance de l'interface, rendant possible une transmission frustrée des photons optiques pour des incidences supérieures à l'angle limite [2]. L'objectif du stage sera d'étudier la transmittance théorique d'une passivation multicouche entre le cristal et sa photocathode.
Les candidats sont invités à prendre contact avec le responsable du sujet de stage en lui joignant un CV accompagné d'une lettre de motivation et des derniers relevés de notes (celui de l'année précédente ainsi que celui du semestre actuel, si disponible).
[1] D. Yvon et al., Design study of a scintronic crystal targeting tens of picoseconds time resolution for gamma ray imaging: the ClearMind detector, J. Instrum. 15 (2020) P07029
[2] L. Cappellugola et al., Modelisation of light transmission through surfaces with thin film optical coating in Geant4, in Conf. Rec. IEEE NSS/MIC 2021, 16-23 Oct, Yokohama (virtual), Japan, IEEE Press
Stages M1
L'expérience MadMax cherche à démontrer l'existence d'axions, bosons scalaires initialement introduits pour expliquer naturellement l'absence de violation de la symétrie CP en Chromodynamique quantique. Le domaine de masse investigué par MadMax est entre 40 et 400 microeV. Le principe de recherche est l'induction d'un champ électromagnétique (EM) par le champ d'axions dans un champ magnétique (environ 9T). Le champ EM induit dépend de la permittivité diélectrique du milieu. La discontinuité existante aux interfaces entre des milieux différents donne lieu à la production d'une onde EM, qui pourrait être détectée. La fréquence est de l'ordre de 10-100 GHz, la puissance est de l'ordre de 10^{-24} W. La faiblesse du signal requiert un dispositif capable d'amplifier naturellement le signal: l'exploitation de plusieurs disques dielectriques dans MadMax permet d'additionner constructivement les signaux, et/ou de créer des cavités résonantes, afin d'atteindre une puissance détectable par une antenne (requérant néammoins une température de quelques Kelvins seulement, et une amplification très bas bruit). L'ensemble des calculs analytiques est détaillé référence [1]. Il s'agira ici de s'intéresser plus généralement, de façon analytique et numérique, à la génération d'une onde EM à une interface, dans un régime permanent tel que dans le cas du champ EM induit par le champ d'axion, et aussi dans un régime transitoire (émission impulsionnelle), et d'étudier la propagation/ réflexion/ transmission/ amplification dans le cas de plusieurs interfaces.
[1]:Dielectric Haloscopes to search for Axion Dark Matter: Theoretical Foundations, JCAP01(2017)061, DOI 10.1088/1475-7516/2017/01/061, Millar AJ, Raffelt GG, Redondo J, Steffen FD.
Le 1er juillet 2023, le satellite Euclid a été lancé avec succès à bord d'une fusée SpaceX Falcon 9 depuis Cap Canaveral et est désormais pleinement opérationnel sur orbite de halo autour du deuxième point de Lagrange du système Soleil-Terre. Au cours des six prochaines années, Euclid mènera relevé représentant 1/3 du ciel, recueillant des données inestimables pour étudier la distribution spatiale de la matière noire et lumineuse, tout apportant des éléments de réponses sur les origines de l'accélération de l'expansion de l'Univers.
Au cours des six premiers mois, des champs spécifiques ont été observés pour leur importance scientifique et pour évaluer les performances d'Euclid. Ces observations, appelées Early Release Observations (ERO), incluent des données d'imagerie spectroscopique sans fente. Ce stage se concentrera sur l'analyse des données spectroscopiques sans fente du cluster de Persée issues des donnée ERO, avec pour objectif d'extraire des spectres de cibles d'intérêts, de confirmer leur redshift afin de déterminer si elles sont gravitationnellement liées à l'amas de Persée.
Le stage nécessitera le développement et la mise en uvre de techniques de traitement d'images adaptées à la spectroscopie sans fente. Plus précisément, les tâches comprendront :
1- Identification et localisation des cibles : Actuellement, cette tâche est effectuée manuellement, en identifiant les sources d'intérêt à l'il nu sur les image. La première étape du stage consistera donc à adapter des algorithmes pour effectuer une calibration astrométrique des images de spectroscopie sans fente de manière autonome. Cette calibration permettra par la suite de localiser les objets d'intérêt sur les images en fonction de leurs coordonnées astrométriques, accélérant ainsi l'identification de leurs spectrogrammes.
2- Extraction automatisée des spectres : Une fois les cibles localisées, la tâche suivante consistera à adapter les scripts existants, utilisés pour extraire manuellement les spectrogrammes, en une chaîne de traitement autonome.
3- Décontamination et réduction du bruit : Une étape importante sera d'améliorer la chaîne d'extraction et de décontamination, qui souffre actuellement d'aliasing introduit par le binning des pixels des spectrogrammes 2D.
4- Confirmation du redshift : En utilisant les spectres nettoyés, vous travaillerez ensuite à la confirmation des redshifts des cibles en identifiant des caractéristiques spectrales clés telles que les raies d'émission ou d'absorption. Cette étape est essentielle pour déterminer si ces galaxies ou objets font partie de l'amas de Persée ou s'ils se situent en dehors de celui-ci. Comprendre les conditions physiques de ces objets à travers leur redshift permettra également une interprétation astrophysique plus approfondie.
En résumé, ce stage offrira une expérience complète en traitement de données astronomiques, se concentrant sur l'extraction autonome de spectres, la confirmation des redshifts, et l'analyse avancée des images, tout en contribuant aux objectifs scientifiques initiaux de la mission Euclid.
Ce projet de master se concentre sur l'étude des grandes régions sous-denses dans la distribution des galaxies dans notre univers : les vides cosmiques. Nous étudierons ces vides en utilisant des simulations cosmologiques, en collaboration avec Alice Pisani. Sur la base d'un intérêt commun et de discussions initiales, le projet se concentrera soit sur l'analyse de la distribution de la taille des vides, ainsi que sur d'autres propriétés communes comme leur forme, soit sur l'analyse de la distribution de la matière et des galaxies autour des vides par le biais de leur profil de densité. Ces statistiques peuvent être étudiées en fonction de l'impact de modèles physiques alternatifs sur ces régions, de leurs propriétés générales et universelles ou de leur dépendance vis-à-vis des paramètres cosmologiques.
Stages Techniques
Le CPPM travaille sur l'expérience ATLAS basée au CERN à Genève, collaboration internationale comprenant 3 000 scientifiques issus de 174 instituts et de 38 pays. Le projet consiste à uvrer pour l'horizon 2029 à une mise à niveau de l'électronique de lecture du calorimètre à argon liquide en réalisant un tout nouveau système d'acquisition de données et de trigger appelé le processeur LASP ( Liquid Argon Signal Processor~). Il s'agit de développer une carte au format ATCA à base de deux FPGA INTEL AGILEX, d'un contrôleur MAX10 et d'une vingtaine de modules optiques pour calculer en temps réels les énergies déposées dans le calorimètre suite aux collisions dans le LHC.
L'un des défis technologiques est de traiter une énorme quantité de données (250 Gb/s par FPGA), tout en calculant l'énergie en moins de 125 ns. L'arrivée de la carte est prévue pour mi-2024.
Activités principales
Il s'agit de développer une solution de configuration de FPGA AGILEX de INTEL à distance par protocole Ethernet. Cette solution est appelée RSU pour «~Remote System Update~». Elle comprend le développement d'un firmware VHDL spécifique, le dévéloppement de scripts de gestion capables de gérer des protocoles de communication sécurisés et de lancer le processus de configuration à distance des FPGA et de leurs mémoires FLASH associées. Ces dernières pourront stocker plusieurs configurations possibles. D'autres développements en VHDL sont également à prévoir pour ce FPGA AGILEX en fonction du temps disponible. Ce FPGA AGILEX est en interaction permanente avec un contrôleur FPGA MAX10 via des protocoles I2C et SPI pour le monitoring des températures internes ou des valeurs de configuration de modules de communication optiques. Des firmwares seront développés pour la validation de certaines fonctionnalités de la carte.
Les développements et les activités proposés concerneront~:
- Firmware de reconfiguration RSU du FPGA, utilisant l'IP «~Secure Device Manager~»
- Software de contrôle et de configuration de la mémoire Flash externe au FPGA
- Software de transfert des firmwares des FPGA via le protocole Ethernet
- Firmware utilisant les protocoles I²C et SPI pour transmettre les données de monitoring au contrôleur de type MAX 10
- Rédaction de documentation et participation aux réunions du CERN.
Connaissances requises
- Développement de firmwares FPGA en VHDL avec Quartus
- Très bonne pratique du langage Python
- Bonnes bases en électronique numérique
- Anglais pour les présentations, la documentation technique et la rédaction de rapports
Le stage de 6 mois sera conventionné et rémunéré.
Candidature par email avec référence du stage, CV et lettre de motivation
à Frédéric Hachon, hachon@cppm.in2p3.fr.
Situé à Marseille, sur le campus de Luminy au sein du Parc National des Calanques, le CPPM est un laboratoire de recherche affilié au CNRS et à Aix-Marseille Université. Il rassemble 180?Chercheurs, Ingénieurs et Doctorants qui travaillent sur des thématiques variées comme la physique des particules, l'astroparticule et la cosmologie. Fort de son expertise technologique en électronique, mécanique et informatique, le CPPM développe des systèmes de détection avancés, utilisés dans des environnements extrêmes tels que les fonds marins, l'espace ou sous terre. Les recherches s'inscrivent dans des collaborations internationales de haut niveau. L'équipe d'Ingénieurs en électronique et micro-électronique, spécialisée dans la conception et le test de systèmes électroniques de pointe, contribue à des projets phares, comme LHCb au CERN https://home.cern/fr/science/experiments/lhcb. L'expérience étudie notamment la dissymétrie matière/antimatière observée après le Big Bang.
Pour toute information complémentaire, consultez les sites cnrs.fr et du CPPM~: cppm.in2p3.fr.
Activités principales
Les détecteurs sont installés sur le grand collisionneur de hadrons (LHC) du CERN à Genève. Après avoir optimisé la granularité physique des canaux de détection, ils requièrent désormais un synchronisme avec une précision ultime en O (10) ps pic à pic afin d'assurer un alignement des données acquises en temps réel. Les techniques utilisées sont de distribuer une horloge superposée aux données de contrôle sur des liens sériels émis par des FPGA via des fibres optiques. Il s'agit donc de mettre en uvre, d'éprouver et de caractériser des gateware sur les FPGA les plus puissants de la gamme Agilex Intel/Altera. Ces gateware devront assurer une phase constante entre les reset et les redémarrages du système à l'échelle de 1 à 48 canaux sur un seul FPGA, puis sur plusieurs cartes FPGA en parallèle en tenant compte des aléas dus aux variations de température de l'environnement.
- Etude des techniques de transmission de données à phase déterministe sur FPGA
- Développement de gateware intégrant des transceivers de données sériels
- Développement de logiciels nécessaires aux tests et mesures
- Tests, mesures, caractérisation et métrologie
Profil recherché et connaissances appréciées
Les compétences suivantes seront appréciées et une formation en interne sur les outils utilisés sera assurée~:
- Utilisation d'appareils de mesure : serial data analyser, analyseur de spectres~
- Électronique, transmission de signaux rapides~; intégrité de signal
- Conception de firmware FPGA en langage VHDL en utilisant Quartus~
- Conception logicielle, langage Python (Polars, Pytest), C++
Le stage de 6 mois sera conventionné et rémunéré.
Candidature par email avec référence du stage, CV et lettre de motivation
à Frédéric Hachon, hachon@cppm.in2p3.fr.
Situé au coeur du Parc National des Calanques, sur le campus de Luminy, le CPPM est un laboratoire de recherche commun au CNRS et à Aix-Marseille Université, qui compte environ 180 chercheurs, ingénieurs et doctorants. Le laboratoire étudie des sujets allant de la physique des particules à la physique des astroparticules et à la cosmologie, avec une forte expertise technologique en électronique, mécanique, instrumentation et informatique, permettant la conception et la construction de systèmes de détection de pointe, souvent appelés à fonctionner dans des conditions extrêmes : dans les profondeurs de la mer, dans l'espace ou sous terre. La plupart de nos recherches sont menées dans le cadre de collaborations scientifiques internationales de premier plan et nos contributions sont reconnues dans le monde entier.
Activité principale
Le stagiaire travaillera au sein du service électronique du laboratoire, composé d'une vingtaine de personnes. Il aura comme objectif principal de concevoir une nouvelle infrastructure informatique en tenant compte des différents projets, des groupes de travail, des types de machines, des ressources et des besoins spécifiques pour le déploiement, l'accès et le support des outils de Conception Assistée par Ordinateur (CAO).
En intégrant le CPPM, vous contribuerez à la réalisation de projets de recherche ambitieux en physique des particules. Vous aurez l'opportunité d'évoluer dans un environnement stimulant et de participer au développement d'outils informatiques essentiels pour la recherche de pointe, tout en renforçant vos compétences dans les infrastructures informatiques modernes.
Le stagiaire devra notamment
- Analyser l'infrastructure informatique existante ;
- Proposer et concevoir une solution moderne prenant en compte les contraintes des projets de recherche ;
- Explorer des solutions d'infrastructure basées sur le Cloud, des conteneurs ou des machines virtuelles (VM), tout en garantissant l'efficacité et la flexibilité des outils utilisés par le laboratoire.
Connaissances requises
- Maîtrise de l'environnement Linux
- Compétence en script shell
- Bonne compréhension de l'architecture des systèmes informatiques et réseaux
- Connaissance des technologies de virtualisation, de conteneurisation, Cloud
Encadrement et environnement de travail :
Le stagiaire sera encadré par un ingénieur spécialisé et travaillera en collaboration étroite avec les différents service et groupes de recherche du laboratoire. Il bénéficiera d'un ordinateur de test et d'un accès aux ressources Cloud nécessaires pour mener à bien sa mission.
Le stage de 6 mois sera conventionné et rémunéré.
Candidature par email avec référence du stage, CV et lettre de motivation
à Frédéric Hachon, hachon@cppm.in2p3.fr.
Le stage se déroule au Centre de Physique des Particules de Marseille (CPPM). C'est est une unité mixte de recherche (UMR 7346) qui relève de l'IN2P3, institut regroupant les activités de physique des particules et de physique nucléaire au sein du CNRS et d'Aix-Marseille Université.
Dans le cadre du grand collisionneur à hadrons (LHC) du CERN à Genève, le CPPM participe depuis plusieurs années à l'expérience ATLAS et en particulier au développement et à la construction du détecteur interne à pixels, sous-détecteur le plus proche du point d'interaction, où les faisceaux de protons entrent en collision.
Sans les progrès de la technologie des circuits intégrés, certains projets importants du CERN n'auraient pas été réalisables ou auraient montré de faibles performances et des coûts très élevés.
L'avenir ne devrait pas être différent puisque les futurs détecteurs à pixels nécessitent l'adoption de technologies de circuits intégrés encore plus performantes et plus complexes. Le process CMOS 28~nm reste la base pour les développements futurs des pixels de type hybride pour les mises à niveau du LHC ou pour les prochaines générations de collisionneurs.
Au sein de collaborations R\&D du CERN, le CPPM contribue à la réalisation de pixels hybrides basés sur le process 28 nm visant à réduire la taille du pixel et surtout inclure de nouvelles fonctionnalités permettant d'améliorer la résolution temporelle, caractéristique essentielle qui ouvrira la voie à de nouvelles améliorations de la reconstruction des traces.
Activités principales
Le but du stage est de proposer, étudier et intégrer un circuit TDC (time to digital converter) 10 bits pour la mesure du temps d'arrivée de la charge dans le pixel. L'architecture et la conception doivent permettre de maintenir une surface réduite compatible avec la taille du pixel et montrer une consommation en accord avec les spécifications.
Le stage de 6 mois sera organisé en plusieurs étapes :
- Etude du prototype de matrice de pixels développé au CPPM en CMOS 28 nm
- Test et caractérisation de la matrice de pixels avec un TDC du commerce pour montrer la possibilité de mesure de temps d'arrivée de la charge avec la résolution temporelle inférieure à 50 ps
- Etude, conception et optimisation du circuit TDC avec le process CMOS 28 nm
- Simulation et optimisation du circuit sous Cadence Virtuoso
- Dessin des masques sous Cadence
Connaissances requises et appréciées
- Bonnes connaissances en conception de circuits analogiques CMOS
- Le développement de bancs de test basés sur des composants programmables de type FPGA est considéré comme un avantage
Possibilité de poursuite en Thèse de Doctorat
Le stage de 6 mois sera conventionné et rémunéré.
Candidature par email avec référence du stage, CV et lettre de motivation
à Frédéric Hachon, hachon@cppm.in2p3.fr.
ITER (International Thermonuclear Experimental Reactor) est un projet international de réacteur à fusion nucléaire, situé en France, dont l'objectif est de démontrer la faisabilité scientifique et technique de la fusion nucléaire comme source d'énergie. Basé sur la fusion du deutérium et du tritium, ITER cherche à reproduire sur Terre les réactions qui se déroulent au cur des étoiles. Il s'agit du plus grand projet de fusion jamais construit, rassemblant des partenaires du monde entier (UE, Russie, Japon, Chine, Inde, Corée du Sud et États-Unis).
Le système de diagnostiques XRCS (X-Ray Crystal Spectroscopy) d'ITER est un outil essentiel pour surveiller le plasma à très haute température. Il utilise la spectroscopie de rayons X pour mesurer la température et la vitesse de rotation du plasma.
Le laboratoire CPPM est engagé à réaliser un détecteur à rayons X répondant au cahier des charges du système de diagnostiques XRCS. La brique élémentaire du détecteur est un circuit intégré spécifique (ASIC) matriciel de plusieurs millions de transistors. Ce circuit opère comme un appareil photo à pixels, qui doit prendre une image de la détection des rayons X. Plusieurs contraintes de conception sont imposées sur l'électronique, comme la surface, la rapidité, la consommation et la précision.
Activité principale
Le ou la stagiaire va rejoindre l'équipe de développement du CPPM qui doit réaliser un premier prototype pour la fin 2025. Le circuit sera réalisé en technologie 65nm et contiendra des fonctions analogiques et digitales (comme un préamplificateur, un ADC, des DACs de control, un bandgap ou encore des fonctions numériques de contrôle, ou de lecture des données)
Dans un premier temps, le/la stagiaire doit mener une recherche bibliographique détaillée sur les détecteurs à pixels monolithiques et sur les fonctions générales. Ensuite, il lui sera proposé d'étudier et concevoir une des fonctions qui soit le mieux adaptée à l'application selon le cahier des charges fourni.
En fonction de l'avancement du projet, le/la stagiaire aidera l'équipe de conception à finaliser le circuit prototype.
- Etude bibliographique sur les architectures de la fonction.
- Conception, simulation sous Cadence
- Dessin des masques (Layout)
- Simulation post-layout
Connaissances requises
Bonnes connaissances en conception de circuits intégrés en technologie CMOS
Le stage de 6 mois sera conventionné et rémunéré.
Candidature par email avec référence du stage, CV et lettre de motivation
à Frédéric Hachon, hachon@cppm.in2p3.fr.
Activité principale
Les détecteurs infrarouges d'Euclid ont été développés expressément pour la mission Euclid. À la pointe de la technologie, chacun est constitué d'une matrice de 2048 x 2048 pixels. Mise en évidence lors de la calibration des détecteurs au CPPM, la persistance s'avère déjà un vrai défi pour l'extraction des données en vol. Une meilleure compréhension de cet effet complexe est indispensable. Aussi l'ingénieur/l'ingénieure-stagiaire cherchera à caractériser la persistance et à comprendre les possibles dépendances de la persistance à des paramètres comme l'amplitude du signal ou la température.
Pour ce faire, l'ingénieur ou l'ingénieure-stagiaire pourra s'appuyer sur des outils précédemment développer et qui permettent de manipuler les données disponibles. Il cherchera :
Appliquer les modèles connus de la persistance (e.g. exponentielle décroissante)
Extraire des grandeurs les constantes de temps et amplitudes à partir des données de calibration existantes
Mettre en évidence les dépendances
Connaissances requises
Base solide en programmation en langage python
Bonnes connaissances en traitement du signal
Bonnes connaissances en physique du semi-conducteur
Le stage de 4 à 6 mois sera conventionné et rémunéré.
Dans le cadre d'une infrastructure sous-marine complexe destinée à s'agrandir, nous souhaitons optimiser les futurs Noeuds, de grosses structures en titane distribuant l'énergie et les fibres optiques vers des lignes de détection à neutrinos de 200m de haut.
Ces Noeuds, immergés à 2500m de fond, auront pour base les deux structures précédemment immergées. Il s'agira de les optimiser : châssis, systèmes de connexion des interlinks opérables par sous-marin, prise en compte des évolutions imposées. L'étude doit concerner également l'aspect réalisation (contraintes, coûts, moyens, etc) et s'assurer de la conformité aux impératifs des opérations en mer.
Je me permets de vous adresser un/deux sujet de stage , il y aura certainement 2 parties/sujets
a) Faisabilité technique d'un outillage de démultiplication d'effort pour une connectique Haute tension 5000 volt AC ( Alternative Current) à 2500 m de profondeur
b) Définition détaillé d'un chassis en titane , calculs en statique sur certaine partie du chassis .
stage pour année 2025
Dans le cadre de l extension de l infrastructure KM3-Net , un manifold est en cours de conception. les efforts de connexion / deconnexion étant important un outillage est a étudier. Connaissance et pratique du logiciel CATIA fortement apprécié.
La mission Euclid (http://www.euclid-ec.org) est un projet majeur de l'ESA qui a lancé en juillet 2023 un télescope spatial dédié à la compréhension de l'Univers et réalisera une cartographie de tout le ciel. D'une précision jamais atteinte auparavant, ces mesures des grandes structures de l'Univers lointain permettront de tester le modèle cosmologique et en particulier de questionner la nature de l'énergie noire. La cartographie sera obtenue grâce au spectrophotomètre NISP et les 16 détecteurs infrarouges de son plan focal dont le CPPM a réalisé la calibration au sol, étape fondamentale pour valider les performances de l'instrument.
Activité principale
Les détecteurs infrarouges du NISP ont été développés expressément pour la mission Euclid. À la pointe de la technologie, chacun est constitué d'une matrice de 2048 x 2048 pixels. Leur calibration fine a été réalisée au CPPM et a donné lieu à l'enregistrement de 500 To de données à analyser. Ces données montrent clairement la présence de persistance qui vient polluer les données pendant plusieurs heures d'acquisition. Afin d'acquérir une meilleure compréhension du phénomène, l'ingénieur/l'ingénieure-stagiaire cherchera à caractériser la persistance et à comprendre l'influence des paramètres environnementaux sur celle-ci.
Pour ce faire, l'ingénieur/l'ingénieure-stagiaire devra~appliquer des méthodes d'analyse classiques ou plus sophistiquées suivant les étapes :
Implémenter les méthodes choisies en python
Extraire des grandeurs comme les constantes de temps et amplitudes à partir des données de calibration existantes
Analyser les corrélations entre la persistance et les données environnementales
Faire la même étude sur un détecteur de technologie différente et comparer les résultats
Connaissances requises
Base solide en programmation en langage python
Bonnes connaissances en traitement du signal
Bonnes connaissances en physique du semi-conducteur
Le stage de 6 mois sera conventionné et rémunéré. Il pourra être poursuivi en thèse avec un financement CNES (demande en cours).
Contact~: CV + lettre de motivation à
Aurélia Secroun, Ingénieure Chercheure
Tel : 04 91 82 72 15 mail : secroun@cppm.in2p3.fr
Le Centre de Physique des Particules de Marseille est une unité mixte de recherche (UMR 7346)dépendante du CNRS et d'Aix-Marseille Université, qui déploie ses activités de recherche à la fois dans le domaine de la physique fondamentale et aussi pour des applications basées sur les rayonnements ionisants.
Les circuits de satiété ou d'addiction sont pilotés dans le cerveau par des boucles de contreréaction négative ou positive utilisant des neurotransmetteurs. Ces circuits peuvent être imagés en tomographie par émission de positons (TEP) grâce au marquage de neurotransmetteurs par des ions radioactifs émetteurs de positons, comme par exemple la cocaïne marquée au 11C.
Cependant, les examens TEP requierent d'anesthésier le sujet, ce qui ne permet pas de rendre compte du comportement réel du cerveau en conditions d'éveil.
Le CPPM participe au projet MAPSSIC, qui consiste à développer une sonde intracrânienne de pixels CMOS pour l'imagerie de positons chez le rat vigile et libre de ses mouvements. La sonde IMIC, qui forme une aiguille de plusieurs centaines de pixels CMOS actifs, a été développée par l'IPHC à Strasbourg pour être implantée de manière permanente dans le cerveau d'un rat qui,muni d'un sac à dos comprenant une pile et un émetteur sans fil relié aux pixels CMOS, permettra de d'imager directement les positons émis lors de la désintégration des noyaux d'un traceur radioactif attachés aux molécules du neurotransmetteur étudié.
Activité principale :
Le (la) stagiaire sera intégré(e) au projet MAPSSIC participera à l'étude du design et à la mise en oeuvre d'une solution sans fil permettant d'assurer le contrôle-commande et la transmission des données recueillies simultanément par 4 sondes IMIC vers un PC d'acquisition. Le but du stage sera d'optimiser la consommation de courant su système. Les composants mis en jeu sont : µC stm32, nrf24 et flash winbond.
Le système principal est programmé en rust.
Cette solution sans fil devra être embarquée dans un sac à dos adapté à la corpulence d'un rat et pouvoir atteindre une autonomie de plusieurs heures correspondant à plusieurs périodes de décroissance du traceur radioactif utilisé pour marquer le neurotransmetteur.
Profil recherché :
- Pratique ou intérêt pour Rust
- Pratique du langage C/C++
- Programmation systèmes embarqués (µC) en C/C++
- Connaissance de python est un plus
Le stage de 6 mois sera rémunéré.
Licences
Le CPPM accueille des stagiaires des licences L1, L2 et L3.
Les demandes de stage de licences sont centralisées par Timothée Theveneaux-Pelzer. Pour postuler, adressez-lui une lettre de motivation, votre CV, votre dernier relevé de notes ainsi que vos coordonnées afin qu’il puisse reprendre contact avec vous. Le dossier administratif sera suivi par Bérénice Fatela.
Contacts : Timothée Theveneaux-Pelzer, Jocelyne Munoz et Bérénice Fatela
Secondaire
Nous accueillons en stage des élèves du secondaire pendant des périodes définies ci-après. Les demandes devront être motivées mais ne pourront pas être toutes retenues, compte tenu du nombre limité de places.
- pour les collégiens : une semaine en décembre (précédant les vacances de décembre)
Contacts : Bérénice Fatela, Fabrice Feinstein, Jocelyne Munoz, Julien Zoubian
- pour les élèves de 2nde : la semaine reste à déterminer (en juin)
Contacts : Marlon Barbero, Julien Cogan, Bérénice Fatela, Jocelyne Munoz
TIPE
Depuis 1998, nous accueillons au CPPM des élèves de classes préparatoires aux grandes écoles afin de les aider à effectuer leur TIPE.
La plupart d’entre eux ont obtenu, lors de leur épreuve TIPE, une note supérieure à la moyenne nationale et ont brillamment intégré une grande école.
Contact : Heide Costantini