Cosmological analysis of the DESI data to constrain the nature of dark energy and general relativity
Exploitation des données du DESI Bright Galaxy Survey pour contraindre la nature de l’énergie noire et la relativité générale
Résumé
DESI (Dark Energy Spectroscopic Instrument) is a spectroscopic instrument installed on a 4m telescope at the Kitt Peak Observatory in the United States. By collecting the spectra of more than 40 million galaxies, we can calculate their radial distances and thus create a three-dimensional map of the major structures in our Universe. Since gravity is the dominant force at these scales, by measuring the speed at which matter clumps together to form structures such as galaxies, we can constrain theories of gravity. This thesis focuses on the Bright Galaxy Survey (BGS), which is DESI's densest data sample and is composed of the galaxies closest to us (z < 0.4) and the most luminous (with an apparent magnitude cut-off in the r band at r < 19.5). One problem with such a high density of galaxies at low redshift is that the information that can be extracted from a limited volume of space is also very limited. This means that the constraints on the cosmological parameters are not dominated by the statistics of the sample but by a fundamental limit linked to the amount of accessible information called the ‘cosmic variance'. However, there is a technique that allows us to get around this obstacle. This technique is known as multi-tracer analysis. It consists of dividing the data catalogue into two (or more) different sub-catalogues with different clustering properties and taking into account the spatial correlations between the different tracers, which add extra information and thus make it possible to improve the constraints on certain cosmological parameters. Another problem that arises because of the high density of the BGS is that of estimating measurement errors by means of a covariance matrix. Usually, to estimate the covariance matrix, we create thousands of cosmological simulations that must mimic the survey, thus creating several realisations of different observable universes and allowing us to estimate the errors in the measurement of 2-point statistics. Producing this thousand simulations is very costly in terms of computing time and memory. To date, only 25 such simulations exist, which is insufficient to obtain a sufficiently accurate covariance matrix. In this thesis, we propose a new method, called FitCov, which is a hybrid combination of the jackknife covariance estimation method based on data resampling and the classical method based on simulations. A third problem we encountered during the course of this thesis relates more generally to clustering analyses. In the standard approach, the information on the cosmological parameters contained in the two-point statistic is compressed in the form of intermediate parameters such as the growth rate of the structures already mentioned and the Alcock-Paczynski geometric parameters that allow us to measure the expansion rate of the universe, for example. This compression means that we lose cosmological information when analysing large structures, but it significantly speeds up the determination of cosmological parameters. In this thesis, we present a way of accelerating the inference of cosmological parameters directly from the two-point statistic, without going through the compressed parameters. To this end, we have developed a neural network that replaces the part of the analytical model that takes a long time to predict the non-linear evolution of the two-point statistic, and we have shown that our hybrid model is as accurate as the analytical model.
DESI (Dark Energy Spectroscopic Instrument, i.e. l'Instrument Spectroscopique de l'Énergie Noire) est un instrument spectroscopique attaché à un téléscope de 4m à l'observatoire Kitt Peak aux États-Unis. En collectant les spectres de plus de 40 millions de galaxies, on peut calculer leur distance radiale et ainsi créer une carte tri-dimensionnelle des grandes structures de notre Univers. Puisque la gravité est la force dominante à ces échelles, en mesurant la vitesse à laquelle la matière s'agglomère pour former des structures comme les galaxies, on peut contraindre les théories de la gravité. Cette thèse se concentre sur le relevé de galaxies brillantes (BGS), qui est l'échantillon de données le plus dense de DESI et qui est composé des galaxies les plus proches de nous (z < 0.4) et les plus lumineuses (avec une coupure en magnitude apparente dans la bande r à r < 19.5). Un problème avec une densité de galaxies aussi élevée à bas redshift est que l'information qu'on peut extraire d'un volume d'espace limité est aussi très limitée. Cela veut dire que les contraintes sur les paramètres cosmologiques ne sont pas dominées par la statistique de l'échantillon mais par une limite fondamentale liée à la quantité d'information accessible appelée 'variance cosmique'. Et pourtant, il y a une technique qui permet de contourner cet obstacle. On appelle cette technique l'analyse multi-traceur (ou "multi-tracer analysis" en anglais). Elle consiste à diviser le catalogue de données en deux (ou plusieurs) sous-catalogues différents avec des propriétés de clustering différentes et de prendre en compte les corrélations spatiales croisées entre les différents traceurs qui ajoutent une information supplémentaire, et permettent ainsi d'améliorer les contraintes sur certains paramètres cosmologiques. Un autre problème qui se pose à cause de la densité élevée du BGS est celui de l'estimation des erreurs de mesure au moyen d'une matrice de covariance. Habituellement, pour estimer la matrice de covariance, on crée des milliers de simulations cosmologiques qui doivent imiter la relevé, en créant ainsi plusieurs réalisations de différents univers observables et en nous permettant d'estimer les erreurs sur la mesure de statistiques de 2-point. Produire ce millier de simulations est très coûteux en temps de calcul et en mémoire. A ce jour, il n'en existe que 25, ce qui est insuffisant pour obtenir une matrice de covariance suffisamment précise. Dans cette thèse, nous proposons une nouvelle méthode, appelée FitCov, qui est une combinaison hybride entre la méthode d'estimation de covariance “jackknife” basée sur un échantillonnage des données, et la méthode classique basée sur des simulations.Un troisième problème que nous avons rencontré au cours de cette thèse concerne plus généralement les analyses clustering. Dans l'approche standard, on compresse l'information sur les paramètres cosmologiques contenue dans la statistique à deux-points sous la forme de paramètres intermédiaires tels que le taux de croissance des structures déjà mentionné et les paramètres géométriques d'Alcock-Paczynski qui permettent de mesurer le taux d'expansion de l'univers par exemple. Cette compression nous fait perdre de l'information cosmologique lorsque l'analyse des grandes structures, mais elle accélère significativement la détermination des paramètres cosmologiques. Dans cette thèse, nous présentons un moyen d'accélérer l'inférence des paramètres cosmologiques directement à partir de la statistique à deux points, sans passer par les paramètres compressés. Pour cela, nous avons développé un réseau de neurones qui remplace la partie du modèle analytique qui prend beaucoup de temps à prédire l'évolution non-linéaire de la statistique à deux-points et nous avons montré que notre modèle hybride est aussi précis que le modèle analytique.
Origine | Version validée par le jury (STAR) |
---|---|
licence |