Estimation dans des modèles à variables cachées - Sorbonne Université
Thèse Année : 2001

Statistical estimation for hidden variables models

Estimation dans des modèles à variables cachées

Résumé

This thesis is devoted to the inference in hidden-variables models. The Chapter 1 considers the properties of the maximum likelihood estimator (MLE) for a possibly not stationary hidden Markov model, where the hidden state space is a metric compact space, and both the transition kernel of the hidden chain and the conditional distribution of the observations depend on a parameter . For identifiable models, consistency, asymptotic normality and efficiency of the MLE is shown to follow from exponential memorylessness properties of the state prediction filter and geometric ergodicity of suitably extended Markov chains. Chapter 2 deals with a semiparametric deconvolution model. The observations come from a signal of i.i.d. random variables with common unknown density g, and a white noise sequence Gaussian centered with unknown variance \sigma^2. When \sigma is unknown, we prove that the rate of convergence for the estimation of g is seriously deteriorated: this rate is slower than (log n)^(-1/2) in regular cases. We propose an estimator of \sigma that is nearly minimax when g has a support included in some fixed compact set. We also construct a universal estimator of \sigma (i.e. without any constraint on g except the one that ensures the identifiability of the model). Chapter 3 still deals with the convolution model but assuming that the Gaussian noise has a known variance (fixed to 1). We study the estimation properties of linear functionals of g given by \int f(x)\Phi_1(y-x) g(x)dx where \Phi_1 is the noise density and f is an entirely known function. We extend the results of Taupin [2,1] when f is a polynomial or a trigonometric function, proving lower bounds for the pointwise minimax quadratic risk and for the minimax risk with respect to the L_\infinity norm, and establishing lower and upper bounds for the mimimax risk with respect to the Lp-norm when . We prove that the estimator given by Taupin [2] reaches the optimal rates when f is a polynomial function and is nearly minimax when f is a trigonometric function.
Cette thèse porte sur des problèmes d'estimation dans des modèles à variables cachées. Le Chapitre 1 est consacré à l'étude d'un modèle de Markov caché où la chaîne de Markov, non-nécessairement stationnaire, est supposée à valeurs dans un espace d'états compact et les observations dans un espace métrique séparable complet. La loi de la chaîne cachée ainsi que la loi conditionnelle dépendent d'un paramètre. Nous prouvons que l'estimateur du maximum de vraisemblance du paramètre est consistant, asymptotiquement normal et efficace. Le Chapitre 2 porte sur l'étude du modèle de convolution. Les observations sont issues d'un signal composé de variables aléatoires i.i.d. de densité inconnue g et d'un bruit blanc Gaussien centré de variance inconnue \sigma. Nous montrons que la non-connaissance de \sigma dégrade nettement la vitesse d'estimation de g : dans la plupart des cas ``réguliers'' cette vitesse est toujours plus lente que (log n)^(-1/2). Nous proposons alors un estimateur de \sigma qui est presque minimax lorsque g possède un support inclus dans un compact fixé. Nous construisons également un estimateur consistant universel de \sigma (i.e. sans contrainte sur g autre que celle d'identifiabilité du modèle). Dans le Chapitre 3, nous considérons ce même modèle de convolution mais lorsque le bruit possède une variance connue (fixée égale à 1) et nous nous intéressons aux propriétés d'estimation de fonctionnelles linéaires intégrales de de la forme \int f(x)\Phi_1(y-x) g(x)dx où \Phi_1 désigne la densité du bruit et f est une fonction connue. Nous étendons les résultats de Taupin dans le cas où la fonction f est soit une fonction polynomiale, soit un polynôme trigonométrique, en établissant des minorations du risque quadratique ponctuel et du risque par rapport à la norme infinie, ainsi que des majorations et minorations du risque par rapport à la norme p (1 \geq p <\infty). Nous montrons que l'estimateur proposé par Taupin atteint les vitesses optimales dans le cas où f est un polynôme et est presque minimax dans le cas où f est un polynôme trigonométrique, avec une perte pour le risque quadratique et pour le risque en norme infinie.
Fichier principal
Vignette du fichier
tel-00008383.pdf (965.34 Ko) Télécharger le fichier
Loading...

Dates et versions

tel-00008383 , version 1 (07-02-2005)

Identifiants

  • HAL Id : tel-00008383 , version 1

Citer

Catherine Matias. Estimation dans des modèles à variables cachées. Mathématiques [math]. Université Paris Sud - Paris XI, 2001. Français. ⟨NNT : ⟩. ⟨tel-00008383⟩
349 Consultations
323 Téléchargements

Partager

More