Thèse de doctorat en Automatique, Productique, Signal et Image, Ingénierie cognitique
Sous la direction de Jean-François Giovannelli et de Marie Chavent.
Thèses en préparation à Bordeaux , dans le cadre de École doctorale des sciences physiques et de l’ingénieur (Talence, Gironde) , en partenariat avec Laboratoire de l'intégration du matériau au système (Talence, Gironde) (laboratoire) .
La thèse traite du problème d'échantillonnage Gaussien en grande dimension. Différentes solutions ont déjà été proposées pour résoudre ce problème, notamment l'échantillonnage indépendant dans le domaine de Fourier pour le cas de matrices de covariance circulantes, l'approche par optimisation où un échantillon est généré en minimisant un critère quadratique perturbé ou encore l'algorithme de Hogwild qui exécute plusieurs échantillonneurs de Gibbs en parallèle. Notre algorithme pour l'échantillonnage Gaussien en grande dimension utilise une connexion récemment établie entre une classe d'échantillonneurs itératifs et les solveurs itératifs pour les systèmes d'équations linéaires. Il ne cible pas la distribution Gaussienne requise, mais cible une distribution approchante. Cependant, nous sommes en mesure de contrôler la disparité entre la distribution approchante et la distribution requise au moyen d'un seul paramètre de réglage. Nous comparons d'abord notre algorithme d'échantillonnage avec les algorithmes de Gibbs et Hogwild sur des problèmes de taille moyenne. Nous considérons différentes distributions cibles. Notre algorithme parvient à surpasser les algorithmes de Gibbs et Hogwild dans la plupart des cas. Notons que les performances de notre algorithme dépendent du paramètre de réglage. Nous comparons ensuite notre algorithme avec l'algorithme de Hogwild sur une application réelle en grande dimension, à savoir la déconvolution-interpolation d'image. L'algorithme proposé permet d'obtenir de bons résultats, alors que l'algorithme de Hogwild ne converge pas. Notons que pour des petites valeurs du paramètre de réglage, notre algorithme ne converge pas non plus. Néanmoins, une valeur convenablement choisie pour ce paramètre permet à notre échantillonneur proposé de converger et d'obtenir de bons résultats.
Efficient high-dimension Gaussian sampling based on matrix splitting. Application to Bayesian inversion.
The thesis deals with the problem of high-dimensional Gaussian sampling. Different solutions to tackle this problem have already been proposed: independent sampling in the Fourier domain for the case of circulant covariance matrices, optimisation based approaches where a sample is generated by minimizing a perturbed quadratic criterion, the Hogwild algorithm which runs several Gibbs samplers in parallel. Our algorithm for high-dimensional Gaussian sampling makes use of a recently established connection between iterative samplers and iterative solvers for systems of linear equations. It does not target the required Gaussian distribution, instead it targets an approximate distribution. However, we are able to control how far off the approximate distribution is with respect to the required one by means of a single tuning parameter. We first compare the proposed sampling algorithm with the Gibbs and Hogwild algorithms on moderately sized problems. We consider different target distributions. Our algorithm manages to outperform the Gibbs and Hogwild algorithms in most of the cases. Let us note that the performances of our algorithm are dependent on the tuning parameter. We then compare the proposed algorithm with the Hogwild algorithm on a large scale real application, namely image deconvolution-interpolation. The proposed algorithm enables us to obtain good results, whereas the Hogwild algorithm fails to converge. Let us note that for small values of the tuning parameter our algorithm fails to converge as well. Notwithstanding, a suitably chosen value for the tuning parameter enables our proposed sampler to converge and to deliver good results.