Thèse soutenue

FR  |  
EN
Accès à la thèse
Auteur / Autrice : Sébastien Loustau
Direction : Laurent Cavalier
Type : Thèse de doctorat
Discipline(s) : Mathématiques
Date : Soutenance en 2008
Etablissement(s) : Aix-Marseille 1
Ecole(s) doctorale(s) : Ecole Doctorale Mathématiques et Informatique de Marseille (Marseille)
Partenaire(s) de recherche : autre partenaire : Université de Provence. Section sciences

Mots clés

FR

Mots clés contrôlés

Résumé

FR  |  
EN

Cette thèse se concentre sur le modèle de classification binaire. Etant donné n couples de variables aléatoires indépendantes et identiquement distribuées (i. I. D. ) (Xi1, Yi), i = 1; : : : ; n de loi P, on cherche à prédire la classe Y [appartient] {- 1, +1} d'une nouvelle entrée X où (X, Y ) est de loi P. La règle de Bayes, notée f*, minimise l'erreur de généralisation R(f) = P(f(X) [différent de] Y ). Un algorithme de classification doit s'approcher de la règle de Bayes. Cette thèse suit deux axes : établir des vitesses de convergence vers la règle de Bayes et proposer des procédures adaptatives. Les méthodes de régularisation ont montré leurs intérêts pour résoudre des problèmes de classification. L'algorithme des Machines à Vecteurs de Support (SVM) est aujourd'hui le représentant le plus populaire. Dans un premier temps, cette thèse étudie les performances statistiques de cet algorithme, et considère le problème d'adaptation à la marge et à la complexité. On étend ces résultats à une nouvelle procédure de minimisation de risque empirique pénalisée sur les espaces de Besov. Enfin la dernière partie se concentre sur une nouvelle procédure de sélection de modèles : la minimisation de l'enveloppe du risque (RHM). Introduite par L. Cavalier et Y. Golubev dans le cadre des problèmes inverses, on cherche à l'appliquer au contexte de la classification.