Un modele connexionniste utilisant un principe de longueur de description minimale : application a la detection de visages

par RAPHAEL FERAUD

Thèse de doctorat en Informatique

Sous la direction de Christian Roux.

Soutenue en 1997

à Rennes 1 .

    mots clés mots clés


  • Résumé

    Les reseaux de neurones sont des modeles statistiques, qui permettent l'apprentissage numerique par l'exemple. Un modele pour l'apprentissage d'un reseau de neurones est developpe et applique a la detection de visages. Cette approche est basee sur les reseaux de neurones autoassociatifs. Nous verrons, que pour utiliser ce type de reseau comme un estimateur, il faut faire des hypotheses tres fortes sur les donnees. En etudiant l'affaiblissement de ces hypotheses, nous presenterons notre modele, le modele generatif contraint : - generatif, puisque le but de l'apprentissage de ce reseau est d'evaluer la probabilite qu'une entree ait ete generee par le modele, - et contraint car pour ameliorer la qualite de l'estimation, certains contre-exemples sont utilises lors de l'apprentissage. Pour etendre la detection a differentes orientations du visage, trois modeles de combinaisons de ces reseaux sont proposes. Des resultats ameliorant notablement l'etat de l'art sont presentes en utilisant un melange conditionnel de ces estimateurs. Les neurones formels sont des unites de traitement de l'information. En enoncant une nouvelle formulation du principe de longueur de description minimale, basee sur la complexite de kolmogorov, nous montrerons que l'apprentissage peut se reduire a un probleme de compression de donnees. Considerons une sequence d'entrees x#n, une sequence de sorties y#n, et une sequence jointe z#n = (x#n, y#n). La question est la suivante : peut-on compresser la sequence jointe z#n plus efficacement que les sequences x#n et y#n separement ? si oui, cela veut dire que cette compression de z#n capture des dependances entre x#n et y#n. Or, c'est exactement ce que cherchent a faire les algorithmes d'apprentissage. Nous montrerons que lorsque l'on ne gagne rien a compresser conjointement x#n et y#n alors ces series sont statistiquement independantes. Une contrainte, basee sur ces developpements de la theorie de l'information, permettant de controler la faculte de generalisation d'un perceptron multicouches, est proposee.


  • Pas de résumé disponible.

Consulter en bibliothèque

La version de soutenance existe sous forme papier

Informations

  • Détails : 153 P.
  • Annexes : 90 REF.

Où se trouve cette thèse ?

  • Bibliothèque : Université de Rennes I. Service commun de la documentation. Section sciences et philosophie.
  • Disponible pour le PEB
  • Cote : TA RENNES 1997/158
Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.