. . . . "Choosing models in clustering and discriminant analysis" . "Choix de mod\u00E8les en classification" . "1997" . . "Choix de mod\u00E8les en classification" . . "Classification automatique" . . . "Text" . . "Matrices" . . . . "Algorithmes" . "Analyse de variance" . "Estimation de param\u00E8tres" . "Mod\u00E8les de m\u00E9langes gaussiens" . . . . "Analyse discriminante" . "L'objectif de ce travail de th\u00E8se, est de comparer et de proposer des m\u00E9thodes de choix de mod\u00E8les, lorsque la classification (classification automatique et discrimination) s'appuie sur un mod\u00E8le de m\u00E9lange gaussien. Les mod\u00E8les consid\u00E9r\u00E9s sont de deux sortes : les mod\u00E8les gaussiens (ensemble de contraintes sur les matrices de variance et sur les proportions) et le nombre de classes (pour la classification automatique uniquement). Un logiciel, qui regroupe plusieurs m\u00E9thodes d'estimation des param\u00E8tres du m\u00E9lange, tout en tenant compte des contraintes impos\u00E9es par le mod\u00E8le gaussien, a \u00E9t\u00E9 \u00E9crit dans le langage Splus. Ensuite, nous avons compar\u00E9, dans la cadre du choix du mod\u00E8le gaussien, bon nombre de crit\u00E8res classiques. Ces comparaisons se font avec une \\\"optique classification\\\" : le meilleur mod\u00E8le est celui qui produit la meilleure partition en classification automatique, et est celui qui produit la meilleure r\u00E8gle de classement en discrimination. En classification automatique, le crit\u00E8re AIC3 de Bozdogan donne les meilleurs r\u00E9sultats. En discrimination, deux crit\u00E8res se distinguent : le crit\u00E8re AIC3, de nouveau, ainsi que le crit\u00E8re de validation crois\u00E9e. En classification automatique, nous proposons simplement d'utiliser le crit\u00E8re de vraisemblance classifiant de Symons pour trouver le nombre de classes (le mod\u00E8le gaussien est connu). Ce crit\u00E8re tr\u00E8s simple peut s'interpr\u00E9ter comme une p\u00E9nalisation de la vraisemblance par une mesure de la classifiabilit\u00E9 des donn\u00E9es, et \u00E9galement, dans certains cas, comme une p\u00E9nalisation du c\u00E9l\u00E8bre crit\u00E8re des k-means de Sebestyen. Les nombreux essais (sur des donn\u00E9es simul\u00E9es et sur des donn\u00E9es r\u00E9elles) montrent des r\u00E9sultats tr\u00E8s encourageants, si les classes sont bien s\u00E9par\u00E9es, pour r\u00E9soudre le d\u00E9licat probl\u00E8me du nombre de classes." . . "Th\u00E8ses et \u00E9crits acad\u00E9miques" . .