Discussion:Modèle de mélange gaussien

Dernier commentaire : il y a 12 ans par Groumphy dans le sujet Évaluation
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Évaluation

modifier

Bonjour,

J'ai retiré le domaine informatique…

Groumphy (d) 9 mars 2012 à 08:24 (CET)Répondre

Original

modifier

La version initiale que je me perme de retirer:

Un modèle de mélange gaussien est une estimation de la distribution de variables aléatoires en utilisant la somme de plusieurs gaussiennes (appelées noyaux) dont la variance, la moyenne et l'amplitude sont variables. Ces paramètres sont optimisés selon un critère de maximum de vraisemblance pour approcher le plus possible la distribution recherchée. Cette procédure se fait le plus souvent via une estimation/maximisation (EM pour expectation-maximisation) qui est un algorithme itératif.

 
Deux gaussiennes forment une distribution bimodale

Problèmes de classification

modifier

Les mixtures gaussiennes sont utilisées pour les problèmes de classification. A partir des approximations gaussiennes des distributions obtenues grâce à un ensemble d'apprentissage, il est possible de déterminer une probabilité postérieure, c'est à dire d'estimer la probabilité d'appartenance d'un échantillon à une classe donnée. Plus formellement, on utilise le théorème de Bayes pour trouver la probabilité d'appartenance d'un échantillon x à la classe C :

 

On estime ainsi la distribution   grâce à la mixture gaussienne de la classe C. La probabilité   est facilement calculée en examinant la répartition des classes dans l'échantillon utilisé pour l'apprentissage du modèle. Quant à la probabilité  , elle correspond à la probabilité de trouver un échantillon x soit :

 

  est la classe d'indice j.

Variantes

modifier

Les modèles de mixture gaussienne peuvent utiliser :

  • des gaussiennes sphériques
  • des gaussiennes diagonales
  • des gaussiennes avec une matrice de covariance complète

En d'autres termes, on peut se représenter une gaussienne sphérique comme une hypersphère dont la variance (le rayon) est la même pour toutes les dimensions. Dans le cas d'une gaussienne diagonale, cette hypersphère peut devenir ellipsoïdale avec des variances qui peuvent changer sur les axes principaux. Finalement, une gaussienne avec une covariance complète peut non seulement prendre une forme ellipsoïdale sur les axes principaux mais peut également prendre n'importe quelle orientation. C'est la variante la plus flexible mais elle peut également entraîner un manque de généralisation, un problème bien connu dans les méthodes de classification sous le nom de surapprentissage.

Rilou2000 26 novembre 2005 à 10:57 (CET)Répondre

Je me suis permis de modifier les formules de Bayes qui me semblaient fausses (pas de prise en compte de x dans l'expression conditionnelle) et de corriger une faute d'orthographe.

Une explication de la façon dont on obtient des probabilités d'appartenance à une classe à partir des densités de la distribution me semble utile.

--Tarroux 27 octobre 2007 à 11:47 (CEST)Répondre

Nettoyage

modifier

J'ai réintroduit le texte ci-dessus qui était à mon avis plus pertinent. En effet, l'article avait tendance à présenter les GMM uniquement pour faire de la classification automatique (i.e classif supervisée). D'ailleurs, la section Utilisation en classification automatique a encore besoin d'être nettoyée à mon avis. D'ailleurs, le "vieux" texte qui a été déplacé sur la page de discussion n'est pas si mal... Xiawi (d) 28 juillet 2010 à 11:47 (CEST)Répondre

Revenir à la page « Modèle de mélange gaussien ».