Le gaz neuronal[1],[2] est un réseau de neurones artificiel, inspiré des cartes autoadaptatives, et introduites en 1991 par Thomas Martinetz et Klaus Schulten[3]. Le gaz neuronal est un algorithme simple pour trouver une représentation optimale de données à partir de vecteurs principaux. La méthode fut appelée "gaz neuronal" parce que l'évolution des vecteurs principaux durant l'étape d'apprentissage fait penser à un gaz qui occupe un espace de façon uniforme.

Cet algorithme est appliqué à la compression de données ou à la quantification vectorielle, par exemple en reconnaissance des langues naturelles[4], en traitement d'images[5] ou à la reconnaissance de motifs. En tant qu'alternative robuste et convergente à l'algorithme K-moyennes, il peut être utilisé pour le partitionnement de données[6].

Algorithme modifier

Soit une distribution de probabilité P(x) sur des vecteurs x (les données), et un nombre fini de vecteurs principaux wi, i=1, ..., N.

À chaque étape de temps t (discret), un vecteur d'entrée x est tiré aléatoirement selon la loi P, afin d'être présenté à l'algorithme. Ensuite, les vecteurs principaux sont classés du plus proche au plus lointain de ce vecteur x : i0 sera l'indice du vecteur principal le plus proche de x, i1 l'indice du second plus proche, etc, et iN-1 représente l'indice du vecteur principal le plus éloigné de x. Enfin, chaque vecteur principal (k = 0, ..., N-1) est adapté selon la règle, dépendante de k, que voici :

 

avec ε le taux d'adaptation, et λ la taille du voisinage. Pour assurer la convergence, il est nécessaire que ε et λ soit décroissant en fonction de t (ie. décroisse quand t augmente). Après un nombre suffisant d'étapes d'adaptation, les vecteurs principaux recouvrent (et représentent) l'espace de données avec une erreur de représentation minimum (ou presque minimale).

L'étape d'adaptation présente dans l'algorithme de gaz neuronal peut être interprétée comme une descente de gradient d'une fonction de coût. En adaptant tous les vecteurs, et pas seulement le plus proche des vecteurs principaux, avec un taux d'adaptation inversement proportionnel à la distance avec le vecteur x, l'algorithme parvient à obtenir une convergence bien plus robuste que son alternative, l'algorithme des K-moyennes (même sa version en temps réel).

On peut remarquer que le modèle de gaz neuronal ne supprime jamais de nœud, mais n'en ajoute jamais non plus.

Notes et références modifier

  1. Jean-Charles Lamirel, Zied Boulila, Maha Ghribi, Pascal Cuxac et Claire François « Un nouvel algorithme incrémental de gaz neuronal croissant basé sur l’étiquetage des clusters par maximisation de vraisemblance : application au clustering des gros corpus de données textuelles hétérogènes » () (HAL hal-00614060)
    Veille Stratégique Scientifique et Technologique - VSST'2010 (Toulouse, )
  2. (en) Ingrid Falk, Making Use of Existing Lexical Resources to Build a Verbnet like Classification of French Verbs. Computation and Language [cs.CL] (thèse de doctorat), Université Nancy II, (HAL tel-00714737)
    « [...] and a probabilistic neural clustering method called Incremental Growing Neural Gas with Feature Maximisation (IGNGF) »
    « La deuxième exploite un algorithme de gaz neuronal croissant basé sur l'étiquetage des clusters par maximisation de vraisemblance (IGNGF - Incremental Growing Neural Gas with Feature maximisation) »
  3. (en) Thomas Martinetz et Klaus Schulten, « A "neural gas" network learns topologies », dans T. Kohonen, K. Mäkisara, O.Simula et J. Kangas (éds.), Artificial Neural Networks, Elsevier, (lire en ligne), p. 397–402
  4. (en) F. Curatelli et O. Mayora-Iberra « Competitive learning methods for efficient Vector Quantizations in a speech recognition environment » () (DOI 10.1007/10720076_10, S2CID 18669123)
    « (ibid.) », dans Osvaldo Cairó, L. Enrique Sucar, Francisco J. Cantú-Ortiz, MICAI 2000: Advances in artificial intelligence : Mexican International Conference on Artificial Intelligence, Acapulco, Mexico, April 2000 : proceedings, Springer (ISBN 978-3-540-67354-5), p. 109
  5. (en) Anastassia Angelopoulou, Psarrou, Jose Garcia Rodriguez et Kenneth Revett « Automatic landmarking of 2D medical shapes using the growing neural gas network » (DOI 10.1007/11569541_22, lire en ligne)
    « (ibid.) », dans Yanxi Liu, Tianzi Jiang, Changshui Zhang (éds.), Computer vision for biomedical image applications: first international workshop, CVBIA 2005, Beijing, China, October 21, 2005 : proceedings, Springer (ISBN 978-3-540-29411-5), p. 210
  6. (en) Fernando Canales et Max Chacon « Modification of the growing neural gas algorithm for cluster analysis » (DOI 10.1007/978-3-540-76725-1_71, lire en ligne)
    « (ibid.) », dans Luis Rueda, Domingo Mery, Josef Kittler, International Association for Pattern Recognition, Progress in pattern recognition, image analysis and applications: 12th Iberoamerican Congress on Pattern Recognition, CIARP 2007, Viña del Mar-Valparaiso, Chile, November 13–16, 2007 ; proceedings, Springer (ISBN 978-3-540-76724-4), p. 684–693

Voir aussi modifier

Lectures additionnelles modifier

  • (en) T. Martinetz, S. Berkovich et K. Schulten, « "Neural-gas" Network for Vector Quantization and its Application to Time-Series Prediction », IEEE-Transactions on Neural Networks, vol. 4, no 4,‎ , p. 558-569.
  • (en) T. Martinetz et K. Schulten, « Topology representing networks », Neural Networks, vol. 7, no 3,‎ , p. 507-522.

Articles connexes modifier

Liens externes modifier

  • DemoGNG est un applet Java illustrant les algorithmes de gaz neuronal, de gaz neuronal croissant, ainsi que les cartes auto-adaptative et d'autres méthodes liées à l'apprentissage efficace.
  • (en) « Neural gas », Algorithme de gaz neuronal (version du sur Internet Archive).