Discussion:Perceptron multicouche

Dernier commentaire : il y a 5 jours par Duboismathieu gaas dans le sujet perceptron multi-couches et rétropropagation du gradient de l'erreur
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

perceptron multi-couches et rétropropagation du gradient de l'erreur

modifier

Dans l'article, il est indiqué qu'un MLP avec une rétro-propagation du gradient de l'erreur implique que chaque neurone d'une couche est connecté à tous les neurones de la couche suivante. C'est le modèle le plus répandu, mais je ne crois pas qu'il soit obligatoire d'avoir cette connexité complète pour un MLP avec backprop.

En pratique, dans de nombreuses librairies comme FANN, on peut définir un taux de connexions entre les couches, permettant de définir la proportion de connections entre un neurone et les neurones de la couche suivante. En outre, si on applique un algo de type optimal brain damage, qui va supprimer des connections, à un MLP, cela signifierait qu'on obtiendrait autre chose qu'un MLP?

Pour moi la connexité complète entre deux couches n'est pas obligatoire. Le caractère essentiel du MLP c'est bien sa construction mutlicouches et la propagation de l'influx en "feedforward". Quand à la backprop, elle ne modifie pas la nature du MLP, mais décrit simplement la méthode d'apprentissage qui permet de régler les poids synaptiques en fonction du gradient de l'erreur.

Exacte, c'est une erreur ! Je t'enjoins à corriger l'article si tu à le temps :). Merci de l'avoir relevé. D Cat laz (discuter) 3 octobre 2022 à 14:54 (CEST)Répondre
Je me permets de donner mon avis en passant: il y a moult variations du perceptron donc les présenter toutes est compliqué; la page peut se concentrer sur une présentation détaillée du perceptron canonique et lister quelques variations; en ce qui concerne la rétropropagation, il faut renvoyer à la page Rétropropagation du gradient pour les détails. Duboismathieu gaas (discuter) 20 juin 2024 à 10:49 (CEST)Répondre

Erreur dans la description de la matrice de poids ?

modifier

D'après les conventions choisies, la matrice de poids est de taille    est la taille de la couche de sortie et   la taille de la couche d'entrée. Sauf erreur de ma part, le terme générique   représente donc le poids entre la sortie   ( ) et l'entrée   ( ). La page dit le contraire. Duboismathieu gaas (discuter) 18 juin 2024 à 18:50 (CEST)Répondre

Il me semble que la page Rétropropagation du gradient dit la même chose que moi (donc le contraire de ce qui est dit dans cette page). Duboismathieu gaas (discuter) 19 juin 2024 à 11:33 (CEST)Répondre
Revenir à la page « Perceptron multicouche ».