Discussion:Estimation par noyau
Dernier commentaire : il y a 2 ans par Flox3000 dans le sujet Paramètre de lissage de la Gaussienne: intuition
Autres discussions [liste]
- Admissibilité
- Neutralité
- Droit d'auteur
- Article de qualité
- Bon article
- Lumière sur
- À faire
- Archives
- Commons
article fondamental pour comprendre l'apprentissage automatique ou les réseaux de neurones ?
modifier- mais seulement si on met l'accent sur l'a-priori caché derrière l'estimateur à noyau : a-priori que la densité est lisse, sans trop de variations brusques, i.e. de hautes fréquences (d'où le choix d'un noyau filtre passe-bas) :
- et l'idée que si le paramètre de lissage est lui-même variable en fonction du point de l'espace et donné/appris par un estimateur à noyaux (estimateurs récursifs/imbriqués) on retombe sur les réseaux de neurones non-récurrents en:feedforward neural network, i.e, un en:multilayer perceptron
- on se pose alors des question existentielles comme : comment apprendre/estimer sans a-priori alors qu'on a forcément un a-priori :
- soit directement comme le choix du noyau (avec son paramètre de lissage) soit
- soit indirectement comme le choix d'un nombre de neurones et de couches pour le perceptron multicouche
Imprécision sur le nom de variable
modifierBonjour,
Dans la section "propriétés", la définition de la variable notée 'n' n'est pas clair: s'agit-il du nombre d'éléments de l'échantillon où l'on applique la régression? Ou s'agit-il du nombre d'itération de l'algorithme de régression? Sans cette information, l'article est malheureusement peu compréhensible...
Paramètre de lissage de la Gaussienne: intuition
modifierConcernant la partie Intuition:
Il me semble que le paramètre de lissage h, qui correspond à la largeur des boites dans le cas "histogramme" devient l'écart type de la gaussienne dans le cas du noyau. Qu'en dites vous? Flox3000 (discuter) 26 avril 2022 à 10:25 (CEST)