Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Références

modifier

Il faudrait citer le vapnik de 1991 ainsi que les travaux de Stéphane Canu (INSA ROUEN -> référence en france) qui introduit des résolution à base de points intérieurs très à la mode en ce moment lpikachu58 21 avril 2006 à 13:30 (CET)Répondre

Classification ou discrimination?

modifier

Deja, je ne connais pas du tout les SVM, d'ou une question un peu candide... Dans cet article on en parle comme d'une méthode de classification, mais on fait également allusion à un ensemble d'apprentissage (sous entendu supervisé). Alors, discrimination, classification ou ambiguité?

C'est une méthode de classification (dans sa version la plus simple, la réponse est binaire : le vecteur appartient à l'ensemble A ou non A) mais elle est supervisée (les échantillons utilisés pour l'apprentissage ont une cible : j'appartiens à l'ensemble A ou non A). Il faut voir cela comme une amélioration significative de l'algorithme du perceptron (si le vecteur en entrée a une cible qui est du mauvais côté de l'hyperplan, on effectue une rotation de l'hyperplan). En gros, les SVM reprennent cette idée et ajoutent le principe du noyau pour tenir compte des cas plus complexes. Dake* 30 novembre 2005 à 15:53 (CET)Répondre
Alors c'est une méthode de discrimination et non de classification. Rilou2000 1 décembre 2005 à 14:14 (CET).Répondre

c'est bien de la classification. ACP -> Analyse discriminante et reduction de réductions lpikachu58 21 avril 2006 à 13:30 (CET)Répondre


Pour moi, on peut séparer classification: réponse nominale non supervisé; discrimination: réponse nominale, supervisé; regression: réponse continue; supervisé et je-sais-plus-quoi (traits latents peut être): réponse continue, non supervisé (type ACP)Rilou2000 1 décembre 2005 à 16:32 (CET)Répondre

Je pense que cela dépend de la littérature. Je ne suis pas un expert dans ce domaine mais en général, on parle de classification pour les SVM. Dake* 1 décembre 2005 à 18:00 (CET)Répondre
cette ambiguité provient d'un anglicisme. Ce que les anglo-saxons appellent classification est ce que nous appelons discrimination ou classement, et ce que nous appelons classification est appelé clustering en Anglais

Refonte

modifier

J'envisage de mettre d'ici peu une version améliorée de cet article, disponible sur mon brouillon. C'est pas encore fini, mais si vous avez des remarques avant que je fasse le transfert, elles sont bienvenues. Sylenius (d) 13 janvier 2008 à 19:22 (CET)Répondre

  done Sylenius (d) 6 février 2008 à 20:47 (CET)Répondre

Cas multiclasse

modifier
Ces méthodes souffrent toutes de deux défauts. Dans la version one-versus-all, rien n'indique que les valeurs du résultat de classification des   classifieurs soient comparables (pas de normalisation, donc possibles problèmes d'échelle)[1]. De plus le problème n'est plus équilibré, par exemple avec M=10, on utilise seulement 10% d'exemples positifs pour 90% d'exemples négatifs.

Ce passage reproche au cas 'one-versus-all' des résultats possiblement non comparables cas "pas de normalisation, donc possibles problèmes d'échelle". Et bien... Rien n'interdit de normaliser les données! L'autre reproche ("on utilise seulement 10% d'exemples positifs pour 90% d'exemples négatifs") est tout aussi discutable puisque rien n'interdit non plus de ne pas utiliser tous les exemples négatifs! Le problème des classes non équilibrées est un problème à part entière en apprentissage (pour les SVM, il a été proposé entre autre les one class SVM pour y répondre)

Ce passage de l'article explique comment passer de la classification binaire au cas multiclasse de manière générale. Les deux reproches relèvent de la mise ne pratique et sont d'ailleurs plus liés à des problèmes d'apprentissage en général (normalisation des données, échantillonnage des données d'apprentissage...) que de la classification. Bref, je juge ce passage non pertinent dans ce contexte et compte l'ôter d'ici quelques temps. Xiawi (d) 23 août 2008 à 11:40 (CEST)Répondre

PS: je n'ai pas le livre de Bishop sous les yeux, mais par contre j'ai celui de Duda et Hart (seconde édition page 265).

  1. (en) Christopher M. Bishop, Pattern Recognition And Machine Learning, Springer, (ISBN 0-387-31073-8) [détail des éditions], p.338-339
effectivement les problèmes évoqués sont généraux et ne sont pas spécifiques aux svm, on devrait plutôt renvoyer à un article classification multi-classe ou qqchose du style, et détailler ici les approches liées aux svm, genre single-class svm, que tu cites. Sylenius (d) 19 juin 2009 à 22:57 (CEST)Répondre

Applications ?

modifier

Je viens de retirer une contribution traitant d'une application des SVM. Outre le fait que celle-ci était très partiuclière, pas forcément notable (pas de ref à un article scientifique...) et à la limite du TI, il ne s'agit que d'une appli parmi les quelques milliers existantes...

On peut commencer une section (ou un nouvel article...) sur les « applications des SVM » mais on n'a pas fini si l'on souhaite être exhaustifs! De plus, les SVM ne sont qu'un type de classifieur bien particulier et il s'agirait souvent d'applications d'apprentissage supervisé où d'autres classifieurs pourraient être utilisés. Bref, une telle section ne me semble pas très pertinente dans cet article (ou alors surtout pas d'inventaire à la Prévert!) Xiawi (d) 23 janvier 2011 à 16:18 (CET)Répondre

Un lien peut-être utile

modifier

Si quelqu'un suit ou reprend l'article un jour, peut-être que le lien suivant peut être utile : Formulating the Support Vector Machine Optimization Problem. --Roll-Morton (discuter) 6 juin 2017 à 10:20 (CEST)Répondre

Problème légende graphique - section "Principe général" / "Exemple" & "Marge maximale", section "Cas non séparable" / "Principe"

modifier

Bonjour, dans les sections "Principe général" / "Exemple", "Principe général" / "Marge Maximale" et "Cas non séparable : Astuce du noyau (kernel trick)" / "Principe", il me semble que le choix de nommage des dimensions du plan, soit   et  , n'est pas judicieux et prête à confusion.

En effet, dans l'introduction de la section "Principe général",   est défini comme étant la sortie, i.e la classe prédite :  . Or, sur les graphiques des sections citées précédemment, on retrouve   cette fois utilisée comme dimension/feature/variable d'entrée (potentiellement à valeurs dans  ), les classes étant représentées graphiquement par des symboles (+ et -). De même,   a été introduit comme le vecteur d'entrée contenant les observations ( , ...,  ). Sur les graphiques, il correspondrait donc plutôt à l'ensemble des points.

Étant donnée que la notation   est déjà utilisée dans le reste de l'article pour désigner les observations, je propose de remplacer   et   par   et   pour "dimension 1" et "dimension 2". Ou éventuellement par   et   (dans le même esprit que la notation usuelle  ) mais cette notation pourrait là encore créer de la confusion. Lenasrvk (discuter) 4 août 2023 à 17:16 (CEST)Répondre

Merci pour votre message. Je pense qu'il faut s'appuyer sur une ou plusieurs sources très fiables. Puis utiliser les notations de celles-ci. L'article wikipedia peut aussi discuter des diverses notations utilisées par plusieurs sources, si elles différent. Bonne journée ! Fschwarzentruber (discuter) 4 août 2023 à 18:19 (CEST)Répondre
Revenir à la page « Machine à vecteurs de support ».