Bootstrap aggregating

En intelligence artificielle, plus précisément en apprentissage automatique, le bootstrap aggregating, également appelé bagging (de bootstrap aggregating), est une méthode d'apprentissage introduite par Breiman en 1994. Il repose sur le principe de la sagesse des foules : l'idée est d'entraîner plusieurs modèles puis de produire un modèle final qui combine leurs sorties. Le bagging est un cas particulier de l'approche d'apprentissage ensembliste.

Le bagging est généralement appliqué avec un algorithme d'apprentissage d'arbres de décision : cela donne l'algorithme des forêts aléatoires. Mais il peut en fait être utilisé avec n'importe quel algorithme d'apprentissage pour produire les modèles intermédiaires : on dit que c'est un méta-algorithme.

Le bagging peut améliorer la stabilité et la précision des prédictions par rapport à un modèle obtenu à partir d'un algorithme d'apprentissage. Il aide à réduire la variance et éviter le surapprentissage.

Description de la méthode modifier

 
Une illustration du concept de bootstrap aggregating

Considérons un ensemble d'entraînement standard   de taille  . La méthode est composée de trois étapes.

  1. Le bagging commence par générer   nouveaux ensembles d'entraînement  , chacun de taille  , par échantillonnage uniforme et avec remise à partir de  . En échantillonnant avec remplacement, certaines observations peuvent être répétées dans chaque   . Si  , alors pour   grand, l'ensemble   tend à avoir la fraction   (≈63,2%) d'exemples uniques de  , le reste étant des doublons[1]. Ce type d'échantillon est appelé échantillon de bootstrap.
  2. Ensuite,   modèles sont entraînés pour chacun des   ensembles d'échantillons de bootstrap.
  3. Pour finir, la prédiction du méta-modèle est obtenue en calculant la moyenne des sorties (pour de la régression) ou par vote majoritaire (pour de la classification) des   modèles.

Résultats et applications modifier

Le bagging conduit à des «améliorations pour les procédures instables» (Breiman, 1996), qui incluent, par exemple, les réseaux de neurones artificiels, les arbres de décision et la sélection de sous-ensembles en régression linéaire (Breiman, 1994). Le bagging peut-être appliqué à la réduction de bruit au cours du pre-processing de données, avec une amélioration de l'apprentissage [2],[3].

D'un autre côté, le bagging peut légèrement dégrader les performances de méthodes stables telles que les K-plus proches voisins (Breiman, 1996).

Exemple : données sur l'ozone modifier

L'exemple suivant illustre les principes de base du principe de bagging, sur une analyse de la relation entre l'ozone et la température (données de Rousseeuw et Leroy (1986), analyse effectuée en R).

La relation entre la température et l'ozone dans cet ensemble de données est apparemment non linéaire. Pour décrire mathématiquement cette relation, des lisseurs LOESS (avec une bande passante de 0,5) sont utilisés. Au lieu de créer un seul lissage à partir de l'ensemble de données complet, 100 échantillons bootstrap des données ont été tirés. Chaque échantillon est différent de l'ensemble de données d'origine, mais lui ressemble en termes de distribution et de variabilité. Un lisseur LOESS est ajusté pour chaque échantillon de bootstrap. Des prédictions à partir de ces 100 lisseurs ont ensuite été faites sur l'ensemble des données. Les 10 premiers ajustements lisses prévus apparaissent sous forme de lignes grises dans la figure ci-dessous. On remarque que les lignes grises sont saccadées et surapprennent les données.

 

En prenant la moyenne de 100 lissages, chacun ajusté à un sous-ensemble de l'ensemble de données d'origine, on obtient un meta-estimateur (ligne rouge). Cet estimateur est plus stable et il y a moins de surapprentissage.

Histoire modifier

Le bagging (bootstrap aggregating) a été proposé par Leo Breiman en 1994[4] pour améliorer la classification en combinant des classifications d'ensembles d'entraînement générés aléatoirement.

Articles connexes modifier

Notes et références modifier

  1. Aslam, Javed A.; Popa, Raluca A.; and Rivest, Ronald L. (2007); On Estimating the Size and Confidence of a Statistical Audit, Proceedings of the Electronic Voting Technology Workshop (EVT '07), Boston, MA, 6 Août 2007. Plus généralement, pour un tirage avec remplacement de   valeurs parmi  , le nombre de tirages uniques attendu est  .
  2. Sahu, A., Runger, G., Apley, D., Image denoising with a multi-phase kernel principal component approach and an ensemble version, IEEE Applied Imagery Pattern Recognition Workshop, pp.1-7, 2011.
  3. Shinde, Amit, Anshuman Sahu, Daniel Apley, and George Runger. "Preimages for Variation Patterns from Kernel PCA and Bagging." IIE Transactions, Vol.46, Iss.5, 2014
  4. Breiman, « Bagging Predictors », Department of Statistics, University of California Berkeley, vol. Technical Report No. 421,‎ (lire en ligne, consulté le )

Voir aussi modifier