Boosting

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
image illustrant les probabilités et la statistique
Cet article est une ébauche concernant les probabilités et la statistique.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Consultez la liste des tâches à accomplir en page de discussion.

Le boosting est un domaine de l'apprentissage automatique (branche de l'intelligence artificielle). C'est un principe qui regroupe de nombreux algorithmes qui s'appuient sur des ensembles de classifieurs binaires : le boosting optimise leurs performances.

Le principe est issu de la combinaison de classifieurs (appelés également hypothèses). Par itérations successives, la connaissance d'un classifieur faible - weak classifier - est ajoutée au classifieur final - strong classifier.

On appelle apprenant faible un algorithme qui fournit des classifieurs faibles, capables de reconnaître deux classes au moins aussi bien que le hasard ne le ferait (c’est-à-dire qu'il ne se trompe pas plus d'une fois sur deux en moyenne, si la distribution des classes est équilibrée). Le classifieur fourni est pondéré par la qualité de sa classification : mieux il classe, plus il sera important. Les exemples mal classés sont boostés pour qu'ils aient davantage d'importance vis-à-vis de l'apprenant faible au prochain tour, afin qu'il pallie le manque.

Un des algorithmes les plus utilisés en boosting s'appelle AdaBoost, abréviation de adaptative boosting.

Le boosting est basé sur la théorie de l'apprentissage PAC.

Principales méthodes liées au boosting[modifier | modifier le code]

Autres méthodes apparentées[modifier | modifier le code]

  • ADDEMUP
  • arcing: adaptive recombination of classifiers
  • bagging: bootstrap aggregation
  • bag-stacking: bagging plus stacking
  • cascading
  • combination of classifiers
  • committees of networks
  • consensus theory
  • cragging: cross aggregation (like k-fold cross validation)
  • dagging: disjoint-sample aggregation
  • dag-stacking: dagging plus stacking
  • divide and conquer classifiers
  • hagging: half-sample aggregation
  • mixture of experts
  • multiple classifier systems:
  • multi-stage and multi-level classifiers
  • OLC: optimal linear combination
  • pandemonium of reflective agents
  • sieving algorithms
  • stacking: feeding outputs of several models (and possibly the the

original inputs) into a second-level model

  • voting

Liens[modifier | modifier le code]