INTRODUCTION
Ce rapport traite sur l'article "Multi-Class AdaBoost", paru en 2009, dans la revue scientifique Statistics and its interface volume 2, publié par International Press of Boston, une maison d'édition de libre accès, qui publie plus d'une vingtaine de revues, de divers domaines allant des mathématiques et statistiques aux langues et histoires.
L'article a été écrit par Ji Zhu, Hui Zou, Saharon Rosset et Trevor Hastie. Ji Zhu est professeur en statistiques à l'université du Michigan. Hui Zou est docteur en statistiques à l'université du Minnesota. Saharon Rosset est professeur agrégé au département de statistiques à l'université de Tel Aviv. Trevor Hastie est professeur en statistiques et informatique à l'université de Stanford et titulaire de la chair John A. Overdeck de sciences mathématiques.
Les auteurs nous présentent dans cet article une nouvelle méthode de classification de données en Multi-classes. Nous allons, tout d'abord, voir une bref introduction au Boosting, appliquée en machine learning. Dans Positionnement nous nous intéresseront a l'une des méthodes les plus connues qui est AdaBoost,puis nous verront l'algorithme proposé par les auteurs qui est SAMME ( Stagewise Additive Modeling using a Multi-class Exponential loss function ). Puis nous allons voir les principales contributions de cet algorithme , pour enfin, finir avec une conclusion.
CONTEXTE DE L'ARTICLE
Qu'est se que sait le boosting ? A quoi sert-il ?
Le boosting est une méthode utilisé en machine learning qui permet d'améliorer les performances de n'importe quel algorithme. Son principe est assez simple : elle pondère plusieurs classifieurs ( le plus souvant faible) pour en faire un classifieur finale plus performant et plus précis.
Un classifieur faible ( Weak classifieur ) : est un algorithme qui a une erreur de classification inférieur à celle fait au hasard.