INTRODUCTION

Ce rapport traite sur l'article "Multi-Class AdaBoost", paru en 2009, dans la revue scientifique Statistics and its interface volume 2, publié par International Press of Boston,  une maison d'édition de libre accès, qui publie plus d'une vingtaine de revues, de divers domaines allant des mathématiques et  statistiques aux langues et histoires.  
L'article a été écrit par Ji Zhu, Hui Zou, Saharon Rosset et Trevor Hastie. Ji Zhu est professeur en statistiques à l'université du Michigan. Hui Zou est docteur en statistiques à l'université du Minnesota. Saharon Rosset est professeur agrégé au département de statistiques à l'université de Tel Aviv. Trevor Hastie est professeur en statistiques et informatique à l'université de Stanford et titulaire de la chair John A. Overdeck de sciences mathématiques.
Les auteurs nous présentent dans cet article une nouvelle méthode de classification de données en Multi-classes. Nous allons,  tout d'abord, voir  une bref introduction au Boosting, appliquée en machine learning. Dans Positionnement  nous nous  intéresseront a l'une des méthodes les plus connues qui est AdaBoost,puis nous verront l'algorithme proposé par les auteurs qui est SAMME ( Stagewise Additive Modeling using a Multi-class Exponential loss function ). Puis nous allons voir les principales contributions de cet algorithme , pour enfin, finir avec une conclusion.

CONTEXTE DE L'ARTICLE

Qu'est se que sait le boosting ? A quoi sert-il ?
Le boosting est une méthode utilisé en machine learning  qui permet d'améliorer les performances de n'importe  quel algorithme. Son principe est assez simple : elle pondère  plusieurs classifieurs ( le plus souvant faible)  pour en faire un classifieur finale plus performant et plus précis.
Un classifieur faible ( Weak classifieur ) : est un algorithme qui a une erreur de classification inférieur à celle fait au hasard.