MULTI-CLASS ADABOOST

Dans le cas d'une classification multi-class, l'utilisation de Adaboost ( vue au dessus ),  nous pose quelques problèmes. il sera difficile d'avoir une erreur de classification inférieure à 1/2 sachant  que dans le cas d'un  random guessing, l'erreur est de (K-1)/K.
D'autre variante de AdaBoost sont utilisées, parmi elles :
 

SAMME ( Stagewise Additive Modeling using a Multi-class Exponential loss function) 

Le travail fait par les auteurs de cet article est de proposer un nouvel algorithme qui fonctionne de la même façon que AdaBoost, a une  exception prés. Dans l'algorithme SAMME (figure 4 équation (1) ) on a rajouter un  log(k-1)  pour le calcule du poids du classifieur  α (m)