MULTI-CLASS ADABOOST
Dans le cas d'une classification multi-class, l'utilisation de Adaboost ( vue au dessus ), nous pose quelques problèmes. il sera difficile d'avoir une erreur de classification inférieure à 1/2 sachant que dans le cas d'un random guessing, l'erreur est de (K-1)/K.
D'autre variante de AdaBoost sont utilisées, parmi elles :
- ECOC
- AdaBoost.MH
- GRADIENT BOOSTING
SAMME ( Stagewise Additive Modeling using a Multi-class Exponential loss function)
Le travail fait par les auteurs de cet article est de proposer un nouvel algorithme qui fonctionne de la même façon que AdaBoost, a une exception prés. Dans l'algorithme SAMME (figure 4 équation (1) ) on a rajouter un log(k-1) pour le calcule du poids du classifieur α (m)