Fonctionnent de AdaBoost : 
Adaboost fonctionne de façon itérative, il va favorisé les données mal-classées on leur mettent un poids plus important.
Dans un premier temps, on initialise les poids des données ( Wi= 1/n ,  avec n: nombre de données)  de façon a ne pas  avoir des données qui on plus d’influence que d'autres.  A partir de là, nous allons choisir le classifieur le plus performant (c-a-d le classifieur qui a le moins de données mal-classées) et  on calcule le poids de se classifieur α (m) .  A partir de la, on calcule les nouveaux poids  des données, en mettant plus de poids sur les données mal-classées. Ces étapes la se font de manière itérative. l'algorithme s’arrête si toutes les données sont bien classées, ou bien si l'erreur de classification err(m) est égalé à 1/2   ( dans le cas d'une classification binaire : on choisissant un classifieur faible on s'assure d'avoir une erreur de classification meilleur que de le faire au hasard "random guessing", donc une erreur inférieure à 1/2)