Fonctionnent de AdaBoost :
Adaboost fonctionne de façon itérative, il va favorisé les données mal-classées on leur mettent un poids plus important.
Dans un premier temps, on initialise les poids des données ( Wi= 1/n , avec n: nombre de données) de façon a ne pas avoir des données qui on plus d’influence que d'autres. A partir de là, nous allons choisir le classifieur le plus performant (c-a-d le classifieur qui a le moins de données mal-classées) et on calcule le poids de se classifieur α (m) . A partir de la, on calcule les nouveaux poids des données, en mettant plus de poids sur les données mal-classées. Ces étapes la se font de manière itérative. l'algorithme s’arrête si toutes les données sont bien classées, ou bien si l'erreur de classification err(m) est égalé à 1/2 ( dans le cas d'une classification binaire : on choisissant un classifieur faible on s'assure d'avoir une erreur de classification meilleur que de le faire au hasard "random guessing", donc une erreur inférieure à 1/2)