Les méthodes ensemblistes sont basées sur l'idée de combiner les prédictions de plusieurs classifieurs pour une meilleure généralisation et pour compenser les défauts éventuels de prédicteurs individuels.On distingue deux familles de méthodes : Méthodes parallèles (Bagging, Forêts aléatoires) dans lesquelles le principe est de faire la moyenne de plusieurs prédictions en espérant un meilleur résultat suite à la réduction de la variance de l'estimateur moyen. Méthodes séquentiels (Boosting) dans lesquelles les paramètres sont itérativement adaptés pour produire un meilleur mélange.Dans cet ouvrage nous affirmons que lorsque les membres d'un prédicteur commettent des erreurs différentes il est possible de réduire les exemples mal classés comparativement à un prédicteur unique. Les performances obtenues seront comparées en utilisant des critères comme le taux de classification, la sensibilité, la spécificité, le rappel, etc.