I metodi Ensemble si basano sull'idea di combinare le previsioni di diversi classificatori per una migliore generalizzazione e per compensare le possibili carenze dei singoli predittori.Si possono distinguere due famiglie di metodi: Metodi paralleli (Bagging, Random forests) in cui il principio è quello di fare una media di diverse predizioni nella speranza di un risultato migliore in seguito alla riduzione della varianza dello stimatore medio.Metodi sequenziali (Boosting) in cui i parametri sono adattati iterativamente per produrre una miscela migliore.In questo lavoro sosteniamo che quando i membri di un predittore fanno errori diversi è possibile ridurre gli esempi mal classificati rispetto a un singolo predittore. Le prestazioni ottenute saranno confrontate utilizzando criteri come il tasso di classificazione, la sensibilità, la specificità, il richiamo, ecc.