
Studio comparativo di metodi di set per la classificazione
Applicazione di Adaboosting e Random Forest a database binari e multiclasse
Versandkostenfrei!
Versandfertig in 6-10 Tagen
28,99 €
inkl. MwSt.
PAYBACK Punkte
14 °P sammeln!
I metodi Ensemble si basano sull'idea di combinare le previsioni di diversi classificatori per una migliore generalizzazione e per compensare le possibili carenze dei singoli predittori.Si possono distinguere due famiglie di metodi: Metodi paralleli (Bagging, Random forests) in cui il principio è quello di fare una media di diverse predizioni nella speranza di un risultato migliore in seguito alla riduzione della varianza dello stimatore medio.Metodi sequenziali (Boosting) in cui i parametri sono adattati iterativamente per produrre una miscela migliore.In questo lavoro sosteniamo che quando ...
I metodi Ensemble si basano sull'idea di combinare le previsioni di diversi classificatori per una migliore generalizzazione e per compensare le possibili carenze dei singoli predittori.Si possono distinguere due famiglie di metodi: Metodi paralleli (Bagging, Random forests) in cui il principio è quello di fare una media di diverse predizioni nella speranza di un risultato migliore in seguito alla riduzione della varianza dello stimatore medio.Metodi sequenziali (Boosting) in cui i parametri sono adattati iterativamente per produrre una miscela migliore.In questo lavoro sosteniamo che quando i membri di un predittore fanno errori diversi è possibile ridurre gli esempi mal classificati rispetto a un singolo predittore. Le prestazioni ottenute saranno confrontate utilizzando criteri come il tasso di classificazione, la sensibilità, la specificità, il richiamo, ecc.