29,99 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in 6-10 Tagen
  • Broschiertes Buch

I metodi Ensemble si basano sull'idea di combinare le previsioni di diversi classificatori per una migliore generalizzazione e per compensare le possibili carenze dei singoli predittori.Si possono distinguere due famiglie di metodi: Metodi paralleli (Bagging, Random forests) in cui il principio è quello di fare una media di diverse predizioni nella speranza di un risultato migliore in seguito alla riduzione della varianza dello stimatore medio.Metodi sequenziali (Boosting) in cui i parametri sono adattati iterativamente per produrre una miscela migliore.In questo lavoro sosteniamo che quando i…mehr

Produktbeschreibung
I metodi Ensemble si basano sull'idea di combinare le previsioni di diversi classificatori per una migliore generalizzazione e per compensare le possibili carenze dei singoli predittori.Si possono distinguere due famiglie di metodi: Metodi paralleli (Bagging, Random forests) in cui il principio è quello di fare una media di diverse predizioni nella speranza di un risultato migliore in seguito alla riduzione della varianza dello stimatore medio.Metodi sequenziali (Boosting) in cui i parametri sono adattati iterativamente per produrre una miscela migliore.In questo lavoro sosteniamo che quando i membri di un predittore fanno errori diversi è possibile ridurre gli esempi mal classificati rispetto a un singolo predittore. Le prestazioni ottenute saranno confrontate utilizzando criteri come il tasso di classificazione, la sensibilità, la specificità, il richiamo, ecc.
Autorenporträt
Marcel KATULUMBA MBIYA NGANDU è laureato in Ingegneria Informatica all'Università di Mbujimayi. Dal 2018, è assistente presso il Dipartimento di Informatica dell'Università di Mbujimayi. È un ricercatore in ingegneria del software e costruzione di programmi, sistemi informativi e intelligenza artificiale.