Los métodos de conjunto se basan en la idea de combinar las predicciones de varios clasificadores para mejorar la generalización y compensar las posibles deficiencias de los predictores individuales.Se pueden distinguir dos familias de métodos: Métodos paralelos (Bagging, Random forests) en los que el principio es promediar varias predicciones con la esperanza de obtener un mejor resultado tras la reducción de la varianza del estimador medio.Métodos secuenciales (Boosting) en los que los parámetros se adaptan iterativamente para producir una mejor mezcla.En este trabajo argumentamos que cuando los miembros de un predictor cometen errores diferentes es posible reducir los ejemplos mal clasificados en comparación con un único predictor. El rendimiento obtenido se comparará utilizando criterios como la tasa de clasificación, la sensibilidad, la especificidad, el recuerdo, etc.
Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.
Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.