I dati errati, i dati duplicati e l'incoerenza dei dati sono un grosso problema in un sistema di database. Molti ricercatori stanno cercando di implementare e risolvere un modello specifico per la pulizia dei dati che aiuti a mantenere la qualità dei dati nel data warehouse. La qualità dei dati è un fattore critico per i sistemi di Data Warehouse e Data Integration. Migliorare la qualità dei dati è importante perché vengono utilizzati nel processo di supporto alle decisioni, che richiede dati accurati. La pulizia dei dati è il processo di identificazione e rimozione o correzione degli errori presenti nei dati. La pulizia dei dati è un prerequisito fondamentale per l'analisi delle decisioni e l'integrazione dei dati. La progettazione della base di regole è il nuovo volto della pulizia dei dati. Abbiamo quindi deciso di scegliere questa nuova tecnica e di progettare il suo modello con un algoritmo e di giustificare il modello esistente per la pulizia dei dati. L'obiettivo principale della pulizia dei dati è ridurre il tempo e la complessità del processo e aumentare la qualità e l'assenza di errori dei dati. Questo libro, quindi, fornisce una nuova metrica di successo per un amministratore di database, un programmatore professionista che lavora su DBMS e sistemi di data warehouse per migliorare la qualità dei dati nella vita reale.
Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.
Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.