Große Datenmengen sind nicht nur das Ergebnis der Entwicklungen im Bereich von Heimautomatisierung und des Internet of Things. Zur Auswertung von Datenmengen sind Methoden und Verfahren entstanden, die mit den Begriffen "Data Mining", "Knowledge Discovery" oder "Big Data" verknüpft sind. Der Anwender kann aus kommerziellen und Open-Source-Anwendungen wählen, die versprechen, vollkommen neue Erkenntnisse aus seinen Daten zu generieren. Vergleichbar mit einem Werkzeugkasten muss der Nutzer nur einen oder mehrere der darin zur Verfügung stehenden Algorithmen für die Datenanalyse wählen, um neue und spannende Einblicke zu erhalten. Doch ist es wirklich so einfach? Kai Jannaschk geht diesen und weiteren Fragen nach. Dazu stellt er ein Modell für ein systematisches und glaubwürdiges Data Mining vor. Weiterhin skizziert der Autor einen Ansatz zur Systematisierung von Algorithmen und Verfahren in der Datenanalyse.
Der Autor
Aktuell arbeitet Kai Jannaschk alsSoftware- und Datenbankentwickler in Industrie und Wirtschaft. Sein Aufgabengebiet umfasst die Bereiche Konzeption, Entwurf und Umsetzung von Informationssystemen sowie Strukturierung und Aufbau von Infrastrukturen für die Datenverarbeitung.
Der Autor
Aktuell arbeitet Kai Jannaschk alsSoftware- und Datenbankentwickler in Industrie und Wirtschaft. Sein Aufgabengebiet umfasst die Bereiche Konzeption, Entwurf und Umsetzung von Informationssystemen sowie Strukturierung und Aufbau von Infrastrukturen für die Datenverarbeitung.