Studienarbeit aus dem Jahr 2015 im Fachbereich Informatik - Wirtschaftsinformatik, Note: 1,3, Universität Regensburg (Lehrstuhl für Wirtschaftsinformatik I, Informationssysteme), Sprache: Deutsch, Abstract: Aktuell ist „Big Data“ in aller Munde. Übersetzt man Big Data aus dem Englischen, lautet dies schlicht „große Datenmengen“. Doch große Datenmengen sind weder in der IT noch in den Geschäftsprozessen eine Neuigkeit. Neu sind die Geschwindigkeit des Wachstums des globalen Datenvolumens sowie die Anforderungen, diese zu verarbeiten und zu analysieren, um einen betriebswirtschaftlichen Nutzen daraus ziehen zu können. Zwischen den Jahren 2010 und 2020 prognostiziert man unter Experten ein weltweites Wachstum des Datenvolumens um 42% pro Jahr. Dies entspricht einer Steigerung zwischen 2010 und 2020 um mehr als das 30-Fache. Die zunehmende Digitalisierung in Unternehmen, der anhaltende Trend zu Social Media, das An-wenden von mobilen Anwendungen auf Smartphones, etc. haben zur Folge, dass das Datenvolumen, welches auch verarbeitet werden muss, rasant ansteigt. Weiter wird die Integrität und Auswertung der Datenmengen immer komplexer. Es fallen nicht mehr ausschließlich strukturierte, sondern vermehrt unstrukturierte Daten an. In Summe führt dies zu völlig neuen Anforderungen an die Skalierbarkeit, Verfügbarkeit, Flexibilität und Performanz im Datenmanagement und somit an die Informationstechnologie. Relationale Datenmodelle mit SQL als Abfragesprache sind in einigen Fällen hierzu nicht mehr die erste Wahl. Nachfolgende Arbeit definiert in Kapitel zwei den Begriff Big Data und verdeutlicht das Wirkungsprinzip sowie die Relevanz für deutsche Unternehmen. Kapitel drei widmet sich aktuellen Technologiesegmenten im Big Data-Umfeld, gibt einen Überblick zur Taxonomie verwendeter Technologien und stellt abschließend zwei Architektur- und Lösungsansätze mit Big Data im Banken- und Automobilsektor vor. Zum Schluss wird die Arbeit zusammengefasst und ein Ausblick gegeben.