Explorative Statistik - Data Mining - Big Data
Big Data steht für den Umgang mit großen Datenvolumen (Big Data), vor allem mit besonders großen, dynamischen, schnelllebigen und/oder komplexen Massendaten, gewonnen aus einer zunehmend automatisierten dezentralen Datenerfassung (IoT), die mit den Mitteln der konventionellen Datenverarbeitung (etwa in Data Warehouse Systemen) nicht mehr verarbeitet werden können, weil eine vorab Aufbereitung der Daten (Data Cleansing), wie sie für Data Warehouse Systeme erforderlich sind, zu aufwendig wäre.
Es kommen daher neuartige (Cloud) Betriebssysteme, (Cloud) Datenspeicher und spezielle Prinzipien zur Analyse großer Datenmengen zur Anwendung, die etwa das Ziel von zusätzlichem Produktivitätswachstum verfolgen. Für die Datensicherheit und damit für die Akzeptanz von Cloud Systemen ist die Unterscheidung in private (das Unternehmen hostet die Daten im eigenen Rechenzentrum) bzw. public (AWS, Azure,..) Cloud Systeme entscheidend.
Welchen Wissensgewinn hat ein Unternehmen, den es vorher nicht hatte, bzw. was kann wirtschaftlicher erledigt werden als zuvor, wenn es in Big Data und Data Science investiert? Der Einstieg in Big Data setzt die Bereitschaft voraus, technische, rechtliche und organisatorische Möglichkeiten zu schaffen, große Datenmengen zu sammeln, abzuspeichern und zu verarbeiten. Damit diese Bereitschaft bei den Stakeholdern überhaupt entsteht, muss der Zweck bzw. der Sinn dahinter transparent gemacht werden.