Die passende Dateninfrastruktur als technische Voraussetzung für Big Data

Um die stetig wachsende Datenmenge eines Unternehmens im Griff zu bekommen, wird eine funktionierende Dateninfrastruktur benötigt. Diese Hard- und Softwarekomponenten ermöglichen die Nutzung von Big Data. Dieser Aspekt wird meist vom externen Dienstleister übernommen.

Um mit Big Data arbeiten zu können benötigen Unternehmen spezielle Soft- und Hardware, sodass mit Hilfe von Computer und automatisierte Datengenerierung und -analyse in Sekundenbruchteilen möglich wird. Hier finden viele Unternehmer die erste Hürde auf dem Weg zur Big Data, den ihnen fehlt eine solche Infrastruktur.

Das größte Problem liegt hierbei nicht bei den Unkosten, sondern an der Tatsache, dass viele Unternehmen mit vielen unterschiedlichen Verarbeitungsprogrammen und Speicherorten arbeiten. Dies führt zum Verlust der Orientierung innerhalb der eigenen Daten und führt dazu, dass wichtige Daten verloren gehen oder in Vergessenheit geraten. Transparenz und Standardisierung zwischen den verschiedensten Abteilungen, bilden die Grundlage für erfolgreiches Big Data Management.

Um diese Ziele zu erreichen werden sogenannte Data Laboratory und Data Lake’s herangezogen. In dieser Forschungsumgebung werden für Aufgaben neue Big-Data-Anwendungen entwickelt und verbessert. Diese entwickelten Anwendungen können dann den verschiedenen Abteilungen zur Verfügung gestellt werden. Dieses Forschungslabor bezieht alle Daten aus einem sogenannten Data Lake, dieser ist wie ein sehr großer Datenspeicher, der Daten aus unterschiedlichsten Quellen sammelt, verwaltet und analysiert. Im Vergleich dazu bezieht auch das Data Warehouse Daten aus allen Quellen, wandelt diese jedoch in Formate um, welche eine direkte Analyse möglich machen.

Bevor die Daten gesammelt werden können, müssen diese von Abteilungen erzeugt werden. So kommen im Big Data Laboratory neue Informationen von Sensoren hinzu oder Daten aus sozialen Medien oder anderen Anwendungen. Hier liegt eine weitere Aufgabe vor, welche sich viele Unternehmen stellen müssen, diese unstrukturierten Daten in ihrer Analyse so zu integrieren, dass alle Abteilungen auf diese Zugriff haben.

Sobald dieser Zugang gelegt wurde, ermöglichst es aus verschiedensten Social-Media-Statistiken, Verkaufszahlen, Produktionszahlen, Maschinendaten usw. nicht nur einzeln, sondern gleichzeitig zu betrachten, um so die Auswirkungen aufeinander analysieren zu können.

Wie kann ein Dienstleister aushelfen?

Die Big-Data-Anwendungen arbeiten größtenteils im Bereich Business-Intelligence- und Businnes-Analystics-Prozess, darüber hinaus können zusätzliche eigene Analysen neue Erkenntnisse bringen, welche wiederum in den Datenpool eingebracht werden können. Hierbei unterstützen verschiedene Arten von Dienstleistern gerne aus:

  • Software as a Service Anbieter (SaaS) bieten den Softwareteil für die Datenanalyse bereit. Hier ist die Software über ein Online-Portal zu erreichen. So werden verschiedene Tools zum Monitoring, zur Datenbereinigung oder zum erstellen von Dashboards angeboten.
  • Agenturen haben ein größeres Portfolio als die SaaS-Anbieter. Die gewähren die Qualität generierter Daten und führen ausgearbeitete Analysen durch und helfen auch bei der Planung und Umsetzung der datenbasierten Strategien.
  • Marktforschungsunternehmen haben Zugriff auf einen großen Datenpool externer Daten, welche sie bei unterschiedlichsten Analysen mit einbringen. Dies führt zu einer noch breiteren Auswertung.

Kostenpunkt für Big-Data-Lösungen

Die meistgenutzte Kerntechnologie die Open-Source-Software Hadoop, diese stellt eine Sammlung von Algorithmen bereit, welche es ermöglicht Big Data zu managen und nutzen zu können. Jedoch sind diese Algorithmen nur nutzbar, wenn auf Basis dieser Software eigene, unternehmensbezogene Programme entwickelt werden. Daher können alternativ im Bereich Big-Data-Consulting bestehende Programm oder Lizenzen eingekauft werden.