Datenanalyse im Mittelstand – Wie viel Mehrwert ist durch BigData möglich?

https://pixabay.com/de/unternehmen-zeichnung-kugelschreiber-3277947/

Die Antwort auf die Frage gibt Prof. Dr. Christoph Laroque in seinem Beitrag im „Handbuch digitaler Mittelstand“. Mit dem Buch schärfen die Herausgeber das Bewusstsein kleiner und mittlerer Unternehmen für Innovation und Disruption. Neue Technologien sind dabei der stärkste Treiber und werden dem Leser anhand von Fachbeiträgen und Fallbeispielen nähergebracht. Das Fachbuch bietet so Lösungs- und Denkansätze, die helfen, die Technologien rund um Datenanalyse, künstliche Intelligenz und das IoT gewinnbringend einzusetzen oder neue Geschäftsmodelle zu entwickeln.

Das „Handbuch digitaler Mittelstand“ ist die Printausgabe des TREND REPORT / Trägermedium HANDELSBLATT.

Motivation

Trotz der als Industrie 4.0 bekannten digitalen Transformation deutscher Unternehmen ist heute ein deutlicher Missstand hinsichtlich der Datenverfügbarkeit und sinnvollen Nutzung der vorhandenen Informationen vor allem bei kleinen und mittelständischen Unternehmen zu erkennen. Als Hauptgrund zeichnen sich verschiedene Gründe ab: Neben zumeist nicht so formal standardisierten Geschäftsprozessen sind hier fehlendes IT-KnowHow und leider auch häufig die zaghafte Umsetzung fortschrittlicher Technologien zu nennen, quer über alle Funktionsbereiche hinweg.  Die Datenerfassung und -Verarbeitung ist an vielen Stellen immer noch nicht durchgehend digitalisiert und durch Medienbrüche gekennzeichnet. Dies resultiert in einer schlechten Datenqualität, sichtbar als Lücken in Datensätzen, fehlerhaften und unsauberen Daten. Dabei wäre auch oder grade hier die Möglichkeit gegeben, durch den Einsatz datengestützter Methoden die oftmals dynamische zu fällenden Entscheidungen nicht nur aus dem Bauch heraus, sondern auf Basis einer soliden Entscheidungsgrundlage zu treffen.

Angetrieben von technischen Innovationen in der Informatik stehen [in Unternehmen] immer mehr Daten zur Verfügung, die potentiell übertragen, gespeichert und analysiert werden können, um daraus nützliche Informationen als Grundlage für neue Dienste zu gewinnen“ (Wrobel et al., 2015).

Ein Kernbegriff, der hier zukünftig eine signifikante Rolle spielen wird lautet „Big Data (Analytics)“. Er bezeichnet Datenmengen, die zu groß oder vielfältig sind, die sich schnell ändern und die nur schwer mit klassischen Ansätzen der Datenverarbeitung auszuwerten sind. Die zugrunde liegenden Herausforderungen im Bereich Datenmanagement beziehen sich auf eine effiziente Speicherung, Verteilung und Bereitstellung der großen Datenmengen. Dabei geht es zum Beispiel um neue Speicherarchitekturen im Cloud-Bereich oder auch geeignete Netzwerktopologien für Datenzentren, welche Big Data-Analysen umsetzen. Im Bereich Datenanalyse sind geeignete statistische oder mathematische Algorithmen zur Modellierung und Darstellung der unterschiedlichen Daten sowie angepasste Mechanismen zur Wissensentdeckung auf großen und dynamischen Datenvolumina relevant. Grundpfeiler dieser Anwendungen sind aktuelle Standards im Bereich von Datenschutz und Datensicherheit.

Rund 30 % der in einem Unternehmen verwendeten Daten stammen nicht aus dem eigenen Unternehmen. Hinzu kommt, „dass nur noch etwa 50 % der Daten klassisch strukturierte Daten sind“ (Wrobel et al., 2015). Die größte Herausforderung stellen die aus unstrukturierten Quellen und Massendaten vollständig automatisiert extrahierten Daten dar, da deren Datenqualität nicht vorab definiert ist. Die durch den Einsatz zunehmend vernetzter Systeme im Zuge von Industrie 4.0 resultierenden Datenströme stellen durch ihre enorme Geschwindigkeit und das daraus resultierende Volumen Herausforderungen im Bereich Big Data dar. Meist ist eine Speicherung aller Daten zu vertretbaren Kosten nicht möglich. Verfahren der Datenanalyse müssen zukünftig verstärkt in verteilten Szenarien operieren können und in der Lage sein, flexibel zu entscheiden, wo (lokal oder global) welche Daten analysiert oder verworfen werden.

Datengestützte Entscheidungsunterstützung in Produktion und Logistik

Die bloße Verfügbarkeit von großen Datenmengen erzeugt aber noch lange nicht den erhofften Wettbewerbsvorteil für Unternehmen. Daten werden erst dann zum „Gold des 21. Jahrhunderts“, wenn sie zur richtigen Zeit, am richtigen Ort, in der geforderten Qualität und performant auswertbar zur Verfügung stehen. Entscheidungen, die dann auf Basis dieser Analysen getroffen werden, können die Unternehmen unterstützen, schneller auf Markt- und Kundenbedarfe zu reagieren, Trends schneller zur erkennen oder betriebsinterne Verbesserungsmaßnahmen zur Steigerung der Effizienz zu realisieren.

Die Datenanalyse stellt dabei nicht nur im Marketing und Vertrieb, sondern auch im Rahmen der Produktionsoptimierung und innerbetrieblichen Entscheidungsfindung einen Prozessschritt dar, der versucht, die verfügbaren Informationen bestmöglich zur Optimierung des Geschäftsprozesses einzusetzen. Hierfür müssen die gewonnenen Erkenntnisse angemessen analysiert, visualisiert und in die eigentliche Entscheidungsfindung einbezogen werden. Die Durchführung von Datenanalysen im Unternehmen ist dabei chronologisch und zumeist auch in sich verbessernden Zyklen aufgebaut

Um Unternehmen den Einstieg in die datengetriebene Entscheidungsunterstützung zu ermöglichen und bis dahin ungenutztes Potential aufzudecken, existieren eine Reihe von Vorgehensmodellen (bspw. KDD Modell (Fayyad et al., 1996) und CRISP-DM (Wirth, Hipp, 2000)). Auf Basis einer strategischen Zielsetzung können Kennzahlen definiert und Maßnahmen bestimmt werden. Die eigentlichen Analyseergebnisse dienen dann als Bewertungsgrundlage zur Zielerreichung der Zielgrößen oder KPIs (Key Performance Indicator).

Verschiedene Entwicklungsstufen analytischer Ansätze

Konkrete Datenanalyseverfahren lassen sich anhand ihrer Leistungsfähigkeit zur Entscheidungsunterstützung in vier verschiedene Stufen einordnen. Im Allgemeinen wird dabei zwischen deskriptiven (descriptive), diagnostischen (diagnostic), prädiktiven (predictive) und präskriptiven (prescriptive) Verfahren unterteilt (Gartner, 2012), wobei mit jeder weiteren Stufe leistungsfähigere Ansätze realisiert werden können. Wichtig zu wissen ist, dass die Stufen dabei aufeinander aufbauen. Um diagnostische Analysen zu ermöglichen, müssen Datenverfügbarkeit und Datenqualität auch deskriptive Verfahren erlauben. Die jeweiligen Verfahren adressieren unterschiedliche Fragestellungen, basieren auf unterschiedlichen Grundprinzipien und zumeist statistischen Verfahren. Je nach Analysetechnologie können die Analyseverfahren sowohl für strukturierte (Daten sind beispielsweise in Tabellen gespeichert) als auch für unstrukturierte Daten (Texte, Social Media, etc.) angewandt werden.

Den vollständigen Artikel können Sie unter www.handbuch-mittelstand.de nachlesen.

Quellenangaben

Fayyad, U.; Piatetsky-Shapiro, G.; Smyth, P. (1996): From Data Mining to Knowledge Discovery in Databases, American Association for Artificial Intelligence, in: Al Magazine, Jg. 17, Nr. 3, S. 41.

Gartner (2012): Analytic Value Escalator.

Wirth, R.; Hipp, J. (2000): CRISP-DM: Towards a standard process model for data mining, in: Proceedings of the 4th international conference on the practical applications of knowledge discovery and data mining, CiteSeer, S. 29-39.

Wrobel, S., Voss, H., Köhler, J. et al. Big Data, Big Opportunities. Informatik Spektrum 38, 370–378 (2015). https://doi.org/10.1007/s00287-014-0806-4