Was ist Industry Analytics? – Begriffserklärung

Quelle: CL, ASIM-Paper

Industry Analytics umfasst als Oberbegriff neben dem Business intelligence, dazu zählen Data Preparation and Management, traditionelle Methoden der Datenanalyse (Data Analytics) und Visual Analytics das extrem wichtige Gebiet des maschinellen Lernens (Machine Learning), welches mit verbesserten Methoden zur Analyse und Interpretation von Daten zukünftig Gewinne erzielen wird, sowie die Simulation und Optimization als Methoden des klassischen Operations Research.

Inhalt

„Industrial Analytics (IA) describes the collection, analysis and usage of data generated in industrial operations and throughout the entire product life cycle, applicable to any company that is manufacturing and/or selling physical products.“

Pörschmann, Industrial Analytics 2016/2017

Die Verknüpfung von Data Analytics, Industry 4.0 und dem Internet der Dinge bedeutet einen signifikanten Fortschritt in der Industrie. Die Kombination ermöglicht neue Business Cases mit höherer Effektivität, wie zum Beispiel:

  • höhere Automatisierungsgrade
  • Echtzeit-Analysen ermöglichen eine erhöhte Auslastung, Verfügbarkeit und Transparenz
  • Neue Produkte, Services und datengetriebene Erkenntnisse können erstellt und verkauft werden

IA ist somit der Schlüssel einer neuen Form der Optimierung der Industrie und ermöglicht den Firmen eine Transformation in ein smartes, datengetriebenes Unternehmen.

How analytics evolved in th the industrial context

Business Analytics

„Nachdem sich im Kontext entscheidungsunterstützender Systemlösungen der Fokus über lange Jahre verstärkt auf den Aufbau tragfähiger technologischer und organisatorischer Konzepte zum Datenmanagement gerichtet hat, treten in letzter Zeit zunehmend die Methoden und Einsatzbereiche einer fortgeschrittenen Datenanalyse in den Vordergrund. Unter der Begrifflichkeit Business Analytics oder schlicht Analytics werden sowohl in der Wissenschaft als auch zunehmend in der Praxis Verfahren und Technologien diskutiert, die interessante Muster in umfangreichen Datenbeständen aufdecken und Prognosen über zukünftige Ereignisse und Gegebenheiten anstellen können.“[1] Dabei liegt der Betrachtungsschwerpunkt auf unternehmensinterner Datenanalyse.

Business Analytics bedient sich neben den klassischen Analysen wie Cluster-, Entscheidungsbaum- und Regressionsverfahren auch Assoziationsanalysen und neuronaler Netze. Voraussetzungen für die Anwendbarkeit sämtlicher Analysemethoden sind die bekannte Zielsetzung der Datenanalyse, die Eigenschaften der zu analysierenden Daten und die Darstellungsform der zu ermittelnden Beziehungsmuster festzulegen.

Der Einsatzbereich für Business Analytics ist nahezu unbeschränkt. Annähernd jede Abteilung eines Unternehmens profitiert von dem Einsatz anspruchsvoller Datenanalyse, insbesondere werden Analyseansätze zur Vorhersage und zur Erreichung eines Optimums (Predictive Analytics) bei Anwendungsunternehmen zunehmend nachgefragt.

[1] Peter Gluchowski, Business Analytics – Grundlagen, Methoden und Einsatzpotenziale, S. 274

Data Analytics

Data Analytics beschreibt Prozesse und Methoden der Datenanalyse, mit dem Ziel der Gewinnung nützlicher Zusammenhänge, der Prozessoptimierung sowie der Entscheidungsunterstützung. Wichtige Treiber der Datenanalyse sind einerseits Big-Data-Architekturen, die Perfektionierung oftmals riesiger unstrukturierter Datensätze, welche heutzutage oftmals mit erstklassigen NoSQL-Datenbanken, und –Daten-Administrations-Tools auskommen, andererseits Weiterentwicklungen der künstlichen Intelligenz und dem maschinellen Lernen, die meist in Form von open Source Software zur Verfügung steht. (Vgl. Pörschmann, S. 13.)

Quelle: Pörschmann, S.21
Quelle: Pörschmann, S.21

Advanced Analytics

Advanced Analytics wird als Sammlung unterschiedlicher Techniken und Tools verstanden, die Predictive Analytics, Data Mining, statistische Datenanalyse und komplexes SQL sowie Datenvisualisierung und Verarbeitung natürlicher Sprache umfasst. Predictive Analytics als Unterbereich von Advanced Analytics dient der proaktiven Analysetechnik, um Vorhersagen über zukünftige Ereignisse und Entwicklungen anzustellen.[1]

[1] Halper 2014, S. 18, in Gluchowski

Statistical Analytics

Traditionelle Methoden der statistischen Analyse werden seit Tausenden von Jahren genutzt. Neuste Methoden setzen auf die Beherrschung extrem großer Datenmengen – immer günstigere Speichermedien, extrem leistungsstarke Computer und spezialisierte Algorithmen machen es möglich. 

Typische statistische Analysepraktiken umfassen:

  • Statistische Programmierung
  • Ökonometrie
  • Matrix Programmierung
  • Operations Research
  • Visual Analytics
  • Statistische Qualitätssicherung

„Statistics is so unique because it can go from health outcomes research to marketing analysis to the longevity of a light bulb. It’s a fun field because you really can do so many different things with it.“

Big Data

Neben unternehmensinternen und strukturierten Daten stehen heute verstärkt neben unternehmensexterne Daten, bspw. aus sozialen Plattformen und Foren, auch unstrukturierte und semi-strukturierte Daten, wie Bild- und Videomaterial zur Verfügung. All Diese Daten werden unter dem Begriff Big Data zusammengefasst. Bis Data zeichnet sich jedoch nicht nur, wie vermutlich angenommen, durch das immense Datenvolumen, sondern auch durch die enorme Vielfalt an Datenformaten und durch extreme Datenverarbeitungsgeschwindigkeiten aus.

  • Immenses Datenvolumen (Volume)
  • Große Vielfalt an Datenformaten (Variety)
  • Extreme Geschwindigkeiten bei der Datenentstehung, Datenbereitstellung und Datenanalyse (Velocity)

Im Gegensatz zu Business Analytics beschränkt sich der Einsatz von Big Data Analysen nicht bloß auf den unternehmerischen Bereich, sondern bezieht sich auch Non-Profitorganisationen, Katastrophenschutz, Wetterdienste o.ä. ein.

Data Mining

Künstliche Intelligenz, die mit Verfahren des „machine learning“ und der „pattern recognition“ in den 1990er Jahren maßgeblich Beiträge zu Aufbau von aktiven Informationssystemen leistete, gab der Erforschung von Strukturzusammenhängen (Datenmustern) neue Impulse. In diesem Zusammenhang etablierte sich der Begriff Data Mining, „der das Fördern von wertvollen Informationen aus großen Datenbeständen beschreibt.“[1] Data Mining lässt sich frei als Datenmustererkennung übersetzen und verfolgt die Aufgabe, aus einem bereinigten Datenbestand durch Einsatz geeigneter Algorithmen Muster zu erkennen und zur Weiterverarbeitung zur Verfügung zu stellen.

[1] Peter Gluchowski S. 275

Visual Analytics

Ziel der visuellen Analyse ist die Erkenntnisgewinnung aus einer immer schneller wachsenden Masse komplexer Daten und Information und die Minimierung des Information Overload. Dies wird durch den Einsatz von automatisierten Datenanalysemethoden in Kombination mit einer Mustererkennung spezieller Algorithmen bzw. der menschlichen Fähigkeit der Erkennung von Mustern und Trends realisiert. Allgemein beschreibt die visuelle Analyse den Grundsatz der interaktiven Präsentation von Datenbeständen in visueller Form unter Nutzung automatischer Methoden. Die Analyse und anschließende visuelle Aufbereitung der Daten dient der effizienten Entscheidungsfindung bei komplexen Datenbeständen und in Data Warehouses. Aktuell im Einsatz befindliche Verfahren des Data Minings und der automatisierten Knowledge Discovery werden dem Anspruch der visuellen Analyse nicht mehr gerecht – zukünftig wird es notwendig, eine „enge Integration visueller und automatischer Datenanalysemethoden mit Datenbanktechnologien für skalierbare interaktive Entscheidungsunterstützung“ zu erreichen. (Fernuni Hagen, S.9

Business Intelligence

Seit Beginn der 2000er entwickelte sich der Begriff Business Intelligence zunächst in der Praxis, später auch in der wissenschaftlichen Diskussion als Synonym für innovative IT-Lösungen. Die Interpretation von Intelligence bezieht sich dabei auf alle Systemkomponenten, die helfen, das entscheidungsrelevante Datenmaterial zu sammeln und aufzubereiten, dauerhaft und nutzungsorientiert zu speichern, aufgabenadäquat zu analysieren und in geeigneter Form anzuzeigen. Unter technologischen Gesichtspunkten lassen sich dann zum Business Intelligence alle Werkzeuge und Anwendungen mit entscheidungsunterstützendem Charakter zählen, die zur besseren Einsicht in das eigene Geschäft und damit zum besseren Verständnis in die Mechanismen relevanter Wirkungsketten führen. BI umfasst also neben der Bereitstellung von Informationen in der Endbenutzeroberfläche auch weiterführende Werkzeuge für die Durchführer anspruchsvoller Datenanalysen.

Machine Learning

Maschinelles Lernen beschreibt eine Menge an Techniken, die es ermöglichen, Informationen und somit Wissen automatisiert und intelligent aus Daten zu extrahieren. Maschinelle Lernalgorithmen, welches ihren Ursprung bereits in den 1950er Jahren bei der Entwicklung der ersten Computer haben, beschreiben das Füttern eines Computers mit einer großen Datenmenge, um ihm beizubringen, Muster zu erkennen und Verbindungen herzustellen. Eingesetztes Rechner lernen also mithilfe von Big Data und ausgeklügelten Algorithmen selbst, die Aufgabe durchzuführen. Maschinelles Lernen ermöglicht Anwendungen, selber zu „denken“ und eigenständig Rückschlüsse zu ziehen und Prognosen abzugeben. [1]

Maschinelle Lernalgorithmen ermöglichen es Computern Muster in Datenbeständen zu erkennen. Dieser Lernprozess sorgt für eine kontinuierliche Verbesserung der Prozesse und führt zu einer höheren Genauigkeit des Outputs.

[1] https://www.sap.com/germany/trends/machine-learning.html

Shallow Learning

Shallow Learning als einfache Methode des maschinellen Lernens entsteht, wenn komplexe Datenbestände erfasst und verarbeitet, aber nicht interpretiert werden.

Deep Learning

Weitaus umfangreicher sind die Methoden des „tiefgreifenden Lernens“. Deep Learning, seit den 1950er Jahren bekannt, aber auf Grund der damals fehlenden Rechenleistung der Computer und der fehlenden Menge an auswertbaren Daten kaum angewandt, ist eine weiterentwickelte Form des maschinellen Lernens. Sie verwendet mehrschichtige („Deep“) neuronale Netze, um menschliche Denkprozesse zu simulieren. Neuronale Netze sind dem menschlichen Gehirn nachempfunden, Synapsen des Gehirns entsprechen dabei kleinen Rechenknoten. Durch Eingabedatensätze und ausgeklügelte Algorithmen können Maschinen helfen, komplexe, nicht lineare Probleme in kürzester Zeit präzise zu lösen. Deep Learning ist für bahnbrechende Entwicklungen wie Sprach- und Bilderkennung und die natürliche Sprachverarbeitung (NLP) verantwortlich.

Bekannte Beispiele für Deep Learning sind unter anderem:

  • Sprach- und Bilderkennung
  • Natürliche Sprachverarbeitung
  • Gesichtserkennungssoftware
  • Selbstfahrende Autos
  • Intelligente Hausautomatisierungsgeräte, smart home

„Machine Learning in general is considered as a key technology to develop true artificial intelligence (AI), and today is a crucial element for data-driven decision-Making in all kinds of businesses. It is the “catalyst” that enables smart systems to extract value from the available data.“

Pörschmann, S. 23

Operations Research

„Unter dem Begriff Operations Research (OR) verstehen wir die Entwicklung und den Einsatz quantitativer Modelle und Methoden zur Entscheidungsunterstützung in Unternehmen und Organisationen. Typische Ansätze des OR sind Optimierung und Simulation. Dabei wird für einen Ausschnitt der Realität ein abstraktes Modell gebildet, mit dessen Hilfe Analysen durchgeführt werden können, um somit eine gute Basis für Entscheidungen zu schaffen.“ [1]

Im Rahmen eines Entscheidungsprozesses kann auf die Verfahren des OR zur Entscheidungsvorbereitung (Beschaffung und Aufbereitung entscheidungsrelevanter Informationen), Entscheidungsfindung (mit Hilfe von Entscheidungsmodellen) sowie Entscheidungsdurchführung und -kontrolle zurückgegriffen werden.

[1] http://www.enzyklopaedie-der-wirtschaftsinformatik.de/lexikon/technologien-methoden/Operations-Research

Problemtypen:

(1) Wartezeitprobleme
(2) Zuteilungsprobleme: Reihenfolge (Wege, Aufträge), Transport, Produktionsprogramm
(3) Lagerhaltungsprobleme
(4) Ersatzprobleme
(5) Konkurrenzprobleme

Simulation

Der Verein Deutscher Ingenieure definiert Simulation allgemein als die:

„Nachbildung eines Systems mit seinen dynamischen Prozessen in einem experimentierfähigen Modell, um zu Erkenntnissen zu gelangen, die auf die Wirklichkeit übertragbar sind.”[1]

„Mit Simulation können bestehende Systeme iterativ optimiert werden, bspw. durch effizienteren Einsatz von Ressourcen oder die Verbesserung von Steuerungsstrategien während des Betriebs. Zudem kann die Planung noch nicht existenter Systeme unterstützt werden: Allein die schlichte Visualisierung des dynamischen Systemverhaltens kann die Analyse komplexer Zusammenhänge ungemein erleichtern und erlaubt den Einsatz von Simulationsmodellen als Schulungsinstrument.“[2]

 

[1] http://www.enzyklopaedie-der-wirtschaftsinformatik.de/lexikon/technologien-methoden/Operations-Research/Simulation/index.html

[2] http://www.enzyklopaedie-der-wirtschaftsinformatik.de/lexikon/technologien-methoden/Operations-Research/Simulation/index.html