Big Data – mehr als nur große Datenmengen?
Data Analytics
Die Datenanalyse (Big Data Analytics) versucht mithilfe statistischer Methoden Informationen aus großen Datenmengen (Big Data) zu gewinnen und diese im Anschluss zu visualisieren. Das komplexe Gebiet der Datenanalyse lässt sich in die Bereiche der deskriptiven, der inferenziellen, der explorativen und konfirmatorischen Datenanalyse unterteilen. Bei der deskriptiven Datenanalyse werden die Informationen der Einzeldaten, welche beispielsweise einer Totalerhebung entnommen wurden, so verdichtet und dargestellt, dass das Wesentliche deutlich wird. Die Datenanalyse hat hierbei einen beschreibenden Charakter. Liegen lediglich die Daten einer Stichprobenerhebung (Teilerhebung) zugrunde, so ruht der Schwerpunkt der Datenanalyse auf der Übertragung der Stichprobenbefunde auf die Grundgesamtheit. Dabei wird von einer inferenziellen Datenanalyse gesprochen. Bei der explorativen Datenanalyse geht es darum, die verfügbare Datenmenge so zu verarbeiten, dass Strukturen in den Daten sowie Zusammenhänge ebendieser aufgezeigt und in besonderem Maße hervorgehoben werden können. Im Gegensatz dazu ist das Ziel der konfirmatorischen Datenanalyse die Überprüfung von Zusammenhängen.
Das Reifegradmodell nach Gartner
Deskriptive Analysemethoden werden verwendet, um durch Analysen historischer Daten Auswirkungen auf die Gegenwart zu untersuchen. Diagnostic Analytics gibt Antworten auf die Fragen nach den Gründen, Auswirkungen, Wechselwirkungen oder Folgen von Ereignissen. Predictive Analytics liefert auf Basis von Data Mining-Verfahren Vorhersagen über die Wahrscheinlichkeit von künftigen Ereignissen. Prescriptive Analytics blickt noch weiter in die Zukunft. Es liefert zusätzlich Handlungsempfehlungen, wie ein bestimmter Trend in eine gewünschte Richtung beeinflusst, ein vorhergesagtes Ereignis verhindert oder auf ein künftiges Ereignis reagiert werden kann. In diesem Sinne wollen Unternehmen unübersichtliche, komplexe wirtschaftliche Beziehungen verstehen und vorhersagen können, um Entscheidungsoptionen erarbeiten und bewerten zu können. Dies wird einen signifikanten Vorteil gegenüber dem Wettbewerb verschaffen. Presciptive Analytics wird häufig im Zusammenhang mit Big Data, Data Mining, BI und BA verwendet.
Zu den Zeiten der Digitalisierung befindet sich die Industrie in einem Umbruch und einer Umstrukturierung. In diesem Zuge wird häufig von der digitalen Transformation der Industrie oder der „Industrie 4.0“ gesprochen. Eigentlich ein „Zukunftsprojekt“ der Bundesregierung, welches die vierte industrielle Revolution beschreibt. (Vgl. Wendel, 07.01.2019)
Durch die Digitalisierung der Industrie endet das Industriezeitalter und das Informationszeitalter wird eingeläutet. Eines der großen Themen hinter diesem Projekt ist „Big Data“. Big Data zeichnet sich durch große Datenmengen aus und wie diese für Unternehmen nutzbar gemacht werden können. (Vgl. Gleich, 2014)
Unternehmen haben erkannt, dass in der Wertschöpfung von Daten großes Potential steckt. Die größte Herausforderung besteht dabei im Nutzbarmachen der Daten. Genau das verbirgt sich hinter dem Begriff „Big Data“. Dieser Artikel soll eine Einführung in die weitreichende Thematik „Big Data“ bieten.
Begriffsdefinition
Wer den Begriff Big Data zum ersten Mal hört, assoziiert vermutlich erst einmal große Datenmengen. Damit ist es jedoch nicht getan, denn Big Data lässt sich nicht so spezifisch definieren, wie es Interessenten dafür gibt.
Der Hauptgrund dafür ist, dass jede Person und jedes Unternehmen, welche sich mit dem Thema Big Data auseinandersetzen, ihre Prioritäten nach ihren eigens vordefinierten Mustern bestimmen. Somit ergibt sich ein nicht zu greifendes Spektrum an Bedeutungen und Definitionen zu dem vermeintlich unscheinbaren Begriff „Big Data“. (Vgl. Müller, 2018, S. 1)
Dennoch ist es möglich den Begriff in seinen Grundzügen verständlich zu machen. In dem Zusammenhang spricht man auch von den fünf V’s: Volume, Velocity, Variety, Veracity und Value, wobei Veracity und Value erst später in die Reihe mit aufgenommen wurden.
Volume beschreibt den ersten Gedanken, den wohl jeder mit Big Data verbindet: die Menge der Daten. Sicherlich ist auch diese Größe variabel, dennoch wird mittlerweile von Datenmengen in der Größenordnung von Zettabyte gesprochen. (Vgl. Freiknecht, 2014, S. 14) Um diese Größenordnungen zu verdeutlichen, kann man sich vorstellen, dass herkömmliche PC’s eine Festplatte mit einem Terabyte Speicher haben. Also wolle man nun einen Zettabyte Daten speichern, so würde man eine Milliarde dieser Festplatten benötigen.
Velocity hingegen beschriebt die Geschwindigkeit, in der die Daten verarbeitet werden. Dabei wird eine Datenverarbeitung in nahezu Echtzeit angestrebt. Besonders problematisch sind die drastisch steigenden Datenmengen, die aus strukturierten, semi-strukturierten und unstrukturierten Daten bestehen, sowie aus den unterschiedlichsten Quellen zusammengeführt werden müssen. (Vgl. Freiknecht, 2014, S. 14)
Diese Ungleichheit der Daten wird in der Variety zusammengefasst. So sind zum Beispiel Kundendatenbanken mit vordefinierten Regeln strukturierte Daten. Dagegen sind E-Mails beispielsweise semi-strukturiert, da der Betreff, Absender und Empfänger noch eindeutig unterscheidbar sind bzw. sich zuordnen lassen, jedoch ist der Inhalt und mögliche Anhänge immer individuell. Bei den unstrukturierten Daten handelt es sich in Regel, um Daten die nicht irgendwelchen Regeln unterworfen werden können, so ist das Internet voll von solchen Daten und schwer zu definieren. (Vgl. Klein, et al., 2013, S. 319-321)
Letztendlich nützen die anderen Merkmale wenig, wenn die Daten verfälscht sind. Deshalb zählt die Veracity (Richtigkeit) der Daten zu den Merkmalen von Big Data und Big Data Analytics und sagt nichts anderes aus, als dass die Daten immer richtig, vollständig und verlässlich sein müssen. Wobei es hier nicht zwingend um die inhaltliche Richtigkeit ankommt, außer bei strukturierten Daten und ihren unterworfenen Regeln. Anders bei Daten beispielsweise aus Social-Media-Plattformen. Dort geht es weniger um die inhaltliche Richtigkeit, welche im Nachgang geprüft werden muss. (Vgl. Droschel, 2015, S. 8)
Der Value, also der Wert der Daten ist hingegen ein sehr spezifisches Merkmal, denn nicht alle Daten haben einen wirtschaftlichen Wert für das Unternehmen. Der Wert variiert auch von Unternehmen zu Unternehmen. Nicht alle gespeichert und verarbeiteten Daten werden später den Unternehmen helfen an Wert zu gewinnen. (Vgl. Fasel & Meier, 2016, S. 6)
Geschichte von Big Data Analytics
Da nun ein Grundverständnis von „Big Data“ vorhanden ist, lohnt es sich ein Blick auf die Historie zu werfen. Denn schon im 19ten Jahrhundert wurde die Entstehung von großen Datenmengen und der komplizierte Umgang mit diesen erkannt. Dabei wurde bereits 1941 der Begriff „Informationsexplosion“ im englischen Oxford-Wörterbuch aufgenommen, um der Beschreibung des enormen Anstiegs von Datenmengen gerecht zu werden. 20 Jahre später beschrieb Derek Price, dass sich alle 15 Jahre wissenschaftliche Publikationen verdoppeln. In diesem Zusammenhang beschrieb er das „Gesetzt der exponentiellen Zunahme“. Diese besagt, dass jeder Fortschritt weitere Fortschritte als Folge hat. Hieraus lässt eine Steigerung des Wissens schlussfolgern und somit ein Wachstum des gespeicherten Wissens in welcher Form auch immer. Bereits 1997 haben die beiden NASA Mitarbeiter Michael Cox und David Ellsworth den Begriff Big Data in ihrer Arbeit verwendet. Zu der Zeit sprachen man noch von der ursprünglichen Bedeutung im Sinne des Wortes, denn die beiden arbeiteten ihrerseits an Flugzeugsimulationen, die aber aufgrund von zu großen computergenerierten Datenmengen nicht verarbeitet und visualisiert werden konnten. Jedoch ist es strittig, ob nicht Josh Mashey bereits im Jahre 1994 „Big“ in Verbindung mit Datenmengen brachte. Er verwendete es jedoch nur als stilistisches Mittel, um die Komplexität von Teilbereichen der IT hervorzuheben. (Vgl. Freiknecht, 2014, S. 8)
Die Aussage von Derek Price wurde 2007 von Forschern des IDC’s verdeutlicht. So wurden im Jahr 2006 161 Exabytes Daten generiert. In den darauffolgenden Jahren wurde das Datenwachstum von den Forschern weiter untersucht. Die folgende Darstellung (Abb.1) zeigt wie schnell die gespeicherten Big-Data-Datenmengen in den Unternehmen steigen.
Abbildung 1 Anstieg der jährlich generierten Datenmengen (Vgl. Cisco Systems, 2018)
Neben dem schnellen Anstieg der Datenmengen über die Jahre, ist die Rechen- und Speichertechnik im Zuge der Digitalisierung deutlich fortgeschritten. So wurde bereits 1965 das Moore’sche Gesetz aufgestellt. Dies besagt, dass sich alle 18 bis 24 Monate die zur Verfügung stehende Rechenleistung und der Rechenspeicher verdopple. Dieses Gesetz hat bis heute noch bestand, dennoch kann auch dieses seine Gültigkeit verlieren. (Vgl. wirtschaftslexikon.co, 2015)
Wird der historische Verlauf betrachtet, so wird deutlich, dass es erst die rasante Entwicklung der IT und des enormen Wachstums der Datenmengen ermöglicht über „Big Data“ im heutigen Sinne zu sprechen.
Technischer Hintergrund von „Big Data“-Konzepten
Wie bereits erwähnt, gibt es nicht die Lösung und Umsetzung für das Problem „Big Data“. So gibt es natürlich auch nicht die eine technische Umsetzung bzw. das eine Konzept auf dem alle aufbauen. Dennoch sind die grundlegenden Möglichkeiten in ihrer Vielfalt noch recht begrenzt und somit lässt sich auch noch ein grober Überblick über das Thema Big Data Analytics erstellen.
Wie nun bereits verdeutlicht, lässt sich „Big Data“ mit den 5 V’s recht gut definieren, um nun ein geeignetes technischen Konzept zu entwickeln, welches den Ansprüchen des Unternehmens genüge trägt, definiert man anwendungsspezifisch Variety und Velocity.
Diese beiden Eigenschaften bestimmen entschieden den Hard- und Softwareeinsatz. Anhand der folgenden Abbildung lassen sich vereinfacht die entsprechenden technologischen Lösungsmöglichkeiten ablesen.
Abbildung 2 Big-Data-Anforderungen und Technologieansätze (Vgl. BITKOM, 2014, S. 21)
Diese vier Technologieansätze ermöglichen das Verarbeiten und das Auswerten der Daten. Wobei mit der Entwicklung von Hadoop, durch Yahoo im Jahr 2006, „Big Data“ deutlich an Attraktivität für Unternehmen gewonnen hat. Denn Hadoop ist eine Open Source Framework. Dieses ermöglicht die Verwendung mehrerer Computer und Server um so die Rechenleistung aufzuteilen, zu bündeln und somit zu steigern. Dabei werden sie als Cluster organisiert und verarbeiten gemeinsam tausende Terabyte an unstrukturierte Daten. Hierfür kommt der Map-Reduce-Algorithmus von Google zur Anwendung, der nun zur freien Verfügung steht. (Vgl. Urbanski & Dr. Weber, 2012, S. 27)
Das wohl bemerkenswerteste an dieser Technologie ist, dass keine Supercomputer mehr zur Anwendung kommen und somit die technologische Umsetzung von „Big Data“ deutlich günstiger wurde. Wie bedeutsam diese Entwicklung war, zeigt sich in einer Befragung aus dem Jahr 2012 von Unternehmen mit einem jährlichen Umsatz von über eine Milliarde US Dollar. Beachtliche 47 Prozent gaben an bereits Hadoop zu nutzen und weitere 36 Prozent wollen es in Zukunft tun. (Vgl. King, 2014, S. 112)
Anders sind Systeme die mittels SQL-Abfragen (Structured Query Language) nur strukturierte Daten verarbeiten können. Für Unternehmen, die nur strukturierte Daten speichern und verarbeiten, dabei aber nicht auf Echtzeitverarbeitung angewiesen sind, ist dies sicher sinnvoll. Sobald aber größere Datenmengen verarbeitet werden, sind diese auf teure Rechentechnik angewiesen. (Vgl. Urbanski & Dr. Weber, 2012, S. 23)
Um Auswertungen von strukturierten Daten zu beschleunigen, ist es möglich eine In-Memory-Technologie zu verwenden. Dabei wird anstelle von Festplattenspeicher der Arbeitsspeicher eines Computers benutzt. Die Zugriffsgeschwindigkeit ist dabei wesentlich höher. So können Analysen die sonst Stunden dauern würden auf wenige Sekunden reduziert werden. (Vgl. BITKOM, 2014, S. 22)
Das Streaming ermöglicht eine Auswertung in nahezu Echtzeit. Hierfür werden zusammenhängende Ereignisse ausgewertet, zusammengefasst und analysiert. Diese Methode benötigt viel Rechenleistung und ist sehr kostenintensiv. Dennoch ist es die ideale Lösung für große unstrukturierte Datenmenge, denn sie werden vorher gefiltert. (Vgl. BITKOM, 2014, S. 22)
Eine einzige Lösung wird es nicht geben. Außerdem ist es sinnvoll bestehende Systeme mit „Big Data“ Technologie zu verbinden. So können weiterhin die bestehenden transaktionale und analytische Systeme genutzt werden und bspw. mit der In-Memory Technologie und/oder der Hadoop Technologie verknüpft werden (Abb.3).
Abbildung 3 Technische Grundlagen der Datenanalyse (Urbanski & Dr. Weber, 2012, p. 28)
Welchen Nutzen hat „Big Data“?
Durch unsere alltäglich produzierten digitalen Daten, sei es durch technische Geräte oder Online Services aber auch durch die Nutzung der vielfältigen Kommunikationskanäle, tragen wir unmittelbar zur Datenflut bei. Diese Daten sind vor allem für Unternehmen interessant, um sich Wettbewerbsvorteile zu verschaffen, aber auch um den Kunden genau die Produkte und Dienstleistungen bereitzustellen, die er will. So sind wir alle Teil des „Big Data Primärkreislaufes“ (Abb. 4).
Abbildung 4 Big Data Primärkreislauf (Vgl. Bachmann, et al., 2014, S. 23)
In erster Linie dient „Big Data“ natürlich der Umsatzoptimierung. Laut einer Studie von IBM im Jahr 2012 gelang dies sogar recht eindrucksvoll. So war es Unternehmen möglich, die mit der Überwachung und Auswertung von Daten begannen, ihren Umsatz um 10,8 Prozent zu steigern. (Vgl. King, 2014, S. 60f)
Diese Umsatzsteigerung resultiert ausfolgenden Sachverhalten (Vgl. King, 2014, S. 62)
- Optimierung der Entscheidungsprozesse im Unternehmen
- Verbesserung der Produkt- und Servicequalität
- Erhöhung der Wettbewerbsfähigkeit
- Steigerung des Kundenservice/der Kundenbindung
- Verbesserung des eigenen Marktverständnisses
- Effizientere Planung von Marketingaktionen
- Senkung der Kosten in verschiedenen Unternehmensbereichen
- Steigerung der Innovationsfähigkeit des Unternehmens
- Logistik- und Produktionsoptimierung
Daraus lassen sich zahlreiche Vorteile für diverse Unternehmensbereiche eines Unternehmens ableiten. Besonders der Vertrieb, das Marketing, die Produktion, die Logistik, die IT und das Risikomanagement profitieren davon. (Vgl. Droschel, 2015, S. 105)
Daraus resultieren selbstverständlich auch die Vorteile der Kunden. Ein geeignetes Beispiel lässt bei den Streamingdiensten ermitteln. Diese unterbreiten dem Nutzer Vorschläge für Serien und Filme auf Grundlage des bereits angeschauten Contents. Somit ist es für den Nutzer einfacher Inhalte zu finden, die ihn interessieren und ersparen ihm eine lästige Suche durch das mehr als reichliche Angebot. (Vgl. Legler, 2018)
Kritik an Big Data und Big Data Analytics
Wie so oft gibt es auch bei „Big Data“ Schattenseiten und somit Kritik. So ist es nicht auszuschließen das es zu Fehlinterpretationen kommt. Diese beziehen sich weniger auf die Technologie an sich, sondern mehr auf die Analysen. Bei großen Datenmengen ist es nicht unwahrscheinlich, dass es zu Verbindungen zwischen mehreren Datensätzen kommt diese aber nur dem Zufall geschuldet sind. Dabei sind einfache Szenarien möglich, wie die ansteigenden Verkäufe von iPhones seit ihrer Einführung mit den steigenden Morden seit diesem Jahr korrelieren. Diese Zusammenhänge lassen sich noch leicht voneinander trennen. Doch häufig sind diese Zusammenhänge von komplexerer Natur und nicht so deutlich wie das Beispiel. Sollten also aufgrund solcher Fehlinterpretationen falsche Entscheidungen für das Unternehmen getroffen werden, könnte dies schwerwiegende Folgen haben.
Ein weiterer häufig genannter Kritikpunkt ist die Manipulation. Hierbei soll es sich nicht um böswillige Absichten handeln, sondern um das Ausnutzen des Algorithmus. Dies kann erkannt und ausgenutzt werden. Ein einfaches Beispiel dafür ist ein Algorithmus für Schulaufsätze. Das klingt vielleicht erst einmal weit hergeholt, aber es ist bestens geeignet um das Problem zu verdeutlichen. Man stelle sich vor: „Der Algorithmus bewertet die Aufsätze nach deren Satzlänge und nach der Komplexität der Wortwahl.“ Es dauert nicht lange und die Schüler bemerken das und schreiben zusammenhangslose lange Sätze mit komplexen Wörtern, um gute Noten zu erlangen. Dieses Beispiel zeigt ziemlich genau, dass Ergebnisse der Analysesoftware manipuliert werden können.
Der Echokammer-Effekt stellt ein weiteres Problem von „Big Data“ dar. So kann es vorkommen das fehlerhafte Daten auf Internetseiten hochgeladen, analysiert und ausgewertet werden. Anschließend wieder hochgeladen werden, um später wieder analysiert und ausgewertet werden. Man könnten von einem Teufelskreis sprechen. Google-Translate ist hierfür ein gutes Beispiel. Denn es analysiert Wikipedia-Artikel, welche in mehreren Sprachen veröffentlicht wurde und versucht Muster zu erkennen. Nun ist es aber so, dass einige Artikel mittels Google-Translate übersetzt wurden. Sollten diese Übersetzung Fehler behaftet sein, werden diese wieder übernommen und verstärkt.
So einfach es auch klingen mag, aber „Big Data“ ist unfair. Da es um große Datenmengen geht, werden Minderheit bei der Analyse häufig außer Acht gelassen oder weniger beachtet, da die Datenmenge zu gering ist und somit möglicherweise vom Algorithmus weniger stark gewichtet wird.
Zu guter Letzt wird oft von einer hohen Ungenauigkeit gesprochen. Nicht immer werden die Erwartungen erfüllt, die aufgrund der Analyse gesetzt wurden. Eine Veranschaulichung liefert wieder Google. Aufgrund von Suchanfragen über die Grippe und ihre Symptome schätzte Google die Zahl der Infektionen. Diese Zahl lag deutlich über den tatsächlichen Zahlen, denn einige Symptome ließen sich auch anderen Krankheiten zuordnen. Natürlich gibt es weitere Kritikpunkte aber dies waren die bisher am häufigsten genannten. (Vgl. Industry Analytics, 2019)
Herausforderungen
Die größte Herausforderung ist der Datenschutz, da dieser bezogen auf Daten von Personen länderspezifischen Regularien unterworfen ist. In den Ländern der Europäischen Union gilt beispielsweise die Datenschutz Grundverordnung (DSGVO). In anderen Ländern gelten wiederrum andere Gesetze. Gerade bei international agierenden Unternehmen ist es wichtig sich einen genauen Überblick zu verschaffen.
Des Weiteren ist der finanzielle Aspekt nicht außer Acht zu lassen. Die Anschaffungskosten sind dabei nicht die einzigen anfallenden Kosten. Auch die steigenden Betriebskosten können zu einem nicht zu unterschätzenden Risikofaktor werden. Gerade kleinere Unternehmen könnten dem zum Opfer fallen.
Durch die erhöhten Aufwände im Bereich der IT ist es nicht zu unterschätzen, dass ein Datenverlust wahrscheinlicher wird. Der Grund hierfür ist die hohe Belastung der gesamten IT-Infrastruktur. Ähnliches gilt für den Schutz vor Manipulationen der großen Datenmengen.
Die Vielzahl an Daten machen es notwendig geeignete Strukturen zu schaffen und eine Transparenz herzustellen, um das Analysieren der Daten nicht zu erschweren und möglichen Fehlinterpretationen vorzubeugen. (Vgl. Urbanski & Dr. Weber, 2012, S. 16f)
Big Data Analytics as a Service
Wenn man sich die Herausforderung anschaut, lässt sich erkennen wie aufwendig ein Big Data-System ist. Hinzu kommen die technischen Voraussetzungen, die eine Menge Ressourcen in Anspruch nehmen. Aus diesem Grunde ist es verständlich, dass viele Unternehmen die Anschaffung eines solchen Systems scheuen. Denn zu den Anschaffungskosten kommt noch das Risiko, dass die Einbindung in das vorhandene System scheitert. Deshalb ist es nicht verkehrt, besonders für klein und mittelständige Unternehmen (KMU), sich anderweitig nach Möglichkeiten umzuschauen und eine Beratung einzuholen.
Hier kommt „Big Data as a Service” ins Spiel. Mittlerweile bieten zahlreiche Anbieter nämlich Cloud basierte Big Data Lösungen an. Die bekanntesten Big Data Anbieter können aus der nachstehenden Abbildung entnommen werden.
Abbildung 5 Big Data as a Service im deutschen Markt (Vgl. Heins, 2017)
Das Problem ist der Zugang, denn durch den erforderlichen Breitbandanschluss können nicht so viele Daten verarbeitet und ausgewertet werden, wie es mit einem eigenen System möglich wäre. Dennoch können hiermit erste Erfahrungen gesammelt werden und KMU’s können wettbewerbsfähig bleiben, ohne riskante Investitionen zu tätigen. Aber auch für große Unternehmen kann es sinnvoll sein solch eine Lösung übergangsweise zu nutzen. Das Problem neben den Kosten sind mangelnde „Big Data“ Experten auf dem Arbeitsmarkt. Deshalb ist neben „Big Data Consulting“ auch solch eine Lösung eine Alternative um den Einstieg in die Welt „Big Data“ zu schaffen. (Vgl. Heins, 2017)
Zusammenfassung
Zusammenfassend lässt sich sagen: „Big Data“ hat großen Potential für Unternehmen und steckt noch in den Kinderschuhen, was die Entwicklung an geht. Bedingt durch den rasanten digitalen Fortschritt wird auch Big Data nicht lange auf sich warten lassen bis es zum Standard in Unternehmen wird. In Verbindung mit Business Intelligence, Internet der Dinge, Smart Factorys und Digitalen Zwillingen startet die vierte industrielle Revolution.
Quellenangaben
Bachmann, R., Kemper, G. & Gerzer, T., 2014. Big Data – Fluch oder Segen? Unternehmen im Spiegel gesellschaftlichen Wandels. Heidelberg: Neckar. BITKOM, 2014. Big-Data-Technologie-Wissen für Entscheider. [Online]
Available at: https://www.bitkom.org/Bitkom/Publikationen/Big-Data-Technologien.html Cisco Systems, 2018. Cisco Global Cloud Index, 2016-2021. [Online]
Available at: https://de.statista.com/statistik/daten/studie/819500/umfrage/prognose-zum-weltweit-gespeicherten-big-data-datenvolumen-in-rechenzentren/
[Zugriff am 04 12 2019].
Droschel, J., 2015. Praxishandbuch Big Data. Wiesbaden: Gabler.
Fasel, D. & Meier, A., 2016. Big Data – Grundlagen, Systeme und Nutzungspotentiale. Wiesbaden: Springer Vieweg.
Freiknecht, J., 2014. Big Data in der Praxis. München: Hanser.
Gleich, R., 2014. Controlling und Big Data. Freiburg im Breisgau: Haufe-Lexware. Heins, E., 2017. Big-Data-Anbieter im Vergleich. [Online]
Available at: https://www.it-matchmaker.com/news/big-data-anbieter-im-vergleich/
[Zugriff am 10 12 2019]. Industry Analytics, 2019. Big Data in der Kritik: eine kritische Betrachtung – Industry Analytics. [Online]
Available at: https://www.industry-analytics.de/big-data-eine-kritische-betrachtung/
[Zugriff am 14 12 2019].
King, S., 2014. Big Data – Potential und Barrieren der Nutzung im Unternehmenskontext. Wiesbaden: Springer VS.
Klein, D., Tran-Gia, P. & Hartmann, M., 2013. Big Data. Würzburg: Gesellschaft für Informatik e.V. Universität Würzburg. Legler, F., 2018. Chancen und Risiken durch Big Data. [Online]
Available at: https://www.industry-analytics.de/chancen-und-risiken-durch-big-data/
[Zugriff am 03 12 2019].
Müller, S., 2018. Big Data Analysen – Für den schnellen Einstieg. Frankfurt am Main: Walter de Gruyter GmbH; Herausgeber Bernd Ulmann.
Urbanski, J. & Dr. Weber, M., 2012. Big Data im Praxiseinsatz-Szenarien, Beispiele, Effekte; Berlin: BITKOM Bundesverband. Berlin: BITKOM Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V.. Wendel, P. D. O., 07.01.2019. Industrie 4.0. [Online]
Available at: https://wirtschaftslexikon.gabler.de/definition/industrie-40-54032/version-368841
[Zugriff am 12 11 2019]. wirtschaftslexikon.co, 2015. Moore’sche Gesetz (Moore’s Law). [Online]
Available at: http://www.wirtschaftslexikon.co/d/moore-sches-gesetz-moores-law/moore-sches-gesetz-moores-law.htm
[Zugriff am 27 11 2019].