Big Data

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Darstellung der Wikipedia-Aktivität eines einzelnen Users (hier: eines Bots) über einen längeren Zeitraum in Form von Farben – ein typisches Beispiel, um sich mit Hilfe einer Visualisierung in Big Data zurechtzufinden.

Der englischsprachige Begriff Big Data [ˈbɪɡ ˈdeɪtə] (von englisch big ‚groß‘ und data ‚Daten‘) bezeichnet Datenmengen, welche

  • zu groß oder
  • zu komplex oder
  • zu schnelllebig oder
  • zu schwach strukturiert

sind, um sie mit manuellen und klassischen Methoden der Datenverarbeitung auszuwerten.[1] Der traditionellere Begriff im Deutschen ist Massendaten. Big Data ist häufig der Sammelbegriff für digitale Technologien, die in technischer Hinsicht für die neue Ära digitaler Kommunikation und Verarbeitung und in sozialer Hinsicht für den gesellschaftlichen Umbruch verantwortlich gemacht werden.[2] Big Data steht grundsätzlich für große digitale Datenmengen, aber auch für die Analyse und Auswertung.[3]

In der Definition von Big Data bezieht sich das "Big" auf die drei Dimensionen "volume" (Umfang, Datenvolumen), "velocity" (Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden) und "variety" (Bandbreite der Datentypen und -quellen).[4] Erweitert wird diese Definition um die zwei V's "value" und "validity", welche für den unternehmerischen Mehrwert und die Sicherstellung der Datenqualität stehen.[5] Der Begriff „Big Data“ unterliegt als Schlagwort einem kontinuierlichen Wandel; so wird mit Big Data ergänzend auch oft der Komplex der Technologien beschrieben, die zum Sammeln und Auswerten dieser Datenmengen verwendet werden[6][7]. Die gesammelten Daten können aus verschiedensten Quellen stammen:

Big Data kann auch Bereiche umfassen, die als privat gelten. Der Wunsch der Industrie und bestimmter Behörden, möglichst freien Zugriff auf diese Daten zu erhalten, sie besser analysieren zu können und die gewonnenen Erkenntnisse zu nutzen, gerät dabei unweigerlich in Konflikt mit geschützten Persönlichkeitsrechten des Einzelnen. Ein Ausweg ist allein durch

  • Anonymisieren vor dem Ausbeuten, wenn nicht schon durch
  • Anonymisieren vor dem Auswerten

zu erreichen. Klassische Anwender von Methoden des Big Data sind die Provider sozialer Netzwerke und von Suchmaschinen. Die Analyse, Erfassung und Verarbeitung von großen Datenmengen ist heute in vielen Bereichen alltäglich.

Big Data generiert Potenziale zur Geschäftprozessverbesserung in allen Funktionsbereichen des Unternehmens, vor allem aber im Bereich der Technologieentwicklung & IT sowie des Marketings.[9] Datenmengen dienen im Allgemeinen der Umsetzung von Unternehmenszielen oder zur staatlichen Sicherheit. Bisher haben vor allem große Branchen, Unternehmen und Anwendungsbereiche der Wirtschaft, Marktforschung, Vertriebs- und Servicesteuerung, Medizin, Verwaltung und Nachrichtendienste die digitalen Methoden der Datensammlung für sich genutzt. Die erfassten Daten sollen weiterentwickelt und nutzenbringend eingesetzt werden. Die Erhebung der Daten dient meistens für konzernorientierte Geschäftsmodelle, sowie Trendforschung in den sozialen Medien und Werbeanalysen, um zukunftsweisende und gewinnbringende Entwicklungen zu erkennen und in diese Prognosen zu investieren.[10]

Hintergrund[Bearbeiten | Quelltext bearbeiten]

Mengen von Massendaten wachsen typischerweise exponentiell. Berechnungen aus dem Jahr 2011 zufolge verdoppelt sich das weltweite erzeugte Datenvolumen alle 2 Jahre.[11] Diese Entwicklung wird vor allem getrieben durch die zunehmende maschinelle Erzeugung von Daten z. B. über Protokolle von Telekommunikationsverbindungen (Call Detail Record, CDR) und Webzugriffen (Logdateien), automatische Erfassungen von RFID-Lesern, Kameras, Mikrofonen und sonstigen Sensoren. Big Data fallen auch in der Finanzindustrie an (Finanztransaktionen, Börsendaten) sowie im Energiesektor (Verbrauchsdaten) und im Gesundheitswesen (Verschreibungen). In der Wissenschaft fallen ebenfalls große Datenmengen an, z. B. in der Geologie, Genetik, Klimaforschung und Kernphysik. Der IT-Branchenverband Bitkom hat Big Data als einen Trend im Jahr 2012 bezeichnet[12]. Bei großen Datenkomplexen verbietet sich der unwirtschaftliche Aufwand für ein Speichern auf Vorrat. Dann werden lediglich Metadaten gespeichert oder das Auswerten setzt mitlaufend oder mindestens gering zeitversetzt mit dem Entstehen der Daten auf.

Weitere Bedeutungen[Bearbeiten | Quelltext bearbeiten]

Big Data bezeichnet primär die Verarbeitung von großen, komplexen und sich schnell ändernden Datenmengen. Als Buzzword wird der Begriff in den Massenmedien aber auch verwendet für

  • die zunehmende Überwachung der Menschen durch Geheimdienste auch in westlichen Staaten bspw. durch Vorratsdatenspeicherung
  • die Verletzung von Persönlichkeitsrechten von Kunden durch Unternehmen
  • die zunehmende Intransparenz der Datenspeicherung durch Delokalisierung (Cloud Computing)
  • der Wunsch der Industrie aus den vorhandenen Daten einen Wettbewerbsvorteil erlangen zu können
  • die Automatisierung von Produktionsprozessen (Industrie 4.0, Internet der Dinge)
  • die intransparente Automatisierung von Entscheidungsprozessen in Software[13][14]
  • der Einsatz neuer Technologien statt Standardsoftware (insbesondere in Unternehmen mit einer konservativen IT oft durch Verwendung von Software as a Service um firmeninterne IT-Einschränkungen zu umgehen)
  • die Entwicklung von eigenen Softwarelösungen („inhouse IT“) statt dem Einsatz von „off-the-shelf“ Software durch Fremdunternehmen
  • Werbung, basierend auf Daten über die Internet- und Handynutzung
  • die Organisation von Zusammenarbeit im Rahmen von People Analytics Projekten

selbst wenn in diesem Zuge teilweise weder große noch komplexe Datenmengen anfallen.[15]

Beispiele[Bearbeiten | Quelltext bearbeiten]

In der Forschung können durch Verknüpfung großer Datenmengen und statistische Auswertungen neue Erkenntnisse gewonnen werden, insbesondere in Disziplinen, in denen bisher viele Daten noch von Hand ausgewertet wurden. Unternehmen erhoffen sich von der Analyse von Big Data Möglichkeiten zur Erlangung von Wettbewerbsvorteilen, zur Generierung von Einsparungspotentialen und zur Schaffung von neuen Geschäftsfeldern. Staatliche Stellen erhoffen sich bessere Ergebnisse in der Kriminalistik und Terrorismusbekämpfung[16]. Beispiele, in denen man Vorteile erwartet, sind:

Die reine Analyse von Kundendaten ist jedoch noch nicht automatisch Big Data – oft handelt es sich bei vielen Anwendungen aus dem Marketing viel mehr um „Small-Data“-Analytics.[15]

Verarbeitung von Big Data[Bearbeiten | Quelltext bearbeiten]

Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mit Belegen (beispielsweise Einzelnachweisen) ausgestattet. Die fraglichen Angaben werden daher möglicherweise demnächst entfernt. Bitte hilf der Wikipedia, indem du die Angaben recherchierst und gute Belege einfügst. Näheres ist eventuell auf der Diskussionsseite oder in der Versionsgeschichte angegeben. Bitte entferne zuletzt diese Warnmarkierung.

Klassische relationale Datenbanksysteme sowie Statistik- und Visualisierungsprogramme sind oft nicht in der Lage, derart große Datenmengen zu verarbeiten. Für Big Data kommen daher neue Arten von Datenspeicher- und Analyse-Systemen zum Einsatz, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeiten. Dabei gibt es u. a. folgende Herausforderungen:

  • Verarbeitung vieler Datensätze
  • Verarbeitung vieler Spalten innerhalb eines Datensatzes
  • Schneller Import großer Datenmengen
  • Sofortige Abfrage importierter Daten (Realtime Processing)
  • Kurze Antwortzeiten (Latenz und Verarbeitungsdauer) auch bei komplexen Abfragen
  • Möglichkeit zur Verarbeitung vieler gleichzeitiger Abfragen (Concurrent Queries)
  • Analyse verschiedenartiger Informationstypen (Zahlen, Texte, Bilder, …)

Die Entwicklung von Software für die Verarbeitung von Big Data befindet sich noch in einer frühen Phase. Bekannt ist der MapReduce-Ansatz, der bei Open-Source-Software (Apache Hadoop und MongoDB) sowie bei einigen kommerziellen Produkten (Aster Data, Greenplum, u. a.) zum Einsatz kommt.

Kritik[Bearbeiten | Quelltext bearbeiten]

Schwammiger Begriff und Hype[Bearbeiten | Quelltext bearbeiten]

Der Begriff „Big Data“ wird für jegliche Art der Datenverarbeitung verwendet, selbst wenn die Daten weder groß, noch komplex sind oder sich schnell ändern; und mit herkömmlichen Techniken problemlos verarbeitet werden können.[15] Die zunehmende Aufweichung des Begriffs führt dazu, dass er zunehmend ein aussageloser Marketingbegriff wird und vielen Prognosen zufolge innerhalb der nächsten Jahre eine starke Abwertung erfahren wird („Tal der Enttäuschungen“ im Hypezyklus).

Fehlende Normen[Bearbeiten | Quelltext bearbeiten]

Kritik gibt es an „Big Data“ vor allem dahingehend, dass die Datenerhebung und -auswertung oft nach technischen Aspekten erfolgt, also dass beispielsweise der technisch einfachste Weg gewählt wird, die Daten zu erheben und die Auswertung von den Möglichkeiten, diese Daten zu verarbeiten, begrenzt wird. Statistische Grundprinzipien wie das einer repräsentativen Stichprobe werden oft vernachlässigt. So kritisierte die Sozialforscherin Danah Boyd:[19]

  • Größere Datenmengen müssten nicht qualitativ bessere Daten sein
  • Nicht alle Daten seien gleichermaßen wertvoll
  • „Was“ und „Warum“ seien zwei unterschiedliche Fragen
  • Bei Interpretationen sei Vorsicht geboten
  • Nur weil es verfügbar ist, sei es nicht ethisch

So ermittelte ein Forscher beispielsweise, dass Menschen nicht mehr als 150 Freundschaften pflegen (Dunbar-Zahl), was sodann als technische Begrenzung in sozialen Netzwerken eingeführt wurde – in der falschen Annahme, als „Freunde“ bezeichnete Bekanntschaften würden echte Freundschaften widerspiegeln.[19][20] Sicherlich würde nicht jeder alle seine Facebook-Freunde in einem Interview als Freunde benennen – der Begriff eines „Freundes“ signalisiert bei Facebook lediglich eine Kommunikationsbereitschaft.

Fehlende Substanz der Auswertungen[Bearbeiten | Quelltext bearbeiten]

Ein anderer kritischer Ansatz setzt sich mit der Frage auseinander, ob Big Data das Ende aller Theorie bedeutet. Chris Anderson, Chefredakteur beim Magazin Wired beschrieb 2008 das Glaubwürdigkeitsproblem jeder wissenschaftlichen Hypothese und jedes Modells bei gleichzeitiger Echtzeitanalyse lebender und nicht lebender Systeme. Korrelationen werden wichtiger als kausale Erklärungsansätze, die sich oft erst später bewahrheiten oder falsifizieren lassen.[21]

Fehlende Regulierung[Bearbeiten | Quelltext bearbeiten]

Der schleswig-holsteinische Datenschutzbeauftragte Thilo Weichert warnt: „Big Data eröffnet Möglichkeiten des informationellen Machtmissbrauchs durch Manipulation, Diskriminierung und informationelle ökonomische Ausbeutung – verbunden mit der Verletzung der Grundrechte der Menschen.“[22][23]

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Literatur[Bearbeiten | Quelltext bearbeiten]

Dieser Abschnitt bedarf einer Überarbeitung: Willkürliche Auswahl, ohne Relevanzprüfung; oft von Autoren selbst eingetragen.
Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.

Weblinks[Bearbeiten | Quelltext bearbeiten]

 Commons: Big Data – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Christl, W. (November 2014). www.crackedlabs.org. Abgerufen am 26. Dezember 2015 von Kommerzielle digitale Überwachung im Alltag: http://crackedlabs.org/dl/Studie_Digitale_Ueberwachung.pdf . S. 12
  2. Bachmann, R., Gerzer, T., & Kemper, D. G. (2014). Big Data – Fluch oder Segen? – Unternehmen im Spiegel gesellschaftlichnen Wandels. Heidelberg, München, Landsberg, Frechen, Hamburg: Mitp Verlag. S. 17
  3. Reichert, R. (2014). Big Data: Analysen zum digitalen wandel von Wissen, Macht und Ökonomie. Bielefeld: transcript Verlag. S. 10
  4. Gartner IT Glossary: „Big data is high-volume, high-velocity and high-variety in formation assets that demand cost- effective, innovative forms of information processing for enhanced insight and decision making“. Abgerufen am 15. Januar 2016 von: http://www.gartner.com/it-glossary/big-data
  5. Bachmann, R., Gerzer, T., & Kemper, D. G. (2014). Big Data – Fluch oder Segen? – Unternehmen im Spiegel gesellschaftlichnen Wandels. Heidelberg, München, Landsberg, Frechen, Hamburg: Mitp Verlag. S. 23ff, S. 27ff
  6. President’s Council of Advisors for Science and Technology: “Big Data: Seizing Opportunities, Preserving Values”, Executive Office of the President, Mai 2014
  7. Edd Dumbill: “What is big data? An introduction to the big data landscape” vom 11. Januar 2012, gesichtet am 9. Mai 2014
  8. Fraunhofer IAIS: „Innovationspotenzialanalyse“ 2012, gesichtet am 13. November 2014
  9. Rainer Schmidt, Michael Möhring, Stefan Maier, Julia Pietsch, Ralf-Christian Härting: Big Data as Strategic Enabler - Insights from Central European Enterprises. In: Business Information Systems (= Lecture Notes in Business Information Processing). Nr. 176. Springer International Publishing, 2014, ISBN 978-3-319-06694-3, S. 50–60, doi:10.1007/978-3-319-06695-0_5 (springer.com [abgerufen am 20. April 2016]).
  10. crackedlabs.org: Kommerzielle digitale Überwachung im Alltag, S. 12ff
  11. Klaus Manhart: IDC-Studie zum Datenwachstum – Doppeltes Datenvolumen alle zwei Jahre. In: CIO. 12. Juli 2011, abgerufen am 11. Januar 2013.
  12. Trendkongress: Big Data, wenig Schutz. Abgerufen am 27. November 2012.
  13. Stefan Schulz: Wir und unsere virtuellen Zombies, FAZ, 15. September 2014, abgerufen am 19. Februar 2015
  14. Götz Hamann und Adam Soboczynski: Der Angriff der Intelligenz, Die Zeit, 10. September 2014, abgerufen am 19. Februar 2015
  15. a b c Fergus Gloster: Von Big Data reden aber Small Data meinen. Computerwoche, 1. Oktober 2014, abgerufen am 5. Oktober 2014.
  16. Hilton Collins: Predicting Crime Using Analytics and Big Data. 24. Mai 2014, abgerufen am 23. Januar 2014.
  17. Ben Waber: People Analytics: How Social Sensing Technology Will Transform Business and What It Tells Us about the Future of Work. Financial Times Prent. 2013. ISBN 978-0-13-315831-1
  18. The Time Has Come: Analytics Delivers for IT Operations. Data Center Journal. Abgerufen am 18. Februar 2013.
  19. a b Danah Boyd: Privacy and Publicity in the Context of Big Data. In: WWW 2010 conference. 29. April 2010, abgerufen am 18. April 2011 (html, englisch, Keynote WWW 2010).
  20. Marco Metzler: Die Mechanismen virtueller Beziehungsnetze. In: Neue Zürcher Zeitung. 16. November 2007
  21. Siehe auch: Chris Anderson in WIRED und cum hoc ergo propter hoc
  22. Weichert fordert Hinterfragung und Erforschung von „Big Data“. 18. März 2013, abgerufen am 21. März 2013.
  23. Big Data: Sowohl Gefahr für die Demokratie als auch ökonomische Chance. 20. März 2013, abgerufen am 21. März 2013.
  24. Stefan Schulz: „Sie wissen alles“, FAZ, 15. September 2014, abgerufen am 19. Februar 2015
  25. Vera Linß: Sachbuch über Big Data – Gefährliche Datenfusion, Deutschlandradio Kultur, 15. September 2014, abgerufen am 19. Februar 2015
  26. Götz Hamann und Adam Soboczynski: Der Angriff der Intelligenz, Die Zeit, 10. September 2014, abgerufen am 19. Februar 2015
  27. Deutschlandfunk.de, Wissenschaft im Brennpunkt, 20. März 2016, Michael Lange: Das wahre „Ich“ des Menschen (28. März 2016)