Big Data

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Farbliche Darstellung der Aktivität eines Wikipedia-Bots über einen längeren Zeitraum: typisches Beispiel der Veranschaulichung von „Big Data“ mit einer Visualisierung

Der aus dem englischen Sprachraum stammende Begriff Big Data [ˈbɪɡ ˈdeɪtə] (von englisch big ‚groß‘ und data ‚Daten‘) bezeichnet Datenmengen, welche

  • zu groß,
  • zu komplex,
  • zu schnelllebig oder
  • zu schwach strukturiert

sind, um sie mit manuellen und herkömmlichen Methoden der Datenverarbeitung auszuwerten.[1] Im deutschsprachigen Raum ist der traditionellere Begriff Massendaten. „Big Data“ wird häufig als Sammelbegriff für digitale Technologien verwendet, die in technischer Hinsicht für eine neue Ära digitaler Kommunikation und Verarbeitung und in sozialer Hinsicht für einen gesellschaftlichen Umbruch verantwortlich gemacht werden.[2] Er steht dabei grundsätzlich für große digitale Datenmengen, aber auch für deren Analyse, Nutzung, Sammlung, Verwertung und Vermarktung.[3]

In der Definition von Big Data bezieht sich das „Big“ auf die drei Dimensionen volume (Umfang, Datenvolumen), velocity (Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden) sowie variety (Bandbreite der Datentypen und -quellen).[4] Erweitert wird diese Definition um die zwei V's value und validity, welche für einen unternehmerischen Mehrwert und die Sicherstellung der Datenqualität stehen.[5] Der Begriff „Big Data“ unterliegt als Schlagwort einem kontinuierlichen Wandel; so wird mit ihm ergänzend auch oft der Komplex der Technologien beschrieben, die zum Sammeln und Auswerten dieser Datenmengen verwendet werden.[6][7] Die gesammelten Daten können dabei aus verschiedensten Quellen stammen (Auswahl):

„Big Data“ umfasst auch Bereiche, die als „intim“ bzw. „privat“ gelten: Der Wunsch der Industrie und bestimmter Behörden, möglichst freien Zugriff auf diese Daten zu erhalten, sie besser analysieren zu können und die gewonnenen Erkenntnisse zu nutzen, gerät dabei unweigerlich in Konflikt mit geschützten Persönlichkeitsrechten der Einzelnen. Ein Ausweg ist allein durch eine

  • Anonymisierung der Daten vor dem Ausbeuten, wenn nicht schon durch
  • Anonymisierung vor dem Auswerten

zu erreichen. Klassische Anwender sind Provider sozialer Netzwerke und von Suchmaschinen. Die Analyse, Erfassung und Verarbeitung von großen Datenmengen ist heute in vielen Bereichen alltäglich.

Big Data kann Geschäftsprozess-Verbesserungen in allen Funktionsbereichen von Unternehmen, vor allem aber im Bereich der Technologieentwicklung und Informationstechnik sowie des Marketings erzeugen.[9] Die Erhebung und Verwertung der Datenmengen dient dabei im Allgemeinen der Umsetzung von Unternehmenszielen oder zur staatlichen Sicherheit. Bisher haben vor allem große Branchen, Unternehmen und Anwendungsbereiche der Wirtschaft, Marktforschung, Vertriebs- und Servicesteuerung, Medizin, Verwaltung und Nachrichtendienste die entsprechenden digitalen Methoden für sich genutzt: Die erfassten Daten sollen weiterentwickelt und nutzenbringend eingesetzt werden. Die Erhebung der Daten dient dabei meistens für konzernorientierte Geschäftsmodelle sowie Trendforschung in den sozialen Medien und Werbeanalysen, um zukunftsweisende und möglicherweise gewinnbringende Entwicklungen zu erkennen und in Prognosen umzumünzen.[10]

Hintergrund[Bearbeiten | Quelltext bearbeiten]

Mengen von Massendaten wachsen typischerweise exponentiell. Berechnungen aus dem Jahr 2011 zufolge verdoppelt sich das weltweite erzeugte Datenvolumen alle 2 Jahre.[11] Diese Entwicklung wird vor allem getrieben durch die zunehmende maschinelle Erzeugung von Daten z. B. über Protokolle von Telekommunikationsverbindungen (Call Detail Record, CDR) und Webzugriffen (Logdateien), automatische Erfassungen von RFID-Lesern, Kameras, Mikrofonen und sonstigen Sensoren. Big Data fallen auch in der Finanzindustrie an (Finanztransaktionen, Börsendaten) sowie im Energiesektor (Verbrauchsdaten) und im Gesundheitswesen (Verschreibungen). In der Wissenschaft fallen ebenfalls große Datenmengen an, z. B. in der Geologie, Genetik, Klimaforschung und Kernphysik. Der IT-Branchenverband Bitkom hat Big Data als einen Trend im Jahr 2012 bezeichnet[12]. Bei großen Datenkomplexen verbietet sich der unwirtschaftliche Aufwand für ein Speichern auf Vorrat. Dann werden lediglich Metadaten gespeichert oder das Auswerten setzt mitlaufend oder mindestens gering zeitversetzt mit dem Entstehen der Daten auf.

Weitere Bedeutungen[Bearbeiten | Quelltext bearbeiten]

Big Data bezeichnet primär die Verarbeitung von großen, komplexen und sich schnell ändernden Datenmengen. Als Buzzword wird der Begriff in den Massenmedien aber auch verwendet für

  • die zunehmende Überwachung der Menschen durch Geheimdienste auch in westlichen Staaten bspw. durch Vorratsdatenspeicherung
  • die Verletzung von Persönlichkeitsrechten von Kunden durch Unternehmen
  • die zunehmende Intransparenz der Datenspeicherung durch Delokalisierung (Cloud Computing)
  • der Wunsch der Industrie aus den vorhandenen Daten einen Wettbewerbsvorteil erlangen zu können
  • die Automatisierung von Produktionsprozessen (Industrie 4.0, Internet der Dinge)
  • die intransparente Automatisierung von Entscheidungsprozessen in Software[13][14]
  • der Einsatz neuer Technologien statt Standardsoftware (insbesondere in Unternehmen mit einer konservativen IT oft durch Verwendung von Software as a Service um firmeninterne IT-Einschränkungen zu umgehen)
  • die Entwicklung von eigenen Softwarelösungen („inhouse IT“) statt dem Einsatz von „off-the-shelf“ Software durch Fremdunternehmen
  • Werbung, basierend auf Daten über die Internet- und Handynutzung
  • die Organisation von Zusammenarbeit im Rahmen von People Analytics Projekten

selbst wenn in diesem Zuge teilweise weder große noch komplexe Datenmengen anfallen.[15]

Beispiele[Bearbeiten | Quelltext bearbeiten]

In der Forschung können durch Verknüpfung großer Datenmengen und statistische Auswertungen neue Erkenntnisse gewonnen werden, insbesondere in Disziplinen, in denen bisher viele Daten noch von Hand ausgewertet wurden. Unternehmen erhoffen sich von der Analyse von Big Data Möglichkeiten zur Erlangung von Wettbewerbsvorteilen, zur Generierung von Einsparungspotentialen und zur Schaffung von neuen Geschäftsfeldern. Staatliche Stellen erhoffen sich bessere Ergebnisse in der Kriminalistik und Terrorismusbekämpfung[16]. Beispiele, in denen man Vorteile erwartet, sind:

Die reine Analyse von Kundendaten ist jedoch noch nicht automatisch Big Data – oft handelt es sich bei vielen Anwendungen aus dem Marketing viel mehr um „Small-Data“-Analytics.[15]

Verarbeitung von Big Data[Bearbeiten | Quelltext bearbeiten]

Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mit Belegen (beispielsweise Einzelnachweisen) ausgestattet. Die fraglichen Angaben werden daher möglicherweise demnächst entfernt. Bitte hilf der Wikipedia, indem du die Angaben recherchierst und gute Belege einfügst. Näheres ist eventuell auf der Diskussionsseite oder in der Versionsgeschichte angegeben. Bitte entferne zuletzt diese Warnmarkierung.

Klassische relationale Datenbanksysteme sowie Statistik- und Visualisierungsprogramme sind oft nicht in der Lage, derart große Datenmengen zu verarbeiten. Für Big Data kommen daher neue Arten von Datenspeicher- und Analyse-Systemen zum Einsatz, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeiten. Dabei gibt es u. a. folgende Herausforderungen:

  • Verarbeitung vieler Datensätze
  • Verarbeitung vieler Spalten innerhalb eines Datensatzes
  • Schneller Import großer Datenmengen
  • Sofortige Abfrage importierter Daten (Realtime Processing)
  • Kurze Antwortzeiten (Latenz und Verarbeitungsdauer) auch bei komplexen Abfragen
  • Möglichkeit zur Verarbeitung vieler gleichzeitiger Abfragen (Concurrent Queries)
  • Analyse verschiedenartiger Informationstypen (Zahlen, Texte, Bilder, …)

Die Entwicklung von Software für die Verarbeitung von Big Data befindet sich noch in einer frühen Phase. Bekannt ist der MapReduce-Ansatz, der bei Open-Source-Software (Apache Hadoop und MongoDB) sowie bei einigen kommerziellen Produkten (Aster Data, Greenplum, u. a.) zum Einsatz kommt.

Kritik[Bearbeiten | Quelltext bearbeiten]

Schwammiger Begriff und Hype[Bearbeiten | Quelltext bearbeiten]

Der Begriff „Big Data“ wird für jegliche Art der Datenverarbeitung verwendet, selbst wenn die Daten weder groß noch komplex sind oder sich schnell ändern; und mit herkömmlichen Techniken problemlos verarbeitet werden können.[15] Die zunehmende Aufweichung des Begriffs führt dazu, dass er immer mehr ein aussageloser Marketingbegriff wird und vielen Prognosen zufolge innerhalb der nächsten Jahre eine starke Abwertung erfahren wird („Tal der Enttäuschungen“ im Hypezyklus).

Fehlende Normen[Bearbeiten | Quelltext bearbeiten]

Kritik gibt es an „Big Data“ vor allem dahingehend, dass die Datenerhebung und -auswertung oft nach technischen Aspekten erfolgt, also dass beispielsweise der technisch einfachste Weg gewählt wird, die Daten zu erheben und die Auswertung von den Möglichkeiten, diese Daten zu verarbeiten, begrenzt wird. Statistische Grundprinzipien wie das einer repräsentativen Stichprobe werden oft vernachlässigt. So kritisierte die Sozialforscherin Danah Boyd:[19]

  • Größere Datenmengen müssten nicht qualitativ bessere Daten sein
  • Nicht alle Daten seien gleichermaßen wertvoll
  • „Was“ und „Warum“ seien zwei unterschiedliche Fragen
  • Bei Interpretationen sei Vorsicht geboten
  • Nur weil es verfügbar ist, sei es nicht ethisch

So ermittelte ein Forscher beispielsweise, dass Menschen nicht mehr als 150 Freundschaften pflegen (Dunbar-Zahl), was sodann als technische Begrenzung in sozialen Netzwerken eingeführt wurde – in der falschen Annahme, als „Freunde“ bezeichnete Bekanntschaften würden echte Freundschaften widerspiegeln.[19][20] Sicherlich würde nicht jeder alle seine Facebook-Freunde in einem Interview als Freunde benennen – der Begriff eines „Freundes“ signalisiert bei Facebook lediglich eine Kommunikationsbereitschaft.

Fehlende Substanz der Auswertungen[Bearbeiten | Quelltext bearbeiten]

Ein anderer kritischer Ansatz setzt sich mit der Frage auseinander, ob Big Data das Ende aller Theorie bedeutet. Chris Anderson, Chefredakteur beim Magazin Wired beschrieb 2008 das Glaubwürdigkeitsproblem jeder wissenschaftlichen Hypothese und jedes Modells bei gleichzeitiger Echtzeitanalyse lebender und nicht lebender Systeme. Korrelationen werden wichtiger als kausale Erklärungsansätze, die sich oft erst später bewahrheiten oder falsifizieren lassen.[21]

Fehlende Regulierung[Bearbeiten | Quelltext bearbeiten]

Der schleswig-holsteinische Datenschutzbeauftragte Thilo Weichert warnt: „Big Data eröffnet Möglichkeiten des informationellen Machtmissbrauchs durch Manipulation, Diskriminierung und informationelle ökonomische Ausbeutung – verbunden mit der Verletzung der Grundrechte der Menschen.“[22][23]

Rezeption[Bearbeiten | Quelltext bearbeiten]

  • Kongress Alte Feuerwache Köln, 30. September bis 2. Oktober 2016: Leben ist kein Algorithmus - Solodarische Perspektiven gegen den technologischen Zugriff[24]

Kunst[Bearbeiten | Quelltext bearbeiten]

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Literatur[Bearbeiten | Quelltext bearbeiten]

Dieser Abschnitt bedarf einer Überarbeitung: Willkürliche Auswahl, ohne Relevanzprüfung; oft von Autoren selbst eingetragen.
Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.

Weblinks[Bearbeiten | Quelltext bearbeiten]

 Commons: Big Data – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. W. Christl, November 2014, crackedlabs.org: Kommerzielle digitale Überwachung im Alltag PDF, S. 12 (26. Dezember 2015)
  2. Bachmann, R., Gerzer, T., & Kemper, D. G. (2014): Big Data – Fluch oder Segen? – Unternehmen im Spiegel gesellschaftlichnen Wandels. Heidelberg, München, Landsberg, Frechen, Hamburg: Mitp Verlag. S. 17
  3. Reichert, R. (2014). Big Data: Analysen zum digitalen wandel von Wissen, Macht und Ökonomie. Bielefeld: transcript Verlag. S. 10
  4. Gartner IT Glossary: „Big data is high-volume, high-velocity and high-variety in formation assets that demand cost- effective, innovative forms of information processing for enhanced insight and decision making“. Abgerufen am 15. Januar 2016 von: http://www.gartner.com/it-glossary/big-data
  5. Bachmann, R., Gerzer, T., & Kemper, D. G. (2014). Big Data – Fluch oder Segen? – Unternehmen im Spiegel gesellschaftlichnen Wandels. Heidelberg, München, Landsberg, Frechen, Hamburg: Mitp Verlag. S. 23ff, S. 27ff
  6. President’s Council of Advisors for Science and Technology: Big Data: Seizing Opportunities, Preserving Values, Executive Office of the President, Mai 2014
  7. Edd Dumbill, 11. Januar 2012, strata.oreilly.com: What is big data? An introduction to the big data landscape (9. Mai 2014)
  8. Fraunhofer IAIS: „Innovationspotenzialanalyse“ 2012, gesichtet am 13. November 2014
  9. Rainer Schmidt, Michael Möhring, Stefan Maier, Julia Pietsch, Ralf-Christian Härting: Big Data as Strategic Enabler - Insights from Central European Enterprises. In: Business Information Systems (= Lecture Notes in Business Information Processing). Nr. 176. Springer International Publishing, 2014, ISBN 978-3-319-06694-3, S. 50–60, doi:10.1007/978-3-319-06695-0_5 (springer.com [abgerufen am 20. April 2016]).
  10. crackedlabs.org: Kommerzielle digitale Überwachung im Alltag, S. 12ff
  11. Klaus Manhart: IDC-Studie zum Datenwachstum – Doppeltes Datenvolumen alle zwei Jahre. In: CIO. 12. Juli 2011, abgerufen am 11. Januar 2013.
  12. Trendkongress: Big Data, wenig Schutz. Abgerufen am 27. November 2012.
  13. Stefan Schulz: Wir und unsere virtuellen Zombies, FAZ, 15. September 2014, abgerufen am 19. Februar 2015
  14. a b Götz Hamann und Adam Soboczynski: Der Angriff der Intelligenz, Die Zeit, 10. September 2014, abgerufen am 19. Februar 2015
  15. a b c Fergus Gloster: Von Big Data reden aber Small Data meinen. Computerwoche, 1. Oktober 2014, abgerufen am 5. Oktober 2014.
  16. Hilton Collins: Predicting Crime Using Analytics and Big Data. 24. Mai 2014, abgerufen am 23. Januar 2014.
  17. Ben Waber: People Analytics: How Social Sensing Technology Will Transform Business and What It Tells Us about the Future of Work. Financial Times Prent. 2013. ISBN 978-0-13-315831-1
  18. The Time Has Come: Analytics Delivers for IT Operations. Data Center Journal. Abgerufen am 18. Februar 2013.
  19. a b Danah Boyd: Privacy and Publicity in the Context of Big Data. In: WWW 2010 conference. 29. April 2010, abgerufen am 18. April 2011 (html, englisch, Keynote WWW 2010).
  20. Marco Metzler: Die Mechanismen virtueller Beziehungsnetze. In: Neue Zürcher Zeitung. 16. November 2007
  21. Siehe auch: Chris Anderson in WIRED und cum hoc ergo propter hoc
  22. Weichert fordert Hinterfragung und Erforschung von „Big Data“. 18. März 2013, abgerufen am 21. März 2013.
  23. Big Data: Sowohl Gefahr für die Demokratie als auch ökonomische Chance. 20. März 2013, abgerufen am 21. März 2013.
  24. bigdata.blackblogs.org (17. September 2016)
  25. freiheit.florianmehnert.de
  26. Stefan Schulz: „Sie wissen alles“, FAZ, 15. September 2014, abgerufen am 19. Februar 2015
  27. Vera Linß: Sachbuch über Big Data – Gefährliche Datenfusion, Deutschlandradio Kultur, 15. September 2014, abgerufen am 19. Februar 2015
  28. Deutschlandfunk.de, Wissenschaft im Brennpunkt, 20. März 2016, Michael Lange: Das wahre „Ich“ des Menschen (28. März 2016)