Digitale Revolution

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Ein Mikroprozessor als Beispiel für eine häufig mit der Digitalen Revolution in Verbindung gebrachte Erfindung

Der Begriff Digitale Revolution bezeichnet den durch Digitaltechnik und Computer ausgelösten Umbruch, der seit Ausgang des 20. Jahrhunderts in vielen Ländern einen Wandel nahezu aller Lebensbereiche bewirkt und zu einem digital vernetzten Lebensstil (Digital Lifestyle) führt – ähnlich wie die industrielle Revolution 200 Jahre zuvor in die Industriegesellschaft führte. Deshalb ist auch von einer dritten industriellen Revolution die Rede oder in technischer Hinsicht von mikroelektronischer Revolution.

Die mit der Digitalen Revolution einhergehenden Veränderungen in Wirtschafts- und Arbeitswelt, in Öffentlichkeit und Privatleben vollziehen sich in großer Geschwindigkeit überall dort, wo die materiellen Voraussetzungen für Anwendungs- und Nutzungsmöglichkeiten der fortschreitenden Digitalisierung bestehen. Neue Medien beeinflussen zunehmend Kommunikationsverhalten, Sozialisationsprozesse und Sprachkultur. Anwendungsbereiche und Entwicklungspotenziale von künstlicher Intelligenz gehören zu den Trends und offenen Zukunftsfragen der Digitalen Revolution, ebenso wie die Gefährdung der Demokratie und der Freiheit Einzelner.

Zeitgeschichtliche Verortung, Entwicklungsdynamik und Trends[Bearbeiten | Quelltext bearbeiten]

Historiker machen als markante Zäsur und den Beginn des "Digitalen Zeitalters" etwa die Zeit um 1970 aus. In den Industriestaaten kann ab diesem Zeitpunkt von einer grundlegenden Durchdringung aller Lebensbereiche durch digitale Informations- und Kommunikationstechnologie gesprochen werden. Von der Wirtschaft über die Gesellschaft bis hin zu Politik und Staat ging es in vielen Bereichen schlicht nicht mehr ohne digitale Computer.[1] Die "digitale Transformation [war] ein technischer, sozialer, kultureller, politischer und wirtschaftlicher Prozess".[2]

In einer von soziologischen Gesichtspunkten bestimmten Abfolge der bisherigen Menschheitsgeschichte, die von Jägern und Sammlern über Agrargesellschaften zu Industriegesellschaften führt, stellt sich die Digitale Revolution der Gegenwart für Stengel, Looy und Wallaschkowski nach der Neolithischen Revolution und der Industriellen Revolution als dritte große Umwälzung der Menschheitsgeschichte dar. Sie schlagen vor, ihren Durchbruch mit dem Ende des kurzen 20. Jahrhundert im Jahr 1989 anzusetzen. Zu diesem Zeitpunkt habe eine neue Entwicklung eingesetzt, die noch in den frühen 1980er Jahren nicht absehbar gewesen sei: „1989 entwickelten Tim Berners-Lee und Robert Cailliau am Forschungszentrum CERN in Genf das World Wide Web, ohne dessen Hypertext-Protokolle und Webbrowser das damals bereits bestehende, aber weitgehend unbekannte Internet noch für längere Zeit eine Angelegenheit vor allem für Nerds, Geeks und Universitätspersonal geblieben wäre.“ Das World Wide Web habe es Nutzern erleichtert, auf Informationen zuzugreifen, die auf weit entfernten Servern gespeichert waren. Mit der Web 2.0 bzw. Social Media genannten Erweiterung war es Nutzern ab 2003 zudem möglich, eigene Inhalte als Text-, Audio- oder Videodatei ins Netz zu stellen und auf sozialen Plattformen miteinander zu interagieren, und im Jahr 2010 überstieg die Anzahl der mit dem Internet vernetzten Geräte die der damals lebenden Menschen.[3] Innerhalb einer Dekade, so Annahmen aus dem Jahr 2014, werde angesichts der zunehmenden Gerätevernetzung das Internet der Dinge zur Grundinfrastruktur gehören.[4]

Gegenüber den vorherigen Revolutionen in der Menschheitsgeschichte ist diese Revolution laut Stengel, Looy und Wallaschkowski vielleicht mit mehr Recht noch als die beiden vorherigen als Revolution zu bezeichnen, „ereignete sie sich doch binnen weniger Jahrzehnte und auf globaler Ebene.“[5] Bei Andreas Mühlichen heißt es: „Der Übergang von einer Welt des Analogen zu der Ära digitaler Computer, digitaler Datenspeicherung und digitaler Vernetzung beschreibt eine mediale und informationstechnische Zäsur, die ähnlich tiefgreifend erscheint wie der Übergang von der Mündlichkeit zur Schriftlichkeit.“[Anm. 1] Der deutsche Kybernetiker Karl Steinbuch formulierte bereits 1966: „Information ist Anfang und Grundlage der Gesellschaft.“[Anm. 2] Er prognostizierte ein System wie das Internet ebenso wie der Gordon-Helmer-Bericht von 1964 für die 1980er Jahre.[Anm. 3]

Weitgehend unstrittig ist heute die Verwendung des Revolutionsbegriffs für gravierende Kontinuitätsbrüche, die nicht nur Technik und Wirtschaft berühren, sondern alle Lebensbereiche umwälzen, wie das zum Beispiel Friedrich Engels für die industrielle Revolution formulierte: eine „Revolution, die zugleich die ganze bürgerliche Gesellschaft umwandelte“.[6] Doch während die industrielle Revolution heute im Wesentlichen durch eine lange Periode außergewöhnlichen wirtschaftlichen Wachstums definiert wird,[7] gingen die Wachstumsraten in wichtigen OECD-Ländern und weltweit seit den 1970er Jahren und verstärkt seit 1995 zurück.[8]

Wenn man als Revolutionstreiber die weitreichenden informationstechnologischen Durchbrüche im Vorfeld und zu Beginn des 21. Jahrhunderts ansieht, wie das Manuel Castells mit seinem Begriff des informationellen Kapitalismus anregt, stellt sich die Frage, warum sich diese Revolution ausgerechnet in einer Phase stagnierender und sinkender Wachstumsraten abgespielt haben soll bzw. noch abspielt. Darauf gibt es verschiedene Antworten: Zum einen kann die Digitale Revolution in der Produktionstechnik als Versuch verstanden werden, angesichts gesättigter Massenmärkte und hoher Rohstoff- und Energiekosten (Ölpreiskrisen 1973 und 1979/80) sowie sinkender Kapitalrenditen auch in Hochlohnländern flexibler, kundenorientierter, material- und energieeffizienter und damit arbeits- und kapitalsparend zu produzieren (v. a. durch Ersetzung von mechanischer und analoger Technik mittels digitaler Technik, durch Miniaturisierung und Integration von Bauteilen, durch einen steigenden Informations- und einen sinkenden Rohstoffanteil in den Produkten usw.) und gleichzeitig rascher auf neue Bedürfnisse zu reagieren. Das ist durchaus mit einer sinkenden Investitionsquote vereinbar: Weltweit sank diese bezogen auf das Bruttoinlandsprodukt von etwa 23–25 % in den 1970er Jahren auf unter 20 % nach 2008.[Anm. 4]

Zum anderen werden viele Leistungen der digitalen Wirtschaft nicht vollständig in der volkswirtschaftlichen Gesamtrechnung abgebildet, u. a. die Arbeit der Kunden, die durch Lieferung von Daten immer stärker kostenlos mitwirken (z. B. bei einer Flugbuchung, bei Umfragen oder bei der Konfiguration von Produkten). Hinzu kommen die sinkenden Distributionskosten für digitale Produkte über Netze.[9] Alle diese Faktoren tragen zur Erhöhung der Unternehmensgewinne trotz relativ sinkender Wachstumsraten bei.[10]

Eine angebotsgetriebene Revolution[Bearbeiten | Quelltext bearbeiten]

Unabhängig von der Frage, wie sich die Digitale Revolution in wirtschaftlichen Kerndaten ausdrückt und ob ihr Nutzen in der volkswirtschaftlichen Gesamtrechnung überhaupt einen Ausdruck findet, ist zu konstatieren, dass der Prozess der technologischen Transformation bisher fast exponentiell expandiert, und zwar nicht nur durch die Zunahme der Rechen-, Speicher- und Kommunikationskapazitäten, sondern „aufgrund seiner Fähigkeit, durch digitale Sprache eine Schnittstelle zwischen technologischen Bereichen zu schaffen, in der Informationen erstellt, gespeichert, aufgerufen, verarbeitet und weitergeleitet werden können.“[Anm. 5] Die Verbindung eingebetteter Softwaresysteme zur sensorgestützten Überwachung und Steuerung der physischen Realität mit globalen digitalen Netzinfrastrukturen (dem Cyberspace) erlaubt vielfältige Applikationen und Problemlösungen mit hohem wirtschaftlichen Potential und starker Innovationskraft: Angebotsseitig entstehen immer mehr Nutzungs- und Verknüpfungsmöglichkeiten von Daten, die neue Geschäftsmodelle ermöglichen, während bisherige Medien- und Technologiebrüche und damit verbundene Tätigkeiten der Datenerfassung und -transformation entfallen. Man kann daher sagen, dass die Digitale Revolution weitgehend angebots-, nicht nachfragegetrieben abläuft, weil immer mehr flexible Nutzungsmöglichkeiten von immer mehr potenziellen Anwendern „entdeckt“ und kostensenkend und profitsteigernd genutzt werden.

So war durch die Existenz einer miniaturisierten, leichtgewichtigen und integrierten Steuerungstechnik, deren Entwicklung in den 1950er und 1960er Jahren vor allem von der Nachfrage des Militärs nach Raketen mit großer Nutzlast getrieben war,[11] seit den 1970ern angesichts einer weltweiten Wachstumskrise plötzlich die Möglichkeit gegeben, arbeits- und kapitalsparende flexible Steuerungstechnologien (Speicherprogrammierbare Steuerungen) in Werkzeugmaschinen, Robotern und bei anderen zivilen Anwendungen einzusetzen. Für private Zwecke heutzutage genutzte Tabletcomputer sind hinsichtlich Speicherkapazität, Datenverarbeitungs- und übertragungsgeschwindigkeit leistungsfähiger als die bei der Mondlandung verwendeten NASA-Rechner.[Anm. 6]

Die Digitalisierung von Informations- und Kommunikationsprozessen führte aber auch zu einer Informationsexplosion auf der Angebotsseite, die sich bei den Nutzern zum Teil als Informationsüberflutung niederschlägt. Vor allem die weltweiten Telekommunikations- und Informationsspeicherkapazitäten pro Kopf sind in den zwei Jahrzehnten zwischen 1986 und 2007 zwischen 23 % und 28 % pro Jahr gewachsen[Anm. 7] (zum Vergleich: Bei den jährlichen Wachstumsraten der Weltwirtschaft geht es regelmäßig um Prozentzahlen im oft niedrigen einstelligen Bereich).

Es wird angenommen, dass es im Jahr 2002 das erste Mal möglich war, mehr Informationen digital als im Analogformat zu speichern,[12] ein Anhaltspunkt für den Beginn des „Digitalen Zeitalters“. Es wird geschätzt, dass im Jahr 1993 lediglich 3 % der weltweiten Informationsspeicherkapazität digital war, 2007 bereits 94 %. Die weltweite Telekommunikationskapazität (bidirektionaler Informationsaustausch) war bereits 1986 zu 20 %, 1993 zu zwei Dritteln (68 %) und im Jahr 2000 zu 98 % digitalisiert.[12] Die globale Broadcast- und Rundfunkkapazität hingegen (unidirektionale Informationsübermittlung) blieb demgegenüber zurück: Im Jahre 2007 waren erst 25 % digital.[12]

Die Leistungsfähigkeit der Computerchips wächst in der dem mooreschen Gesetz entsprechenden Weise immer schneller, indem die vorgenommenen Verbesserungen sich vervielfachen und die Leistungsfähigkeit der Technologie sich etwa alle zwei Jahre verdoppelt. Binnen 40 Jahren ist die Leistung von Mikroprozessoren, so Jaron Lanier, millionenfach erhöht worden. „Niemand weiß, wie lange sich dieser Prozess fortsetzen lässt.“[13]

Im fortgeschrittenen Entwicklungsstadium arbeitet unterdessen die gleichfalls digital basierte Forschung zur künstlichen Intelligenz, deren Anwendungsbereiche sich unter anderem bereits auf Handschriften- und Gesichtserkennung, auf Spracherkennung und Sprachassistenz erstrecken. Welche Formen und Spielarten künstlicher Intelligenz weiterhin realisiert werden, bleibt eine der offenen Zukunftsfragen wissenschaftlicher Forschung und menschlicher Existenz. Allerdings erlebt der Mensch heute erstmals das Ausmaß und die Bedeutung des technischen Fortschritts selbst zu seinen eigenen Lebzeiten in dramatischer Form – man denke nur an die verschiedenen Formen der Speicherung und Wiedergabe von Musik seit 1970, die zur Obsoleszenz mehrerer Mediengenerationen führten.

Technische Aspekte[Bearbeiten | Quelltext bearbeiten]

Grundlage der Digitalen Revolution ist der Mikrochip (integrierter Schaltkreis), der unter anderem die Einführung der flexiblen Automatisierung in der Produktion und mittels vernetzter Rechner ab den 1970er Jahren den Aufbau des Internets ermöglichte. Mit der Computerisierung einher ging der Trend, Arbeitsprozesse durch elektronische Datenverarbeitung stärker zu rationalisieren. Seit den 1980er Jahren wurden Computer nicht nur in Beruf und Forschung, sondern vermehrt auch im privaten Bereich genutzt. Grafische Benutzeroberflächen und Computermaus, fortgeschrittene Betriebssysteme, Softwareentwicklungen und Computerspiele erweiterten die Verwendungsmöglichkeiten und den Nutzerkreis der neuen Technologie, die nun auch miniaturisiert im Smartphone oder Stick-PC eingesetzt wird.

Ausgangspunkt der digitalen Entwicklung waren die Turingmaschine und die ihr in den 1940er Jahren nachfolgenden Rechenmaschinen. Steuerungen in der Raumfahrt ab den 1960er Jahren wurden mit Hilfe von Rechnern überhaupt erst möglich.[Anm. 8] Ende 1969 wurden erste Taschenrechner hergestellt.

Als PC wurde der Computer (Apple II) ab 1977 allgemein halbwegs erschwinglich; jedoch löste er in den Unternehmen nur sehr langsam die Großrechnertechnik bzw. die Mittlere Datentechnik ab. Einen kommerziellen Durchbruch brachte erst die Bereitstellung billiger Standardsoftware für Büroanwendungen. In den 1980er Jahren kamen das Global Positioning System (GPS), die CD, bildgebende Verfahren und Kernspintomographie hinzu, in den 1990er Jahren das Mobiltelefon, der Roboter, das Internet, die DVD und Computeranimationen, insbesondere für Simulationen und in der Filmkunst. 1996 konnte der Großrechner Deep Blue erstmals den amtierenden Schachweltmeister in einer Partie schlagen. Es folgten Digitalkamera, digitale Videokamera, Digitalfernsehen, Digitalradio, Navigationssystem, RFID, Drohnen, selbstfahrende Autos. Die mobile App ermöglichte die Digitalisierung von immer mehr Alltagsvorgängen. Dazu gehören unter anderem Kauf-, Buchungs-, Bezahl-, Reservierungs- und Bewertungsvorgänge, Hilfen bei der räumlichen Orientierung und Wegsuche sowie vielerlei Spielangebote. In den Anfängen des 21. Jahrhunderts sind Datenmaschinen – verstanden als „soziotechnische Vorrichtungen, die ein Geschehen datifizieren, also erfassen, speichern und auswerten können“ – zur „dominanten Maschinform“ aufgestiegen und durchdringen zunehmend alle Gesellschaftsbereiche.[Anm. 9]

Manche Zukunftprojektion der Digitalen Revolution schließt die Erwartung einer technologischen Singularität ein, eines Entwicklungsstadiums, in dem die künstliche Intelligenz fähig wäre, von sich aus technischen Fortschritt hervorzubringen.[Anm. 10]

Allerdings wird von dem Sozialwissenschaftler Peter Schadt kritisiert, dass durch eine einseitige Betonung der Technologie als Treiber die Digitalisierung in vielen – auch wissenschaftlichen – Publikationen ein „Scheinsubjekt“ aufgebaut werde, wodurch die tatsächlichen Akteure der Digitalisierung in den Hintergrund gerieten.[14]

Ökonomische Aspekte[Bearbeiten | Quelltext bearbeiten]

Durch die Einführung des PC sank in den 1980er und 1990er Jahren die Zugangsschwelle zum Markt für viele kleine Unternehmen. Heute spielt der Mobilfunk eine ähnliche Rolle für Kleinproduzenten in Entwicklungsländern, die durch den Netzzugang ihre Marktchancen besser ausloten können.[15]

Die Digitalisierung erleichtert die großräumige Verlagerung von Produktionsstandorten und Arbeitsplätzen im Zuge der Globalisierung. So können z. B. Farben an Textilmustern elektronisch vermessen werden und die Daten an Farbmischmaschinen an entfernten Standorten weitergegeben werden, wodurch das Hin- und Herschicken von Proben entfällt. In Konstruktionsabteilungen beispielsweise wird eine mehrere Kontinente übergreifende Arbeitsverteilung praktikabel, die auf der Basis der globalen digitalen Kommunikationsnetze eine „Rund-um-die-Uhr-Produktivität“ ermöglicht: „Dadurch, dass irgendwo auf der Welt immer ein Teil der Firma wach und am Arbeiten ist, kann jederzeit an den Produkten weitergearbeitet werden. Zuerst die in Asien oder Australien lebenden Mitarbeiter, gefolgt von den Europäern und Afrikanern, bevor dann die Kollegen in Nord- und Südamerika weitermachen.“[Anm. 11]

Beträchtlich durchgewirbelt von den mit der Digitalen Revolution verbundenen neuen Möglichkeiten präsentieren sich Banken und Finanzwelt, deren digitale Vernetzung in den 1980er Jahren begann. Immer leistungsstärkere Server gelangen seither zum Einsatz. Zu den jüngeren Entwicklungen im digitalisierten Finanzsektor zählt der umstrittene Hochfrequenzhandel auf der Basis programmierter Algorithmen, bei dem Rechnerkapazitäten und Datenübertragungsgeschwindigkeit für die Gewinnaussichten maßgeblich sind.[Anm. 12]

In der durch die Digitale Revolution veränderten Wirtschaftsweise können Unternehmensgewinne zum Teil auch ohne gesamtwirtschaftliches Wachstum steigen. Das trägt wesentlich dazu bei, dass die Lohnquote seit Mitte der 1980er Jahre sinkt, da durch Verbilligung der Investitionsgüter die Schwellen für die Ersetzung von Arbeitskraft durch digitale Technologie gesunken sind. Eine Aufteilungsquote von 70 % Lohneinkommen zu 30 % Kapitaleinkommen war viele Jahre lang bis in die 1970er Jahre konstant. John Maynard Keynes sprach in diesem Zusammenhang von einem „ökonomischen Wunder“. Diese Aufteilungsregel gilt heute nicht mehr: Im Jahr 2015 betrug die weltweite Lohnquote nur noch 58 %, was begleitet ist von einer Schwächung der Angebotsposition der Arbeitnehmer.[16] Ein Gesamtbild muss jedoch alle Sektoren der Gesellschaft in den Blick nehmen und fragen, wie deren Entwicklung mit der Digitalen Revolution verknüpft ist. Ob der von Dan Schiller geprägte Begriff des „digitalen Kapitalismus“[17] analytisch geeignet ist, die veränderte Funktionsweise der Gesellschaft abzubilden, wird derzeit diskutiert. Philipp Staab stellt zwei Folgen der digitalen Revolution in den Vordergrund: die Vermachtung proprietärer Märkte, die den großen Internetunternehmen „gehören“, und allgegenwärtige Zugangskontrollen zu diesen Märkten und Plattformen einschließlich der Kontrolle ihrer User.[18][19]

Erik Brynjolfsson und Andrew McAfee von der MIT Sloan School of Management nahmen frühere optimistische Vorannahmen zu den wirtschaftlichen Folgen der Digitalisierung 2015 teilweise wieder zurück: „In den 80er Jahren geriet das Wachstum des durchschnittlichen [US-]Haushaltseinkommens ins Stottern. In den vergangenen 15 Jahren war es sogar negativ. Inflationsbereinigt verdient ein amerikanischer Privathaushalt in der Mitte der Einkommensverteilungskurve heute weniger als 1998 – selbst unter Berücksichtigung von Veränderungen der Haushaltsgröße. Auch das Beschäftigungswachstum in der Privatwirtschaft hat nachgelassen […] Dieses Phänomen bezeichnen wir als die große Abkopplung. […] Der gesamtwirtschaftliche Reichtum im Sinne von Bruttoinlandsprodukt (BIP) und Produktivität setzt den Aufwärtstrend fort, während es mit dem Einkommen und den Karriereaussichten für die typischen Arbeitnehmer bergab geht. So etwas haben wir noch nie erlebt seit 30 Jahren.“ Dieser Trend gelte auch für Schweden, Finnland und Deutschland, wenn auch nicht im gleichen Maße wie in den USA. „Die Mittelschicht wird weiter schrumpfen, Wachstum werden wir ganz unten und ganz oben erleben. Brillante Manager, Unternehmer, Investoren und Schriftsteller profitieren. Yo-Yo Ma wird wohl kaum demnächst durch einen Roboter ersetzt werden, aber die Nummer 100 unter den Cellisten dieser Welt würde ich zumindest aus finanzieller Sicht nicht sein wollen.“[20]

Die Frage nach der Entstehung und Verwendung von digitalem, allgemein verfügbaren Wissen durch freiwillige, unbezahlte Arbeit in sozialen Medien oder Wikis wirft für die marxistische Forschungstradition auch die Folgefrage auf, ob und unter welchen Voraussetzungen es sich dabei um produktive oder unproduktive Arbeit handelt, wie diese bewertet und wie diese Form der Wissensgenerierung in und außerhalb von Organisationen kontrolliert und angeleitet werden kann, um als produktiv gelten zu können.[21]

Regulatorische Aspekte[Bearbeiten | Quelltext bearbeiten]

Die digitale Revolution wurde wesentlich von neoliberalen Konzepten der Deregulierung vorangetrieben. Wichtige Voraussetzungen bildeten die Privatisierung der Telekommunikationsnetze und die Kommerzialisierung des Internets. Das Ziel der Deregulierung der Telekommunikation war zunächst die Beschränkung der Monopolmacht der großen Telekomkonzerne, die in Europa meist in staatlicher Hand waren und wegen ihrer den Wettbewerb verhindernden Rolle auch als Preistreiber und Hindernis der technischen Entwicklung galten.[22] Auch in den USA wurden Netze privatisiert. 1990 wurde das von der US-Regierung finanzierte ARPAnet, das wichtigste Vorgängernetz des Internets, abgeschaltet, dafür wurden private Netzprovider und Informationsanbieter in das Internet hineingenommen.

Im World Wide Web löste sich die zuvor enge Verbindung von Software und Information auf. Die Netzbetreiber waren künftig nur noch für den Transport von Daten, aber nicht mehr für den Inhalt zuständig und verantwortlich. Mit dem Web 2.0 wurde der Enduser in die Erstellung von Inhalten eingebunden, die faktisch nicht mehr kontrolliert werden konnten. Mit dieser Deregulierung war die Grundlage für den raschen Aufstieg der großen Internetkonzerne wie Google gegeben, die sich ihre eigenen Marktplätze schufen. So hatte Google im Januar 2019 mit ca. 90 Prozent einen Marktanteil bei der Internetsuche, Facebook einen Anteil von fast 70 Prozent bei den sozialen Netzwerken. Allerdings konkurrieren diese Konzerne untereinander und mit anderen nach wie vor hart um die Werbeeinnahmen, aus denen sie sich größtenteils noch finanzieren.[23]

Um die Jahrtausendwende lagen somit gesellschaftliche Bedürfnisse und die technischen Voraussetzungen für die Entstehung einer digitalen Plattformökonomie vor: Käufer und Verkäufer trafen sich auf Handelsplattformen wie Amazon, Suchende und Werbetreibende begegneten sich auf Suchmaschinen, Selbständige mit Auftraggebern auf Freelancer- und Projektseiten, Fahrer und Transportbedürftige auf Taxi-Plattformen, Arbeitgeber und Arbeitsuchende auf Jobbörsen usw. Je mehr Anbieter von Waren, Dienstleistungen oder Informationen sich auf einer solchen Plattform befinden, desto größer sind Auswahl, Transparenz und Preiskonkurrenz; und je mehr Kunden auf eine digitale Plattform zugreifen, desto mehr Anbieter werden vor ihr angezogen, wobei die Transaktionskosten geringer sind als auf traditionellen Märkten. Die Stärke des Modells liegt nicht mehr in der kosteneffizienten Produktion und Steigerung der Arbeitsproduktivität, als vielmehr in der Rationalisierung der Distribution von materiellen und immateriellen Gütern. Wegen steigender switching-costs wird es aber immer schwieriger für Anbieter und Kunden, die Plattform zu wechseln, d. h. die Marktplätze werden zu proprietären, quasi-monopolistischen Märkten. Natürlich gab es schon vor der Internetzeit digitale Plattformen wie etwa die elektronischen Börsenhandelssysteme, doch das Internet senkte die Zugangsschwelle auch für Privatkunden erheblich und schuf die Möglichkeit, dass die digitalen Marktplätze international rasch expandierten und nur die am schnellsten wachsenden überlebten.[24]

Die oft kritisierte demokratieschädigende Vermachtung der digitalen Netzökonomie erfolgte also über marktförmige Prozesse: Die großen Internetkonzerne werden zu Maklern, die man bei Käufen und Verkäufen kaum umgehen kann. Sie erwirtschaften ihre Profite aus dem Besitz der Märkte in Form von Provisionen. Damit verschiebt sich die Verteilung des Profits von den Produzenten hin zu den Internetunternehmen. Da die Netze fast von Anfang an grenzüberschreitend arbeiteten, entfiel ein (nationaler) juristischer und institutioneller Ordnungsrahmen, der ihre Neutralität verbürgte,[Anm. 13] z. B. hinsichtlich der Geschwindigkeit und Priorisierung der Datenübertragung, beim Hochfrequenzhandel an der Börse oder beim Ranking der gesuchten Objekte in Suchmaschinen oder im Onlinehandel, das durch intransparente Algorithmen gesteuert wird. Der Unterschied zu einer vom Lieferanten erkauften oder durch dessen Marktstellung veranlassten bevorzugten Präsentation einer Ware im Supermarktregal ist, dass diese vom Lieferanten überwacht und in der Regel rasch erkannt wird, während der Kunde meist auf andere Läden ausweichen kann.

Aus diesem Modell, das Staab einen „privatisierten Merkantilismus“ nennt, fiel China von Anfang an weitgehend heraus, das zahlreiche populäre Websites wie youtube gesperrt hat und dafür Eigentwicklungen fördert, die jedoch zensiert werden.

Spätestens nach der Finanzkrise 2009 und aufgrund der nachfolgenden sozialen und politischen Verwerfungen entstand insbesondere in Europa ein Unbehagen an einem weiterhin unregulierten Wachstum der Netzindustrien. Schon 2010 hatte EU-Wettbewerbskommissar Joaquín Almunia ein Verfahren gegen Google wegen Missbrauchs seiner Monopolstellung eröffnet, das von der Nachfolgerin Margrethe Vestager seit 2014 entschiedener betrieben wurde. In der Folge rückte die EU-Kommission die Plattformökonomie in den Fokus ihrer Wettbewerbspolitik auf digitalen Märkten.[25] Ausgangspunkt waren die zahlreichen Konflikte, die entstehen, wenn Nutzer oder Geschäftspartner sich den für sie ungünstigen Geschäftspraktiken einer scheinbar übermächtigen Internetplattform ausgeliefert sehen. So kritisierte die EU-Kommission an der Google-Praxis die Bevorzugung von Links, die auf die Google-eigenen Dienste verweisen, im Vergleich zu Konkurrenzdiensten, ferner die Nutzung von urheberrechtlich geschütztem Material Dritter ohne deren Zustimmung, sodann Verträge, die Dritte dazu verpflichteten, (fast) alle Online-Suchanzeigen von Google zu übernehmen, und schließlich die vertragliche Einschränkung der Übertragung von Werbekampagnen auf andere Onlinesuchplattformen. Herkömmliche Monopoltheorien und die entsprechende (Kartell-)Gesetzgebung greifen wegen der großen Dynamik des Sektors oft zu kurz, weil sie auf stabilere, langfristigere Monopolsituationen ausgerichtet sind. Neuere ökonomische Theorien sprechen in diesem Zusammenhang auch von temporären Monopolen. So bestrafte Amazon Verlage, die sich weigerten, höhere Rabatte einzuräumen, kurzfristig mit verzögerter Auslieferung.[26]

Da die EU für die Handelspolitik zuständig ist, fokussiert sich die Diskussion in Deutschland vor allem auf die Einspeisung von Inhalten ins Netz, was durch einen Medienstaatsvertrag neu reguliert werden soll. Dieser Vertrag soll 2020 in Kraft treten. Er zielt auch auf Plattformen ab, die keine eigenen Inhalte herstellen, aber publizistische Angebote von Dritten aufbereiten wie Google und Facebook. Im Audiobereich könnten auch Spotify und Amazons Alexa betroffen sein.[27] Auch scheint ein Regulierungsbedarf für Bewertungsplattformen zu bestehen, gegen die immer häufiger Klagen angestrengt wurden, wie zum Beispiel in Bezug auf Jameda, dem u. a. eine Bevorzugung der Premiumkunden unter den Ärzten vorgeworfen wurde.[28] Insgesamt steht derzeit die Verhinderung der Diskriminierung von Privatpersonen im Fokus regulatorischer Aktivitäten in Deutschland, während die unterschiedliche Behandlung von Geschäftskunden von diesen oft klaglos hingenommen wird.

Ein spezielles Thema stellt die Internetkriminalität dar. Für seinen von HP Enterprise Security gesponserten Bericht 2014 zu den Kosten der Internetkriminalität befragte das Ponemon Institute ein in einem branchenübergreifenden Sample 46 Betrieben in Deutschland. Die Umfrage ergab eine durchschnittliche Schadenhöhe von 6,1 Mio. €, mit einer Spannbreite von 425 Tsd. € bis 20,2 Mio. € pro Jahr. Phishing, Social Engineering und Web-Attacken machten mehr als 35 % der Kosten aus.[29]

Die Durchsetzung der Netzneutralität (Trennung der Netzebene von der Ebene der Anwendungen und Dienste) wird in Deutschland von der Bundesnetzagentur überwacht. Dem Schutz vor Hasskriminalität und von Persönlichkeitsrechten soll das Netzwerkdurchsetzungsgesetz von 2017 dienen. Die Fachkonferenz zum Thema „Digitalisierung und Regulierung von Netzindustrien“ des Arbeitskreises „Regulierung in Netzindustrien“ am 31. Mai 2016 markierte den Beginn einer breiteren öffentlichen Debatte, die erstmals die disruptiven Aspekte der Vernetzung in den Mittelpunkt rückte.[30]

Die internationalen Erfahrungen des Lockdowns während der COVID-19-Pandemie zeigen, dass die großen amerikanischen Tech-Konzerne Google, Amazon, Facebook, Apple und Microsoft (die GAFAM) im Unterschied zu vielen Konzernen traditioneller Branchen von der Krise profitierten. Die GAFAM-Unternehmen, die zusammen über Bargeldreserven von rund 560 Milliarden US-Dollar (mehr als das Bruttoinlandsprodukt Schwedens) verfügen, schufen 2020 weltweit Zehntausende neuer Stellen.[31] So verbesserte sich durch die Krise Amazons Wettbewerbsposition gegenüber dem stationären Handel sowohl in den USA als auch in Deutschland.

Arbeitswelt[Bearbeiten | Quelltext bearbeiten]

Durch Digitalisierung und Vernetzung wird die Abgrenzung des Systems „Unternehmen“ nach außen durchlässiger. Arbeit wird dadurch innerhalb und außerhalb der formalen Grenzen der Unternehmen zunehmend austauschbar (siehe Entgrenzung der Arbeit). Der Sitz von Kontroll- und Entscheidungszentren von Unternehmen wird tendenziell frei wählbar, wobei das gewachsene System der Regulation von Arbeit teilweise obsolet wird.[32] Telearbeit, mobile Arbeit und Plattformarbeit gewinnen zunehmend an Bedeutung. Die Digitalisierung überbrückt die Kluft zwischen technischem und sozialem System, sie dringt immer stärker in die symbolische Kommunikation im Arbeitsprozess ein, trägt aber zu deren Regelhaftigkeit und Formalisierung und damit zur Entmischung regelgebundener und kreativer Arbeit bei, ohne die Rolle der menschlichen Kreativität vollständig übernehmen zu können.[33]

Für die Menschen in den technologisch fortgeschrittenen Staaten erzeugt die Digitale Revolution neue Herausforderungen hinsichtlich der beruflichen Qualifikation und der Flexibilität im Erwerbsleben: „Der einmal erlernte Beruf ändert sich unter den Händen der Arbeitenden.“[Anm. 14] Wer in den 1970er Jahren Informatik studiert habe oder in der Industrie ausgebildet worden sei, finde sich in einer völlig umgestalteten Arbeitswelt wieder, ebenso wie der Paketbote, Biologe oder Romanautor. „Mal ist es die Digitalisierung der Arbeitsmittel wie der programmierten CNC-Fräsen, mal der Einzug der Robotik in die Autoindustrie, dann die Vernetzung der wissenschaftlichen Gemeinschaft über den ganzen Globus hinweg oder auch der Einzug der Navigationsgeräte in die Taxen.“[Anm. 14]

Eine Studie zeigt jedoch, dass die industriellen Arbeitsplätze von Frauen in der derzeitigen Phase der Digitalisierung noch weniger betroffen sind als die der Männer. Sie scheinen als eine Art Flexibilitätspotenzial oder als ‚Lückenbüßerinnen‘ der technischen Entwicklung zu dienen.[34]

Das Institut für Arbeitsmarkt- und Berufsforschung (IAB) entwickelte 2016 einen „Job-Futuromaten“, der u. a. die künftigen Automatisierungspotentiale einzelner Berufe prognostiziert. Für Bäcker wie für Anlagenmechaniker beispielsweise werden damit zwischen 91 und 100 Prozent Automatisierbarkeit vorhergesagt. „Ähnlich stark gefährdet sind laut dem Programm: Steuerfachangestellte, Buchhalter, Kassierer, Korrektoren und Gabelstaplerfahrer.“[35] Unter dem Eindruck der Entkopplung von Beschäftigung und Konjunkturlage befürwortet der Soziologe Claus Offe ein Bürgergeld/Grundeinkommen.[36]

3,4 Millionen Stellen könnten in den kommenden fünf Jahren ab 2018 nach Angaben des Branchenverbands Bitkom in Deutschland allein durch die Digitalisierung wegfallen: „Angesichts von aktuell knapp 33 Millionen sozialversicherungspflichtig Beschäftigten entspräche das mehr als jeder zehnten Stelle. Jedes vierte Unternehmen mit mehr als 20 Mitarbeitern sieht sich durch die Digitalisierung gar in seiner Existenz bedroht. Dies geht aus einer Umfrage des Verbands unter 500 Unternehmen quer durch alle Branchen hervor.“[37]

Für die USA wurden 2013 verschiedene Entwicklungen wie zum Beispiel die Robotergesteuerte Prozessautomatisierung (RPA) anhand von rund 700 Berufsbildern untersucht. Demnach könnten rund 47 % der Arbeitsplätze durch die Automatisierung wegfallen.[38]

Ökologische Aspekte[Bearbeiten | Quelltext bearbeiten]

Die Digitale Revolution hat theoretisch das Potenzial zur Steigerung der Material- und Energieeffizienz von Produktion, Distribution und Konsum, ist aber bisher nicht nachhaltig. Effizienzgewinne in der Produktion werden durch Mehrverbrauch in der Konsumtion zunichtegemacht (sog. Reboundeffekt). An verschiedenen Beispielen werden häufiger negative als positive[Anm. 15] Aspekte diskutiert.

So entstehen durch die kurzen Innovationszyklen und die damit verbundene Wegwerfmentalität (siehe Elektroschrott) erhebliche Umweltprobleme, beispielsweise auch bei der Verwendung der Metalle der Seltenen Erden. Nach Angaben des Deutschen Naturschutzrings lagern um 2018 in Tablets 40.000 Tonnen Aluminium, 30.000 Tonnen Kupfer und 11.000 Tonnen Kobalt.[39] 2014 urteilte Eva Wolfangel, Mitarbeiterin bei Spektrum der Wissenschaft, dass derzeit an „Handys und Tablet-PCs […] nichts nachhaltig“ sei. Jedoch gäbe es Alternativen wie etwa das Fairphone.[40]

Das für die Herstellung der Lithium-Ionen-Akkus notwendige Metall Lithium hat an der Erdkruste einen Anteil von etwa 0,002 bis 0,006 %[41][42] seine Gewinnung galt im Jahr 2011 wegen der stark streuenden Fundorte als schwierig.[43] Es kann nach Schätzungen aus dem Jahr 2012 in ausreichenden Mengen gewonnen werden.[44] Nach neueren Untersuchungen reichen die Vorkommen aus, um auch den in der Zukunft steigenden Bedarf durch die Digitalisierung zu decken. Auch könne das verwendete Lithium zu 90 % recycelt werden.[45] Für den Rohstoff Kobalt bestehen mittlerweile ebenfalls Verfahren, um dieses zu 95 % zu recyceln.[46]

Auch der Strombedarf der Serverzentren der großen Internetfirmen ist erheblich. Google unterhält eigene Wind- und Solarparks mit einer installierten Kapazität von 2,6 Gigawatt. Das entspricht rund der Kapazität von 1000 Windrädern. Laut Fraunhofer-Institut für System- und Innovationsforschung in Karlsruhe beträgt der Energiebedarf von Rechenzentren in Deutschland etwa 10 bis 15 Terawattstunden, was etwa den CO2-Emissionen des Flugverkehrs in Deutschland entspricht.[47]

Auswirkungen auf Gesellschaft und Individuen[Bearbeiten | Quelltext bearbeiten]

Neben Wirtschafts- und Arbeitsleben unterliegen auch viele andere Bereiche des privaten, sozialen und öffentlichen Lebens den von der Digitalen Revolution hervorgerufenen Veränderungen und Folgewirkungen. Dies betrifft zwischenmenschliche Interaktionsformen ebenso wie zum Beispiel Mediennutzung, Bildungswesen und wissenschaftliches Forschen. Herkunftsbezogene und familiäre Orientierungspunkte, die über die individuelle Lebenszeit hinaus einen verlässlichen Rahmen bilden, schwinden für viele Menschen im globalisierten und digitalisierten Alltag. Dieser Auflösungszustand, so Zygmunt Baumann, werde durch Konsum als „Kitt“ gefüllt. Gleichzeitig unterstütze die Digitalisierung das Streben nach persönlicher Autonomie und die Entwicklung abgehobener Eliten.[48]

Datenpreisgabe und Informationsnutzung[Bearbeiten | Quelltext bearbeiten]

Das Internet versetzt alle mit einem anschlussfähigen Gerät Ausgestatteten in die Lage, nahezu überall auf der Welt jederzeit Informationen aller Art abzurufen, zu vergleichen oder eigene Impulse und Beiträge zu versenden. Das in pluralistischen politischen Systemen verfassungsrechtlich verbürgte Grundrecht auf Informations- und Meinungsfreiheit[49] wird – so gesehen – in der Digitalen Revolution auf ein erweitertes Fundament gestellt.[50]

Insbesondere gestattet die Verwendung von Metamedien wie Suchmaschinen und Plattformen, Informationen aus Primärmedien unabhängig vom ursprünglichen Trägermedium auszuwählen, in digitaler Form abzugreifen, zu vergleichen, aufzubereiten und ggf. in veränderter Form zu versenden. Die Algorithmen, mit denen Informationen selektiert und nutzerspezifisch präsentiert werden, sind jedoch für den Durchschnittsnutzer nicht mehr durchschaubar. Um Informationen zu erlangen, muss er selbst zahlreiche persönliche Informationen bis hin zum aktuellen Standort preisgeben. Der Prozess der Selektion und Verdichtung der immer unüberschaubarer werdenden Inhalte primärer Medien wird auch Metamedialisierung genannt.

In liberal-demokratisch verfassten Staaten bzw. Gesellschaften stehen der zunehmenden Datenerfassung durch die in das Alltagsleben integrierten Datenmaschinen der Schutz persönlicher Daten im Sinne des Rechts auf informationelle Selbstbestimmung gegenüber. Private Plattformbetreiber wie die von Google und Facebook verwenden zur Erhebung von Personen- und Nutzungsdaten Techniken des Nudgings und der verdeckten Erhebung von Bewegungsdaten. Nutzern wird versichert, dass ihre verfügbaren Daten gemäß den geltenden gesetzlichen Bestimmungen behandelt würden; zudem werden ihnen diverse Einstellungsmöglichkeiten zur Kontrolle der Sichtbarkeit ihrer Daten angeboten und ihr Einverständnis mit den Nutzungsbedingungen angefordert. Dass diese tatsächlich von vielen zur Kenntnis genommen werden, ist laut Rainer Mühlhoff jedoch als illusorisch anzusehen, „nicht nur weil es Zeit kostet, im falschen Moment daherkommt oder die seitenlangen juristischen Klauseln ein Gefühl der Ohnmacht erzeugen, sondern auch weil es gar keine Möglichkeit gibt, ihnen zu widersprechen – es sei denn, man verzichtet gleich ganz auf die Benutzung des entsprechenden Services.“[Anm. 16] Ein dem Staat gegenüber vorhandenes grundsätzliches Misstrauen der Bürger in Bezug auf Datenerhebung bestehe hinsichtlich der eigenen Nutzung kommerzieller Plattformen nicht. Hier entscheide und kontrolliere man ja selbst, welche persönlichen Informationen man diesen Plattformen übermittelt. Unberücksichtigt blieben dabei die Wahrscheinlichkeitsaussagen, die über jedes beliebige Individuum anhand eines Massendatensatzes getroffen werden könnten. Dafür genügen die Daten, die von den Usern tagtäglich freiwillig zur Verfügung gestellt werden, so Mühlhoff, in Verbindung mit den – in Korrelationen mit anderen Usern – abgeleiteten Daten, die daraus gewonnen werden. „Die heute öffentlich geführte Debatte um Datenschutz hingegen fokussiert auf einen liberalistischen Individualismus und verliert damit die fundamentalen Transformationen des Sozialen und Politischen aus den Augen, die die ökonomische, polizeiliche und politische Verwendung von Daten als Massendaten möglich macht.“[Anm. 17]

Privatheit als zentrale Voraussetzung persönlicher Freiheit ist laut Andreas Mühlen „unter den Bedingungen ubiquitärer Netze schwieriger, komplexer und undurchsichtiger“ als jemals zuvor. Webtracking, unter anderem mit Hilfe von Cookies und der Erfassung von Aktivitäten in sozialen Netzwerken, sei oft nur um den Preis des vollständigen Nutzungsverzichts vermeidbar. „Selbst wenn die jeweiligen Webseitenbetreiber von den großen Analytics-Anbietern vielleicht nur anonymisierte Daten über mich und mein Verhalten im Web erhalten, so laufen doch zumindest bei diesen Anbietern so viele Daten zusammen, dass davon auszugehen ist, dass eine Deanonymisierung entweder leicht vorgenommen werden kann oder letztlich gar nicht mehr notwendig ist, weil schlicht bekannt ist, wer ich bin, und dann einfach zugeordnet werden kann, was ich sonst noch so im Netz unternehme.“ Doch liege es auch an den Konsumenten selbst, die sich zunehmend der digitalen Technologien und Infrastrukturen bedienen, dass vernetzte datensammelnde System und Prozesse immer mehr Alltagsbereiche in öffentlichen und privaten Räumen durchdringen.[Anm. 18]

Zwar wurde mit der Datenschutz-Grundverordnung eine verbesserte, europäische Regelung geschaffen, doch wurde dabei zum Beispiel kritisiert, dass das Recht auf informationelle Selbstbestimmung einem harmonisierten Wettbewerb entgegenstünde.[51] Zudem zeigte sich am Beispiel des Daten-Leaks bei der Autovermietung Buchbinder, dass es teilweise noch schwere Mängel bei der technischen Umsetzung gibt.[52]

Wandel der Kommunikationsweisen[Bearbeiten | Quelltext bearbeiten]

Schon in der frühen Phase der Verbreitung digitaler Kommunikationsmedien wurde konstatiert, dass anders als im unmittelbaren Kontakt face to face die Kommunikation mit Interaktionspartnern von eingeschränkten Wahrnehmungs- und Kontrollmöglichkeiten mitbestimmt wird, die etwa Mimik, Gestik und Tonfall betreffen. Sie kann unter diesen Umständen einen unverbindlichen, anonymen Charakter annehmen. So bleibt es fraglich, ob bzw. auf welche Weise hierbei Verbindlichkeit oder Beziehungsnähe und -wärme entstehen können.[53] Diese Defizite können teilweise durch Metakommunikation (z. B. Emoticons) ausgeglichen werden.

Gleichzeitig erweitert sich der Kommunikationsradius erheblich. Das erlaubt die Etablierung globaler Communities (z. B. internationaler Interessengemeinschaften, Identitätsgruppen oder NGOs) oder privater grenzüberschreitender Informationsnetzwerke bereits mit relativ geringem Aufwand. Internet und Mobiltelefonie werden von Entwicklungspolitikern und Hilfsorganisationen mittlerweile als Bestandteil der Grundbedürfnisse definiert, da diese in wirtschaftlicher und politischer Hinsicht Partizipation förderten.[54] Die erweiterten Filtermöglichkeiten der Kommunikation können jedoch zur Bildung von Informations- und soziokulturellen Blasen führen.

Kommunikation in digitalen Medien erleichtert und fördert nicht nur die Erfassung und Übertragung von Affekten, sondern bringt auch neue Affektdynamiken und Bezugsformen hervor, sei es in den „Echokammern“ der sozialen Netzwerke, sei es durch die Techniken des User Experience Designs oder gefördert durch die affektiven Dynamiken von Memes und Onlineforen.[Anm. 19] Anja Breljak weist auf zwei gegensätzliche Wirkungsweisen hin: Einerseits führe ein diffuses Gefühl ständiger Beobachtung in digitalen Kommunikationsräumen – in Verbindung mit der Schaffung von Bewertungsanreizen und der öffentlichen Sichtbarkeit solcher Bewertungen – angesichts eines möglichen Ansehensverlusts zu Hemmungen bezüglich des unverstellten persönlichen Ausdrucks, der Erprobungslust und der Risikobereitschaft. Bei regelmäßiger Einübung bewirke solches Verhalten eine Abkühlung der sozialen Beziehungen (Social Cooling). Andererseits herrsche gleichzeitig eine Tendenz zur Überhitzung (Social Heating): „Wenn Fotos, Videos, Nachrichten oder Kommentare viral verbreitet werden, schafft das neben hitzigen Debatten auch politische Realitäten.“ Zugespitzte Titel, schockierende Bilder und Falschnachrichten würden umso weitläufiger durchs Internet katapultiert, je mehr Empörung oder Anteilnahme sie auslösten, je schneller sie geteilt würden. Dabei gelte: „Die Geschwindigkeit von fetzigen Nachrichten, von empörenden Inhalten, egal ob wahr oder falsch, trifft auf eine sehr viel langsamere Aufklärungsarbeit und noch viel langsamere politische Entscheidungsprozeduren.“[Anm. 20]

Veränderte Wirkkräfte im medialen Raum[Bearbeiten | Quelltext bearbeiten]

Ähnlich wie die einzelnen Menschen beruflich und privat, stehen öffentlicher Raum und mediale Öffentlichkeit im Wirkungsfeld der Digitalen Revolution. Ihre Auswirkungen erstrecken sich auch auf die politische Praxis und bergen Gefahren für das Recht auf informationelle Selbstbestimmung. Wenn früher Wandel durch Handel ein wirksames Schutzprinzip westlicher Demokratien gewesen sei, so gehe es nun ums Vernetzen „unter demokratischen Prämissen nach westlichen, aufgeklärten Werten“. Die digitale Technik werde unverzichtbar werden und den Lebensalltag immer weiter durchdringen. „Wenn sie im Besitz weniger ist und von ihnen kontrolliert wird, dann steht der Idee einer besseren, digitalen Gesellschaft eine mächtige Dystopie entgegen: der Missbrauch der digitalen Macht.“[Anm. 21]

Die vormalige Dominanz des Journalismus, der in Zeitungswesen, Rundfunk und Fernsehen, bei öffentlicher Berichterstattung, Meinungsbildung und in seiner politischen Kontrollfunktion eine „vierte Gewalt“ in pluralistischen Systemen bildete, hat das weitgehende Monopol verloren, Informationen massenhaft zu verbreiten.[Anm. 22] Es ändere sich etwas, so Beckedahl und Lüke, wenn beispielsweise die 56 Sekunden währende Videoaufnahme, die einen Fünfjährigen mit einem Dreijährigen unter dem Titel Charlie bit my finger (Charlie hat mich in den Finger gebissen) zeigt, auf YouTube annähernd 400 Millionen Mal betrachtet werde oder wenn das, „was in irgendeiner Kneipe passiert und besprochen wird“, per Livestream vom Mobiltelefon aus beliebig viele andere Menschen weltweit erreichen könne.[Anm. 23]

Zunehmend stelle sich auch in den Redaktionen der diversen Medien vorrangig die Frage: „Was klickt?“ Online sei jeder Klick durch einen Nutzer bares Geld wert. „Wer viel angeklickt wird, kann mehr Geld für Werbung verlangen. So will es die Werbebranche, so funktioniert das Geschäftsmodell.“ Den Werbenden sei es egal, neben welchen Inhalten ihre Erzeugnisse auftauchten, ob zusammengewürfelte Bildergalerien, sensationsheischende Antexter oder Rätselspiele: „Mit Journalismus hat dies alles nichts zu tun. Es geht um Klicks, Klicks und nochmals Klicks.“[Anm. 24]

Journalistische Medien treten immer häufiger zusätzlich oder allein mit Online-Ausgaben auf, die sie als werbungsgestützte Plattformen teils mit ergänzenden Angeboten bestücken. Sie präsentieren sich auch in sozialen Netzwerken wie Facebook und Twitter – im Massenwettbewerb um die Aufmerksamkeit des Publikums. Auch für Politiker geht es nicht mehr allein darum, in den Medien öffentlich aufzutreten, um Beachtung für eigene Positionen und die eigene Person zu wecken. Auch sie betreiben persönliche Webseiten, äußern sich immer öfter auf Blogs bzw. in sozialen Netzwerken und sammeln dort Follower. Wie problematisch der so entstehende öffentliche Raum zum Teil beschaffen ist, zeigt eine in Science publizierte Studie zum viel genutzten Kurznachrichtendienst Twitter. Sie betrifft den englischen Sprachraum und bezieht sich auf den Zeitraum 2006 bis 2017: „Den Forschern zufolge hat unwahrer Inhalt – ein Bild, eine Behauptung oder ein Link zu einem Onlineartikel – eine um 70 Prozent höhere Wahrscheinlichkeit, weiterverbreitet zu werden.“ Am häufigsten betroffen seien politische Inhalte. „Der Schneeballeffekt für Unwahres nahm mit der Zeit zu und war in den US-Wahlkampfjahren 2012 und 2016 besonders stark.“ Ein zum Weiterleiten speziell unwahrer Inhalte anregender Faktor dürfte demzufolge sein, dass diese auf Twitter-Nutzer oft besonders spannend und neuartig wirkten.[55]

Urheberrechte[Bearbeiten | Quelltext bearbeiten]

Durch die Fortschritte in den digitalen Techniken können immer bessere Kopien, Reproduktionen und sogar Fälschungen hergestellt werden. Urheberrechtsverletzungen und Fälschungen können zu einem erheblichen wirtschaftlichen Schaden führen. So wurde Anfang der 1990er Jahre ein international tätiger Fälscherring in New York entdeckt, der gefälschte Kunstwerke mit einem Verkaufswert von 1,8 Milliarden US-Dollar produziert hatte.[56] In den gleichen Zeitraum fiel die ab 1997 beginnende Krise der Musikindustrie durch die unautorisierten Musikdownloads aus dem Internet, die auf CD-Rohlinge gebrannt und so auch illegal vertrieben werden können. Die Zahl der Rohlinge stieg von 1999 bis 2004 in Deutschland von 58 Millionen auf 303 Millionen, während im gleichen Zeitraum die Zahl bespielter Original-CDs von 210 Millionen auf 146 Millionen zurückging.[57]

Neuartige Urheberrechtsprobleme werfen sog. Metamedien wie Suchmaschinen auf, die Inhalte (Texte, Bilder usw.) aus Primärmedien selektieren, abgreifen, neu kombinieren und verbreiten. Gegen Google Books wurde eine Sammelklage von US-amerikanischen Verlagen und Autoren angestrengt,[58] doch auch aus europäischen Staaten kam Kritik am Verhalten des Google-Konzerns. Medien berichten von einem „schleichenden Niedergang der Buchbranche“.[59]

Ein weiteres Urheberrechtsproblem finden sich im 3D-Druck: Mit der Erstellung einer 3D-Druckvorlage (in der Regel in Form einer digitalen Vorlage oder CAD-Konstruktion) liegt ein Werk im Sinne des Urhebergesetzes vor und ist geschützt. Der Herstellung einer solchen Vorlage durch einen 3D-Druck stellt eine Vervielfältigung dar. Ein unrechtmäßige Verkauf durch Dritte (bzw. ohne Einwilligung des Urhebers) kann einen Verstoß gegen das Urhebergesetz darstellen.[60]

Politische Komplikationen[Bearbeiten | Quelltext bearbeiten]

Für die Aushandlung und Gestaltung von Politik setzt die Digitale Revolution stark veränderte Rahmenbedingungen. Von der Konkurrenz des Internets bedroht, so die Einschätzung von Bernhard Pörksen und Wolfgang Krischke, „untergraben klassische Medien im Wettlauf um Quoten und Auflagen die eigene Legitimation durch die Skandalisierung von Politikern und die Trivialisierung der Politik.“ Die politischen Akteure würden durch eine permanent empörungsbereite Öffentlichkeit in die Defensive gezwungen. Es herrsche das Bemühen vor, nicht durch eine unbedachte Äußerung selbst den nächsten Shitstorm „einer lauernden digitalen Normpolizei“ zu provozieren, nicht parteiinterne Differenzen nach außen dringen zu lassen: „Vermeidung, nicht aber programmatische Gestaltung, erscheint als Leitmotiv gegenwärtiger Politik. Offensichtlich fehlen die Ruhezonen der Ideenentwicklung lagerübergreifend und in allen Parteien. Man hetzt voran und lässt sich hetzen.“ Im Wortsinne interne Beratungen gebe es im Zeitalter der „digitalen Überall-Medien und der barrierefreien Geheimnisvermarktung“ kaum noch. Einengung der Diskursmöglichkeiten, Stromlinienförmigkeit des öffentlichen Auftretens und ein rundgeschliffenes Politdeutsch gehörten zu den Folgen.[Anm. 25]

Die Demokratisierung der Medienwelt durch das Internet zeitigt laut Pörksen jedoch bislang nur wenige Freiheitseffekte. Sie nütze vor allem Populisten und verstärke die sich in ihren Echokammern verkapselnden „Selbstbestätigungsmilieus“. Mit der großen Gereiztheit im digitalen Zeitalter gehe zugleich die Tendenz zu einer Hypersensibilisierung in sprachlichen Fragen einher. Hassrede und übertriebene „Political Correctness“ seien zwei sich gegenseitig befeuernde Erscheinungen gegenwärtiger Debatten. Mit zunehmender sprachlicher Empfindlichkeit werde vor allem auf die hassgetriebene Vergiftung des Diskurses reagiert.[61]

Lügen sind nichts Neues in der Politik, hält Andrea Römmele fest. Doch hätten die Lügner in der Vergangenheit gewusst, dass sie als solche enttarnt würden, wenn bestimmte Fakten ans Licht der Öffentlichkeit kämen, und hätten eine bestimmte Definition von Wahrheit und Fakten als Grundlage des demokratischen Diskurses akzeptiert. Neuerdings hätten Fakten aber ihre Bedeutung als Diskussionsgrundlage verloren und seien zu einem Werkzeug mit flexiblen Anwendungsmöglichkeiten für die Begründung von Weltanschauungen geworden. Fakten- und Bildmanipulationen würden teils nicht nur bewusst für politische Zwecke eingesetzt, sondern auch nach der Enttarnung noch für gerechtfertigt im Dienst der eigenen Sache erklärt. Solcher „Bullshit“ (Harry Frankfurt) blende unwillkommene Fakten einfach aus: „Was die Botschaft bekräftigt ist wahr, was ihr zuwiderläuft, ist falsch. Der Wahrheitsgehalt spielt keine Rolle mehr, politische Debatten verlieren ihre empirische Basis.“ Über die als Motive verbleibenden Weltanschauungen, Gefühle und Werte ließe sich dann kaum noch sinnvoll streiten, weil sie grundsätzlich weder wahr noch falsch seien.[62]

Digitaler Kolonialismus[Bearbeiten | Quelltext bearbeiten]

Als „digitaler Kolonialismus“ werden Strategien bezeichnet, durch die der Internetzugang in Drittwelt- und Schwellenländern oder für arme Bevölkerungsgruppen über eine Smartphone-App gebührenfrei durch soziale Medien organisiert wird. Das Netzwerk – in den meisten Fällen ist es Facebook mit seinem in 65 Ländern angebotenen Dienst Free Basics – trifft dabei eine Auswahl, auf welche Internetangebote die Nutzer kostenlosen Zugriff erhalten. Kritiker monieren, dass dabei lokale Sprachen und Websites weitgehend ausgeklammert, die Nutzer mit einer Flut von Diensten privater Unternehmen aus den USA überschwemmt und große Mengen an Metadaten gesammelt werden. Die Prinzipien der Netzneutralität würden dadurch verletzt, dass meist nur ein Dienst pro Sparte (wie Wettervorhersage, Nachrichten, Suchmaschine, Ratgeber für Schwangere und Eltern oder Sport) angeboten werde. Oft würden nur Überschriften präsentiert; bei Interesse müsse man Datenvolumen hinzukaufen. Außerdem gibt es kein E-Mail-Programm.[63] Hier reproduziere sich die technologische Spaltung der Welt, die seit dem 16. Jahrhundert zu einer Abhängigkeit eines großen Teils der Menschheit von den Technologien der Kolonialmächte geführt habe. Der digitale Kolonialismus beschreibe der guatemaltekische Menschenrechtsanwältin Renata Avila zufolge „eine neue, quasi-imperiale Machtstruktur, die von dominanten Mächten einer großen Anzahl an Menschen ohne deren Einverständnis auferlegt wird“. So wies die US-Regierung im Herbst 2019 als Reaktion auf die Unruhen in Venezuela die amerikanische Firma Adobe an, die Cloud-Dienste in dem südamerikanischen Land zu sperren.[64] Der Techniksoziologe Michael Kwet bezeichnet mit digitalem Kolonialismus die Gesamtheit der Vorhaben der US-Konzerne wie Google, Amazon und Facebook, die darauf abzielten, die Kontrolle über das „digitale Ökosystem“ und den kompletten Datenverkehr vor allem in Afrika, aber auch in anderen Ländern zu erlangen.[65]

Sozialisation, Bildungswesen und Gesundheit[Bearbeiten | Quelltext bearbeiten]

Die Sozialpsychologin und Soziologin Catarina Katzer sieht die individuelle Identitätsbildung durch das Internet stark verändert. „Wir bewegen uns heute in zwei gleichwertigen nebeneinander existierenden Lebensräumen, in unserer Offline- und unserer Online-Welt.“[Anm. 26] Das Netz ermögliche zum ersten Mal das Erschaffen von Identitäten in virtuellen Räumen. „Und diese Identitäten sind »echt«, denn wir selbst füllen sie mit Leben. […] Als Referenzpunkte für unsere Meinungen, Einstellungen, Beurteilungen oder konkretes Verhalten ziehen wir eben nicht mehr nur unser reales Umfeld in Schule oder Familie zurate. Vor allem bei der Frage, wer bin ich und wer will ich sein, was ist richtig und was ist falsch, orientieren wir uns immer stärker an Personen, den Peers, die wir im Netz treffen und mit denen wir connected sind.“ Dies gelte insbesondere für Kindheit und Jugend, den Phasen mit der stärksten prägenden Wirkung für die Identitätsfindung.[Anm. 27]

Für Markus Beckedahl und Falk Lüke relativiert sich in der digitalen Gesellschaft die Bedeutung der Grundfertigkeiten Lesen, Schreiben und Rechnen für das Bildungswesen. Nötig dazu komme heute als vierte Komponente das Methodenwissen als „Kompetenzkompetenz“: „Wenn man weiß, wie man sich Wissen erschließen kann, muss man es nicht im Kopf haben.“ Es stelle sich die Frage, wie wir als Gesellschaft damit umgehen wollen, „dass einmal gelerntes Wissen uns nicht mehr durch das Leben bringt“.[Anm. 28] Das ungleiche Wissen um die Nutzung digitaler Technik werde zum Problem, wenn ganze gesellschaftliche Gruppen kaum Chancen hätten, sich damit angemessen zu befassen, sei es wegen Mängeln der Netzinfrastruktur oder -geschwindigkeit, sei es aufgrund geringer Bildungschancen oder wegen fehlender finanzieller Eigenmittel: „Dann gibt es diejenigen, die können und haben und damit für die Zukunft gerüstet sind. Und diejenigen, die chancenlos sind. […] Wenn ein Kind einer Geringverdienerfamilie nicht lernt, einen Computer zu benutzen, dann ist das für seine Zukunft eine inakzeptabel große Hypothek. […] Digitalisierung, Automatisierung und Vernetzung werden manche herkömmliche Struktur, manche Berufsbilder und vielleicht sogar Einkommensformen grundsätzlich in Frage stellen. Nur wer das sieht, kann diesen Wandel auch gestalten. Wer es hingegen ignoriert, wird von diesem früher oder später überrollt werden.“[Anm. 29]

Der Psychiater und Hirnforscher Manfred Spitzer warnt mit Blick auf erkennbare sensomotorische Entwicklungsdefizite und depressionsträchtige psychosoziale Folgeerscheinungen des Gebrauchs elektronischer Kommunikationsgeräte speziell im Kindes- und Jugendalter vor Unterforderung der Hirnfunktionen und „digitaler Demenz“.[66] Unter Berufung auf wissenschaftliche Studien, die negative Auswirkungen beim Einsatz neuer Medien in der Schule aufzeigten, wendet Spitzer sich gegen „digitale Klassenzimmer“ und gegen Vorstellungen, dass Kinder am besten schon in der Grundschule mit dem Programmieren von Computern vertraut gemacht werden sollten: „Wir tun den Schülern keinen Gefallen, was ihre Gesundheit und ihre Bildung anbelangt, wenn wir Bildungseinrichtungen digitalisieren. Darüber müssen wir uns klar sein. Alles andere ist postfaktische Bildungspolitik.“[67] Spitzer stößt mit seinen durch mehrere Bücher verbreiteten Warnungen auf deutliche Gegenreaktionen auch in Wissenschaftskreisen. So argumentieren die Medienwissenschaftler Markus Appel und Constanze Schreiner mit Berufung auf meta-analytische Befunde gegen bestimmte seiner Aussagen und gelangen zu dem Fazit: „Die vorliegende Erwiderung enthält wissenschaftlich nicht oder kaum haltbaren Behauptungen. Diese sind dazu geeignet, inkorrekte Informationen und Halbwahrheiten über menschliches Erleben und Verhalten im Umgang mit Medien in der Öffentlichkeit zu verbreiten. In Summe wird deutlich: Die einseitige Perspektive von Spitzer verunklart den Blick auf die Chancen und Risiken des Lebens in einer digitalen Welt.“[68]

Katzer wiederum weist auf Befunde aus den USA hin, wonach immer mehr Jugendlichen sich einsam fühlen – trotz ihrer starken Vernetzung und ihrer durchschnittlich 250 „Online-Buddys“. Das subjektive Wohlbefinden junger Facebook-User gehe eher zurück, als dass es sich verbessere.[Anm. 30] Vor allem auf die Offenheit und Ungeklärtheit bestimmter Weichenstellungen weist der Naturwissenschaftler und Pädagoge Salman Ansari hin: „Die Sinnhaftigkeit der Medien für schulische Lernprozesse ist noch gar nicht hinreichend erforscht. Gleichwohl wird der Einsatz von Medien propagiert. Die Kinder und Jugendlichen sollen das Programmieren lernen, mit Robotern umgehen und so weiter.“[69]

Mimetische Rivalität und Influencer-Boom[Bearbeiten | Quelltext bearbeiten]

Die sozialen Medien werden zum „Resonanzraum der Nachahmung par excellence“.[70] Das bezieht sich nicht nur auf die erweiterten Möglichkeiten zum einfachen und schnellen Kopieren und Teilen von Inhalten. Das Internet wird darüber hinaus zum Instrument der „mimetischen Konkurrenz“. René Girard bezeichnet mit diesem Begriff das nachahmende Begehren im Kampf um gemeinsam begehrte Objekte (siehe Mimetische Theorie). Er postuliert, dass wir Menschen – sofern die Grundbedürfnisse gedeckt sind – Dinge nicht mehr um ihretwillen begehren, sondern weil sie von anderen begehrt werden.[71] Das fördere einerseits Enkulturations- und Lernprozesse, andererseits die Nachahmung von und die Fixierung auf Autoritäten (der Popkultur usw.).

Die unterdessen viel geübte Praxis der ständigen Selbstdarstellung in den Social Media schafft darüber hinaus einen Druck zur Darstellung auch des eigenen Lebens, das zum Designobjekt wird, und verstärkt die Inszenierungsspirale durch Selfies und Körperkult. 39 Prozent der befragten Jugendlichen gaben in einer vom Marktforschungsinstitut IKW in Auftrag gegebenen Studie an, wöchentlich Selfies zu machen, 26 Prozent machten sie täglich, 14 Prozent sogar mehrmals täglich. Sie kontrollieren dabei jedes einzelne Bild bis ins Detail, um möglichst viele Likes zu erzielen. 30 Prozent der jungen Menschen sehen das Berühmtwerden neuerdings als explizites Lebensziel, gut doppelt so viele wie 10 Jahre zuvor.[72]

Diesbezügliche Vorbilder aus dem eigenen Altersumfeld sind die oft noch jugendlichen Influencer. Einfluss gewinnen diese jungen Leute dadurch, dass sie in sozialen Medien wie YouTube und Instagram für ihre Selbstdarstellung eine ungewöhnlich hohe Zahl an Followern angesammelt haben. So werden sie zu Stars der einschlägigen Netzszene und auch für die Werbewirtschaft interessant. Sie erreichen zum Teil ein Millionenpublikum, indem sie sich und ihr Leben in die Öffentlichkeit tragen und in ihrer Peergroup-Ansprache und -Kontaktpflege nahbarer wirken als herkömmliche Prominente. Laut einer Kinder- und Jugendstudie des Branchenverbandes Bitkom sind Influencer unter Jugendlichen mittlerweile beliebter als Schauspieler und Sportler.[73]

Ihren Followern gelten sie ähnlich vertrauenswürdig wie Familienmitglieder und Freunde. Damit sind sie als Mittler bei ihrer Klientel für die Werbebranche wirksamer als jedes Model oder jeder Prominente. „Influencer stehen mit der neuesten Fotokamera von Canon vor einem Tempel in Thailand. Influencer posieren in einem Mantel von Prada vor dem Eiffelturm in Paris, lehnen sich im Bikini der Marke Missoni am Strand von Saint-Tropez an eine Palme oder liegen zu Hause mit einer Flasche Waschmittel von Coral im Bett.“[74] Der Wert eines gesponserten Fotos auf Instagram bemisst sich nach Reichweite und Interaktionsrate: „Je mehr Follower ein Influencer hat und je mehr Likes und Kommentare seine Fotos sammeln, desto mehr Geld kann er dafür verlangen.“[75] Laut Bitkom-Studie sieht jeder zweite unter den befragten Jugendlichen das Gebaren von Influencern als normale Berufstätigkeit an – und jeder dritte wäre gern selbst einer.[76]

Gegenwartsorientierung, Raum- und Zeitwahrnehmung, Gedächtnis[Bearbeiten | Quelltext bearbeiten]

Kritiker behaupten, eine starke Gegenwartsorientierung, die oft mit Hedonismus und gesundheitsgefährdendem (z. B. Sucht-)Verhalten einhergeht,[77] werde durch exzessive Nutzung sozialer Medien gefördert. Die schnelle Aktualisierung der Inhalte im Internet führe zu immer schnellerer Obsoleszenz des Vergangenen. Auch die Streamingdienste förderten die Gegenwartsorientierung: das Individuum sei permanent von Musik umgeben. Infolge der starken Gegenwartsorientierung gehe auch der Bezug auf die Zukunft verloren.[78]

Das Parallelerleben von Real- und virtueller Online-Welt samt häufigem Wechsel zwischen diesen beiden erzeugt laut Carina Katzer zahlreiche Wechselwirkungen für individuelle Wahrnehmungsprozesse, für Rezeption und Erinnerung. Auch Raum- und Zeitwahrnehmung veränderten sich. „Und Kontrollverlust, Überforderung, Abschweifen und Unkonzentriertheit, Ablenkung vom Wesentlichen, das Gefühl, sich im virtuellen Garten zu verlieren, oder die Angst, etwas zu verpassen – sind Folgen des Hypes, ständig vernetzt zu sein.“[Anm. 31]

Mehr und mehr, so neuere Studien, ersetzen Computeranwendungen und Internet diverse Lern- und Gedächtnisleistungen, die Menschen zu ihrer Orientierung vordem nötig hatten. Navigationsgeräte treten an die Stelle erlernter Fähigkeiten zu räumlicher Orientierung; jederzeit mögliche Internetabfragen vermindern das Interesse am Erwerb eigener Wissensvorräte. Werde das Internet immer stärker als Gedächtnisersatz gebraucht, so Katzer, bestehe die Gefahr, dass das Langzeitgedächtnis Schaden nehme. Damit stehe aber auch die Fähigkeit auf dem Spiel, komplexe Zusammenhänge zu verstehen.[Anm. 32]

Soziale Wirkungen und psychische Gesundheit[Bearbeiten | Quelltext bearbeiten]

Eine für 33 Millionen Erwerbstätige in Deutschland repräsentative Studie des Center for Disability and Integration der Universität St. Gallen im Auftrag der Barmer GEK[79] zeigte weder eindeutig positive noch negative Auswirkungen der Digitalisierung am Arbeitsplatz auf die Gesundheit. Auch zeigten sich nur geringe Unterschiede zwischen den Altersgruppen in der Wahrnehmung der Digitalisierung und ihrer Auswirkungen. Insgesamt standen die Befragten der Digitalisierung optimistisch gegenüber; nur die wenigsten befürchteten, ihren Arbeitsplatz aufgrund der Digitalisierung zu verlieren. Alle Berufsgruppen scheinen zumindest in gewissem Masse von der Digitalisierung erfasst. Bei den Branchen bildet der Bereich IT/Computer/Software/Internet/Datenverarbeitung den Spitzenreiter und die Reinigung/Entsorgung das Schlusslicht. Während die tatsächlichen Krankentage kaum beeinflusst scheinen, ergeben sich unerwünschte Zusammenhänge mit emotionaler Erschöpfung und Konflikten zwischen Arbeit und Familienleben.

Der Gesundheitsreport des Bundesverbands der Betriebskrankenkassen (BKK) von 2017 konstatiert, dass 40 Prozent der Befragten ihre Tätigkeiten mit Hilfe digitaler Technologien schneller erledigen und mehrere Aufgaben zugleich bearbeiten können (Multitasking). Darin sehen Experten eine Gefahr: Beschleunigung und Multitasking erhöhen den Stress ebenso wie die Erwartungshaltung, ständig kontaktbereit sein zu müssen. Während 2006 zehn Prozent aller Krankschreibungen als Ursache ein psychisches Leiden hatten, waren es im Jahr 2016 16 Prozent.[80] Allerdings ist es schwierig, die Effekte von Arbeitsverdichtung, Digitalisierung und nicht mit der Arbeitssituation verbundenen Faktoren zu isolieren. Der Neurobiologe Martin Korte verweist auf Untersuchungsergebnisse, die gezeigt hätten, dass der Internetgebrauch die analytischen Fähigkeiten, die Geschwindigkeit der Bildverarbeitung im Gehirn und die Fähigkeit zum Multitasking verbessere; beeinträchtigt werde aber die gezielte Aufmerksamkeit für die jeweilige Hauptaufgabe und damit die Effektivität der Aufgabenbearbeitung: „Wer sich also auf Multitasking konditioniert, zahlt einen hohen Preis: Die Fehleranfälligkeit seines Denkens und Handels wird sehr groß (schnell ist noch lange nicht korrekt), die Konzentrationsspannen werden verkürzt.“ Den im 20. Jahrhundert durchgängig angestiegenen Intelligenzquotienten (Flynn-Effekt) sieht Korte ins Stocken geraten und neuerdings auf dem absteigenden Ast: „Zu viele unserer Aktivitäten in den digitalen Welten scheint unser Belohnungssystem in die Irre zu leiten. Die Konzentrationsfähigkeit wird auf zu kurze Zeiten eingestellt, unsere Sprachkompetenzen verkümmern ebenso wie unsere haptischen Fertigkeiten.“[81]

Den Einfluss der digitalen Techniken auf die sozialen Alltagsinteraktionen der Menschen hält die Soziologin Eva Illouz für immens: „Die alte Kunst, von Angesicht zu Angesicht Beziehungen auszuhandeln, geht verloren. Die Menschen sitzen allein vor ihren digitalen Geräten und zählen die Likes auf ihren Profilen.“ Das Internet zerstöre die traditionellen Orte der Geselligkeit wie Restaurants und Kinos. Nach einer vom Tagesspiegel zitierten Studie der Universität Leipzig sind Paare im Lebensalter zwischen 60 und 70 Jahren sexuell aktiver als Singles zwischen 18 und 32 Jahren, was von den beteiligten Wissenschaftlern auf die beliebige Verfügbarkeit von pornografischem Material im Internet zurückgeführt wird. Illouz sieht auch die Pornografie sich virtualisieren; künftig sei eine zunehmende Bedeutung von Sexrobotern zu erwarten[82] (siehe auch Cybersex).

In einer Studie an der Universität Pittsburgh unter rund 1.800 Amerikanern im Alter zwischen 19 und 32 Jahren wurden psychische Auswirkungen der mit sozialen Medien verbrachten Zeit untersucht. Eines der Ergebnisse war, dass Probanden, die sich täglich mehr als zwei Stunden mit sozialen Medien beschäftigten, eine doppelt so hohe Anfälligkeit für Gefühle sozialer Isolation hatten wie diejenigen, die damit weniger als 30 Minuten verbrachten.[83]

Digital Detox (deutsch: ‚digitale Entgiftung‘) ist ein Ansatz unter manchen Dauernutzern neuer Medien, durch Einübung von Verzicht oder bewusste Abkehr von ihnen, Stress zu vermeiden und Zeit für Erlebnisse und Begegnungen im nichtvirtuellen „wirklichen Leben“ (Real Life) zurückzugewinnen.

Mögliche Gefährdung der Augengesundheit[Bearbeiten | Quelltext bearbeiten]

Zu den Nebenfolgen, die mit der Digitalen Revolution einhergehen, gehört einigen Studien zufolge auch eine zunehmende Kurzsichtigkeit (Myopie). Die dramatischsten Werte diesbezüglich wurden in asiatischen Großstädten erhoben. In Hongkong, Shanghai oder Seoul finde man unter jungen Erwachsenen praktisch keine gesunden Augen mehr; auch in Europa und den Vereinigten Staaten sei mindestens jedes zweite junge Augenpaar betroffen. Anders als früher gilt Myopie heutzutage als langfristige Gefahr für das Sehvermögen.[Anm. 33]

Neuere Forschungsergebnisse besagen, dass Kurzsichtigkeit sich entwickelt, wenn das Auge zu selten dem Tageslicht ausgesetzt ist und zu oft auf Nahsicht fokussiert wird. Während im Freien an sonnigen Tagen auch im Schatten mit einer Lichtstärke von 10.000 Lux zu rechnen ist, sind es in einem Klassenraum oder Kinderzimmer typischerweise nur 500 Lux. Die Zeit, die Kinder im Freien verbringen, nimmt aber tendenziell ab. „Am meisten gefährdet sind also jene Stubenhocker, die über Stunden bei mangelhafter Beleuchtung Bücher lesen oder auf den Computerbildschirm oder das Smartphonedisplay starren.“[84]

Die Weltgesundheitsorganisation hat Myopie zu einem globalen Gesundheitsproblem erklärt. Experten begründen die besonders hohe Betroffenenrate in Asien mit den dort rigorosen Schulanforderungen, die besonders lange Verweilzeiten in Innenräumen zur Folge hätten. Während in den 1960er Jahren nur knapp jeder fünfte junge Chinese kurzsichtig gewesen sei, seien es heute über 90 Prozent. Laut dem australischen Myopie-Forscher Ian Morgen sollten Kinder etwa drei Stunden am Tag in einer Lichtstärke von 10.000 Lux bzw. im Freien verbringen, um ihr Myopie-Risiko wirksam zu senken: „So bleibt fürs Erste nur der Rat, dessen Befolgung auch sonst erfreuliche Wirkung zeigt: statt auf den Bildschirm viel öfter mal auf den Horizont zu blicken. Und das bitte im Freien.“[Anm. 34]

Implikationen für Forschung und Wissenschaft[Bearbeiten | Quelltext bearbeiten]

Nach Ansicht von Pieter Drenth, Ex-Präsident der All European Academies, hat die Digitale Revolution Fortschritte der Wissenschaft auf verschiedensten Gebieten ermöglicht: Erfolge in der Genom-Entschlüsselung, Voraussagen der Klimaforschung, komplexe Modelle in Physik und Chemie, Nanotechnologie, neurophysiologische Grundlagen der Sprachentwicklung und der kognitiven Funktionen, ökonomische Simulationen sowie vergleichende Studien in Sprach- und Literaturwissenschaften. Eigentlich habe jede wissenschaftliche Disziplin von den Entwicklungen der Computertechnologie profitiert.[85]

Bisher mussten Forschungsergebnisse Filter (sog. gatekeepers) passieren, in denen über die Veröffentlichung oder Nicht-Veröffentlichung entschieden wurde. Heute kann prinzipiell jeder im Internet publizieren. Wissenschaftler können daher bereits fortlaufend über den Forschungsprozess berichten (Open Science), die Daten zugänglich machen, auf denen ihre Befunde basieren (Open Data) oder vorab ihre Ergebnisse veröffentlichen (Pre-Publishing), ohne den Prüfprozess eines Journals durchlaufen zu haben. Auch dieser Prüfprozess kann transparenter gestaltet werden (Open Peer Review).[86] Gleichzeitig forcieren die Möglichkeiten der online-Kommunikation die Konkurrenz um Erstveröffentlichungen von Forschungsergebnissen: Auf den einschlägigen Servern wird der Eingang von Texten sekundengenau protokolliert. Das führt einerseits dazu, dass die Publikationsflut schneller steigt als die Zahl der Leser der elektronischen Journale und dass oft unzureichend überprüfte Ergebnisse hastig publiziert werden; andererseits verbessern sich die Möglichkeiten der Überprüfung (z. B. auf mögliche Plagiate) durch die wissenschaftlichen Communities.

Besonders kritisch ist die sich öffnende Kluft zwischen informatischer und geisteswissenschaftlicher Fachkultur. Informatiker versuchen geisteswissenschaftliche Fragestellungen auf handhabbare Formate herunterzubrechen (sog. Digital Humanities wie Stilometrie usw.), doch gibt es bisher kaum erfolgreiche Versuche, hermeneutische Prozesse in maschinenlesbaren Programmen abzubilden.[87] Für Richard David Precht wirkt sich die computerbasierte „Quantifizierung von allem und jedem“ vor allem in Universitäten und Forschungseinrichtungen aus, speziell bei Wirtschafts- und Gesellschaftswissenschaftlern. Ganze Universitätsdisziplinen erscheinen ihm „nahezu lahmgelegt unter der zentnerschweren Last empirischer Forschung.“ Zwar sei unbestritten, dass es Felder gebe, auf denen sinnvoll empirisch zu forschen sei. Verfehlt sei aber „das Diktat des Empirischen“ in den Gesellschaftswissenschaften, das Fächer mit großen Traditionen zu Lieferanten von Zahlen degradiere.[88]

Diskursaspekte und kritische Reflexion[Bearbeiten | Quelltext bearbeiten]

So vielfältig und weitreichend die von der Digitalen Revolution ausgehenden Veränderungsimpulse sich bei den Individuen und im öffentlichen Raum auswirken, so aspektreich wird der darauf bezogene gesellschaftliche Diskurs geführt. Neue Rahmenbedingungen für menschliche Interaktion, für Sozialisation, Wirtschaft, Politik und Kultur zeichnen sich ab: als vorwiegend verheißungsvoller Fortschritt für die einen, als in den Folgen eher skeptisch zu betrachtendes Geschehen bei anderen. Kritisch beobachtet wird die Entstehung einer digitalen Kluft, die sich in unterschiedlicher Ausprägung sowohl innergesellschaftlich als auch international zeigt.[89] 2007 waren noch weniger als vier Prozent der Menschen in Afrika online.[90] Und Indien beispielsweise stand 2016 zwar auf Platz 2 der Länder mit den meisten Internetnutzern; doch bildeten diese nur knapp 35 Prozent der indischen Bevölkerung.

Der Zukunftsforscher Daniel Dettling deutet den „Megatrend der Digitalisierung“ und ihren „disruptiven Charakter“ als Aufforderung an die Gesellschaft, den Anschluss an diese in Geschwindigkeit und Gleichzeitigkeit der Veränderungen neuartige industrielle Revolution nicht zu verpassen. Im deutschen Bürgertum mache sich eine „digitale Hysterie“ – die Rede ist auch von „German Angst 4.0“ – breit, der zufolge Computer und Handys die Kinder dumm und krank machten. Die Zukunft als Verlängerung der Gegenwart zu denken, werde der neuen Herausforderung jedoch nicht gerecht. Für wegweisend hält Dettling die von Emmanuel Macron eingenommene Haltung zur Künstlichen Intelligenz (KI). Dessen KI-Strategie sehe eine interdisziplinäre Kreuzung aus Mathematik, Sozialwissenschaften, Technologie und Philosophie vor, verbunden mit dem Bekenntnis: „Ich möchte Teil der Disruption sein. Künstliche Intelligenz ist eine politische Revolution. Treiber sollte der Fortschritt für die Menschen sein.“[91]

Chancen für einen durchgreifenden politischen Strukturwandel über das Internet sieht Richard David Precht eher nicht. Eine dafür nötige Bündelung von Themen, wie sie von großen meinungsbildenden Zeitungen in der Vergangenheit geleistet worden seien, werde im Netz nicht möglich sein. „Das Internet segmentiert so stark, dass jeder in seiner eigenen Informationswelt leben kann, aber dadurch wird es auch immer schwieriger, Gemeinsamkeiten herzustellen. Das wird oft kaschiert, weil das Internet das Gefühl kultiviert, durch einen kurzen Klick zu relevanten Entscheidungen beitragen zu können. Aber damit nährt es eine Illusion, denn in Wirklichkeit bleiben die Verhältnisse beim Alten.“[92] Andererseits sieht Precht in der Digitalen Revolution – dem „zweiten Maschinenzeitalter“ – ökonomische Schmelzprozesse anlaufen und Zeiten kommen, in denen es für viele Menschen keine entlohnte Arbeit mehr gibt – mit problematischen Folgen für ihr Selbstwertgefühl. „Ein kurzer Blick über den Atlantik belehrt uns unmissverständlich darüber, dass eine hochinnovative Digitalwirtschaft von sich aus keine Volkswirtschaft rettet. Während das Silicon Valley boomt, stirbt die klassische Industrie überall dahin und produziert Arbeitslosigkeit, Resignation und Trump-Wähler.“[93]

Angesichts der „Eindringtiefe der Digitalisierung in alle Nischen der Lebenswelt“ beklagt der Soziologe Harald Welzer ein „frappierend“ geringes politisches Problembewusstsein. „Start-up und Innovations- und Disruptionsberauschtheit“ stelle die Menschen vielleicht zunehmend so unter „Vollzeitablenkung“, dass kaum noch klare Gedanken gefasst werden könnten. „Nach einer vielleicht nicht so überraschenden Überwältigung durch all die Formen, in denen die Digitalisierung nachgerade über uns kommt, ist es jetzt mal Zeit, die Dinge politisch zu sortieren, und zwar nach Maßgabe der Frage, was von den zweifellos hervorragenden Möglichkeiten dieser Technologie für das zivilisatorische Projekt nützlich ist und was nicht.“ Sich von Algorithmen vorschreiben zu lassen, wie man leben soll, sei „der Wiedereintritt der Menschen in die selbstverschuldete Unmündigkeit.“ Eine mündige Gesellschaft verstehe Digitalisierung nicht als Schicksal, sondern als Gestaltungsaufgabe.[94]

Die Chancen, die das Netz für die individuelle Meinungsäußerung und politische Partizipation allgemein bietet, kommen in der Ausübung nur teilweise positiv zur Geltung. Zwar werden kulturelle und politische Debatten unterdessen zumeist von den Aktivitäten der vielen im Netz vorangetrieben, wenn nicht dominiert; doch lassen viele Beiträge jede konstruktive Ausrichtung vermissen – in der Sache wie im Umgang mit Andersdenkenden. Infolgedessen ergibt sich verbreitet der Eindruck, dass die Regeln des Anstands online viel schneller außer Acht gelassen werden als in der persönlichen Begegnung: „Wer nicht sieht, hört, spürt, was seine Äußerungen beim gegenüber bewirken, kommentiert enthemmter.“ Als unkalkulierbare Größe hinzu kommen gruppendynamische Prozesse, die einer grassierenden Shitstorm-Angst Vorschub leisten: „Der Wind im Netz dreht bekanntlich nicht nur schnell, er ist auch unberechenbar.“[95]

Zygmunt Bauman sieht u. a. durch die Digitalisierung und Entpersonalisierung der Kommunikation die Stabilität und die Innen-Außen-Grenzen von sozialen Strukturen infrage gestellt.[96] Diese werden immer fluider: „Verschwunden sei die Gewissheit, dass ‚wir uns wiedersehen werden‘, […] dass es mehr als eine nur vorübergehende Bedeutung hat, wie wir miteinander umgehen, weil die Folgen unserer Handlungen uns noch lange begleiten werden – aufbewahrt im Denken und Handeln von Augenzeugen, die immer um uns sind“.[Anm. 35]

Orientierungs- und Wertewandel[Bearbeiten | Quelltext bearbeiten]

Die disruptive Entwicklung im Bereich der Alltagstechnik (das Verschwinden von Schreibmaschinen, Telefonzellen, Tageszeitungen, Fotoapparaten, Stereoanlagen oder CD-Playern, künftig des Bargeldes), aber auch der Alltagspraktiken (wie das Verschwinden des Lesens, der flüssigen Handschrift, des mechanischen Spielzeugs oder des Stammtisches, der durch Gruppen in den sozialen Netzwerken ersetzt wird) wirkt polarisierend auf kulturelle und ästhetische Wertvorstellungen. Sie bringt mit großem Tempo neue Handlungsformen und Subjektivitätsmodelle hervor, die in Einklang mit den ökonomischen Anforderungen stehen (Leben in Popwelten, „digitaler Realismus“),[97] provoziert aber auch Gegenströmungen (Kampagnen zur Leseförderung, Revival des schön ausgestatteten Buchs). Daniel Dettling vom Zukunftsinstitut konstatiert einen „Wertesplit“: Insbesondere die Erstnutzer der neuen digitalen Technologien fühlten sich als Repräsentanten von Werten wie Freiheit, Mobilität und Souveränität und begrüßten die „digitale Autonomie“, während 70 Prozent der Deutschen orientierungslos und ängstlich auf die Digitale Revolution starrten.[98]

Manuel Castells sieht einen rückläufigen Einfluss von Religion, Moral, Autorität, traditionellen Werten und politischen Ideologien in dem neuen, auf digitalisierter elektronischer Produktion und Distribution sowie auf einem demgemäßen Austausch beruhenden Kommunikationssystem. Sie verschwinden nicht ganz, „aber sie werden geschwächt, es sei denn, sie codieren sich neu innerhalb des neuen Systems, wo ihre Durchschlagskraft sich durch die elektronische Materialisierung spirituell übertragener Angewohnheiten vervielfacht: Elektronische Prediger und interaktive fundamentalistische Netzwerke sind in unseren Gesellschaften eine effizientere und durchdringendere Form der Indoktrination, als die von Person zu Person verlaufende Vermittlung einer fernen, charismatischen Autorität.“ Im Netz mit beliebigen anderen Angeboten auf einer Ebene konkurrierend, verlören transzendentale Botschaften ihren „übermenschlichen Status“; die Säkularisierung gelange damit zum Abschluss: „Die Gesellschaften sind endgültig und wahrhaft entzaubert, weil alle Wunder online zu haben sind und zu selbst konstruierten Vorstellungswelten kombiniert werden können.“[99]

Anzeichen von „Digitalisierungswahn“[Bearbeiten | Quelltext bearbeiten]

Werner Thiede setzt sich aus der Perspektive eines evangelischen Theologen kritisch mit der Digitalen Revolution auseinander. Dabei steht für ihn nicht „das Digitale schlechthin“ in Frage, sondern dessen „impliziter Durchsetzungs- und robuster Herrschaftsanspruch.“[Anm. 36] Was er befürchtet, skizziert er drastisch: „In der Tat droht die Gefahr, dass immer mehr Technologen, Ökonomen und Politiker über unsere Zukunft bestimmen, die selber geistig abgedriftet und mehr oder weniger digitaler Demenz verfallen sind. Und eine immer mehr dement gewordene, dem digitalen Massenwahn erlegene Gesellschaft wird davon nicht einmal mehr viel mitbekommen, denn sie ist weitgehend kritiklos geworden.“[Anm. 37]

Überwachungsmöglichkeiten wie nie zuvor sieht Thiede mit der Verbreitung „funkender Computerbrillen“ kommen, die allen Nutzern interessante, womöglich suchterzeugende Möglichkeiten eröffneten und damit zugleich den datenverarbeitenden Diensten Rohmaterial in Fülle lieferten. Derartiges zeichne sich auch für ein digitalisiertes Gesundheitswesen ab, in dem bald alle eine virtuelle Kopie des eigenen Körpers als Prognoseinstrument zum Beispiel für Medikamentenwirkung oder Krankheitsvorbeugung besitzen könnten: „Der sich unseres Leibes bemächtigende Digitalisierungswahn dient dem Big-Data-Konzept: Er entfremdet uns in dem Maße von uns selbst, indem er der Manipulation Tür und Tor öffnet.“[Anm. 38]

Im Zeichen der Social Media sieht Thiede die Möglichkeiten individueller Lebensgestaltung schwinden: „Wer entschleunigen statt weiter beschleunigen möchte, wer die analoge Welt der digitalen eindeutig vorzieht, der hat es unter der Herrschaft digitaler Technokratie immer schwerer; seine Freiheit nimmt ab.“[Anm. 39] In der letzten von 95 Thesen zum Thema Digitaler Turmbau zu Babel heißt es eingangs: „Für Theologie und Kirche stellt sich angesichts der Entwicklungsspirale der digitalen Revolution die ernste Frage, ob nicht expliziter Widerstand gegen kommende Auswüchse die ethisch gebotene Handlungsweise sein sollte.“[Anm. 40]

Auch der Psychologe Gerd Gigerenzer kritisiert die mit der Digitalisierung einhergehende verbreitete Euphorie und betont im Hinblick auf das Hacken: „Das Gefährlichste an der ganzen Digitalisierung ist das Internet der Dinge.“ Die digitalen Sprachassistenten bezeichnet er als „potentielle Heimspione“ und warnt vor dem leichtfertigen Umgang mit persönlichen Daten.[100]

Überwachung und Gefährdung der Demokratie[Bearbeiten | Quelltext bearbeiten]

Die mit der Digitalen Revolution verbundene massenhafte Sammlung, Speicherung und Übertragung digitaler Daten hat zuvor ungekannte Möglichkeiten der Überwachung eröffnet, die sich rechtsstaatlicher Kontrolle teilweise entziehen. Sie wird vor allem von zwei Arten von Akteuren durchgeführt: zum einen Regierungen, die im besten Fall bloß Demokratie und Frieden wahren wollen, meist aber ihre eigene Macht, und die Mittel deshalb gegen Oppositionelle einsetzen. Dies geschieht auch in westlichen Demokratien, wie bspw. durch den Pegasus-Skandal ab 2016 publik wurde. Massenüberwachung wird aber auch von den größten IT-Unternehmen durchgeführt, weil es sich für sie finanziell lohnt (siehe Überwachungskapitalismus). Durch Überwachung gefährdet sind vor allem die Demokratie sowie die Freiheit des Einzelnen.

Die größten Unternehmen nutzen ihre große Macht über die Aufmerksamkeit ihrer Nutzer außerdem zur sozialen Kontrolle: Sie manipulieren die Nutzer ihrer Geräte bzw. Dienste nach ihren eigenen Interessen (z. B. Abhängigkeitserzeugung) sowie den Interessen von Geldgebern (siehe bspw. den Fall Cambridge Analytica).

Die Massenüberwachung verringert auch die individuelle Privatsphäre. Gläserne Bürger werden weltweit zunehmend zur Realität. Yuval Noah Harari hält den Siegeszug einer „Religion des Dataismus“ für möglich.[101] Deren Anhänger glaubten, dass die Intelligenz, die durch Vernetzung von Computern und die Entwicklung eines „Internets der Dinge“ entstehe, zu einem „posthumanistischen Zeitalter“ führen werde, in dem Datenschutz und Demokratie sinnlose Begriffe seien. So seien soziale Netzwerke wie facebook bereits heute in der Lage, durch die Analyse von 300 Likes eines Menschen besser als dessen Lebenspartner zu wissen, welche Vorlieben und Abneigungen der betreffende Mensch habe. Bald schon würden entsprechend „gefütterte“ Netzwerke genauer als ein bestimmter Wähler wissen, welches Wahlverhalten für ihn am nützlichsten sei, ihn aber auch hocheffektiv manipulieren können.[102]

Jaron Lanier rief dazu auf, man möge sich neben den „Gratis-Verlockungen“ der neuen Netzwelt auch die Kehrseiten der schicken Gadgets, Smartphones und Tabletcomputer vor Augen führen: „Wir kommunizieren regelmäßig mit Menschen, von deren Existenz wir vor dem Netzwerkzeitalter nicht einmal gewusst hätten. Wir können jederzeit Informationen zu fast jedem Thema finden. Aber wir haben auch erfahren, dass unsere Geräte und die aus idealistischen Motiven entstandenen digitalen Netzwerke von ultra-mächtigen, fernen Organisationen genutzt werden, um uns auszuspionieren. Wir werden stärker analysiert als wir analysieren.“ In den meisten Fällen könne man einen Tabletcomputer nicht einmal einschalten, ohne persönliche Informationen preiszugeben.[103]

Ohne Datenerhebung und Datenanalyse, so Beckedahl und Lüke, könne eine moderne Gesellschaft nicht funktionieren, und sie seien in mancher Hinsicht auch für die Bürger sehr vorteilhaft. Es gehe nicht darum, ob das stattfindet, sondern „wie und nach welchen Regeln es stattfindet, um den Missbrauch von Daten zu verhindern. Dieser Gedanke ist in Politik und Wirtschaft noch nicht angekommen.“[Anm. 41] Für Juristen seien Digitalisierung und Netzwelt ein besonders schwieriges Feld, weil es sich bei den Rechtswissenschaften um „nachlaufende Wissenschaften“ handle: Hier gehe es zumeist erst dann um passende Regelsetzung, „wenn etwas in der Welt oder zumindest vorstellbar ist“. Das technische Normensystem des Internets sei mit dem juristischen kaum kompatibel. „Rechtswissenschaftler haben über Jahrhunderte versucht, staatliche Souveränität zu definieren und eine Weltgemeinschaft souveräner Staaten inklusive Völkerrecht zu definieren und auszugestalten. Das Netz sagt: Ich bin überall. […] Es schert sich auch nicht darum, was es da transportiert, und von wem zu wem. Das hat die Juristen dieser Welt vor Probleme gestellt: Ihre nationalen und internationalen Regelwerke wollen allzu oft nicht so recht passen.“[Anm. 42]

Heinrich Wefing, einer der Initiatoren der Charta der Digitalen Grundrechte der Europäischen Union, setzt sich kritisch mit dem Geschäftsmodell von Internet-Plattformen wie Facebook, Google und Twitter auseinander. Deren Existenz hänge davon ab, Nutzer an sie zu binden und sie zu verführen, möglichst viel Zeit bei ihnen zu verbringen. „Denn je länger die Nutzer auf einer Plattform sind, desto mehr Werbung kann man ihnen vorsetzen. Und desto mehr Daten lassen sich von ihnen absaugen.“ Die jeweiligen Algorithmen seien in der Art digitaler Suchtmittel darauf programmiert, ständig so viel an Aufmerksamkeit wie nur möglich bei den Nutzern zu erregen.[104] Iyad Rahwan, Direktor am Max-Planck-Institut für Bildungsforschung, vergleicht in einem Interview die Verantwortung der Internetunternehmen mit den Problemen der Umweltverschmutzung und sieht Handlungsbedarf bei Staat und Gesellschaft.[105]

Neue Entfremdungsaspekte in datenbasierten Machtkonstellationen[Bearbeiten | Quelltext bearbeiten]

Die Konferenz- und Innovationsplattform Digital Life Design zeigt die Rolle großer Konzerne im technischen Entwicklungsprozess. Die Unternehmensberatung PricewaterhouseCoopers sieht in der Landwirtschaft eine Vorreiterrolle bei der Digitalisierung.[106] Das KTBL stellte 2017 fest, dass zum Beispiel der Verlust der Handlungsautonomie bei Prozessen und Entscheidungen, eine Überforderung durch zunehmende Komplexität der Entscheidungen und eine Polarisierung der Arbeit grundsätzliche Risiken einer Digitalisierung in der Landwirtschaft darstellen können.[107]

In einer gegenwartsbezogenen Würdigung sozioökonomischer Theoreme von Karl Marx anlässlich dessen 200. Geburtstags 2018 verknüpft Jürgen Neffe Erscheinungsformen der Digitalisierung des Wirtschafts- und Arbeitslebens mit Erkenntnissen des Marxismus: Wie der Fabrikarbeiter der ihm zugewiesenen Maschine diene der Einzelne im „Datenkapitalismus“ heute über das von ihm genutzte Gerät der „digitalen Weltmaschine“, die vampirartig Lebensdaten absauge. „Der Rohstoffzufluss durch lebendige Tätigkeit lässt den toten Mechanismus aus Prozessoren und Speicherchips umso mehr leben, je mehr wir ihm geben. Er verarbeitet sie zu durchaus nützlichen Informationen, die er uns schenkt, wenn er uns dafür Empfehlungen und Werbung zuspielen darf. So macht uns etwas, das von uns abhängt, umgekehrt zu seinen Abhängigen. Indem uns formt, was wir füttern, werden wir zum Produkt unserer eigenen Hervorbringung.“[108]

Im Maschinenfragment von 1857 habe Marx bereits die Frage aufgeworfen, wie das kapitalistische System funktionieren würde, wenn sich auf der Basis von Wissen alle Waren und Dienstleistungen vollautomatisch herstellen ließen. „Indem uns die Verheißung zeitnaher, bedarfsgerechter und automatischer Produktion wieder ein Stück weiter zu Untertanen unserer eigenen Schöpfung macht, erleben wir so etwas wie einen marxschen Moment.“ Dabei hält Neffe auch bei im Kern fortbestehender wirtschaftlicher Freiheit eine Entwicklung für möglich, „in der Basisbedürfnisse wie Nahrung und Wasser, Mobilität und die Teilhabe am kulturellen Leben mit freier Kommunikation und Netzzugang selbstverständlich erfüllt werden.“ Ihm schwebt vor, dass diese Güter zu Gemeineigentum würden wie öffentliche Grünflächen, Straßenland und Plätze, die jenseits kommerzieller Interessen instand gehalten werden und allen zur Verfügung stehen. „Auch ohne Umsturz ließe sich eine digitale Moderne vorstellen, in der die Herrschaft über die wachsende Datenmenge nicht unkontrolliert in den Händen Einzelner liegt.“[108]

Perspektiven in der Corona-Krise[Bearbeiten | Quelltext bearbeiten]

Der Soziologe und Kulturwissenschaftler Andreas Reckwitz sieht neben dem Wiedererstarken des Staates als ordnungssetzender Macht die Digitalisierung als „zweite große Gewinnerin“ in der Corona-Krise. In dieser erweise sich die digitale Revolution als Glücksfall, indem sie eine Kommunikation unter räumlich Getrennten ermögliche; zwar könne sie nicht alles, aber doch manches ersetzen. „Homeoffice und Videokonferenzen im Bereich der Arbeit, digitales Lernen in Schule und Hochschule, Onlinekonsum und persönliche Kommunikation über das Netz – man kann davon ausgehen, dass diese Erfahrungen auch nach Ende der Krise dazu führen, dass sich Arbeit, Bildung und Privatsphäre weiter tiefgreifend digitalisieren.“[109]

Einen anderen Akzent setzt der Philosoph Richard David Precht, mit dem Hinweis, „künstliche Intelligenz sagt in der Krise niemandem, was zu tun ist, und digitales Gerät schützt nicht vor existenziellen Lebenskrisen.“ Es gelte bei der Nachbereitung dieser Krise auch, analoge Bedarfe wieder stärker zu berücksichtigen.[110]

Zukunftsprojektionen[Bearbeiten | Quelltext bearbeiten]

Für das 21. Jahrhundert erwarten Stengel, Looy und Wallaschkowski ein grundlegend verändertes Verhältnis zwischen Mensch und Natur. Menschliches Leben werde sich aus der Natur noch weiter in digitale Räume verlagern. Nach Eingriffen in das eigene und in das Genom anderer Organismen würden Menschen künftig auch neue, synthetische Organismen erschaffen. In einer sich abzeichnenden postkapitalistischen Wirtschaftsordnung bedürfe es zur Produktion vieler Dinge nicht mehr unbedingt der Unternehmen. Mit neuen Fabrikationsverfahren wie dem 3D-Druck wandle sich die Wirtschaft von einer zentralisierten Top-down-Ökonomie zu einer demokratischen Bottom-up-Ökonomie, in der vieles von den Bürgern selbst hergestellt werden könnte. Dezentralisierung stehe auch hinsichtlich der Energieversorgung bevor, sobald jedes Gebäude sich damit selbst versorgen könne. Der medizinische Fortschritt verspreche allen Menschen eine längere und gesündere Lebensspanne. Big Data werde den Übergang von standardisierten zu individualisierten medizinischen Therapieverfahren ermöglichen. Hinsichtlich der mit solchen Entwicklungen einhergehenden kulturellen Veränderungen könnten nur jene Religionen künftig noch überzeugen, denen es gelinge, Genetic-Engineering und die menschliche Schöpfung künstlicher Lebensformen in ihr Weltbild und Normensystem zu integrieren.[111]

Die Menschen des digitalen Zeitalters werden sich künftig durch die Erweiterung ihrer körperlichen Möglichkeiten von denen des Industriezeitalters markant unterscheiden, und zwar bedingt durch neue Formen des Human-Enhancement auf genetischer, pharmakologischer und technologischer Basis, so Oliver Stengel. „Der Mensch 2.0“ werde sich nicht nur durch biologische Eingriffe in sein Genom verändern, sondern auch „durch die Integration (digital)technologischer Bauteile in seinen Körper und vielleicht auch durch nanotechnologische Interventionen.“ In der Art der bereits genutzten Cochlea-Implantate für verbessertes Hören erwartet Stengel unter anderem die Entwicklung von Retina-Implantaten in Form eines Microchips in Auge oder Kontaktlinse, der mit dem Internet oder einem Navigationssystem verbindet.[112]

Menschen- und völkerrechtliche Fragen[Bearbeiten | Quelltext bearbeiten]

Technologiefirmen im Silicon Valley arbeiten laut Miriam Meckel daran, „das menschliche Gehirn zur neuen Eroberungszone ihrer unternehmerischen Aktivitäten zu machen.“ Für das auf erhöhte Leistungsfähigkeit zielende Zusammenwirken von neuester Technik mit dem menschlichen Gehirn steht der Begriff Brainhacking, so Meckel. Bei Facebook werde seit 2018 zu einer Technik geforscht, die es ermöglicht, Gedankenprodukte unmittelbar auf das Smartphone zu übertragen und das Schreiben auf dem Gerät dadurch enorm zu beschleunigen. Der Unternehmer Elon Musk beschäftige seine Firma Neuralink wiederum damit, menschliche Gehirne in einer durch künstliche Intelligenz angereicherten Hirncloud zu vernetzen. Die individuellen Gedanken würden damit für jeden verfügbar, der sich an diese Cloud anschließt. Meckel warnt davor, dass eine solche Entwicklung den nahezu unbegrenzten Zugriff auf das Innerste der individuellen Persönlichkeit mit sich brächte: „Und wo sich Gedanken aus dem Gehirn lesen lassen, da lassen sie sich im Umkehrschluss auch hineinschreiben. So kann man Informationen, Erfahrungen und Erinnerungen speichern und eine Persönlichkeit umschreiben.“[113][Anm. 43]

Welche Rolle den Menschen in einer global durchdigitalisierten künftigen Weltgesellschaft verbleibt, erwägen die Soziologen Heinz Bude und Philipp Staab. Sie sehen die USA und China mit ganz verschiedenen Leitbildern um die digitale Weltherrschaft wetteifern und suchen einen eigenen europäischen Standort zu bestimmen. Während sich die Sicherung der Massenloyalität in China durch ein auf umfassende Datenpreisgabe und -überwachung gegründetes Sozialkreditsystem abzeichne (Privilegiengewährung bei Wohlverhalten im Sinne der kommunistischen Parteiführung), laufe das amerikanische Gegenmodell auf vielfältige und weitgehend kostenlose „Lebensassistenzangebote“ hinaus: „Man zahlt mit seinen Daten und freut sich an der ungeheuren Bequemlichkeit des digitalen Anschlusses an die Welt.“ Massenloyalität entstehe in dieser Variante aus der Gratisversorgung mit digitalen Lebenshilfen. „Bleibt uns nur die Wahl zwischen Huawei und Facebook?“, fragen Bude und Staab und verweisen darauf, dass die Voraussetzungen für die „dritte Stufe der Evolution des Netzes“ in Europa vorlägen: „Nach dem kommunikativen Netz mit den sozialen Netzwerken, dem kommerziellen Netz mit den Internetkaufhäusern befinden wir uns weltweit jetzt im Aufbau eines industriellen Netzes der Dinge.“ Für die Europäer gelte es zu zeigen, wie der Mensch „sich hier als vernetzter Produzent mit verteilter Intelligenz, als disponierender Konsument mit einer Vielfalt händlerischer Möglichkeiten und als konstitutiver Bürger ganz neu und anders zur Geltung bringt.“ Es handle sich darum, „ob offene Gesellschaften individuelle Freiheit und kollektive Handlungsfähigkeit als die zwei Seiten einer gemeinsamen Anstrengung noch einmal zum Schwingen bringen können.“ Die beiden Soziologen gelangen zu dem Fazit: „Aus der Individualität kommt die Bewegung, aus der Solidarität die Form. Das ist der europäische Weg.“[114]

Völkerrechtliche Fragen, die durch die Digitale Revolution aufgeworfen werden, rückten im Zuge der Überwachungs- und Spionageaffäre 2013 in den Fokus der gesellschaftlichen und politischen Diskussion. Dies schließt weitgehend ungelöste Fragen bezüglich der Menschenrechte, der Spionageabwehr und der staatlichen Souveränität ein.[115]

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Digitalisierung. Informationen zur politischen Bildung 344. Hg. von der Bundeszentrale für politische Bildungen, Bonn 2020.
  • Dirk Baecker, 4.0 oder Die Lücke die der Rechner lässt. Merve, Leipzig 2018, ISBN 978-3-96273-012-3.
  • Markus Beckedahl, Falk Lüke: Die digitale Gesellschaft. Netzpolitik, Bürgerrechte und die Machtfrage. München 2012, ISBN 978-3-423-24925-6.
  • Anja Breljak, Rainer Mühlhoff, Jan Slaby (Hrsg.): Affekt Macht Netz. Auf dem Weg zu einer Sozialtheorie der Digitalen Gesellschaft. transcript, Bielefeld 2019, ISBN 978-3-8376-4439-5. (PDF-Download)
  • Holm Friebe, Sascha Lobo: Wir nennen es Arbeit – die digitale Bohème oder: intelligentes Leben jenseits der Festanstellung. Heyne, München 2006, ISBN 3-453-12092-2.
  • Uwe Jean Heuser: Tausend Welten. Die Auflösung der Gesellschaft im digitalen Zeitalter. Berlin Verlag, 2000, ISBN 3-8270-0208-7.
  • Catarina Katzer: Cyberpsychologie. Leben im Netz: Wie das Internet uns ver@ndert. München 2016.
  • Andreas Mühlichen: Privatheit im Zeitalter vernetzter Systeme. Eine empirische Untersuchung. Opladen/Berlin/Toronto 2018.
  • Otto Peters: Kritiker der Digitalisierung. Warner, Bedenkenträger, Angstmacher, Apokalyptiker. Frankfurt 2012.
  • Erik Brynjolfsson, Andrew McAfee: The Second Machine Age: Wie die nächste digitale Revolution unser aller Leben verändern wird. Plassen Verlag, 2014, ISBN 978-3-86470-211-2.
  • Karl Steinbuch: Die informierte Gesellschaft. Geschichte und Zukunft der Nachrichtentechnik. Deutsche Verlagsanstalt, Stuttgart 1966.
  • Oliver Stengel, Alexander van Looy, Stephan Wallaschkowski (Hrsg.): Digitalzeitalter – Digitalgesellschaft: Das Ende des Industriezeitalters und der Beginn einer neuen Epoche. Wiesbaden 2017, ISBN 978-3-658-16508-6.
  • Werner Thiede: Die digitalisierte Freiheit. Morgenröte einer technokratischen Ersatzreligion. LIT-Verlag, Berlin 2014 (2. Aufl.), ISBN 978-3-643-12401-2.
  • Werner Thiede: Digitaler Turmbau zu Babel. Der Technikwahn und seine Folgen. oekom: München 2015, ISBN 978-3-86581-727-3 (2., erweiterte Aufl. 2021: ISBN 978-3-96238-300-8).
  • Armin Nassehi: Muster. Theorie der digitalen Gesellschaft. C. H. Beck, München 2019, ISBN 978-3-406-74024-4.

Weblinks[Bearbeiten | Quelltext bearbeiten]

Anmerkungen[Bearbeiten | Quelltext bearbeiten]

  1. Mühlichen 2018, S. 47.
  2. Steinbuch 1966, Seite 5.
  3. Steinbuch 1966, Seite 293.
  4. World Bank Data Group: World Development Indicators. growth (annual %&). Laufende Berichterstattung.
  5. „Die prophetische Pose und die ideologische Manipulation, die für die meisten Diskurse über die Revolution in der Informationstechnologie charakteristisch sind, sollten uns nicht dazu verleiten, ihre wirklich grundlegende Bedeutung zu unterschätzen.“ Manuel Castells: Der Aufstieg der Netzwerkgesellschaft. Teil I der Trilogie „Das Informationszeitalter“. Opladen 2004, S. 32.
  6. Mühlichen 2018, S. 55.
  7. Videoanimation über The World’s Technological Capacity to Store, Communicate, and Compute Information from 1986 to 2010. (Memento vom 18. Januar 2012 im Internet Archive) In: ideas.economist.com
  8. Interview mit Konrad Zuse: (Memento vom 23. Juni 2012 im Internet Archive) Zuse: „Selbstverständlich. Wernher von Braun selbst hat ja gesagt, ohne Computer wäre die Raumfahrt nicht möglich gewesen. (…)“
  9. Anja Breljak: Die Zeit der Datenmaschinen. In: Anja Breljak, Rainer Mühlhoff, Jan Slaby (Hrsg.) 2019, S. 38.
  10. Der US-amerikanische Wirtschaftswissenschaftler Erik Brynjolfsson erklärte in einem Gespräch: „Man könnte das zweite Maschinenzeitalter in Phasen unterteilen. In Phase 2a bringen wir Menschen den Maschinen Schritt für Schritt bei, was wir wissen. So funktioniert traditionelle Softwareprogrammierung. In Phase 2b lernen die Maschinen selbstständig und entwickeln Wissen und Fähigkeiten, die wir nicht mehr erklären können. Maschinelle Lernprozesse zeigen bereits erste Erfolge in den unterschiedlichsten Bereichen, vom Sprachverstehen über die Erkennung von Betrug bis hin zum Spielen von Videospielen.“ (Die große Abkopplung. (…) Ein Gespräch mit Andrew McAfee und Erik Brynjolfsson. In: Harvard Business Manager. Nr. 9, 2015). Eine kritische Auseinandersetzung mit der diesbezüglichen Entwicklung enthält der Sammelband von Frank Schirrmacher (Hrsg.): Technologischer Totalitarismus. Eine Debatte. Suhrkamp, Frankfurt am Main 2015, (Rezension (Memento des Originals vom 6. Juni 2016 im Internet Archive)  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/pw-portal.de; abgerufen am 15. Februar 2019)
  11. Beckedahl/Lüke 2012, S. 142 f.
  12. Jaron Lanier gibt ein Anwendungsbeispiel für die logistischen Potenziale digitaler Netzwerke, die beispielsweise auszunutzen in der Lage sind, dass Banken die Konten zu einem bestimmten Tageszeitpunkt abgleichen: „Mit einem ausreichend entwickelten Netzwerk kann Geld zu einem ganz konkreten Zeitpunkt automatisch auf Konten transferiert und wieder abgezogen werden. Dadurch entstehen komplizierte Kreisläufe perfekt getimter Transaktionen, die durch viele Länder gehen. […] So konnte beispielsweise dasselbe Geld bei zwei verschiedenen Banken auf entgegengesetzten Seiten der Erdkugel gleichzeitig Zinsen bringen.“ Jaron Lanier: Wem gehört die Zukunft? 3. Auflage. Hamburg 2014, S. 110 f.
  13. Staab 2019, S. 38–49.
  14. a b Beckedahl/Lüke 2012, S. 76.
  15. Z. B. durch Vermeidung von Fahrzeiten ohne Passagiere, die in Hamburg 72 % betragen; vgl. Justus Haukap u. a.: Chancen der Digitalisierung auf Märkten für urbane Mobilität: Das Beispiel Uber. (= Ordnungspolitische Perspektiven. No. 73). Düsseldorf Institute for Competition Economics (DICE), 2015, ISBN 978-3-86304-673-6; oder durch effizientere Ressourcennutzung und verringerte Schadstoffemission durch Einsatz von digitaler Mess-, Steuer- und Regeltechnik; vgl. Meinolf Dierkes: Mensch, Gesellschaft, Technik: auf dem Wege zu einem neuen gesellschaftlichen Umgang mit der Technik. In: Rudolf Wildenmann (Hrsg.): Umwelt, Wirtschaft, Gesellschaft - Wege zu einem neuen Grundverständnis. Kongress „Zukunftschancen eines Industrielandes“, Dezember 1985. Stuttgart 1985, ISBN 3-9801377-0-8, S. 41–59.
  16. Rainer Mühlhoff: Big Data Is Watching You. Digitale Entmündigung am Beispiel von Facebook und Google. In: Anja Breljak, Rainer Mühlhoff, Jan Slaby (Hrsg.) 2019, S. 82 und 84.
  17. Rainer Mühlhoff: Big Data Is Watching You. Digitale Entmündigung am Beispiel von Facebook und Google. In: Anja Breljak, Rainer Mühlhoff, Jan Slaby (Hrsg.) 2019, S. 83 und 103.
  18. Mühlichen 2018, S. 84 f. und 259.
  19. Anja Breljak und Rainer Mühlhoff: Was ist Sozialtheorie in der digitalen Gesellschaft? Einleitung. In: Anja Breljak, Rainer Mühlhoff, Jan Slaby (Hrsg.) 2019, S. 12.
  20. Anja Breljak: Die Zeit der Datenmaschinen. In: Anja Breljak, Rainer Mühlhoff, Jan Slaby (Hrsg.) 2019, S. 50 f.
  21. Beckedahl/Lüke 2012, S. 218 f.
  22. „Früher war es von den Entscheidungen einer Redaktionskonferenz, eines Blattmachers, eines Chefs vom Dienst abhängig, was an die Öffentlichkeit kam. Die Deutsche Presseagentur, die DPA, hat mit ihren Berichten oder auch Nichtberichten maßgeblich die Frage beeinflusst, was Deutschland bewegte oder nicht. Genau betrachtet hat die Auswahl der Frühinterview-Gäste des Deutschlandfunks das Thema des Tages schon weitgehend gesetzt. […] Ein politischer Kommentar in der ›FAZ‹ oder der Leitartikel in der ›Zeit‹ hatten eine Meinungsmacht, die kaum zu überbieten war. Ganz zu schweigen vom ›Spiegel‹, wenn er ein Thema zur Titelgeschichte erhob.“ (Beckedahl/Lüke 2012, S. 171)
  23. Beckedahl/Lüke 2012, S. 170 f.
  24. Beckedahl/Lüke 2012, S. 172–174.
  25. Bernhard Pörksen, Wolfgang Krischke (Hrsg.): Die gehetzte Politik. Die neue Macht der Medien und Märkte. Köln 2013, S. 7 f. und 23. Ole von Beust beantwortet im Interview mit Studierenden der Universität Tübingen die Frage, ob politisch korrekte Selbstkontrolle nicht floskelhafte Sprache wahrscheinlich mache: „Natürlich, man versucht sprachlich keine Konflikte auszulösen, sich bloß nicht festzulegen und wenig Gefühl zu zeigen. Stattdessen spricht man ganz automatisch ›Politdeutsch‹. Das ist zwar langweilig, aber man macht keine Fehler.“ (Ebenda, S. 36)
  26. Katzer 2016, S. 203.
  27. Katzer 2016, S. 206 f.
  28. Beckedahl/Lüke 2012, S. 75 f.
  29. Beckedahl/Lüke 2012, S. 214 f.
  30. Katzer 2016, S. 266, mit Hinweis auf Vernetzt und allein. Die Einsamkeit auf Facebook. In: Berliner Zeitung. 4. Dezember 2013; abgerufen am 7. Oktober 2018.
  31. Katzer 2016, S. 16.
  32. Katzer 2016, S. 118–120. Den Philosophen Konrad Paul Liessmann zitiert Katzer mit der Aussage, wer keine Ahnung von Geschichte habe, dem helfe auch Wikipedia nicht weiter. (Ebenda, S. 125)
  33. Ulrich Bahnsen: Die Kurzsichtigkeit unter Jugendlichen nimmt rasant zu. Die Augenkrankheit ist gefährlicher als gedacht. In: Die Zeit. 30. Mai 2018, S. 29. „Besonders gefürchtete Folgeleiden bei Kurzsichtigen sind grüner und grauer Star, die Degeneration oder die Ablösung der Netzhaut sowie Ödeme, also Wassereinlagerungen, in der Makula, der Stelle des schärfsten Sehens.“
  34. Anzuraten sei unter anderem, wenigstens die Pausenzeiten für Aufenthalte unter Tageslichtbedingungen vorzusehen. (Ulrich Bahnsen: Die Kurzsichtigkeit unter Jugendlichen nimmt rasant zu. Die Augenkrankheit ist gefährlicher als gedacht. In: Die Zeit. 30. Mai 2018, S. 30)
  35. Bauman 2009, S. 61.
  36. Thiede 2015, S. 9. „Worum es in den entsprechenden Debatten geht und gehen muss, das ist die Frage einer angemessenen, humaneren Ausgestaltung der Technisierung unserer Lebenswelt – einschließlich möglicher Korrekturen bisher schon eingeschlagener Wege, sofern sie sich bei näherer Betrachtung als gefährlich oder ethisch zweifelhaft erweisen.“ (Ebenda, S. 12)
  37. Thiede 2015, S. 31.
  38. Thiede 2015, S. 42 f.
  39. Thiede 2015, S. 103.
  40. Thiede 2015, S. 162.
  41. Beckedahl/Lüke 2012, S. 57. Das Thema Datenschutz langweile oder überfordere wegen seiner vermeintlichen Komplexität viele Normalbürger, weil es mit einer Vielzahl von technischen und juristischen Begrifflichkeiten befrachtet sei. „So komplex ist es aber gar nicht, wenn man sich auf den Kern der Frage besinnt: Wer weiß was über uns, und was darf er mit diesen Informationen machen?“ (Ebenda, S. 53)
  42. Beckedahl/Lüke 2012, S. 216 f.
  43. Spiegel-Autor Manfred Dworschak kritisierte Meckels Thesen als „Schauergeschichten“. (Ist es bald möglich, Gedanken zu lesen? Krasse These von Miriam Meckel: Die Herausgeberin und Buchautorin hält es für möglich, dass wir uns künftig telepathisch verständigen. Was ist dran? In: Spiegel Online. 12/2018; abgerufen am 11. Dezember 2019.)

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Martin Schmitt: Die Digitalisierung der Kreditwirtschaft. Computereinsatz in den Sparkassen der Bundesrepublik und der DDR 1957-1991 (= Medien und Gesellschaftswandel im 20. Jahrhundert 15). Wallstein, Göttingen 2021, ISBN 978-3-8353-3371-0, S. 291–292.
  2. Wichum, Ricky/Zetti, Daniela: Transformation. Die Erfahrung der Ankündigung von Wandel und Veränderung. In: Dies. (Hrsg.): Zur Geschichte des Digitalen Zeitalters, Wiesbaden 2017, S. 1–10, hier S. 1.
  3. Oliver Stengel, Alexander van Looy, Stephan Wallaschkowski: Einleitung. In: Dies. (Hrsg.) 2017, S. 3–5.
  4. Thomas Usländer, Julius Pfrommer, Miriam Schleipen: Das Internet der Dinge in der Automation: Anforderungen und Technologien. In: 5. Jahreskolloquium KommA -Kommunikation in der Automation, Lemgo, November 2014; researchgate.net (PDF; 934 kB).
  5. Oliver Stengel, Alexander van Looy, Stephan Wallaschkowski: Einleitung. In: dies. (Hrsg.): Digitalzeitalter – Digitalgesellschaft. 2017, S. 3.
  6. Friedrich Engels: Die Lage der arbeitenden Klasse in England. (1845). In: MEW. Band 2, Berlin 1976, S. 237.
  7. Walt Whitman Rostow: The Stages of Economic Growth. Cambridge University Press, 3. Auflage 1990.
  8. Harm Bandholz, Gebhard Flaig, Johannes Ma: Wachstum und Konjunktur in OECD-Ländern: Eine langfristige Perspektive. In: ifo Schnelldienst. 58. Jahrgang, Heft 4, 2005. Weltbankdaten auf google.de{publicdata
  9. Erik Brynjolfsson: Some estimates of the contribution of information technology to consumer welfare. Leopold Classic Library, 2015.
  10. Thomas Piketty: Le capital au XXI siècle. Paris 2013.
  11. raumfahrtkelander.de (Memento des Originals vom 2. April 2018 im Internet Archive)  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.raumfahrtkalender.de
  12. a b c Martin Hilbert, Priscila López (2011): The World’s Technological Capacity to Store, Communicate, and Compute Information. In: Science. 332(6025), 60–65; kostenfreien Zugriff auf den Artikel gibt es hier: martinhilbert.net/WorldInfoCapacity.html
  13. Jaron Lanier: Wem gehört die Zukunft? 3. Auflage. Hamburg 2014, S. 32 f.
  14. Peter Schadt: Die Digitalisierung der deutschen Autoindustrie, Köln: PapyRossa 2021, ISBN 978-3-89438-745-7
  15. Sascha Koesch, Fee Magdanz, Robert Stadler: Indien: Das Handy macht den Sardinenpreis. In: Der Spiegel (online), Rubrik "Netzwelt", 19. Mai 2007.
  16. Dalia Marin: Gegen den Verfall der Lohnquote. In: www.Handelsblatt.com, 30. Mai 2017.
  17. Dan Schiller: Digital Capitalism. Cambridge MA 2000
  18. Philipp Staab: Digitaler Kapitalismus. Berlin 2019.
  19. Nick Srnicek: Plattform-Kapitalismus. Hamburg 2018.
  20. Die große Abkopplung. Ein Gespräch mit Andrew McAfee und Erik Brynjolfsson. In: Harvard Business Manager. Heft 9, 2015. (online)
  21. Armin Beverungen, Steffen Böhm, Chris Land: Freie Arbeit, Soziale Medien, Management: Eine Herausforderung für Marxistische Organisationswissenschaften. In; Organization Studies, 36(2015)4, S. 473–489.
  22. Kommission der Europäischen Gemeinschaften: Wachstum, Wettbewerbsfähigkeit, Beschäftigung. Herausforderungen der Gegenwart und Wege ins 21. JahrhundertWeißbuch, Bulletin der Europäischen Gemeinschaften, Beilage 6/93, S. 28ff.
  23. Philipp Staab: Digitaler Kapitalismus. Frankfurt 2019, S. 36.
  24. Philipp Staab: Digitaler Kapitalismus. Frankfurt 2019.
  25. A Digital Single Market Strategy for Europe. Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions, Brüssel, 6. Mai 2015; ec.europa.eu (PDF).
  26. Recht im digitalen Zeitalter: Festgabe Schweizerischer Juristentag 2015 in St. Gallen. Hrsg.: Lukas Gschwend, Peter Hettich, Markus Müller-Chen u. a., Zürich, St. Gallen 2015, S. 273, 276.
  27. Daniel Laufer: Neue Spielregeln für Streamer, Google und Falschmeldungen auf netzpolitik.org, 6. Dezember 2019.
  28. Urteil d. OLG Köln vom 14.11.2019, Az. 15 U 89/19 [1];
  29. 2014 Cost of Cyber Crime Study: Germany@1@2Vorlage:Toter Link/ssl.www8.hp.com (Seite nicht mehr abrufbar, festgestellt im April 2023. Suche in Webarchiven)  Info: Der Link wurde automatisch als defekt markiert. Bitte prüfe den Link gemäß Anleitung und entferne dann diesen Hinweis.
  30. Stefan Krause, Bernhard Pellens (Hrsg.): Betriebswirtschaftliche Implikationen der digitalen Transformation. ZfbF-Sonderheft, Bd. 72, 2017.
  31. Sebastian Matthes: Die großen US-Techkonzerne betreiben digitalen Kolonialismus. In: handelsblatt.de, 3. Juni 2020.
  32. Andreas Boes u. a.: Landnahme im Informationsraum. In: WSI-Mitteilungen. Nr. 2, 2015, S. 77–85.
  33. Christoph Deutschmann: Postindustrielle Industriesoziologie. Juventa, 2001, S. 42 ff.
  34. Edelgard Kutzner: Geschlechterverhältnisse und Digitalisierung von Arbeit – erste empirische Befunde. In: Edelgard Kutzner, Melanie Roski, Ellen Hilf, Saskia Freye (Hrsg.): Wandel der Arbeit durch Digitalisierung = Wandel der Geschlechterverhältnisse? TU Dortmund, ZWE Sozialforschungsstelle/FGW: Dortmund/Düsseldorf, S. 28–33; fgw-nrw.de (PDF; 1,9 MB)
  35. Uwe Jean Heuser, Caterina Lobenstein, Kolja Rudzio und Heinrich Wefing: Was machen wir morgen? Wenn durch künstliche Intelligenz Arbeitsplätze vernichtet werden, steht Deutschland vor einer Herausforderung. Zerbricht die Gesellschaft daran? Oder gibt es wieder Zeit für die wichtigen Dinge? In: Die Zeit, Nr. 18/2018, S. 25.
  36. Arno Waschkuhn: Kritische Theorie: Politikbegriffe und Grundprinzipien der Frankfurter Schule. Walter de Gruyter, 2015, S. 210 (Einblick in den Referenztext bei Google Books).
  37. „Jeder Zehnte bald arbeitslos – Digitalisierung zerstört 3,4 Millionen Stellen“. In: FAZ, 2. Februar 2018.
  38. Carl Benedikt Frey, Michael A. Osborne: The future of employment: how susceptible are jobs to Computerisation? (PDF) Oxford University Engineering Sciences Department, 13. September 2013, abgerufen am 24. April 2019 (englisch).
  39. Nachhaltigkeit 4.0. (Memento des Originals vom 15. April 2019 im Internet Archive)  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.dnr.de auf dnr.de, ohne Datum.
  40. Eva Wolfangel: Umweltfreundliche Mobilgeräte: Grüne Smartphones mit Kult-Verdacht. In: spektrum.de. 21. Mai 2014, abgerufen am 14. Februar 2019.
  41. David R. Lide (Hrsg.): CRC Handbook of Chemistry and Physics. 85. Auflage. CRC Press, Boca Raton, Florida, 2005. Section 14, Geophysics, Astronomy, and Acoustics; Abundance of Elements in the Earth’s Crust and in the Sea.
  42. Hans Breuer: dtv-Atlas Chemie. Band 1, 9. Auflage. Deutscher Taschenbuch Verlag, München 2000.
  43. Lithium – ein Spannungsmacher auf Kreislaufkurs. In: VDI nachrichten, 7. Januar 2011, S. 3.
  44. Lithium Resources and Production: Critical Assessment and Global Projections. Steve H. Mohr, GavinM. Mudd, Damien Giurco. Minerals 2012, 2, 65–84. doi:10.3390/min2010065
  45. Laurence Kavanagh, Jerome Keohane, Guiomar Garcia Cabellos, Andrew Lloyd, John Cleary: Global Lithium Sources—Industrial Use and Future in the Electric Vehicle Industry: A Review. In: Resources, Band 7, Nr. 3, 2018, S. 57. doi:10.3390/resources7030057
  46. faz.net
  47. Faktencheck: Ökobilanz von Suchmaschinen. (Memento des Originals vom 23. Oktober 2019 im Internet Archive)  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.swr.de swr.de, 4. September 2018.
  48. Zygmunt Bauman: Gemeinschaften. Frankfurt 2009, S. 59 f.
  49. Heinz Pürer: Publizistik- und Kommunikationswissenschaft. Ein Handbuch. Konstanz 2003, S. 84.
  50. Heinz Pürer: Publizistik- und Kommunikationswissenschaft. Ein Handbuch. Konstanz 2003, S. 89.
  51. Uwe Ebbinghaus, Stefan Schulz, Thomas Thiel: Machtprobe mit Silicon Valley. 11. März 2014, abgerufen am 16. März 2014.
  52. Daten-Leak bei Buchbinder am 22. Januar 2020 online von c’t magazin, abgerufen am 17. Februar 2019
  53. Heinz Pürer: Publizistik- und Kommunikationswissenschaft. Ein Handbuch. Konstanz 2003, S. 96 f.
  54. Internet und Handy für Demokratie in Afrika wichtig. In: golem.de
  55. Lügen laufen bei Twitter am besten. In: Der Tagesspiegel. 9. März 2018, S. 22.
  56. Nils Graefe: Die Landeskriminaler. Experte für Kunstfälschungen des LKA. In: Welzheimer Zeitung. 16. Juni 2014. (online).
  57. Jahreswirtschaftsbericht 2008. (Memento vom 7. April 2009 im Internet Archive; PDF ; 2,1 MB) Bundesverband Musikindustrie, S. 19/27.
  58. Google Book Settlement. Google, archiviert vom Original am 10. Februar 2013; abgerufen am 20. März 2017 (englisch).
  59. boerse.ard.de (Memento des Originals vom 11. April 2019 im Internet Archive)  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/boerse.ard.de
  60. Yuliya Lapko: Urheberrecht beim privaten 3D-Druck – Plagiat oder Privatkopie? – aktuelles Wirtschaftsrecht. 25. Februar 2016, abgerufen am 21. April 2021 (deutsch).
  61. Christoph David Piorkowski: Klar denken in der Empörungsdemokratie. Eine digitale Ethik gegen die Hetze: Philosophen diskutieren über den Umgang mit Hate Speech. In: Der Tagesspiegel. 26. Juni 2018, S. 7.
  62. Andrea Römmele: Ist das noch gelogen oder doch schon Bullshit? Was die schwindende Überzeugungskraft von Fakten für unsere Demokratie bedeutet. In: Der Tagesspiegel. 22. Juni 2018, S. 8.
  63. Olivia Solon: Digitaler Kolonialismus. Internet: Smarte neue Welt auf welt-sichten.de, 12/2017.
  64. Ina Holev: Digitale Revolution auf goethe.de, 2020.
  65. Martina Schwikowski: Afrikas digitales Dilemma auf dw.com, 31. Mai 2019.
  66. Manfred Spitzer: Digitale Demenz: Wie wir uns und unsere Kinder um den Verstand bringen. München 2014.
  67. „Wenn Kinder nur noch wischen, haben sie einen großen Nachteil“. Interview des Deutschlandfunks mit Manfred Spitzer vom 8. März 2018.
  68. M. Appel, C. Schreiner: Leben in einer digitalen Welt: Wissenschaftliche Befundlage und problematische Fehlschlüsse Stellungnahme zur Erwiderung von Spitzer (2015). Abgerufen am 20. Juli 2017.
  69. Salman Ansari: Lasst Kindern ihre Neugier. Schon die Jüngsten lernen, indem sie die Natur erforschen. Ein Appell gegen die Digitalisierung der Kindheit. In: Der Tagesspiegel. 28. August 2018, S. 16.
  70. Milosz Matuschek: Generation Fake. In: NZZ, 4. April 2016.
  71. René Girard: Figuren des Begehrens. Das Selbst und der Andere in der fiktionalen Realität. Münster 1998.
  72. Selfies ungeschminkt. (PDF) ohne Jahr (ca. 2016).
  73. Nikola Endlich: Alles, was echt ist. In: Der Tagesspiegel. 26. Mai 2018, S. MB2.
  74. Mareike Nieberding, Bjön Stephan: Die Einfluss-Reichen. In: Die Zeit. 22. März 2018, S. 15.
  75. Mareike Nieberding, Bjön Stephan: Die Einfluss-Reichen. In: Die Zeit. 22. März 2018, S. 17.
  76. Nikola Endlich: Alles, was echt ist. In: Der Tagesspiegel. 26. Mai 2018, S. MB3.
  77. P. G. Zimbardo, J. N. Boyd: Putting time in perspective: A valid, reliable individual-differences metric. In: Journal of Personality and Social Psychology. Band 77, Nr. 6, 1999, S. 1271–1288.
  78. Robert Barry: Die Musik der Zukunft. Berlin 2018.
  79. Stephan A. Böhm, K. Bourovoi, A. Z. Brzykcy, L. M. Kreissner, C. Breier: Auswirkungen der Digitalisierung auf die Gesundheit von Berufstätigen: Eine bevölkerungsrepräsentative Studie in der Bundesrepublik Deutschland. Universität St. Gallen, S. 39.
  80. Marie Rövekamp: Warum die Digitalisierung die Psyche belastet. In: tagesspiegel.de, 28. November 2017.
  81. Martin Korte: Was soll nur aus unseren Gehirnen werden? In: faz.net, 30. April 2010; abgerufen am 6. Oktober 2020.
  82. Liebe ist wie das Licht eines erloschenen Sterns. Eva Illouz im Interview. In: Der Tagesspiegel. 26. Mai 2019, Seite S1.
  83. Wie sozial ist digital? Jeder Lebensbereich wandelt sich. Immer mehr glauben: Nicht zum Guten. In: Der Tagesspiegel. 5. Mai 2019, S. 22.
  84. Ulrich Bahnsen: Die Kurzsichtigkeit unter Jugendlichen nimmt rasant zu. Die Augenkrankheit ist gefährlicher als gedacht. In: Die Zeit. 30. Mai 2018, S. 29.
  85. Die digitale Revolution in den Wissenschaften (Memento vom 14. November 2012 im Internet Archive)
  86. Wie das Internet die Wissenschaftskommunikation verändert, wordpress.com, 24. März 2015.
  87. Jens Loescher: Garagenbastler der Geisteswissenschaften. In: Der Tagesspiegel. 1. Mai 2017.
  88. Richard David Precht: Jäger, Hirten, Kritiker. Eine Utopie für die digitale Gesellschaft. München 2018, S. 48 f. und 51.
  89. heise.de: Digitale Kluft verfestigt sich laut weltweiter Umfrage
  90. heise.de: Weniger als vier Prozent der Afrikaner sind online
  91. Zitiert nach Daniel Dettling: Eine Willkommenskultur für Innovationen. In: Der Tagesspiegel. 15. April 2018, S. 5.
  92. Richard David Precht im Interview mit Larissa Rohr und Kati Trinkner: Und Ihr seid dabei. In: Bernhard Pörksen, Wolfgang Krischke (Hrsg.): Die gehetzte Politik. Die neue Macht der Medien und Märkte. Köln 2013, S. 265.
  93. Richard David Precht: Jäger, Hirten, Kritiker. Eine Utopie für die digitale Gesellschaft. München 2018, S. 32 f.
  94. Harald Welzer: Künstliche Dummheit. Digitalisierung first, Nachdenken second: Die smarte neue Weltbeglückung der Netzkonzerne blendet alle Konflikte, alle Ungleichheit aus. Wir sollten uns nicht von Algorithmen vorschreiben lassen, wie wir leben wollen. In: Die Zeit. 15. August 2019, S. 6.
  95. Astrid Herbold: Neustart, bitte. Macht das Netz die Debattenkultur kaputt? Zum Auftakt der Digitalkonferenz re:publica. In: Der Tagesspiegel. 15. April 2018, S. 5.
  96. Zygmunt Bauman: Gemeinschaften. Edition Suhrkamp, Frankfurt 2009, S. 21.
  97. Sebastian Richter: Digitaler Realismus: Zwischen Computeranimation und Live-Action. Die neue Bildästhetik in Spielfilmen. transcript, 2008.
  98. Daniel Dettling: Die neue Spaltung: Warum wir mehr Zukunft wagen müssen. auf zukunftsinstitut.de, 2017.
  99. Manuel Castells: Der Aufstieg der Netzwerkgesellschaft. Teil I der Trilogie „Das Informationszeitalter“. Opladen 2004, S. 428 f.
  100. "Deutschland wird eine Überwachungsgesellschaft", Interview in Der Tagesspiegel, 12. Januar 2019
  101. Adrian Lobe: Die Macht der Datenkonzerne – Lieber Computer, sag mir, wen ich heiraten soll. faz.net, 15. September 2016.
  102. Yuval Noah Harari: Homo Deus. Eine Geschichte von Morgen. C. H. Beck, München 2017, ISBN 978-3-406-70401-7, S. 458 f.
  103. Jaron Lanier: Wem gehört die Zukunft? 3. Auflage. Hamburg 2014, S. 22 f.
  104. Heinrich Wefing: Der Konzern der bezahlten Lügen. Facebook verdient Geld damit, die Gesellschaft auseinanderzutreiben und Fake News in die Welt zu blasen. Die Politik muss endlich den Mut fassen, dem Netzwerk Grenzen zu setzen. In: Die Zeit. 14. November 2019, S. 11.
  105. Katja Thimm: „Onlineplattformen wissen mehr über uns als die Stasi“. In: Der Spiegel. Nr. 25, 2019 (online – Interview).
  106. PricewaterhouseCoopers: Studie zu Smart Farming: Landwirtschaft nimmt Vorreiterrolle bei der Digitalisierung ein. In: PwC. (pwc.de [abgerufen am 15. Januar 2020]).
  107. Martin Kunisch, Stefanie Reith,Jürgen Frisch: Digitalisierung in der Landwirtschaft: Chancen und Risiken. (PDF) Kuratorium für Technik und Bauwesen in der Landwirtschaft, 2017, abgerufen am 29. November 2019.
  108. a b Jürgen Neffe: Kontrollverlust. Der Mensch ist zum Objekt seiner mächtigsten Schöpfung geworden – des Kapitalismus. Karl Marx war dessen hellsichtiger Analytiker. Selbst unsere digitale Gegenwart lässt sich noch mit seinen Begriffen fassen. In: Die Zeit. 26. April 2018, S. 23.
  109. Andreas Reckwitz: Die Risiken der Risiken. In der Coronakrise wird das Risikomanagement zentrale Aufgabe. Wer hält was wie in Schach? Die Hauptgewinner sind aktuell die Digitalisierung – und der Staat. In: Der Tagesspiegel. 5. April 2020, S. 5.
  110. Richard David Precht: Das große Erwachen. Lange hat man so getan, als seien viele politische Entscheidungen altenativlos. Die Pandemie macht Schluss mit diesem Märchen. In: Die Zeit. 2. April 2020, S. 46.
  111. Oliver Stengel, Alexander van Looy, Stephan Wallaschkowski: Schluss. In: Dies. (Hrsg.) 2017, S. 243–245.
  112. Oliver Stengel: Der Mensch im Digitalzeitalter. Sapiens 2.0. In: Oliver Stengel, Alexander van Looy, Stephan Wallaschkowski (Hrsg.) 2017, S. 76–78.
  113. Miriam Meckel: Der Spion in meinem Kopf. Technik-Konzerne wollen in unser Gehirn vordringen. Gelingt ihnen das, steht die Freiheit unserer Gedanken auf dem Spiel. In: Die Zeit, Nr. 16/2018, S. 36.
  114. Heinz Bude, Philipp Staab: Da passt noch was dazwischen. Die USA und China wetteifern um die digitale Weltherrschaft. Europa könnte mit einem eigenen Modell dagegenhalten. In: Die Zeit, 14. November 2019, S. 4.
  115. Werner Thiede: Die digitalisierte Freiheit. 2. Auflage. Berlin 2014; Byung-Chul Han: Im Schwarm: Ansichten des Digitalen. Berlin 2013.