Nick Bostrom

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Nuvola apps korganizer.svg Dieser Artikel wurde in der Qualitätssicherung Philosophie eingetragen. Artikel, die sich als nicht relevant genug herausstellen oder mittelfristig kein hinreichend akzeptables Niveau erreichen, können schließlich auch zur Löschung vorgeschlagen werden. Bitte hilf mit, die inhaltlichen Mängel dieses Artikels zu beseitigen, und beteilige dich bitte an der Diskussion! Bitte entferne diesen Hinweis nicht ohne Absprache!
Nick Bostrom
Geburtsort Helsingborg, Schweden
Alma Mater Universität Göteborg (B.A.)

Universität Stockholm (M.A.) King's College London (M.Sc.) London School of Economics (Ph.D.)

Doktorarbeit Observational Selection Effects and Probability
Homepage nickbostrom.com

Nick Bostrom (* 10. März 1973 als Niklas Boström) ist ein schwedischer Philosoph an der Oxford University. Er ist bekannt für seine Forschungen und Veröffentlichungen auf den Gebieten der Bioethik und der Technikfolgenabschätzung, insbesondere zum existentiellen Risiko, anthropischen Prinzip, zu ethischen Aspekten der technischen Verbesserung des menschlichen Körpers und zu Risiken der Superintelligenz. Dabei setzt er oft Mittel der formalen Epistemologie ein, die bei der Analyse und Entwicklung von Argumenten auf Formalisierungen und Erkenntnisse der Statistik und der Entscheidungstheorie zurückgreift. Gemeinsam mit Toby Orb entwickelte er den „Reversal Test“ als Heurisik zur Neutralisierung des Status Quo Bias. Er vertritt einen Konsequentialismus. Bostrom äußert sich regelmäßig in englischsprachigen Medien zu Themen wie Ethik, Politik, Zukunftsforschung und Transhumanismus.

Karriere[Bearbeiten | Quelltext bearbeiten]

1998 gründete Bostrom mit David Pearce die World Transhumanist Association. 2004 gründete er mit James Hughes das Institute for Ethics and Emerging Technologies. Zurzeit ist er bei keiner dieser Organisationen beschäftigt. Seinen Doktortitel (Ph.D.) erwarb Bostrom 2000 an der London School of Economics. 2005 wurde er Direktor des neu geschaffenen Oxford Future of Humanity Institute. Seine Publikationsliste umfasst über 200 Titel[1] einschließlich des New York Times-Bestsellers Superintelligence. Paths, Dangers, Strategies[2] und Anthropic Bias.[3] Er erhielt 2009 den Eugene R. Gannon Award und steht auf der Liste Top 100 Global Thinkers von Foreign Policy. Dank ihrer Erwähnung durch Elon Musk und Bill Gates wurden Bostroms Arbeiten zur Superintelligenz auch eine breitere Öffentlichkeit zuteil.[4][5][6] Musk gehört gemeinsam mit Bostrom sowie Stephen Hawking, Max Tegmark, Elon Musk, Martin Rees zu den Unterzeichnern eines Manifests des Future of Life Institute, das die Erforschung von Superintelligenz und ihrer ungefährlichen Nutzbarmachung zu einem gültigen und dringenden Forschungsthema erklärt.[7]

Arbeiten[Bearbeiten | Quelltext bearbeiten]

Existentielles Risiko[Bearbeiten | Quelltext bearbeiten]

Bostrom ist bekannt für seine Forschung über das Existentielle Risiko, d.h. die Wahrscheinlichkeit von Ereignissen, die in der Lage sind, das auf der Erde entstandene intelligente Leben auszulöschen oder in seiner Entwicklung drastisch und permanent einzuschränken.[8][9]

Superintelligenz[Bearbeiten | Quelltext bearbeiten]

Bostrom hat die Behandlung des Themas Superintelligence (Superintelligenz) in den letzten Jahren maßgeblich mitgeprägt.[10] Dabei betrachtet er künstliche Intelligenzen, die der menschlichen weit überlegen wären, sowohl als Schritt zum Transhumanismus als auch als existentielles Risiko.

Anthropic Reasoning[Bearbeiten | Quelltext bearbeiten]

In seinen Arbeiten über das anthropische Prinzip diagnostiziert er für die vorangegangenen Debatten eine auf Beobachtereffekte zurückzuführende kognitive Verzerrung, den observer selection bias. Die Auswahl und Bewertung von verschiedenen Antwortmöglichkeiten auf eine Frage, zu deren Beantwortung oder Entscheidung nur unvollständige Informationen vorliegen, wird dabei durch die Tatsache, dass es jemanden gibt, der in der Lage ist, die Frage zu stellen, beeinflusst. Jeder Beobachter würde demnach Ereignisse oder Ereignisalternativen, die seine eigene Existenz unwahrscheinlich machen, selbst für unwahrscheinlich halten oder vernachlässigen. In der Kosmologie führt das auf der Basis des anthropischen Prinzips zu unschlüssigen oder falschen Annahmen über die Wahrscheinlichkeit der Gültigkeit kosmologischer Modelle.

Bostrom formuliert verschiedene Maximen für Argumente und Überlegungen mit anthropischen Prinzipien.

  • Self Sampling Assumption (SSA): Man sollte so schlussfolgern, als ob man eine zufällige Auswahl aus der Menge aller Beobachter in seiner Referenzklasse wäre.
  • Strong Self Sampling Assumption (SSSA): Man sollte so schlussfolgern, als ob der gegenwärtige Beobachtungszeitpunkt eine zufällige Auswahl aus der Menge aller Beobachtungszeitpunkte in seiner Referenzklasse wäre.
  • Self Indication Assumption (SIA): Man sollte so schlussfolgern, als ob man eine zufällige Auswahl aus der Menge aller möglichen Beobachter wäre.


Da die exakte Bestimmung der Referenzklasse, d. h. der Klasse aller Entitäten, von der sich ein Beobachter vernünftigerweise als zufällig ausgewählt annehmen kann, jedoch in vielen Fällen unsicher ist, hält Bostrom vor allem solche Beweise unter Zuhilfenahme von anthropischen Prinzipien für glaubwürdig, deren Resultate möglichst unabhängig von der Wahl der Referenzklasse sind. Anhand verschiedener Gedankenexperimente überprüft Bostrom die Gültigkeit dieser Maximen.

Die Selbstauswahl-Annahmen erweitert Bostrom zu einem Modell von anthropischer Voreingenommenheit (anthropic bias) und anthropischem Schließen (anthropic reasoning) unter der Unsicherheit der Unbekanntheit des eigenen Platzes in unserem Universum – oder wer überhaupt »wir« sind. Das könnte auch ein Weg sein, um diverse, durch kognitive Voreingenommenheit bestehende Grenzen zu überwinden, welche inhärent in den Menschen vorhanden sind, die die Beobachtungen vornehmen und Modelle unseres Universums mittels Mathematik ausdrücken.[11]

Simulations-Hypothese[Bearbeiten | Quelltext bearbeiten]

In einem auch in der Populärwissenschaft häufig rezipierten Denkmodell beschäftigt sich Bostrom mit der Hypothese, eine höher entwickelte Zivilisation sei in der Lage und Willens, die Wirklichkeit inklusive des gesamten Universums in einem Computer zu simulieren und habe dies eventuell bereits getan. Die Behauptung, unser Universum sei eine simulierte Realität und alle Lebewesen folglich Bestandteil dieser Simulation, sei weder beweisbar noch widerlegbar.

Bostrom vergleicht drei Szenarien:

  1. Die Wahrscheinlichkeit, dass eine Zivilisation eine höhere Entwicklungsstufe erreicht als die heutige Menschheit, geht gegen Null - weil sie sich vorher selbst auslöscht.
  2. Fast keine hoch entwickelte Zivilisation ist daran interessiert, Wesen wie den Menschen im Computer zu simulieren
  3. Es besteht eine hohe Wahrscheinlichkeit, dass wir in in einer simulierten Realität leben.

Sollten die Annahmen 1 und 2 falsch sein, so muss nach Bostrom von einer hohen Wahrscheinlichkeit ausgegangen werden, dass auch unser Universum tatsächlich eine Simulation sei - er geht davon aus, dass es eine Vielzahl solcher Zivilisationen geben müsste, sofern es sie geben kann.[12] Daraus folgert Bostrom, dass entweder die Menschheit niemals in der Lage sein wird, das notwendige technologische Niveau zu erreichen, um eine Simulation unseres gegenwärtigen Zustands zu realisieren oder wir mit hoher Wahrscheinlichkeit in einer solchen Simulation leben.[13]

Zu diesem Trilemma kommt er durch folgende mathematische Überlegung:[14]

Dabei sei

f_\mathrm{p} den Prozentsatz von Zivilisationen, die eine höhere Entwicklungsstufe erreichen.
\overline N die durchschnittliche Zahl von Simulationen der Vorfahren, die in Zivilisationen durchgeführt werden, die eine Entwicklungsstufe erreicht haben, auf der sie das können (sog. posthumane Stufe).
\overline H die durchschnittliche Zahl von Individuen, die in einer Zivilisation gelebt haben, bevor diese imstande war, solche Simulationen durchzuführen.

Dann ist

f_\mathrm{sim} = \frac{f_\mathrm{p}\overline N \overline H} {(f_\mathrm{p} \overline N \overline H)+ \overline H} der Prozentsatz von Beobachtern mit menschen-ähnlichen Erfahrungen, die in einer Simulation leben.

Nimmt man nun f_\mathit{I} als den Prozentsatz der fortgeschrittenen Zivilisationen, in dem ein Interesse an Realitätssimulationen besteht (zumindest bei Einzelnen, die die nötigen Technologien und Ressourcen besitzen), und \overline{N_\mathit{I}} als die durchschnittliche Zahl der Simulationen von Vorfahren einer solchen Zivilisation auf unserem Entwicklungsstand, erhält man:

\overline N = f_\mathit{I} \overline{N_\mathit{I}}

Daraus folgt:

f_\mathrm{sim} = \frac{f_\mathrm{p}f_\mathit{I} \overline{N_\mathit{I}}} {(f_\mathrm{p}f_\mathit{I} \overline{N_\mathit{I}})+1}

Da \overline{N_\mathit{I}} einen enormen Wert annimmt, wird mindestens einer der drei folgenden Sätze wahr sein:

  1. f_\mathrm{p} \approx 0
  2. f_\mathit{I} \approx 0
  3. f_\mathrm{sim}\approx 1

Werke[Bearbeiten | Quelltext bearbeiten]

Bücher[Bearbeiten | Quelltext bearbeiten]

  •  Nick Bostrom: Anthropic Bias. Observation Selection Effects in Science and Philosophy.[11]
  •  Nick Bostrom: Superintelligence. Paths, Dangers, Strategies. Oxford University Press, Oxford 2013, ISBN 978-0-19-967811-2.
    • deutsch:  Superintelligenz - Szenarien einer kommenden Revolution. Suhrkamp, Berlin 2014 (Originaltitel: Superintelligence. Paths, Dangers, Strategies, übersetzt von Jan-Erik Strasser), ISBN 978-3-518-58612-9.

Artikel[Bearbeiten | Quelltext bearbeiten]

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. The viability of Transcendence: the science behind the film. In: OUPblog. Abgerufen am 16. Oktober 2014.
  2. New York Times. New York Times. Abgerufen am 19. Februar 2015.
  3. Oxford University Press. Oxford University Dank Press. Abgerufen am 4. März 2015.
  4. Forbes. Forbes. Abgerufen am 19. Februar 2015.
  5. The Fiscal Times. The Fiscal Times. Abgerufen am 19. Februar 2015.
  6. The New York Times Blog. The New York Times. Abgerufen am 4. März 2015.
  7. The Future of Life Institute Open Letter. The Future of Life Institute. Abgerufen am 4. März 2015.
  8. Nick Bostrom: Existential Risks. In: Journal of Evolution and Technology. 9, March 2002.
  9. Ross Andersen – Humanity's deep future. In: Aeon Magazine. 25. Februar 2013. Abgerufen am 16. Oktober 2014.
  10. unter anderem in seinem Buch Superintelligenz: Szenarien einer kommenden Revolution
  11. a b  Nick Bostrom: Anthropic Bias: Observation Selection Effects in Science and Philosophy (Studies in Philosophy). Routledge, London 2010, ISBN 978-0415883948 (http://www.anthropic-principle.com/book/anthropicbias.html, abgerufen am 21. Oktober 2015).
  12. Markus Becker: Gefühlte Wirklichkeit: Lebt die Menschheit in der Matrix? SPIEGEL Online, 16. November 2004, abgerufen am 21. Oktober 2015 (text/html).
  13. Nick Bostrom: Are You living in a Computer Simulation? Philosophical Quarterly (2003), Vol. 53, No. 211, S. 243-255., abgerufen am 2. August 2011 (PDF; 240 kB, englisch).
  14. Nick Bostrom: Are You living in a Computer Simulation? Philosophical Quarterly (2003), Vol. 53, No. 211, S. 243-255., abgerufen am 2. August 2011 (PDF; 240 kB, englisch).