Nick Bostrom

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Nick Bostrom
Professor Nick Bostrom5.jpg

Geburtsort Helsingborg, Schweden
Alma Mater Universität Göteborg (B.A.)

Universität Stockholm (M.A.) King's College London, University of London (M.Sc.) London School of Economics (Ph.D.)

Doktorarbeit Observational Selection Effects and Probability
Homepage nickbostrom.com

Nick Bostrom (* 10. März 1973 als Niklas Boström) ist ein schwedischer Philosoph an der Oxford University.

Karriere[Bearbeiten]

2005 wurde er Direktor des neu geschaffenen Oxford Future of Humanity Institute. Seinen Ph.D. machte Bostrom im Jahr 2000 an der London School of Economics. Er hat mehr als 200 Publikationen verfasst[1] einschließlich des New York Times-Bestsellers Superintelligenz: Szenarien einer kommenden Revolution[2] und Reversal Test und Anthropisches Prinzip.[3] Er erhielt 2009 den Eugene R. Gannon Award und steht auf der Liste Top 100 Global Thinkers von Foreign Policy. Seine Arbeiten über Superintelligenz verursachten bei Elon Musk und Bill Gates Sorge um Existentielles Risiko.[4][5][6]

1998 gründete Bostrom mit David Pearce die World Transhumanist Association. 2004 gründete er mit James Hughes das Institute for Ethics and Emerging Technologies. Zur Zeit ist er bei keiner dieser Organisationen beschäftigt.

Neben seiner akademischen Arbeit äußert er sich im englischsprachigen Raum auch regelmäßig in den Medien über Themen wie Ethik, Politik, Zukunftsforschung und Transhumanismus.

Arbeiten[Bearbeiten]

Existentielles Risiko[Bearbeiten]

Bostrom ist bekannt für seine Forschung über existentielle Risiken, Ereignisse, die in der Lage sind, auf der Erde entstandenes intelligentes Leben auszulöschen, oder dessen wünschenswerte Entwicklung drastisch und permanent einzuschränken.[7][8]

Superintelligenz[Bearbeiten]

In seinem bekannten Buch Superintelligenz: Szenarien einer kommenden Revolution definiert Bostrom eine Superintelligenz als ein System mit geistigen Fähigkeiten, die denen des Menschen in jeder Hinsicht weit überlegen sind. Dieses System kann der Menschheit nützlich sein, oder aber das genaue Gegenteil bewirken. Deswegen müssen wir behutsam vorgehen und vorbeugende Maßnahmen treffen. Bostrom unterschrieb mit Stephen Hawking, Max Tegmark, Elon Musk, Martin Rees und anderen den offenen Brief des Future of Life Institute. Die Unterzeichner "… believe that research on how to make AI systems robust and beneficial is both important and timely, and that there are concrete research directions that can be pursued today."[9][10]

Anthropisches Prinzip[Bearbeiten]

Bekannt ist er unter anderem durch seine Arbeiten über das anthropische Prinzip, welches er als observer selection problem (Beobachter-Selektionsproblem) bezeichnet. Man kann höchstens eine Schnittmenge mit der selektiven Wahrnehmung erkennen, die auch Erkenntnisprobleme hervorruft. Um korrekt nachzudenken bzw. zu argumentieren, müsse man sich der Auswirkungen der Eigenschaft, für einen Zeitpunkt Beobachter zu sein, auf die Beobachtung bewusst werden. Dazu kreiert er die self sampling assumptions (Selbstauswahl-Annahmen):

  • Self Sampling Assumption (SSA): Man sollte so schlussfolgern, als ob man eine zufällige Auswahl aus der Menge aller Beobachter in seiner Referenzklasse wäre.
  • Strong Self Sampling Assumption (SSSA): Man sollte so schlussfolgern, als ob der gegenwärtige Beobachtungszeitpunkt eine zufällige Auswahl aus der Menge aller Beobachtungszeitpunkte in seiner Referenzklasse wäre.

Ein Beispiel ist das Fahren bei stockendem Verkehr auf einer zweispurigen Straße. Dabei scheint es sehr häufig so, als ob die andere Spur schneller vorankommt als die eigene Spur. Zur Erklärung dieser Situation könnte man sich z. B. als Beobachter aus der Referenzklasse „Fahrer in die gleiche Richtung“ ansehen. Es ist anzunehmen, dass sich auf langsameren Spuren mehr Fahrer befinden als auf den anderen Spuren, sich also ein Großteil der Beobachter aus der Referenzklasse sich auf einer langsamen Spur befindet. Für einen zufällig ausgewählten Beobachter aus der Referenzklasse, und damit nach der SSA auch für sich selbst (den Beobachter), ist es also wahrscheinlich, sich tatsächlich auf der langsamen Spur zu befinden und dies so zu beobachten.

Da die exakte Bestimmung der Referenzklasse, d. h. der Klasse aller Entitäten, von der sich ein Beobachter vernünftigerweise als zufällig ausgewählt annehmen kann, jedoch in vielen Fällen unsicher ist, hält Bostrom vor allem solche Beweise unter Zuhilfenahme von anthropischen Prinzipien für glaubwürdig, deren Resultate möglichst unabhängig von der Wahl der Referenzklasse sind.

Diese Selbstauswahl-Annahmen erweitert Bostrom zu einem Modell von anthropischer Voreingenommenheit (anthropic bias) und anthropischem Schließen (anthropic reasoning) unter der Unsicherheit der Unbekanntheit des eigenen Platzes in unserem Universum – oder wer überhaupt »wir« sind. Das könnte auch ein Weg sein, um diverse durch kognitive Voreingenommenheit bestehende Grenzen zu überwinden, welche inhärent in den Menschen vorhanden sind, die die Beobachtungen vornehmen und Modelle unseres Universums mittels Mathematik ausdrücken.[11]

Simulations-Hypothese[Bearbeiten]

In einem auch in der Populärwissenschaft häufig rezipierten Denkmodell beschäftigt sich Bostrom mit der Hypothese, eine höher entwickelte Zivilisation sei in der Lage und Willens, die Wirklichkeit inklusive des gesamten Universums in einem Computer zu simulieren und habe dies eventuell bereits getan. Unser Universum sei eine simulierte Realität; alle Lebewesen folglich Bestandteil dieser Simulation. Diese Behauptung sei, wie die Gotteshypothese, weder beweisbar noch widerlegbar.

Bostrom formulierte drei Möglichkeiten:

  1. Keine Zivilisation wird je das technologische Niveau erreichen, simulierte Realitäten zu erstellen, da sie sich zuvor selbst vernichtet hätte oder aus anderen Gründen ausgestorben wäre.
  2. Keine Zivilisation, die dieses technologische Niveau erreicht, wird diese Fähigkeit umsetzen wollen, zum Beispiel, weil sie die Ressourcen für andere Dinge einsetzt.
  3. Wir leben mit hoher Wahrscheinlichkeit in einer simulierten Realität.

Existiere eine hinreichend große Anzahl von Zivilisationen, dann müsse, so Bostrom, unter der Prämisse, dass die Annahmen 1 und 2 falsch seien, von einer hohen Wahrscheinlichkeit ausgegangen werden, dass unser Universum tatsächlich eine Simulation sei. Hintergrund dieser Überlegungen ist die Feinabstimmung der Naturkonstanten, die das Leben, wie wir es kennen, überhaupt erst möglich zu machen scheint. Dies sei, ohne Postulat eines Schöpfergottes, nur in einem Multiversum möglich. Die Zahl der zu solchen Taten fähigen Zivilisationen wäre dann nahezu unendlich.[12]

Die folgende Formel soll den drei Annahmen mathematischen Ausdruck verleihen:[13]

f_\textrm{sim} = \frac{f_\textrm{p}NH} {(f_\textrm{p}NH)+H}
f_\textrm{p} entspricht dem Teil der menschlichen Zivilisationen, die technisch imstande sind, solch eine Simulation zu programmieren.
N steht für die durchschnittliche Zahl von laufenden Simulationen, die von diesen Zivilisationen durchgeführt werden.
H ist die durchschnittliche Zahl von Individuen, die in einer Zivilisation gelebt haben, bevor diese imstande war, solche Simulationen durchzuführen.
f_\textrm{sim} ist der Teil der Menschheit, der bereits in einer virtuellen Realität lebt.

Nimmt man nun F1Bostrom.gif als die Anzahl der fortgeschrittenen Zivilisationen, die an Realitätssimulationen interessiert sind, oder mindestens als die Zahl derer, welche die nötigen Technologien und Ressourcen besitzen, und N1Bostrom.gif als die durchschnittliche Zahl der Simulationen, welche durch deren Vorfahren betrieben werden, erhält man:

Bostrom2equation.gif

Daraus folgt:

FinalequationBostrom.gif


Da N1Bostrom.gif einen enormen Wert annimmt, wird mindestens eine der drei Annäherungen einen wahren Wert annehmen:

f_\textrm{p} \approx 0
N \approx 0
f_\textrm{sim}\approx 1

Werke[Bearbeiten]

  • Anthropic Bias. Observation Selection Effects in Science and Philosophy. Routledge, New York 2002, ISBN 0-415-93858-9.
  • Superintelligence. Paths, Dangers, Strategies. Oxford University Press, Oxford 2014, ISBN 978-0-19-967811-2. (deutsch: Superintelligenz. Aus dem Englischen von Jan-Erik Strasser. Suhrkamp, Berlin 2014, ISBN 978-3-518-58612-9.)

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. The viability of Transcendence: the science behind the film. In: OUPblog. Abgerufen am 16. Oktober 2014.
  2. New York Times. New York Times. Abgerufen am 19. Februar 2015.
  3. Oxford University Press. Oxford University Press. Abgerufen am 4. März 2015.
  4. Forbes. Forbes. Abgerufen am 19. Februar 2015.
  5. The Fiscal Times. The Fiscal Times. Abgerufen am 19. Februar 2015.
  6. The New York Times Blog. The New York Times. Abgerufen am 4. März 2015.
  7. Nick Bostrom: Existential Risks. In: Journal of Evolution and Technology. 9, March 2002.
  8. Ross Andersen – Humanity's deep future. In: Aeon Magazine. 25. Februar 2013. Abgerufen am 16. Oktober 2014.
  9. The Future of Life Institute Open Letter. The Future of Life Institute. Abgerufen am 4. März 2015.
  10. Scientists and investors warn on AI. The Financial Times. Abgerufen am 4. März 2015.
  11. anthropic-principle.com: ANTHROPIC BIAS, Observation Selection Effects in Science and Philosophy: Nick Bostrom, PDF-Datei
  12. SPIEGEL Online Gefühlte Wirklichkeit: Lebt die Menschheit in der Matrix?
  13. Nick Bostrom: ARE YOU LIVING IN A COMPUTER SIMULATION? Published in Philosophical Quarterly (2003), Vol. 53, No. 211, S. pp. 243-255., abgerufen am 2. August 2011 (PDF; 240 kB, eng).