„Globales existenzielles Risiko“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[ungesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
→‎Potential sources of risk: More precise descriptive wording
Erstellt durch Übersetzen der Seite „Global catastrophic risk
Zeile 1: Zeile 1:
[[Datei:Impact_event.jpg|mini|300x300px|Künstlerische Impression eines großen [[Impakt]].Ein Asteroid verursachte das Aussterben der Nichtflugsaurier.<ref name="Schulte10">{{Cite journal |last=Schulte |first=P. |last2=Alegret |first2=L. |last3=Arenillas |first3=I. |last4=Arz |first4=J. A. |last5=Barton |first5=P. J. |last6=Bown |first6=P. R. |last7=Bralower |first7=T. J. |last8=Christeson |first8=G. L. |last9=Claeys |first9=P. |last10=Cockell |first10=C. S. |last11=Collins |first11=G. S. |last12=Deutsch |first12=A. |last13=Goldin |first13=T. J. |last14=Goto |first14=K. |last15=Grajales-Nishimura |first15=J. M. |last16=Grieve |first16=R. A. F. |last17=Gulick |first17=S. P. S. |last18=Johnson |first18=K. R. |last19=Kiessling |first19=W. |last20=Koeberl |first20=C. |last21=Kring |first21=D. A. |last22=MacLeod |first22=K. G. |last23=Matsui |first23=T. |last24=Melosh |first24=J. |last25=Montanari |first25=A. |last26=Morgan |first26=J. V. |last27=Neal |first27=C. R. |last28=Nichols |first28=D. J. |last29=Norris |first29=R. D. |last30=Pierazzo |first30=E. |title=The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary |work=[[Science (journal)|Science]] |issue=5970 |volume=327 |pages=1214–1218 |date=March 5, 2010 |doi=10.1126/science.1177265 |pmid=20203042 |bibcode=2010Sci...327.1214S |url=http://doc.rero.ch/record/210367/files/PAL_E4389.pdf}}</ref> ]]
{{Short description|Potentially harmful worldwide events}}
Ein globales existenzielles Risiko (global catastrophic risk) oder Weltuntergangsszenario ist ein hypothetisches zukünftiges Ereignis, das das menschliche Wohlergehen in globalem Ausmaß<ref>{{Cite book |last=Bostrom |first=Nick |authorlink=Nick Bostrom |title=Global Catastrophic Risks |publisher=Oxford University Press |date=2008 |page=1 |url=http://www.global-catastrophic-risks.com/docs/Chap01.pdf}}</ref> beeinträchtigen und sogar die [[Zivilisation|moderne Zivilisation]] gefährden oder zerstören könnte.<ref name="world">{{Cite journal |vauthors=Ripple WJ, Wolf C, Newsome TM, Galetti M, Alamgir M, Crist E, Mahmoud MI, Laurance WF |title=World Scientists' Warning to Humanity: A Second Notice |work=BioScience |issue=12 |volume=67 |pages=1026–1028 |date=November 13, 2017 |doi=10.1093/biosci/bix125 |accessdate=free}}</ref> Ein Ereignis, das zum [[Ende der Menschheit|Aussterben der Menschheit]] führen oder das Potenzial der Menschheit dauerhaft und drastisch einschränken könnte, wird als "existenzielles Risiko" bezeichnet.<ref name="types">{{Cite journal |last=Bostrom |first=Nick |author-link=Nick Bostrom |title=Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards |work=[[Journal of Evolution and Technology]] |volume=9 |date=March 2002 |url=http://www.nickbostrom.com/existential/risks.html}}</ref>
{{Redirect-multi|2|Existential threat|Doomsday scenario|other uses|Doomsday (disambiguation)||}}
{{for multi|the book by Nick Bostrom|Global Catastrophic Risks (book)|the history of the idea, probability, and ethics|Human extinction}}
{{Use American English|date=August 2021}}
{{Use mdy dates|date=October 2021}}
[[File:Impact event.jpg|thumb|300px|Artist's impression of a major [[impact event|asteroid impact]]. An asteroid caused the [[Cretaceous–Paleogene extinction event|extinction of the non-avian dinosaurs]].<ref name="Schulte10">{{Cite journal |last1=Schulte |first1=P. |last2=Alegret |first2=L. |last3=Arenillas |first3=I. |last4=Arz |first4=J. A. |last5=Barton |first5=P. J. |last6=Bown |first6=P. R. |last7=Bralower |first7=T. J. |last8=Christeson |first8=G. L. |last9=Claeys |first9=P. |last10=Cockell |first10=C. S. |last11=Collins |first11=G. S. |display-authors=1 |date=March 5, 2010 |title=The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary |url=http://doc.rero.ch/record/210367/files/PAL_E4389.pdf |journal=[[Science (journal)|Science]] |volume=327 |issue=5970 |pages=1214–1218 |bibcode=2010Sci...327.1214S |doi=10.1126/science.1177265 |pmid=20203042 |first30=E. |last30=Pierazzo |first29=R. D. |last29=Norris |first28=D. J. |last28=Nichols |first27=C. R. |last27=Neal |first26=J. V. |last26=Morgan |first25=A. |last25=Montanari |first24=J. |last24=Melosh |first23=T. |last23=Matsui |first22=K. G. |last22=MacLeod |first21=D. A. |last21=Kring |first20=C. |last20=Koeberl |first19=W. |last19=Kiessling |first18=K. R. |last18=Johnson |first17=S. P. S. |last17=Gulick |first16=R. A. F. |last16=Grieve |first15=J. M. |last15=Grajales-Nishimura |first14=K. |last14=Goto |first13=T. J. |last13=Goldin |first12=A. |last12=Deutsch |s2cid=2659741}}</ref>]]
{{Futures studies}}
A '''global catastrophic risk''' or a '''doomsday scenario''' is a hypothetical future event that could damage human well-being on a global scale,<ref>{{Cite book |last=Bostrom |first=Nick |url=http://www.global-catastrophic-risks.com/docs/Chap01.pdf |title=Global Catastrophic Risks |date=2008 |publisher=Oxford University Press |page=1 |author-link=Nick Bostrom}}</ref> even endangering or destroying [[Modernity|modern civilization]].<ref name="world">{{Cite journal |vauthors=Ripple WJ, Wolf C, Newsome TM, Galetti M, Alamgir M, Crist E, Mahmoud MI, Laurance WF |date=November 13, 2017 |title=World Scientists' Warning to Humanity: A Second Notice |journal=BioScience |volume=67 |issue=12 |pages=1026–1028 |doi=10.1093/biosci/bix125 |doi-access=free}}</ref> An event that could cause [[human extinction]] or permanently and drastically curtail humanity's potential is known as an "'''existential risk'''."<ref name="types">{{Cite journal |last=Bostrom |first=Nick |author-link=Nick Bostrom |date=March 2002 |title=Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards |url=http://www.nickbostrom.com/existential/risks.html |journal=[[Journal of Evolution and Technology]] |volume=9}}</ref>


Over the last two decades, a number of academic and non-profit organizations have been established to research global catastrophic and existential risks, formulate potential mitigation measures and either advocate for or implement these measures.<ref name=":3">{{Cite web |title=About FHI |url=http://www.fhi.ox.ac.uk/ |access-date=August 12, 2021 |website=[[Future of Humanity Institute]]}}</ref><ref name=":4">{{Cite web |title=About us |url=https://www.cser.ac.uk/about-us/ |access-date=August 12, 2021 |website=[[Centre for the Study of Existential Risk]]}}</ref><ref name=":5" /><ref name=":6" />
In den letzten zwei Jahrzehnten wurde eine Reihe von akademischen und gemeinnützigen Organisationen gegründet, die sich mit der Erforschung globaler katastrophaler und existenzieller Risiken befassen, potenzielle Abhilfemaßnahmen formulieren und diese Maßnahmen entweder befürworten oder umsetzen.<ref name=":32">{{Cite web |title=About FHI |url=http://www.fhi.ox.ac.uk/ |website=[[Future of Humanity Institute]] |access-date=August 12, 2021}}</ref><ref name=":33">{{Cite web |title=About FHI |url=http://www.fhi.ox.ac.uk/ |website=[[Future of Humanity Institute]] |access-date=August 12, 2021}}</ref><ref name=":42">{{Cite web |title=About us |url=https://www.cser.ac.uk/about-us/ |website=[[Centre for the Study of Existential Risk]] |access-date=August 12, 2021}}</ref><ref name=":52">{{Cite web |title=The Future of Life Institute |url=http://thefutureoflife.org/ |website=[[Future of Life Institute]] |access-date=May 5, 2014}}</ref>


==Definition and classification==
== Definition und Klassifizierung ==
[[File:X-risk-chart-en-01a.svg|thumb|upright=2.35|Scope–severity grid from Bostrom's paper "Existential Risk Prevention as Global Priority"<ref name="priority">{{Cite journal |last=Bostrom |first=Nick |year=2013 |title=Existential Risk Prevention as Global Priority |url=http://www.existential-risk.org/concept.pdf |journal=Global Policy |volume=4 |issue=1 |pages=15–3 |doi=10.1111/1758-5899.12002 |via=Existential Risk}}</ref>]]
[[Datei:X-risk-chart-en-01a.svg|mini|Ausmaß-Schweregrad-Raster aus [[Nick Bostrom|Bostroms]] Papier "Existential Risk Prevention as Global Priority"<ref name="priority">{{Cite journal |last=Bostrom |first=Nick |title=Existential Risk Prevention as Global Priority |work=Global Policy |issue=1 |volume=4 |pages=15–3 |year=2013 |doi=10.1111/1758-5899.12002 |url=http://www.existential-risk.org/concept.pdf}}</ref>]]


=== Definition von globalen Katastrophenrisiken ===
=== Defining global catastrophic risks ===
The term global catastrophic risk "lacks a sharp definition", and generally refers (loosely) to a risk that could inflict "serious damage to human well-being on a global scale".<ref name="Bostrom & Cirkovic 2008">{{Cite book |last1=Bostrom |first1=Nick |title=Global Catastrophic Risks |last2=Cirkovic |first2=Milan |date=2008 |publisher=Oxford University Press |isbn=978-0-19-857050-9 |location=Oxford |page=1}}</ref>
Der Begriff "globales Katastrophenrisiko" ist "nicht klar definiert" und bezieht sich im Allgemeinen (lose) auf ein Risiko, das "das menschliche Wohlergehen in globalem Ausmaß ernsthaft beeinträchtigen" könnte.<ref name="Bostrom & Cirkovic 20082">{{Cite book |last1=Bostrom |first1=Nick |last2=Cirkovic |first2=Milan |title=Global Catastrophic Risks |publisher=Oxford University Press |location=Oxford |date=2008 |page=1 |isbn=978-0-19-857050-9}}</ref>


Die Menschheit hat schon früher große Katastrophen erlebt. Einige davon haben schwere Schäden verursacht, waren aber nur lokal begrenzt - z. B. hat der [[Pest|Schwarze Tod]] möglicherweise den Tod von einem Drittel der europäischen Bevölkerung verursacht, was 10 % der damaligen Weltbevölkerung entsprach. Andere waren zwar global, aber nicht so schwerwiegend, z. B. tötete die [[Spanische Grippe|Grippepandemie von 1918]] schätzungsweise 3-6 % der Weltbevölkerung. Die meisten globalen Katastrophenrisiken wären nicht so gravierend, dass sie die Mehrheit des Lebens auf der Erde auslöschen würden, aber selbst wenn dies der Fall wäre, würden sich das [[Ökosystem]] und die Menschheit schließlich wieder erholen (im Gegensatz zu existenziellen Risiken).
Humanity has suffered large catastrophes before. Some of these have caused serious damage but were only local in scope—e.g. the [[Black Death]] may have resulted in the deaths of a third of Europe's population,<ref>{{Cite book |last=Ziegler |first=Philip |title=The Black Death |date=2012 |publisher=Faber and Faber |isbn=9780571287116 |page=397}}</ref> 10% of the global population at the time.<ref>{{Cite web |last=Muehlhauser |first=Luke |date=March 15, 2017 |title=How big a deal was the Industrial Revolution? |url=https://lukemuehlhauser.com/industrial-revolution/ |access-date=August 3, 2020 |website=lukemuelhauser.com}}</ref> Some were global, but were not as severe—e.g. the [[1918 influenza pandemic]] killed an estimated 3–6% of the world's population.<ref>{{Cite journal |last1=Taubenberger |first1=Jeffery |last2=Morens |first2=David |date=2006 |title=1918 Influenza: the Mother of All Pandemics |journal=Emerging Infectious Diseases |volume=12 |issue=1 |pages=15–22 |doi= 10.3201/eid1201.050979|pmc=3291398 |pmid=16494711}}</ref> Most global catastrophic risks would not be so intense as to kill the majority of life on earth, but even if one did, the ecosystem and humanity would eventually recover (in contrast to ''existential risks'').


In ähnlicher Weise werden in Catastrophe: Risk and Response (Risiko und Reaktion) stellt [[Richard Posner]] Ereignisse heraus, die einen "völligen Umsturz oder Ruin" auf globaler und nicht auf "lokaler oder regionaler" Ebene herbeiführen, und fasst sie zusammen. Posner hebt solche Ereignisse unter [[Kosten-Nutzen-Analyse|Kosten-Nutzen-Gesichtspunkten]] als besonders beachtenswert hervor, weil sie direkt oder indirekt das Überleben der Menschheit als Ganzes gefährden könnten.
Similarly, in ''[[Catastrophe: Risk and Response]]'', [[Richard Posner]] singles out and groups together events that bring about "utter overthrow or ruin" on a global, rather than a "local or regional", scale. Posner highlights such events as worthy of special attention on [[Cost–benefit analysis|cost–benefit]] grounds because they could directly or indirectly jeopardize the survival of the human race as a whole.<ref>{{Cite book |last=Posner |first=Richard A. |title=Catastrophe: Risk and Response |date=2006 |publisher=Oxford University Press |isbn=978-0195306477 |location=Oxford}} Introduction, "What is Catastrophe?"</ref>


=== Definition der existenziellen Risiken ===
=== Defining existential risks ===
Existential risks are defined as "risks that threaten the destruction of humanity's long-term potential."<ref name="Ord 2020">{{Cite book |last=Ord |first=Toby |title=The Precipice: Existential Risk and the Future of Humanity |date=2020 |publisher=Hachette |isbn=9780316484916 |location=New York |quote=This is an equivalent, though crisper statement of [[Nick Bostrom]]'s definition: "An existential risk is one that threatens the premature extinction of Earth-originating intelligent life or the permanent and drastic destruction of its potential for desirable future development." Source: Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority". Global Policy. 4:15-31.}}</ref> The instantiation of an existential risk (an ''existential catastrophe<ref name="Cotton-Barratt 2015">{{Citation |last1=Cotton-Barratt |first1=Owen |title=Existential risk and existential hope: Definitions |url=http://www.fhi.ox.ac.uk/Existential-risk-and-existential-hope.pdf |pages=1–4 |year=2015 |series=Future of Humanity Institute – Technical Report #2015-1 |last2=Ord |first2=Toby}}</ref>'') would either cause outright human extinction or irreversibly lock in a drastically inferior state of affairs.<ref name="priority" /><ref name="waste">{{Cite journal |last=Bostrom |first=Nick |year=2009 |title=Astronomical Waste: The opportunity cost of delayed technological development |url=http://www.nickbostrom.com/astronomical/waste.html |journal=Utilitas |volume=15 |issue=3 |pages=308–314 |citeseerx=10.1.1.429.2849 |doi=10.1017/s0953820800004076 |s2cid=15860897}}</ref> Existential risks are a sub-class of global catastrophic risks, where the damage is not only ''global'' but also ''terminal'' and ''permanent,'' preventing recovery and thereby affecting both current and all future generations.<ref name="priority" />
Existenzielle Risiken werden definiert als "Risiken, die die Zerstörung des langfristigen Potenzials der Menschheit bedrohen".<ref name="Ord 20202">{{Cite book |last=Ord |first=Toby |title=The Precipice: Existential Risk and the Future of Humanity |publisher=Hachette |location=New York |date=2020 |quote=This is an equivalent, though crisper statement of [[Nick Bostrom]]'s definition: "An existential risk is one that threatens the premature extinction of Earth-originating intelligent life or the permanent and drastic destruction of its potential for desirable future development." Source: Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority". Global Policy. 4:15-31. |isbn=9780316484916}}</ref> Der Eintritt eines existenziellen Risikos (einer existenziellen Katastrophe) würde entweder das völlige Aussterben der Menschheit bewirken oder unumkehrbar zu einem drastisch schlechteren Zustand führen.<ref name="priority2">{{Cite journal |last=Bostrom |first=Nick |title=Existential Risk Prevention as Global Priority |journal=Global Policy |issue=1 |volume=4 |pages=15–3 |year=2013 |doi=10.1111/1758-5899.12002 |url=http://www.existential-risk.org/concept.pdf |via=Existential Risk}}</ref> Existenzielle Risiken sind eine Unterkategorie globaler Katastrophenrisiken, bei denen der Schaden nicht nur global, sondern auch unheilbar und dauerhaft ist, so dass er sich nicht mehr erholen kann und somit sowohl die jetzige als auch alle künftigen Generationen betrifft.


==== Non-extinction risks ====
==== Nicht-Aussterberisiken ====
While extinction is the most obvious way in which humanity's long-term potential could be destroyed, there are others, including ''unrecoverable'' ''collapse'' and ''unrecoverable'' ''dystopia''.<ref name="Ord 20202">{{Cite book |last=Ord |first=Toby |title=The Precipice: Existential Risk and the Future of Humanity |date=2020 |publisher=Hachette |isbn=9780316484916 |location=New York}}</ref> A disaster severe enough to cause the permanent, irreversible collapse of human civilisation would constitute an existential catastrophe, even if it fell short of extinction.<ref name="Ord 20202" /> Similarly, if humanity fell under a totalitarian regime, and there were no chance of recovery then such a dystopia would also be an existential catastrophe.<ref name=":7">Bryan Caplan (2008). "[https://books.google.com/books?id=sTkfAQAAQBAJ&pg=PA504 The totalitarian threat]". ''Global Catastrophic Risks'', eds. Bostrom & Cirkovic (Oxford University Press): 504–519. {{ISBN|9780198570509}}</ref> [[Bryan Caplan]] writes that "perhaps an eternity of totalitarianism would be worse than extinction".<ref name=":7" /> ([[George Orwell]]'s novel ''[[Nineteen Eighty-Four]]'' suggests<ref name="DG17">{{cite news |last=Glover |first=Dennis |date=2017-06-01 |title=Did George Orwell secretly rewrite the end of Nineteen Eighty-Four as he lay dying? |quote= Winston's creator, George Orwell, believed that freedom would eventually defeat the truth-twisting totalitarianism portrayed in Nineteen Eighty-Four. |url= https://www.smh.com.au/entertainment/books/did-george-orwell-secretly-rewrite-the-end-of-nineteen-eightyfour-as-he-lay-dying-20170613-gwqbom.html |work= [[The Sydney Morning Herald]] |access-date= 2021-11-21}}</ref> an example.<ref>{{Cite book |last=Orwell |first=George |url=http://catalogue.bl.uk/ |title=Nineteen Eighty-Four. A novel |publisher=Secker & Warburg |year=1949 |location=London}}</ref>) A dystopian scenario shares the key features of extinction and unrecoverable collapse of civilisation—before the catastrophe, humanity faced a vast range of bright futures to choose from; after the catastrophe, humanity is locked forever in a terrible state.<ref name="Ord 20202" />
Das [[Aussterben]] ist zwar die offensichtlichste Art und Weise, wie das langfristige Potenzial der Menschheit zerstört werden könnte, aber es gibt auch noch andere Möglichkeiten, darunter der unwiederbringliche Zusammenbruch und die unwiederbringliche [[Dystopie]].<ref name="Ord 202023">{{Cite book |last=Ord |first=Toby |title=The Precipice: Existential Risk and the Future of Humanity |publisher=Hachette |location=New York |date=2020 |isbn=9780316484916}}</ref>Eine [[Katastrophe]], die schwerwiegend genug ist, um den dauerhaften, irreversiblen Zusammenbruch der menschlichen Zivilisation zu verursachen, wäre eine existenzielle Katastrophe, auch wenn sie nicht zum Aussterben führt.<ref name="Ord 202024">{{Cite book |last=Ord |first=Toby |title=The Precipice: Existential Risk and the Future of Humanity |publisher=Hachette |location=New York |date=2020 |isbn=9780316484916}}</ref> In ähnlicher Weise wäre eine solche Dystopie eine existenzielle Katastrophe, wenn die Menschheit unter ein totalitäres Regime fiele und es keine Chance auf Besserung gäbe. [[Bryan Caplan]] schreibt, dass "vielleicht eine Ewigkeit des Totalitarismus schlimmer wäre als das Aussterben".<ref name=":72">Bryan Caplan (2008). "[https://books.google.com/books?id=sTkfAQAAQBAJ&pg=PA504 The totalitarian threat]". ''Global Catastrophic Risks'', eds. Bostrom & Cirkovic (Oxford University Press): 504–519. {{ISBN|9780198570509}}</ref> ([[George Orwell|George Orwells]] Roman [[1984 (Roman)|1984]] schlägt ein Beispiel vor.) Ein dystopisches Szenario weist die gleichen Hauptmerkmale auf wie die Auslöschung und der unwiederbringliche Zusammenbruch der Zivilisation - vor der Katastrophe hatte die Menschheit eine große Auswahl an Zukunftsperspektiven, aus denen sie wählen konnte; nach der Katastrophe ist die Menschheit für immer in einem schrecklichen Zustand gefangen.<ref name="Ord 202025">{{Cite book |last=Ord |first=Toby |title=The Precipice: Existential Risk and the Future of Humanity |publisher=Hachette |location=New York |date=2020 |isbn=9780316484916}}</ref>


== Mögliche Risikoquellen ==
==Potential sources of risk==
Potenzielle globale Katastrophenrisiken werden üblicherweise als anthropogene oder nicht-anthropogene Gefahren eingestuft. Beispiele für nicht-anthropogene Risiken sind ein [[Impakt|Asteroiden- oder Kometeneinschlag]], ein [[Supervulkan|Supervulkanausbruch]], eine [[Pandemie|natürliche Pandemie]], ein [[Gammablitz|tödlicher Gammastrahlenausbruch]], ein geomagnetischer Sturm infolge eines koronalen Massenauswurfs, der elektronische Geräte zerstört, ein [[Klimawandel|natürlicher langfristiger Klimawandel]], [[Außerirdisches Leben|feindliches außerirdisches Leben]] oder die Umwandlung der [[Sonne]] in einen roten Riesenstern, der die Erde in Milliarden von Jahren verschlingt.
{{main|Global catastrophe scenarios}}
[[Datei:Global_catastrophic_risks.png|mini|Einteilung der globalen Katastrophenrisiken in drei Gruppen, je nachdem, ob sie größtenteils vom Menschen verursacht werden, ob der Mensch die Natur beeinflusst oder ob es sich um rein natürliche Risiken handelt]]
Potential global catastrophic risks are conventionally classified as anthropogenic or non-anthropogenic hazards. Examples of non-anthropogenic risks are an asteroid or comet [[impact event]], a [[Supervolcano|supervolcanic]] [[Types of volcanic eruptions|eruption]], a natural [[pandemic]], a [[Gamma-ray burst#Hypothetical effects on Earth in the past|lethal gamma-ray burst]], a [[geomagnetic storm]] from a [[coronal mass ejection]] destroying electronic equipment, natural long-term [[Climate variability and change#External climate forcing|climate change]], hostile [[extraterrestrial life]], or the [[Sun]] transforming into a [[red giant star]] and engulfing the Earth [[Future of Earth#Red giant stage|billions of years in the future]].
Anthropogene Risiken sind vom Menschen verursachte Risiken, die mit der Technologie, der Regierungsführung und dem Klimawandel zusammenhängen. Zu den technologischen Risiken gehören die Schaffung [[Künstliche Intelligenz|künstlicher Intelligenz]], die nicht mit den Zielen der Menschheit übereinstimmt, sowie Bio- und [[Nanotechnologie]]. Eine unzureichende oder bösartige [[Global Governance|globale Governance]] schafft Risiken im sozialen und politischen Bereich, wie z. B. einen globalen Krieg und einen [[Nuklearer Holocaust|nuklearen Holocaust]], [[biologische Kriegsführung]] und [[Bioterrorismus]] mit Hilfe genetisch veränderter Organismen, [[Cyber-Terrorismus|Cyberkriegsführung und Cyberterrorismus]], die [[kritische Infrastrukturen]] wie das Stromnetz zerstören, oder radiologische Kriegsführung mit Waffen wie großen [[Kernwaffentechnik|Kobaltbomben]]. Zu den globalen Katastrophenrisiken im Bereich der Steuerung des Erdsystems gehören die globale Erwärmung, die Umweltzerstörung, das Aussterben von Arten, Hungersnöte infolge ungleicher Ressourcenverteilung, Überbevölkerung, Missernten und eine nicht nachhaltige Landwirtschaft.


== Methodische Herausforderungen ==
[[File:Global catastrophic risks.png|thumb|Arrangement of global catastrophic risks into three sets according to whether they are largely human-caused, human influences upon nature, or purely natural]]
Die Erforschung des Wesens und der Abschwächung globaler Katastrophenrisiken und existenzieller Risiken unterliegt einer Reihe einzigartiger Herausforderungen und kann daher nicht ohne weiteres den üblichen Standards wissenschaftlicher Strenge unterworfen werden.<ref name="Ord 202026">{{Cite book |last=Ord |first=Toby |title=The Precipice: Existential Risk and the Future of Humanity |publisher=Hachette |location=New York |date=2020 |isbn=9780316484916}}</ref> So ist es beispielsweise weder machbar noch ethisch vertretbar, diese Risiken experimentell zu untersuchen. [[Carl Sagan]] hat dies in Bezug auf den [[Atomkrieg]] zum Ausdruck gebracht: "Die langfristigen Folgen eines Atomkriegs zu verstehen, ist kein Problem, das sich experimentell überprüfen lässt".<ref name="Sagan 19832">{{Cite magazine |last=Sagan |first=Carl |title=Nuclear War and Climatic Catastrophe: Some Policy Implications |magazine=Foreign Affairs |publisher=Council on Foreign Relations |date=Winter 1983 |doi=10.2307/20041818 |jstor=20041818 |url=https://www.foreignaffairs.com/articles/1983-12-01/nuclear-war-and-climatic-catastrophe-some-policy-implications |access-date=August 4, 2020}}</ref> Darüber hinaus ändern sich viele Katastrophenrisiken schnell, wenn sich die Technologie weiterentwickelt und sich die Rahmenbedingungen, z. B. die geopolitischen Verhältnisse, ändern. Eine weitere Herausforderung ist die allgemeine Schwierigkeit, die Zukunft über lange Zeiträume genau vorherzusagen, insbesondere bei anthropogenen Risiken, die von komplexen politischen, wirtschaftlichen und sozialen Systemen des Menschen abhängen.<ref name="Ord 202027">{{Cite book |last=Ord |first=Toby |title=The Precipice: Existential Risk and the Future of Humanity |publisher=Hachette |location=New York |date=2020 |isbn=9780316484916}}</ref> Zusätzlich zu den bekannten und greifbaren Risiken können unvorhersehbare Aussterbeereignisse durch einen sogenannten [[Schwarzer Schwan (Ereignis)|schwarzem Schwan]] auftreten, was ein zusätzliches methodisches Problem darstellt.<ref name="Ord 202028">{{Cite book |last=Ord |first=Toby |title=The Precipice: Existential Risk and the Future of Humanity |publisher=Hachette |location=New York |date=2020 |isbn=9780316484916}}</ref>


=== Fehlender historischer Präzedenzfall ===
Anthropogenic risks are those caused by humans and include those related to technology, governance, and climate change. Technological risks include the creation of [[Existential risk from artificial general intelligence|artificial intelligence misaligned]] with human goals, [[biotechnology]], and [[Molecular nanotechnology#Risks|nanotechnology]]. Insufficient or malign [[global governance]] creates risks in the social and political domain, such as [[World War III|global war]] and [[nuclear holocaust]], [[biological warfare]] and [[bioterrorism]] using [[genetically modified organism]]s, [[cyberwarfare]] and [[cyberterrorism]] destroying [[critical infrastructure]] like the [[electrical grid]], or [[radiological warfare]] using weapons such as large [[cobalt bomb]]s. Global catastrophic risks in the domain of [[earth system governance]] include [[Climate change|global warming]], [[environmental degradation]], [[Extinction|extinction of species]], [[famine]] as a result of [[Social development theory|non-equitable]] resource distribution, [[human overpopulation]], [[Harvest#Crop failure|crop failures]], and non-[[sustainable agriculture]].
Die Menschheit hat noch nie eine existenzielle Katastrophe erlebt, und wenn eine solche eintreten sollte, wäre sie zwangsläufig beispiellos. Daher stellen existenzielle Risiken aufgrund der Selektionswirkung der Beobachtung eine besondere Herausforderung für die Vorhersage dar, mehr noch als andere langfristige Ereignisse. Anders als bei den meisten Ereignissen ist das Ausbleiben eines vollständigen Aussterbeereignisses in der Vergangenheit kein Beweis gegen die Wahrscheinlichkeit eines solchen Ereignisses in der Zukunft, da es in jeder Welt, die ein solches Aussterbeereignis erlebt hat, keine Beobachter gibt, so dass unabhängig von ihrer Häufigkeit keine Zivilisation in ihrer Geschichte existenzielle Risiken beobachtet hat. Diese anthropischen Probleme lassen sich zum Teil dadurch vermeiden, dass man Beweise betrachtet, die keine derartigen Selektionseffekte haben, wie z. B. Asteroideneinschlagskrater auf dem Mond, oder indem man die wahrscheinlichen Auswirkungen neuer Technologien direkt bewertet.


Um die Dynamik eines noch nie dagewesenen, nicht wieder gutzumachenden globalen [[Zivilisationskollaps|Zusammenbruchs der Zivilisation]] (eine Art existenzielles Risiko) zu verstehen, kann es lehrreich sein, die verschiedenen lokalen Zusammenbrüche von Zivilisationen zu studieren, die im Laufe der menschlichen Geschichte stattgefunden haben. So endeten beispielsweise Zivilisationen wie das Römische Reich mit dem Verlust der zentralisierten Regierungsgewalt und einem großen zivilisationsweiten Verlust an Infrastruktur und fortschrittlicher Technologie. Diese Beispiele zeigen jedoch, dass Gesellschaften gegenüber Katastrophen recht widerstandsfähig zu sein scheinen. So überlebte das mittelalterliche Europa den [[Schwarzer Tod|Schwarzen Tod]], ohne dass es zu einem zivilisatorischen Zusammenbruch kam, obwohl es 25 bis 50 Prozent seiner Bevölkerung verlor.
== Methodological challenges ==
Research into the nature and mitigation of global catastrophic risks and existential risks is subject to a unique set of challenges and, as a result, is not easily subjected to the usual standards of scientific rigour.<ref name="Ord 20202" /> For instance, it is neither feasible nor ethical to study these risks experimentally. [[Carl Sagan]] expressed this with regards to nuclear war: "Understanding the long-term consequences of nuclear war is not a problem amenable to experimental verification".<ref name="Sagan 1983">{{Cite magazine |last=Sagan |first=Carl |date=Winter 1983 |title=Nuclear War and Climatic Catastrophe: Some Policy Implications |url=https://www.foreignaffairs.com/articles/1983-12-01/nuclear-war-and-climatic-catastrophe-some-policy-implications |magazine=Foreign Affairs |publisher=Council on Foreign Relations |doi=10.2307/20041818 |jstor=20041818 |access-date=August 4, 2020}}</ref> Moreover, many catastrophic risks change rapidly as technology advances and background conditions, such as geopolitical conditions, change. Another challenge is the general difficulty of accurately predicting the future over long timescales, especially for anthropogenic risks which depend on complex human political, economic and social systems.<ref name="Ord 20202" /> In addition to known and tangible risks, unforeseeable [[black swan theory|black swan]] extinction events may occur, presenting an additional methodological problem.<ref name="Ord 20202" /><ref>{{Cite journal |last=Jebari |first=Karim |date=2014 |title=Existential Risks: Exploring a Robust Risk Reduction Strategy |url=https://philpapers.org/archive/JEBERE.pdf |journal=Science and Engineering Ethics |volume=21 |issue=3 |pages=541–54 |doi=10.1007/s11948-014-9559-3 |pmid=24891130 |access-date=August 26, 2018 |s2cid=30387504}}</ref>


=== Lack of historical precedent ===
=== Anreize und Koordinierung ===
Es gibt wirtschaftliche Gründe, die erklären können, warum so wenig Anstrengungen zur Verringerung existenzieller Risiken unternommen werden. Da es sich um ein [[Globale öffentliche Güter|globales öffentliches Gut]] handelt, sollten wir davon ausgehen, dass es auf den Märkten unterversorgt ist. Selbst wenn eine große Nation in Maßnahmen zur Risikominderung investiert, wird diese Nation nur einen kleinen Teil des Nutzens daraus ziehen. Darüber hinaus ist die Verringerung existenzieller Risiken ein globales öffentliches Gut zwischen den Generationen, da der größte Teil des Nutzens aus der Verringerung existenzieller Risiken künftigen Generationen zugute käme, und obwohl diese künftigen Menschen theoretisch vielleicht bereit wären, erhebliche Summen für die Verringerung existenzieller Risiken zu zahlen, gibt es keinen Mechanismus für eine solche Transaktion.
Humanity has never suffered an existential catastrophe and if one were to occur, it would necessarily be unprecedented.<ref name="Ord 20202" /> Therefore, existential risks pose unique challenges to prediction, even more than other long-term events, because of [[Anthropic principle|observation selection effects]].<ref name=":8">{{Cite journal |last1=Cirkovic |first1=Milan M. |author-link=Milan M. Ćirković |last2=Bostrom |first2=Nick |author-link2=Nick Bostrom |last3=Sandberg |first3=Anders |author-link3=Anders Sandberg |date=2010 |title=Anthropic Shadow: Observation Selection Effects and Human Extinction Risks |url=https://www.nickbostrom.com/papers/anthropicshadow.pdf |journal=Risk Analysis |volume=30 |issue=10 |pages=1495–1506 |doi=10.1111/j.1539-6924.2010.01460.x |pmid=20626690|s2cid=6485564 }}</ref> Unlike with most events, the failure of a complete [[extinction event]] to occur in the past is not evidence against their likelihood in the future, because every world that has experienced such an extinction event has no observers, so regardless of their frequency, no civilization observes existential risks in its history.<ref name=":8" /> These [[Anthropic principle|anthropic]] issues may partly be avoided by looking at evidence that does not have such selection effects, such as asteroid impact craters on the Moon, or directly evaluating the likely impact of new technology.<ref name="priority" />


=== Kognitive Verzerrungen ===
To understand the dynamics of an unprecedented, unrecoverable global civilizational collapse (a type of existential risk), it may be instructive to study the various local [[Societal collapse|civilizational collapses]] that have occurred throughout human history.<ref>{{Cite web |last=Kemp |first=Luke |date=February 2019 |title=Are we on the road to civilization collapse? |url=https://www.bbc.com/future/article/20190218-are-we-on-the-road-to-civilisation-collapse |access-date=August 12, 2021 |website=[[BBC]]}}</ref> For instance, civilizations such as the [[Roman Empire]] have ended in a loss of centralized governance and a major civilization-wide loss of infrastructure and advanced technology. However, these examples demonstrate that societies appear to be fairly resilient to catastrophe; for example, Medieval Europe survived the [[Black Death]] without suffering anything resembling a [[civilization collapse]] despite losing 25 to 50 percent of its population.<ref>{{Cite book |last=Ord |first=Toby |title=The Precipice: Existential Risk and the Future of Humanity |date=2020 |isbn=9780316484893 |quote=Europe survived losing 25 to 50 percent of its population in the Black Death, while keeping civilization firmly intact |author-link=Toby Ord}}</ref>
Zahlreiche kognitive Verzerrungen können die Beurteilung der Bedeutung existenzieller Risiken beeinflussen, wie z. B. die Unempfindlichkeit gegenüber dem Umfang, die hyperbolische Diskontierung, die Verfügbarkeitsheuristik, der Konjunktionstrugschluss, die Affektheuristik und der Overconfidence-Effekt.


Die mangelnde Sensibilität für das Ausmaß des Problems beeinflusst, wie schlimm die Menschen das Aussterben der menschlichen Rasse einschätzen. Wenn Menschen beispielsweise motiviert sind, Geld für altruistische Zwecke zu spenden, steigt die Menge, die sie bereit sind zu geben, nicht linear mit dem Ausmaß des Problems: Die Menschen sind ungefähr genauso bereit, den Tod von 200.000 oder 2.000 Vögeln zu verhindern.<ref>Desvousges, W.H., Johnson, F.R., Dunford, R.W., Boyle, K.J., Hudson, S.P., and Wilson, N. 1993, Measuring natural resource damages with contingent valuation: tests of validity and reliability. In Hausman, J.A. (ed), ''Contingent Valuation:A Critical Assessment'', pp. 91–159 (Amsterdam: North Holland).</ref> In ähnlicher Weise sind die Menschen oft mehr über die Bedrohung von Einzelpersonen besorgt als über die von größeren Gruppen.<ref name="Yudkowsky 20082">{{Cite journal |last=Yudkowsky |first=Eliezer |title=Cognitive Biases Potentially Affecting Judgment of Global Risks |journal=Global Catastrophic Risks |pages=91–119 |date=2008 |bibcode=2008gcr..book...86Y |url=https://intelligence.org/files/CognitiveBiases.pdf}}</ref>
=== Incentives and coordination ===
There are economic reasons that can explain why so little effort is going into existential risk reduction. It is a [[global public good]], so we should expect it to be undersupplied by markets.<ref name="priority" /> Even if a large nation invests in risk mitigation measures, that nation will enjoy only a small fraction of the benefit of doing so. Furthermore, existential risk reduction is an ''intergenerational'' global public good, since most of the benefits of existential risk reduction would be enjoyed by future generations, and though these future people would in theory perhaps be willing to pay substantial sums for existential risk reduction, no mechanism for such a transaction exists.<ref name="priority" />


[[Eliezer Yudkowsky]] stellt die Theorie auf, dass die Vernachlässigung von Handlungsspielräumen bei der öffentlichen Wahrnehmung existenzieller Risiken eine Rolle spielt:<ref>Yudkowsky, Eliezer. "[https://intelligence.org/files/CognitiveBiases.pdf Cognitive biases potentially affecting judgment of global risks]". Global catastrophic risks 1 (2008): 86. p.114</ref><blockquote>Wesentlich größere Zahlen, wie 500 Millionen Tote, und vor allem qualitativ andere Szenarien, wie das Aussterben der gesamten menschlichen Spezies, scheinen eine andere Denkweise auszulösen... Menschen, die nicht im Traum daran denken würden, ein Kind zu verletzen, hören von der existenziellen Gefahr und sagen: "Nun, vielleicht verdient die menschliche Spezies nicht wirklich zu überleben".</blockquote>Alle bisherigen Vorhersagen über das Aussterben der Menschheit haben sich als falsch erwiesen. Für einige lässt dies zukünftige Warnungen weniger glaubwürdig erscheinen. [[Nick Bostrom]] argumentiert, dass das Ausbleiben des menschlichen Aussterbens in der Vergangenheit ein schwacher Beweis dafür ist, dass es in der Zukunft kein menschliches Aussterben geben wird, und zwar aufgrund des Survivor Bias und anderer anthropischer Effekte.<ref>{{Cite web |title=We're Underestimating the Risk of Human Extinction |date=March 6, 2012 |publisher=The Atlantic |url=https://www.theatlantic.com/technology/archive/2012/03/were-underestimating-the-risk-of-human-extinction/253821/ |access-date=July 1, 2016}}</ref>
=== Cognitive biases ===
Numerous [[cognitive biases]] can influence people's judgment of the importance of existential risks, including [[scope insensitivity]], [[hyperbolic discounting]], [[availability heuristic]], the [[conjunction fallacy]], the [[affect heuristic]], and the [[overconfidence effect]].<ref name="Yudkowsky 2008">{{Cite journal |last=Yudkowsky |first=Eliezer |date=2008 |title=Cognitive Biases Potentially Affecting Judgment of Global Risks |url=https://intelligence.org/files/CognitiveBiases.pdf |journal=Global Catastrophic Risks |pages=91–119 |bibcode=2008gcr..book...86Y}}</ref>


Der Soziobiologe [[Edward O. Wilson|E. O. Wilson]] argumentierte, dass: "Der Grund für diesen kurzsichtigen Nebel liegt nach Ansicht der Evolutionsbiologen darin, dass er bis auf die letzten paar Jahrtausende der zwei Millionen Jahre, die die Gattung Homo existiert, tatsächlich von Vorteil war... Es wurde viel Wert auf die nahe Zukunft und die frühe Fortpflanzung gelegt und wenig auf andere Dinge. Katastrophen von einem Ausmaß, wie sie nur alle paar Jahrhunderte vorkommen, wurden vergessen oder in einen Mythos verwandelt."<ref>Is Humanity Suicidal? ''The New York Times Magazine'' May 30, 1993)</ref>
Scope insensitivity influences how bad people consider the extinction of the human race to be. For example, when people are motivated to donate money to altruistic causes, the quantity they are willing to give does not increase linearly with the magnitude of the issue: people are roughly as willing to prevent the deaths of 200,000 or 2,000 birds.<ref>Desvousges, W.H., Johnson, F.R., Dunford, R.W., Boyle, K.J., Hudson, S.P., and Wilson, N. 1993, Measuring natural resource damages with contingent valuation: tests of validity and reliability. In Hausman, J.A. (ed), ''Contingent Valuation:A Critical Assessment'', pp. 91–159 (Amsterdam: North Holland).</ref> Similarly, people are often more concerned about threats to individuals than to larger groups.<ref name="Yudkowsky 2008" />


== Vorgeschlagene Entschärfung ==
[[Eliezer Yudkowsky]] theorizes that [[scope neglect]] plays a role in public perception of existential risks:{{sfn|Bostrom|2013}}<ref>Yudkowsky, Eliezer. "[https://intelligence.org/files/CognitiveBiases.pdf Cognitive biases potentially affecting judgment of global risks]". Global catastrophic risks 1 (2008): 86. p.114</ref>


=== Mehrschichtige Verteidigung ===
<blockquote>Substantially larger numbers, such as 500 million deaths, and especially qualitatively different scenarios such as the extinction of the entire human species, seem to trigger a different mode of thinking... People who would never dream of hurting a child hear of existential risk, and say, "Well, maybe the human species doesn't really deserve to survive".</blockquote>
Defense in depth ist ein nützlicher Rahmen für die Kategorisierung von Maßnahmen zur Risikominderung in drei Verteidigungsebenen:


# Prävention: Verringerung der Wahrscheinlichkeit, dass eine Katastrophe überhaupt erst eintritt. Beispiel: Maßnahmen zur Verhinderung des Ausbruchs neuer hoch ansteckender Krankheiten.
All past predictions of human extinction have proven to be false. To some, this makes future warnings seem less credible. [[Nick Bostrom]] argues that the absence of human extinction in the past is weak evidence that there will be no human extinction in the future, due to [[survivor bias]] and other [[anthropic principle|anthropic effects]].<ref>{{Cite web |date=March 6, 2012 |title=We're Underestimating the Risk of Human Extinction |url=https://www.theatlantic.com/technology/archive/2012/03/were-underestimating-the-risk-of-human-extinction/253821/ |access-date=July 1, 2016 |publisher=The Atlantic}}</ref>
# Reaktion: Verhinderung der Ausweitung einer Katastrophe auf die globale Ebene. Beispiel: Maßnahmen zur Verhinderung der Eskalation eines kleinen nuklearen Konflikts zu einem umfassenden Atomkrieg.
# Widerstandsfähigkeit: Erhöhung der Widerstandsfähigkeit der Menschheit (gegen das Aussterben) angesichts globaler Katastrophen. Beispiel: Maßnahmen zur Erhöhung der Ernährungssicherheit während eines nuklearen Winters.


Das Aussterben der Menschheit ist am wahrscheinlichsten, wenn alle drei Schutzmechanismen schwach sind, d. h. "wenn wir Risiken nicht verhindern können, nicht erfolgreich darauf reagieren können und nicht widerstandsfähig dagegen sind".<ref name=":22">{{Cite journal |last1=Cotton-Barratt |first1=Owen |last2=Daniel |first2=Max |last3=Sandberg |first3=Anders |title=Defence in Depth Against Human Extinction: Prevention, Response, Resilience, and Why They All Matter |journal=Global Policy |issue=3 |volume=11 |pages=271–282 |date=2020 |issn=1758-5899 |doi=10.1111/1758-5899.12786 |pmid=32427180 |pmc=7228299}}</ref>
[[Sociobiologist]] [[E. O. Wilson]] argued that: "The reason for this myopic fog, evolutionary biologists contend, is that it was actually advantageous during all but the last few millennia of the two million years of existence of the [[genus]] Homo... A premium was placed on close attention to the near future and early reproduction, and little else. Disasters of a magnitude that occur only once every few centuries were forgotten or transmuted into myth."<ref>Is Humanity Suicidal? ''The New York Times Magazine'' May 30, 1993)</ref>


Der beispiellose Charakter existenzieller Risiken stellt eine besondere Herausforderung für die Entwicklung von Maßnahmen zur Risikominderung dar, da die Menschheit nicht aus früheren Ereignissen lernen kann.<ref name="Ord 202022">{{Cite book |last=Ord |first=Toby |title=The Precipice: Existential Risk and the Future of Humanity |publisher=Hachette |location=New York |date=2020 |isbn=9780316484916}}</ref>
==Proposed mitigation==


===Multi-layer defense===
=== Finanzierung ===
Einige Forscher argumentieren, dass sowohl die Forschung als auch andere Initiativen im Zusammenhang mit existenziellen Risiken unterfinanziert sind. Nick Bostrom stellt fest, dass mehr Forschung über Star Trek, Snowboarding oder Mistkäfer betrieben wurde als über existenzielle Risiken. Bostroms Vergleiche wurden als "selbstherrlich" kritisiert<ref name=":02">{{Cite news |title=Could science destroy the world? These scholars want to save us from a modern-day Frankenstein |last=Kupferschmidt |first=Kai |url=https://www.science.org/content/article/could-science-destroy-world-these-scholars-want-save-us-modern-day-frankenstein |work=Science |publisher=AAAS |date=January 11, 2018 |access-date=April 20, 2020}}</ref>. Im Jahr 2020 verfügte die Organisation des Biowaffenübereinkommens über ein Jahresbudget von 1,4 Millionen US-Dollar.<ref>{{Cite book |last=Toby Ord |author-link=Toby Ord |title=The precipice: Existential risk and the future of humanity |date=2020 |quote=The international body responsible for the continued prohibition of bioweapons (the Biological Weapons Convention) has an annual budget of $1.4&nbsp;million - less than the average McDonald's restaurant |isbn=9780316484893}}</ref>
[[Defence in depth (non-military)|Defense in depth]] is a useful framework for categorizing risk mitigation measures into three layers of defense:<ref name=":2">{{Cite journal |last1=Cotton-Barratt |first1=Owen |last2=Daniel |first2=Max |last3=Sandberg |first3=Anders |date=2020 |title=Defence in Depth Against Human Extinction: Prevention, Response, Resilience, and Why They All Matter |journal=Global Policy |volume=11 |issue=3 |pages=271–282 |doi=10.1111/1758-5899.12786 |issn=1758-5899 |pmc=7228299 |pmid=32427180}}</ref>


=== Überlebensplanung ===
# ''Prevention'': Reducing the probability of a catastrophe occurring in the first place. Example: Measures to prevent outbreaks of new highly infectious diseases.
Einige Wissenschaftler schlagen vor, auf der Erde eine oder mehrere autarke, abgelegene und dauerhaft bewohnte Siedlungen zu errichten, die speziell für das Überleben einer globalen Katastrophe geschaffen werden. Der Wirtschaftswissenschaftler [[Robin Hanson]] vertritt die Auffassung, dass ein Zufluchtsort, der dauerhaft nur 100 Menschen beherbergt, die Überlebenschancen der Menschen bei einer Reihe von globalen Katastrophen erheblich verbessern würde.<ref>Hanson, Robin. "[https://mason.gmu.edu/~rhanson/collapse.pdf Catastrophe, social collapse, and human extinction]". Global catastrophic risks 1 (2008): 357.</ref>
# ''Response'': Preventing the scaling of a catastrophe to the global level. Example: Measures to prevent escalation of a small-scale nuclear exchange into an all-out nuclear war.
# ''Resilience'': Increasing humanity's resilience (against extinction) when faced with global catastrophes. Example: Measures to increase food security during a nuclear winter.


Die Lagerung von Lebensmitteln ist weltweit vorgeschlagen worden, aber die Kosten wären hoch. Außerdem würde sie wahrscheinlich zu den Millionen von Todesfällen pro Jahr aufgrund von Unterernährung beitragen. Im Jahr 2022 hat ein Team unter der Leitung von David Denkenberger die Kosteneffizienz von widerstandsfähigen Lebensmitteln mit der Sicherheit von künstlicher allgemeiner Intelligenz (AGI) verglichen und festgestellt, dass die Arbeit an widerstandsfähigen Lebensmitteln mit einer Wahrscheinlichkeit von 98-99 % eine höhere marginale Wirkung hat. <ref>{{Cite journal |last1=Denkenberger |first1=David C. |last2=Sandberg |first2=Anders |last3=Tieman |first3=Ross John |last4=Pearce |first4=Joshua M. |title=Long term cost-effectiveness of resilient foods for global catastrophes compared to artificial general intelligence safety |journal=International Journal of Disaster Risk Reduction |volume=73 |pages=102798 |date=2022 |doi=10.1016/j.ijdrr.2022.102798 |bibcode=2022IJDRR..7302798D |url=https://www.sciencedirect.com/science/article/pii/S2212420922000176}}</ref>Einige Überlebenskünstler legen sich einen Vorrat an Lebensmitteln für mehrere Jahre an.
Human extinction is most likely when all three defenses are weak, that is, "by risks we are unlikely to prevent, unlikely to successfully respond to, and unlikely to be resilient against".<ref name=":2" />


Der [[Svalbard Global Seed Vault]] ist 120 m tief in einem Berg auf einer Insel in der [[Arktis]] vergraben. Er soll 2,5 Milliarden Samen aus mehr als 100 Ländern aufnehmen, um die Ernten der Welt zu schützen. Das umgebende Gestein hat eine Temperatur von -6 °C (Stand 2015), aber der Tresor wird mit Hilfe von Kühlschränken, die mit lokal gewonnener Kohle betrieben werden, auf -18 °C gehalten.<ref>{{Cite web |last=Suzanne Goldenberg |title=The doomsday vault: the seeds that could save a post-apocalyptic world |date=May 20, 2015 |url=https://www.theguardian.com/science/2015/may/20/the-doomsday-vault-seeds-save-post-apocalyptic-world |website=[[The Guardian]] |access-date=June 30, 2017}}</ref>
The unprecedented nature of existential risks poses a special challenge in designing risk mitigation measures since humanity will not be able to learn from a track record of previous events.<ref name="Ord 20202" />


Wenn die Gesellschaft weiterhin funktioniert und die Biosphäre bewohnbar bleibt, könnte der Kalorienbedarf der derzeitigen menschlichen Bevölkerung theoretisch auch während einer längeren Abwesenheit von Sonnenlicht gedeckt werden, vorausgesetzt, man plant ausreichend voraus. Zu den vermuteten Lösungen gehören die Züchtung von Pilzen auf der toten Pflanzenbiomasse, die nach der Katastrophe zurückbleibt, die Umwandlung von Zellulose in Zucker oder die Verfütterung von Erdgas an Methan-verdauende Bakterien.<ref>{{Cite journal |last1=Denkenberger |first1=David C. |last2=Pearce |first2=Joshua M. |title=Feeding everyone: Solving the food crisis in event of global catastrophes that kill crops or obscure the sun |journal=Futures |volume=72 |pages=57–68 |date=September 2015 |doi=10.1016/j.futures.2014.11.008 |url=https://hal.archives-ouvertes.fr/hal-02113583/file/Feeding_Everyone_Solving_the_Food_Crisis.pdf |s2cid=153917693}}</ref>
===Funding===
Some researchers argue that both research and other initiatives relating to existential risk are underfunded. Nick Bostrom states that more research has been done on ''[[Star Trek]]'', [[snowboarding]], or [[dung beetles]] than on existential risks. Bostrom's comparisons have been criticized as "high-handed".<ref name=":0">{{Cite news |last=Kupferschmidt |first=Kai |date=January 11, 2018 |title=Could science destroy the world? These scholars want to save us from a modern-day Frankenstein |work=Science |publisher=AAAS |url=https://www.science.org/content/article/could-science-destroy-world-these-scholars-want-save-us-modern-day-frankenstein |access-date=April 20, 2020}}</ref><ref>{{Cite news |date=2013 |title=Oxford Institute Forecasts The Possible Doom Of Humanity |work=Popular Science |url=https://www.popsci.com/science/article/2013-04/what-greatest-threat-our-species-continued-existence/ |access-date=April 20, 2020}}</ref> As of 2020, the [[Biological Weapons Convention]] organization had an annual budget of US$1.4&nbsp;million.<ref>{{Cite book |last=Toby Ord |title=The precipice: Existential risk and the future of humanity |date=2020 |isbn=9780316484893 |quote=The international body responsible for the continued prohibition of bioweapons (the Biological Weapons Convention) has an annual budget of $1.4&nbsp;million - less than the average McDonald's restaurant |author-link=Toby Ord}}</ref>


=== Globale katastrophale Risiken und globale Governance ===
===Survival planning===
Eine unzureichende globale Governance schafft Risiken im sozialen und politischen Bereich, aber die Governance-Mechanismen entwickeln sich langsamer als der technologische und soziale Wandel. Regierungen, der Privatsektor und die breite Öffentlichkeit sind besorgt über das Fehlen von Governance-Mechanismen, die einen effizienten Umgang mit Risiken sowie Verhandlungen und Rechtsprechung zwischen unterschiedlichen und widersprüchlichen Interessen ermöglichen. Dies wird durch das Verständnis der Verflechtung globaler Systemrisiken noch unterstrichen.<ref>{{Cite web |title=Global Challenges Foundation {{!}} Understanding Global Systemic Risk |url=https://globalchallenges.org/en/our-work/quarterly-reports/resetting-the-frame/understanding-global-systemic-risk |archive-url=https://web.archive.org/web/20170816005747/https://globalchallenges.org/en/our-work/quarterly-reports/resetting-the-frame/understanding-global-systemic-risk |archive-date=August 16, 2017 |url-status=dead |website=globalchallenges.org |access-date=August 15, 2017}}</ref> In Ermangelung oder in Erwartung einer globalen Governance können die nationalen Regierungen individuell handeln, um globale Katastrophen besser zu verstehen, abzumildern und sich darauf vorzubereiten.<ref>{{Cite web |title=Global Catastrophic Risk Policy |url=https://www.gcrpolicy.com |website=gcrpolicy.com |access-date=August 11, 2019}}</ref>


=== Klima-Notfallpläne ===
Some scholars propose the establishment on Earth of one or more self-sufficient, remote, permanently occupied settlements specifically created for the purpose of surviving a global disaster.<ref name="matheny"/><ref name="wells1"/><ref name="wells2"/> Economist [[Robin Hanson]] argues that a refuge permanently housing as few as 100 people would significantly improve the chances of human survival during a range of global catastrophes.<ref name="matheny"/><ref>Hanson, Robin. "[https://mason.gmu.edu/~rhanson/collapse.pdf Catastrophe, social collapse, and human extinction]". Global catastrophic risks 1 (2008): 357.</ref>
2018 rief der [[Club of Rome]] zu mehr Klimaschutz auf und veröffentlichte seinen Klima-Notfallplan, der zehn Aktionspunkte zur Begrenzung des Anstiegs der globalen Durchschnittstemperatur auf 1,5 Grad Celsius vorschlägt<ref>{{Cite web |last=[[Club of Rome]] |title=The Climate Emergency Plan |year=2018 |url=https://clubofrome.org/publication/the-climate-emergency-plan/ |access-date=August 17, 2020}}</ref>. Außerdem veröffentlichte der Club 2019 den umfassenderen Planetary Emergency Plan.<ref>{{Cite web |last=[[Club of Rome]] |title=The Planetary Emergency Plan |year=2019 |url=https://clubofrome.org/publication/the-planetary-emergency-plan/ |access-date=August 17, 2020}}</ref>


Es gibt Anhaltspunkte dafür, dass die kollektive Auseinandersetzung mit den emotionalen Erfahrungen, die bei der Betrachtung der Anfälligkeit der menschlichen Spezies im Kontext des Klimawandels auftreten, eine Anpassung an diese Erfahrungen ermöglicht. Wenn die kollektive Auseinandersetzung mit emotionalen Erfahrungen und deren Verarbeitung förderlich ist, kann dies zu einem Wachstum der Widerstandsfähigkeit, der psychologischen Flexibilität, der Toleranz gegenüber emotionalen Erfahrungen und des gemeinschaftlichen Engagements führen.<ref>{{Cite journal |last1=Kieft |first1=J. |last2=Bendell |first2=J |title=The responsibility of communicating difficult truths about climate influenced societal disruption and collapse: an introduction to psychological research |journal=Institute for Leadership and Sustainability (IFLAS) Occasional Papers |volume=7 |pages=1–39 |year=2021 |url=https://insight.cumbria.ac.uk/id/eprint/5950}}</ref>
[[Food storage]] has been proposed globally, but the monetary cost would be high. Furthermore, it would likely contribute to the current millions of deaths per year due to [[malnutrition]].<ref>{{Cite book |last=Smil |first=Vaclav |url=https://books.google.com/books?id=8ntHWPMUgpMC&pg=PA25 |title=The Earth's Biosphere: Evolution, Dynamics, and Change |publisher=[[MIT Press]] |year=2003 |isbn=978-0-262-69298-4 |page=25 |author-link=Vaclav Smil}}</ref> In 2022, a team led by David Denkenberger modeled the cost-effectiveness of resilient foods to [[AI alignment|artificial general intelligence (AGI) safety]] and found "~98-99% confidence" for a higher marginal impact of work on resilient foods.<ref>{{Cite journal |last1=Denkenberger |first1=David C. |last2=Sandberg |first2=Anders |last3=Tieman |first3=Ross John |last4=Pearce |first4=Joshua M. |date=2022 |title=Long term cost-effectiveness of resilient foods for global catastrophes compared to artificial general intelligence safety |url=https://www.sciencedirect.com/science/article/pii/S2212420922000176 |journal=International Journal of Disaster Risk Reduction |volume=73 |pages=102798 |doi=10.1016/j.ijdrr.2022.102798 |bibcode=2022IJDRR..7302798D }}</ref> Some [[survivalist]]s stock [[Retreat (survivalism)|survival retreats]] with multiple-year food supplies.


=== Kolonisierung des Weltraums ===
The [[Svalbard Global Seed Vault]] is buried {{convert|400|ft|m}} inside a mountain on an island in the [[Arctic]]. It is designed to hold 2.5&nbsp;billion seeds from more than 100 countries as a precaution to preserve the world's crops. The surrounding rock is {{convert|−6|°C|°F}} (as of 2015) but the vault is kept at {{convert|−18|°C|°F}} by refrigerators powered by locally sourced coal.<ref>{{Cite news |last=Lewis Smith |date=February 27, 2008 |title=Doomsday vault for world's seeds is opened under Arctic mountain |work=The Times Online |location=London |url=http://www.timesonline.co.uk/tol/news/environment/article3441435.ece |url-status=dead |archive-url=https://web.archive.org/web/20080512083814/http://www.timesonline.co.uk/tol/news/environment/article3441435.ece |archive-date=May 12, 2008}}</ref><ref>{{Cite web |last=Suzanne Goldenberg |date=May 20, 2015 |title=The doomsday vault: the seeds that could save a post-apocalyptic world |url=https://www.theguardian.com/science/2015/may/20/the-doomsday-vault-seeds-save-post-apocalyptic-world |access-date=June 30, 2017 |website=[[The Guardian]]}}</ref>
Die Besiedlung des Weltraums ist eine vorgeschlagene Alternative, um die Chancen zu verbessern, ein Aussterbeszenario zu überleben. <ref name="physorg201008092">{{Citation|title=Mankind must abandon earth or face extinction: Hawking|date=August 9, 2010|url=http://www.physorg.com/news200591777.html|work=physorg.com|access-date=January 23, 2012}}</ref> Lösungen dieses Ausmaßes könnten eine Technik im Megamaßstab erfordern.


Der [[Astrophysiker]] [[Stephen Hawking]] sprach sich dafür aus, andere Planeten innerhalb des [[Sonnensystem|Sonnensystems]] zu kolonisieren, sobald die Technologie weit genug fortgeschritten ist, um die Überlebenschancen der Menschheit bei planetenweiten Ereignissen wie einem globalen thermonuklearen Krieg zu verbessern.<ref>{{Cite news |title=Hawking: Humans at risk of lethal 'own goal' |last=Shukman |first=David |url=https://www.bbc.com/news/science-environment-35344664 |work=BBC News |date=January 19, 2016 |access-date=July 1, 2016}}</ref>
More speculatively, if society continues to function and if the biosphere remains habitable, calorie needs for the present human population might in theory be met during an extended absence of sunlight, given sufficient advance planning. Conjectured solutions include growing mushrooms on the dead plant biomass left in the wake of the catastrophe, converting cellulose to sugar, or feeding natural gas to methane-digesting bacteria.<ref>{{Cite news |date=July 8, 2016 |title=Here's how the world could end—and what we can do about it |work=Science |publisher=AAAS |url=https://www.science.org/content/article/here-s-how-world-could-end-and-what-we-can-do-about-it-rev2 |access-date=March 23, 2018}}</ref><ref>{{Cite journal |last1=Denkenberger |first1=David C. |last2=Pearce |first2=Joshua M. |date=September 2015 |title=Feeding everyone: Solving the food crisis in event of global catastrophes that kill crops or obscure the sun |url=https://hal.archives-ouvertes.fr/hal-02113583/file/Feeding_Everyone_Solving_the_Food_Crisis.pdf |journal=Futures |volume=72 |pages=57–68 |doi=10.1016/j.futures.2014.11.008|s2cid=153917693 }}</ref>


Der Milliardär [[Elon Musk]] schreibt, dass die Menschheit zu einer multiplanetaren Spezies werden muss, um nicht auszusterben.<ref>{{Cite web |last=Ginsberg |first=Leah |title=Elon Musk thinks life on earth will go extinct, and is putting most of his fortune toward colonizing Mars |date=June 16, 2017 |url=https://www.cnbc.com/2017/06/16/elon-musk-colonize-mars-before-extinction-event-on-earth.html |website=CNBC}}</ref> Mit seinem Unternehmen [[SpaceX]] entwickelt Musk eine Technologie, die er für die Besiedlung des [[Mars (Planet)|Mars]] einsetzen will.
===Global catastrophic risks and global governance===
Insufficient [[global governance]] creates risks in the social and political domain, but the governance mechanisms develop more slowly than technological and social change. There are concerns from governments, the private sector, as well as the general public about the lack of governance mechanisms to efficiently deal with risks, negotiate and adjudicate between diverse and conflicting interests. This is further underlined by an understanding of the interconnectedness of global systemic risks.<ref>{{Cite web |title=Global Challenges Foundation {{!}} Understanding Global Systemic Risk |url=https://globalchallenges.org/en/our-work/quarterly-reports/resetting-the-frame/understanding-global-systemic-risk |url-status=dead |archive-url=https://web.archive.org/web/20170816005747/https://globalchallenges.org/en/our-work/quarterly-reports/resetting-the-frame/understanding-global-systemic-risk |archive-date=August 16, 2017 |access-date=August 15, 2017 |website=globalchallenges.org}}</ref> In absence or anticipation of global governance, national governments can act individually to better understand, mitigate and prepare for global catastrophes.<ref>{{Cite web |title=Global Catastrophic Risk Policy |url=https://www.gcrpolicy.com |access-date=August 11, 2019 |website=gcrpolicy.com}}</ref>


=== Verschiebung der Erde ===
===Climate emergency plans===
In einigen Milliarden Jahren wird sich die Sonne zu einem [[Roter Riese|Roten Riesen]] ausdehnen und die Erde verschlucken. Dies kann vermieden werden, indem die Erde weiter von der Sonne entfernt wird, so dass die Temperatur in etwa konstant bleibt. Dies kann erreicht werden, indem man die Bahnen von Kometen und Asteroiden so verändert, dass sie nahe an der Erde vorbeiziehen, so dass sie der Erdbahn Energie zuführen. <ref>{{cite journal |last1=Korycansky |first1=Donald G. |last2=Laughlin |first2=Gregory |last3=Adams |first3=Fred C. |title=Astronomical engineering: a strategy for modifying planetary orbits |journal=Astrophysics and Space Science |issue=4 |volume=275 |pages=349–366 |year=2001 |arxiv=astro-ph/0102126 |doi=10.1023/A:1002790227314 |bibcode=2001Ap&SS.275..349K |hdl=2027.42/41972 |s2cid=5550304}}</ref> Da sich die Sonne nur langsam ausdehnt, würde etwa eine solche Begegnung alle 6.000 Jahre ausreichen.
In 2018, the [[Club of Rome]] called for greater climate change action and published its Climate Emergency Plan, which proposes ten action points to limit global average temperature increase to 1.5 degrees Celsius.<ref>{{Cite web |last=[[Club of Rome]] |year=2018 |title=The Climate Emergency Plan |url=https://clubofrome.org/publication/the-climate-emergency-plan/ |access-date=August 17, 2020}}</ref> Further, in 2019, the Club published the more comprehensive Planetary Emergency Plan.<ref>{{Cite web |last=[[Club of Rome]] |year=2019 |title=The Planetary Emergency Plan |url=https://clubofrome.org/publication/the-planetary-emergency-plan/ |access-date=August 17, 2020}}</ref>


=== Zweifler und Gegner ===
There is evidence to suggest that collectively engaging with the emotional experiences that emerge during contemplating the vulnerability of the human species within the context of climate change allows for these experiences to be adaptive. When collective engaging with and processing emotional experiences is supportive, this can lead to growth in resilience, psychological flexibility, tolerance of emotional experiences, and community engagement.<ref>{{Cite journal |last1=Kieft |first1=J. |last2=Bendell |first2=J |year=2021 |title=The responsibility of communicating difficult truths about climate influenced societal disruption and collapse: an introduction to psychological research |url=https://insight.cumbria.ac.uk/id/eprint/5950 |journal=Institute for Leadership and Sustainability (IFLAS) Occasional Papers |volume=7 |pages=1–39}}</ref>
Der Psychologe [[Steven Pinker]] hat das existenzielle Risiko als "nutzlose Kategorie" bezeichnet, die von realen Bedrohungen wie dem Klimawandel und dem Atomkrieg ablenken kann.<ref name=":03">{{Cite news |title=Could science destroy the world? These scholars want to save us from a modern-day Frankenstein |last=Kupferschmidt |first=Kai |url=https://www.science.org/content/article/could-science-destroy-world-these-scholars-want-save-us-modern-day-frankenstein |work=Science |publisher=AAAS |date=January 11, 2018 |access-date=April 20, 2020}}</ref>


== Organisationen ==
===Space colonization===
Das [[Bulletin of the Atomic Scientists]] (gegründet 1945) ist eine der ältesten globalen Risikoorganisationen und wurde gegründet, nachdem die Öffentlichkeit nach dem Zweiten Weltkrieg durch die Möglichkeit eines Atomkriegs alarmiert wurde. Sie untersucht Risiken im Zusammenhang mit Atomkrieg und Kernenergie und ist bekannt für die 1947 eingeführte [[Weltuntergangsuhr]]. Das [[Foresight Institute]] (gegründet 1986) untersucht die Risiken der Nanotechnologie und deren Nutzen. Es war eine der ersten Organisationen, die sich mit den unbeabsichtigten Folgen einer ansonsten harmlosen Technologie beschäftigte, die auf globaler Ebene aus dem Ruder läuft. Gegründet wurde es von [[Eric Drexler|K. Eric Drexler]], der "[[graue Schmiere]]" postulierte.<ref>{{Cite journal |last=Giles |first=Jim |title=Nanotech takes small step towards burying 'grey goo' |journal=Nature |issue=6992 |volume=429 |pages=591 |year=2004 |doi=10.1038/429591b |pmid=15190320 |bibcode=2004Natur.429..591G |doi-access=free}}</ref>
{{main|Space and survival}}
[[Space colonization]] is a proposed alternative to improve the odds of surviving an extinction scenario.<ref name="physorg20100809">{{Citation |title=Mankind must abandon earth or face extinction: Hawking |date=August 9, 2010 |url=http://www.physorg.com/news200591777.html |work=physorg.com |access-date=January 23, 2012}}</ref> Solutions of this scope may require [[megascale engineering]].


Nach dem Jahr 2000 gründete eine wachsende Zahl von Wissenschaftlern, Philosophen und Tech-Milliardären Organisationen, die sich mit der Erforschung globaler Risiken sowohl innerhalb als auch außerhalb der akademischen Welt beschäftigen.<ref>{{Cite web |last=Sophie McBain |title=Apocalypse soon: the scientists preparing for the end times |date=September 25, 2014 |url=http://www.newstatesman.com/sci-tech/2014/09/apocalypse-soon-scientists-preparing-end-times |website=[[New Statesman]] |access-date=June 5, 2015}}</ref>
Astrophysicist [[Stephen Hawking]] advocated colonizing other planets within the Solar System once technology progresses sufficiently, in order to improve the [[Space and survival|chance of human survival]] from planet-wide events such as global thermonuclear war.<ref>{{Cite web |last=Malik |first=Tariq |date=April 13, 2013 |title=Stephen Hawking: Humanity Must Colonize Space to Survive |website=[[Space.com]] |url=http://www.space.com/20657-stephen-hawking-humanity-survival-space.html |access-date=July 1, 2016}}</ref><ref>{{Cite news |last=Shukman |first=David |date=January 19, 2016 |title=Hawking: Humans at risk of lethal 'own goal' |work=BBC News |url=https://www.bbc.com/news/science-environment-35344664 |access-date=July 1, 2016}}</ref>


Zu den [[Nichtregierungsorganisation|unabhängigen Nichtregierungsorganisationen]] (NGOs) gehört das Machine Intelligence Research Institute (gegründet 2000), das sich zum Ziel gesetzt hat, das Risiko einer durch [[künstliche Intelligenz]] verursachten Katastrophe zu verringern; zu den Spendern gehören [[Peter Thiel]] und Jed McCaleb.<ref>{{Cite journal |last=Angela Chen |title=Is Artificial Intelligence a Threat? |journal=The Chronicle of Higher Education |date=September 11, 2014 |url=https://chronicle.com/article/Is-Artificial-Intelligence-a/148763/ |access-date=June 5, 2015}}</ref>
Billionaire [[Elon Musk]] writes that humanity must become a multiplanetary species in order to avoid extinction.<ref>{{Cite web|url=https://www.cnbc.com/2017/06/16/elon-musk-colonize-mars-before-extinction-event-on-earth.html|title=Elon Musk thinks life on earth will go extinct, and is putting most of his fortune toward colonizing Mars|first=Leah|last=Ginsberg|website=CNBC|date=June 16, 2017 }}</ref> Musk is using his company [[SpaceX]] to develop technology he hopes will be used in the colonization of [[Mars]].


Die [[Nuclear Threat Initiative]] (gegründet 2001) versucht, die globale Bedrohung durch nukleare, biologische und chemische Bedrohungen zu verringern und die Schäden nach einem Ereignis einzudämmen<ref name=":63">{{Cite web |title=Nuclear Threat Initiative |url=http://www.nti.org |website=[[Nuclear Threat Initiative]] |access-date=June 5, 2015}}</ref>. Sie unterhält einen Index für die Sicherheit von Kernmaterial.<ref>{{Cite web |title=About the Lifeboat Foundation |publisher=The Lifeboat Foundation |url=http://lifeboat.com |access-date=April 26, 2013}}</ref>
===Moving the Earth===
{{Main article|Moving Earth}}
In a few billion years, the Sun will expand into a [[red giant]], swallowing the Earth. This can be avoided by moving the Earth farther out from the Sun, keeping the temperature roughly constant. That can be accomplished by tweaking the orbits of comets and asteroids so they pass close to the Earth in such a way that they add energy to the Earth's orbit.<ref>{{cite journal |last1=Korycansky |first1=Donald G. |first2=Gregory |last2=Laughlin |first3=Fred C. |last3=Adams |title=Astronomical engineering: a strategy for modifying planetary orbits |journal=Astrophysics and Space Science |volume=275 |issue=4 |year=2001 |pages=349–366 |doi=10.1023/A:1002790227314 |arxiv=astro-ph/0102126 |bibcode=2001Ap&SS.275..349K |hdl=2027.42/41972 |s2cid=5550304 }}</ref> Since the Sun's expansion is slow, roughly one such encounter every 6,000 years would suffice.{{Citation needed|date=April 2022}}


Die Lifeboat Foundation (gegründet 2009) finanziert Forschungsarbeiten zur Verhinderung einer technologischen Katastrophe. Der Großteil der Forschungsgelder fließt in Projekte an Universitäten.<ref>{{Cite web |last=Ashlee |first=Vance |author-link=Ashlee Vance |title=The Lifeboat Foundation: Battling Asteroids, Nanobots and A.I. |date=July 20, 2010 |url=http://bits.blogs.nytimes.com/2010/07/20/the-lifeboat-foundation-battling-asteroids-nanobots-and-a-i/ |website=[[New York Times]] |access-date=June 5, 2015}}</ref>
===Skeptics and opponents===
Psychologist [[Steven Pinker]] has called existential risk a "useless category" that can distract from real threats such as climate change and nuclear war.<ref name=":0" />


Das Global Catastrophic Risk Institute (seit 2011) ist eine gemeinnützige, überparteiliche Denkfabrik mit Sitz in den USA, die von Seth Baum und Tony Barrett gegründet wurde. Das GCRI betreibt Forschungs- und Politikarbeit zu verschiedenen Risiken, darunter künstliche Intelligenz, Atomkrieg, Klimawandel und Asteroideneinschläge. Die Global Challenges Foundation (gegründet 2012) mit Sitz in Stockholm, gegründet von Laszlo Szombatfalvy, veröffentlicht jährlich einen Bericht über den Stand der globalen Risiken. Das Future of Life Institute (gegründet 2014) setzt sich für die Verringerung extremer, weitreichender Risiken durch transformative Technologien ein und steuert die Entwicklung und den Einsatz dieser Technologien zum Nutzen aller Lebewesen durch die Vergabe von Zuschüssen, politische Lobbyarbeit in den Vereinigten Staaten, der Europäischen Union und den Vereinten Nationen sowie durch Bildungsarbeit.
==Organizations==
The [[Bulletin of the Atomic Scientists]] (est. 1945) is one of the oldest global risk organizations, founded after the public became alarmed by the potential of atomic warfare in the aftermath of WWII. It studies risks associated with nuclear war and energy and famously maintains the [[Doomsday Clock]] established in 1947. The [[Foresight Institute]] (est. 1986) examines the risks of nanotechnology and its benefits. It was one of the earliest organizations to study the unintended consequences of otherwise harmless technology gone haywire at a global scale. It was founded by [[K. Eric Drexler]] who postulated "[[grey goo]]".<ref>{{Cite web |last=Fred Hapgood |date=November 1986 |title=Nanotechnology: Molecular Machines that Mimic Life |url=http://metamodern.com/b/wp-content/uploads/docs/OMNI_TINYTECH.pdf |access-date=June 5, 2015 |website=[[Omni (magazine)|Omni]] |archive-date=July 27, 2013 |archive-url=https://web.archive.org/web/20130727021409/http://metamodern.com/b/wp-content/uploads/docs/OMNI_TINYTECH.pdf |url-status=dead }}</ref><ref>{{Cite journal |last=Giles |first=Jim |year=2004 |title=Nanotech takes small step towards burying 'grey goo' |journal=Nature |volume=429 |issue=6992 |pages=591 |bibcode=2004Natur.429..591G |doi=10.1038/429591b |pmid=15190320 |doi-access=free}}</ref>


Elon Musk, Vitalik Buterin und Jaan Tallinn sind einige der größten Spender. Das Center on Long-Term Risk (gegründet 2016), früher bekannt als Foundational Research Institute, ist eine britische Organisation, die sich auf die Verringerung der Risiken astronomischen Leids (S-Risiken) durch neue Technologien konzentriert.<ref name="cltr2">{{Cite web |title=About Us |publisher=Center on Long-Term Risk |url=https://longtermrisk.org/about-us |access-date=May 17, 2020 |quote=We currently focus on efforts to reduce the worst risks of astronomical suffering (s-risks) from emerging technologies, with a focus on transformative artificial intelligence.}}</ref>
Beginning after 2000, a growing number of scientists, philosophers and tech billionaires created organizations devoted to studying global risks both inside and outside of academia.<ref>{{Cite web |last=Sophie McBain |date=September 25, 2014 |title=Apocalypse soon: the scientists preparing for the end times |url=http://www.newstatesman.com/sci-tech/2014/09/apocalypse-soon-scientists-preparing-end-times |access-date=June 5, 2015 |website=[[New Statesman]]}}</ref>


Zu den universitären Organisationen gehört das [[Future of Humanity Institute]] (gegründet 2005), das sich mit Fragen der langfristigen Zukunft der Menschheit und insbesondere mit existenziellen Risiken befasst.<ref name=":34">{{Cite web |title=About FHI |url=http://www.fhi.ox.ac.uk/ |website=[[Future of Humanity Institute]] |access-date=August 12, 2021}}</ref> Es wurde von [[Nick Bostrom]] gegründet und hat seinen Sitz an der [[University of Oxford|Universität Oxford]]. <ref name=":35">{{Cite web |title=About FHI |url=http://www.fhi.ox.ac.uk/ |website=[[Future of Humanity Institute]] |access-date=August 12, 2021}}</ref>
Independent non-governmental organizations (NGOs) include the [[Machine Intelligence Research Institute]] (est. 2000), which aims to reduce the risk of a catastrophe caused by artificial intelligence,<ref>{{Cite web |title=Reducing Long-Term Catastrophic Risks from Artificial Intelligence |url=https://intelligence.org/summary/ |access-date=June 5, 2015 |publisher=[[Machine Intelligence Research Institute]] |quote=The Machine Intelligence Research Institute aims to reduce the risk of a catastrophe, should such an event eventually occur.}}</ref> with donors including [[Peter Thiel]] and [[Jed McCaleb]].<ref>{{Cite journal |last=Angela Chen |date=September 11, 2014 |title=Is Artificial Intelligence a Threat? |url=https://chronicle.com/article/Is-Artificial-Intelligence-a/148763/ |journal=The Chronicle of Higher Education |access-date=June 5, 2015}}</ref> The [[Nuclear Threat Initiative]] (est. 2001) seeks to reduce global threats from nuclear, biological and chemical threats, and containment of damage after an event.<ref name=":6">{{Cite web |title=Nuclear Threat Initiative |url=http://www.nti.org |access-date=June 5, 2015 |website=[[Nuclear Threat Initiative]]}}</ref> It maintains a nuclear material security index.<ref>{{Cite web |last=Alexander Sehmar |date=May 31, 2015 |title=Isis could obtain nuclear weapon from Pakistan, warns India |url=https://www.independent.co.uk/news/world/asia/india-warns-isis-could-obtain-nuclear-weapon-from-pakistan-10287276.html |url-status=dead |archive-url=https://web.archive.org/web/20150602203957/http://www.independent.co.uk/news/world/asia/india-warns-isis-could-obtain-nuclear-weapon-from-pakistan-10287276.html |archive-date=June 2, 2015 |access-date=June 5, 2015 |website=The Independent}}</ref> The Lifeboat Foundation (est. 2009) funds research into preventing a technological catastrophe.<ref>{{Cite web |title=About the Lifeboat Foundation |url=http://lifeboat.com |access-date=April 26, 2013 |publisher=The Lifeboat Foundation}}</ref> Most of the research money funds projects at universities.<ref>{{Cite web |last=Ashlee |first=Vance |author-link=Ashlee Vance |date=July 20, 2010 |title=The Lifeboat Foundation: Battling Asteroids, Nanobots and A.I. |url=http://bits.blogs.nytimes.com/2010/07/20/the-lifeboat-foundation-battling-asteroids-nanobots-and-a-i/ |access-date=June 5, 2015 |website=[[New York Times]]}}</ref> The Global Catastrophic Risk Institute (est. 2011) is a US-based non-profit, non-partisan think tank founded by [[Seth Baum]] and Tony Barrett. GCRI does research and policy work across various risks, including artificial intelligence, nuclear war, climate change, and asteroid impacts.<ref>{{cite web |url=https://gcrinstitute.org |title=Global Catastrophic Risk Institute |work=gcrinstitute.org |author= |date= |access-date=March 22, 2022}}</ref> The [[Global Challenges Foundation]] (est. 2012), based in Stockholm and founded by [[László Szombatfalvy|Laszlo Szombatfalvy]], releases a yearly report on the state of global risks.<ref name="gcf_atlantic">{{Cite web |last=Meyer |first=Robinson |date=April 29, 2016 |title=Human Extinction Isn't That Unlikely |url=https://www.theatlantic.com/technology/archive/2016/04/a-human-extinction-isnt-that-unlikely/480444/ |access-date=April 30, 2016 |website=[[The Atlantic]] |publisher=Emerson Collective |location=Boston, Massachusetts}}</ref><ref name="gcf_home">{{Cite web |title=Global Challenges Foundation website |url=http://globalchallenges.org |access-date=April 30, 2016 |website=globalchallenges.org}}</ref> The [[Future of Life Institute]] (est. 2014) works to reduce extreme, large-scale risks from transformative technologies, as well as steer the development and use of these technologies to benefit all life, through grantmaking, policy advocacy in the United States, European Union and United Nations, and educational outreach.<ref name=":5">{{Cite web |title=The Future of Life Institute |url=http://thefutureoflife.org/ |access-date=May 5, 2014 |website=[[Future of Life Institute]]}}</ref> [[Elon Musk]], [[Vitalik Buterin]] and [[Jaan Tallinn]] are some of its biggest donors.<ref>{{Cite web |last=Nick Bilton |date=May 28, 2015 |title=Ava of 'Ex Machina' Is Just Sci-Fi (for Now) |url=https://www.nytimes.com/2015/05/21/style/ava-of-ex-machina-is-just-sci-fi-for-now.html |access-date=June 5, 2015 |website=[[New York Times]]}}</ref> The Center on Long-Term Risk (est. 2016), formerly known as the Foundational Research Institute, is a British organization focused on reducing risks of astronomical suffering ([[s-risks]]) from emerging technologies.<ref name="cltr">{{Cite web |title=About Us |url=https://longtermrisk.org/about-us |access-date=May 17, 2020 |publisher=Center on Long-Term Risk |quote=We currently focus on efforts to reduce the worst risks of astronomical suffering (s-risks) from emerging technologies, with a focus on transformative artificial intelligence.}}</ref>


Das Centre for the Study of Existential Risk (gegründet 2012) ist eine Organisation mit Sitz an der [[University of Cambridge|Universität Cambridge]], die vier große technologische Risiken untersucht: künstliche Intelligenz, Biotechnologie, globale Erwärmung und Kriegsführung.<ref name=":43">{{Cite web |title=About us |url=https://www.cser.ac.uk/about-us/ |website=[[Centre for the Study of Existential Risk]] |access-date=August 12, 2021}}</ref> Alle sind vom Menschen verursachte Risiken, wie [[Huw Price]] gegenüber der Nachrichtenagentur AFP erklärte: "Es scheint eine vernünftige Vorhersage zu sein, dass irgendwann in diesem oder im nächsten Jahrhundert die Intelligenz den Zwängen der Biologie entkommen wird". Er fügte hinzu, dass wir dann "nicht mehr die Klügsten sind" und Gefahr laufen, der Gnade von "Maschinen ausgeliefert zu sein, die nicht böswillig sind, sondern Maschinen, deren Interessen uns nicht einschließen".<ref>{{Cite web |last=Hui |first=Sylvia |title=Cambridge to study technology's risks to humans |date=November 25, 2012 |publisher=Associated Press |url=http://bigstory.ap.org/article/cambridge-study-technologys-risk-humans |archive-url=https://web.archive.org/web/20121201021050/http://bigstory.ap.org/article/cambridge-study-technologys-risk-humans |archive-date=December 1, 2012 |url-status=dead |access-date=January 30, 2012}}</ref> Stephen Hawking war als Berater tätig.
University-based organizations include the [[Future of Humanity Institute]] (est. 2005) which researches the questions of humanity's long-term future, particularly existential risk.<ref name=":3" /> It was founded by [[Nick Bostrom]] and is based at Oxford University.<ref name=":3" /> The [[Centre for the Study of Existential Risk]] (est. 2012) is a Cambridge University-based organization which studies four major technological risks: artificial intelligence, biotechnology, global warming and warfare.<ref name=":4" /> All are man-made risks, as [[Huw Price]] explained to the AFP news agency, "It seems a reasonable prediction that some time in this or the next century intelligence will escape from the constraints of biology". He added that when this happens "we're no longer the smartest things around," and will risk being at the mercy of "machines that are not malicious, but machines whose interests don't include us."<ref>{{Cite web |last=Hui |first=Sylvia |date=November 25, 2012 |title=Cambridge to study technology's risks to humans |url=http://bigstory.ap.org/article/cambridge-study-technologys-risk-humans |url-status=dead |archive-url=https://web.archive.org/web/20121201021050/http://bigstory.ap.org/article/cambridge-study-technologys-risk-humans |archive-date=December 1, 2012 |access-date=January 30, 2012 |publisher=Associated Press}}</ref> [[Stephen Hawking]] was an acting adviser. The [[Millennium Alliance for Humanity and the Biosphere]] is a Stanford University-based organization focusing on many issues related to global catastrophe by bringing together members of academia in the humanities.<ref>{{Cite book |last=Scott Barrett |url=https://books.google.com/books?id=_26VAwAAQBAJ&pg=PA112 |title=Environment and Development Economics: Essays in Honour of Sir Partha Dasgupta |publisher=Oxford University Press |year=2014 |isbn=9780199677856 |page=112 |access-date=June 5, 2015}}</ref><ref>{{Cite web |title=Millennium Alliance for Humanity & The Biosphere |url=http://mahb.stanford.edu/ |access-date=June 5, 2015 |website=Millennium Alliance for Humanity & The Biosphere}}</ref> It was founded by [[Paul R. Ehrlich|Paul Ehrlich]], among others.<ref>{{Cite book |last=Guruprasad Madhavan |url=https://books.google.com/books?id=BQ6bxpMr5yMC&pg=PA43 |title=Practicing Sustainability |publisher=Springer Science & Business Media |year=2012 |isbn=9781461443483 |page=43 |access-date=June 5, 2015}}</ref> Stanford University also has the [[Center for International Security and Cooperation]] focusing on political cooperation to reduce global catastrophic risk.<ref>{{Cite web |title=Center for International Security and Cooperation |url=http://cisac.stanford.edu |access-date=June 5, 2015 |publisher=Center for International Security and Cooperation}}</ref> The [[Center for Security and Emerging Technology]] was established in January 2019 at Georgetown's Walsh School of Foreign Service and will focus on policy research of emerging technologies with an initial emphasis on artificial intelligence.<ref name="CSET">{{Cite news |last=Anderson |first=Nick |date=February 28, 2019 |title=Georgetown launches think tank on security and emerging technology |newspaper=Washington Post |url=https://www.washingtonpost.com/local/education/georgetown-launches-think-tank-on-security-and-emerging-technology/2019/02/27/d6dabc62-391f-11e9-a2cd-307b06d0257b_story.html |access-date=March 12, 2019}}</ref> They received a grant of 55M USD from [[Good Ventures]] as suggested by [[Open Philanthropy]].<ref name="CSET" />


Die Millennium Alliance for Humanity and the Biosphere ist eine an der [[Stanford University]] ansässige Organisation, die sich mit vielen Fragen im Zusammenhang mit der globalen Katastrophe befasst, indem sie Mitglieder der akademischen Geisteswissenschaften zusammenbringt. <ref>{{Cite book |last=Scott Barrett |title=Environment and Development Economics: Essays in Honour of Sir Partha Dasgupta |publisher=Oxford University Press |year=2014 |page=112 |isbn=9780199677856 |url=https://books.google.com/books?id=_26VAwAAQBAJ&pg=PA112 |access-date=June 5, 2015}}</ref> Sie wurde u. a. von [[Paul Ehrlich]] gegründet.<ref>{{Cite book |last=Guruprasad Madhavan |title=Practicing Sustainability |publisher=Springer Science & Business Media |year=2012 |page=43 |isbn=9781461443483 |url=https://books.google.com/books?id=BQ6bxpMr5yMC&pg=PA43 |access-date=June 5, 2015}}</ref> An der Stanford University gibt es auch das Center for International Security and Cooperation, das sich mit der politischen Zusammenarbeit zur Verringerung des globalen Katastrophenrisikos befasst.
Other risk assessment groups are based in or are part of governmental organizations. The [[World Health Organization]] (WHO) includes a division called the Global Alert and Response (GAR) which monitors and responds to global epidemic crisis.<ref>{{Cite web |title=Global Alert and Response (GAR) |url=https://www.who.int/csr/en/ |archive-url=https://web.archive.org/web/20030216050054/http://www.who.int/csr/en/ |url-status=dead |archive-date=February 16, 2003 |access-date=June 5, 2015 |website=[[World Health Organization]]}}</ref> GAR helps member states with training and coordination of response to epidemics.<ref>{{Cite book |last=Kelley Lee |url=https://books.google.com/books?id=9zCEmpopjG0C&pg=PA92 |title=Historical Dictionary of the World Health Organization |publisher=Rowman & Littlefield |year=2013 |isbn=9780810878587 |page=92 |author-link=Kelley Lee |access-date=June 5, 2015}}</ref> The [[United States Agency for International Development]] (USAID) has its Emerging Pandemic Threats Program which aims to [[Pandemic prevention|prevent]] and contain naturally generated pandemics at their source.<ref>{{Cite web |title=USAID Emerging Pandemic Threats Program |url=http://avianflu.aed.org/eptprogram |url-status=dead |archive-url=https://web.archive.org/web/20141022095429/http://avianflu.aed.org/eptprogram/ |archive-date=October 22, 2014 |access-date=June 5, 2015 |publisher=[[USAID]]}}</ref> The [[Lawrence Livermore National Laboratory]] has a division called the Global Security Principal Directorate which researches on behalf of the government issues such as bio-security and counter-terrorism.<ref>{{Cite web |title=Global Security |url=https://www-gs.llnl.gov |access-date=June 5, 2015 |publisher=[[Lawrence Livermore National Laboratory]]}}</ref>


Das Center for Security and Emerging Technology wurde im Januar 2019 an der Georgetown's Walsh School of Foreign Service gegründet und wird sich auf die politische Forschung zu neuen Technologien konzentrieren, wobei der Schwerpunkt zunächst auf künstlicher Intelligenz liegt. Es erhielt einen Zuschuss von 55 Mio. USD von Good Ventures, wie von Open Philanthropy vorgeschlagen.<ref name="CSET2">{{Cite news |title=Georgetown launches think tank on security and emerging technology |last=Anderson |first=Nick |url=https://www.washingtonpost.com/local/education/georgetown-launches-think-tank-on-security-and-emerging-technology/2019/02/27/d6dabc62-391f-11e9-a2cd-307b06d0257b_story.html |newspaper=Washington Post |date=February 28, 2019 |access-date=March 12, 2019}}</ref>
==See also==
{{div col|colwidth=25em}}
* [[Apocalyptic and post-apocalyptic fiction]]
* [[Artificial intelligence arms race]]
* [[Cataclysmic pole shift hypothesis]]
* [[Katechon]]
* [[Community resilience]]
* [[Doomsday cult]]
* [[Eschatology]]
* [[Extreme risk]]
* [[Failed state]]
* [[Fermi paradox]]
* [[Foresight (psychology)]]
* [[Future of Earth]]
* [[Future of the Solar System]]
* [[Climate engineering|Geoengineering]]
* [[Global Risks Report]]
* [[Great Filter]]
* [[Holocene extinction]]
* [[Impact event]]
* [[List of global issues]]
* [[Nuclear proliferation]]
* [[Outside Context Problem]]
* [[Planetary boundaries]]
* [[Rare events]]
* ''[[The Sixth Extinction: An Unnatural History]]''
* [[Social degeneration]]
* [[Societal collapse]]
* [[Societal transformation]]
* [[Speculative evolution]]
* [[Suffering risks]]
* [[Survivalism]]
* [[Tail risk]]
* ''[[The Precipice: Existential Risk and the Future of Humanity]]''
* [[Timeline of the far future]]
* [[Ultimate fate of the universe]]
* [[World Scientists' Warning to Humanity]]
{{div col end}}
{{Portal bar|Society|Astronomy|Stars|Spaceflight|Outer space|Science|World}}


Andere Risikobewertungsgruppen sind in Regierungsorganisationen angesiedelt oder gehören zu diesen. Die [[Weltgesundheitsorganisation]] (WHO) verfügt über eine Abteilung namens Global Alert and Response (GAR), die globale epidemische Krisen überwacht und darauf reagiert.<ref>{{Cite web |title=Global Alert and Response (GAR) |url=https://www.who.int/csr/en/ |archive-url=https://web.archive.org/web/20030216050054/http://www.who.int/csr/en/ |archive-date=February 16, 2003 |url-status=dead |website=[[World Health Organization]] |access-date=June 5, 2015}}</ref> GAR hilft den Mitgliedsstaaten bei der Ausbildung und der Koordinierung der Reaktion auf Epidemien. Die [[United States Agency for International Development]] (USAID) hat ihr Emerging Pandemic Threats Program, das darauf abzielt, natürlich entstandene Pandemien an ihrem Ursprung zu verhindern und einzudämmen.<ref>{{Cite web |title=USAID Emerging Pandemic Threats Program |publisher=[[USAID]] |url=http://avianflu.aed.org/eptprogram |archive-url=https://web.archive.org/web/20141022095429/http://avianflu.aed.org/eptprogram/ |archive-date=October 22, 2014 |url-status=dead |access-date=June 5, 2015}}</ref> Das Lawrence Livermore National Laboratory hat eine Abteilung mit der Bezeichnung Global Security Principal Directorate, die im Auftrag der Regierung Themen wie Biosicherheit und Terrorismusbekämpfung erforscht.<ref>{{Cite web |title=Global Security |publisher=[[Lawrence Livermore National Laboratory]] |url=https://www-gs.llnl.gov |access-date=June 5, 2015}}</ref>
==References==
{{reflist|refs=
<ref name="matheny">{{Cite journal |last=Matheny |first=Jason Gaverick |date=2007 |title=Reducing the Risk of Human Extinction |journal=Risk Analysis |volume=27 |issue=5 |pages=1335–1344 |doi=10.1111/j.1539-6924.2007.00960.x |pmid=18076500 |s2cid=14265396 |url=http://users.physics.harvard.edu/~wilson/pmpmta/Mahoney_extinction.pdf}}</ref>
<ref name="wells1">{{cite book |last=Wells |first=Willard. |title=Apocalypse when? |publisher=Praxis |year=2009 |isbn=978-0387098364}}</ref>
<ref name="wells2">{{cite book |last=Wells |first=Willard. |title=Prospects for Human Survival |publisher=Lifeboat Foundation |year=2017 |isbn=978-0998413105}}</ref>
}}


==Further reading==
== Referenzen ==
<!-- shouldn't the following merge into notes?: -->
* {{Cite journal |last1=Avin |first1=Shahar |last2=Wintle |first2=Bonnie C. |last3=Weitzdörfer |first3=Julius |last4=ó Héigeartaigh |first4=Seán S. |last5=Sutherland |first5=William J. |last6=Rees |first6=Martin J. |year=2018 |title=Classifying global catastrophic risks |journal=Futures |volume=102 |pages=20–26 |doi=10.1016/j.futures.2018.02.001 |doi-access=free}}
* [[Corey S. Powell]] (2000). [http://discovermagazine.com/2000/oct/featworld "Twenty ways the world could end suddenly"], ''[[Discover Magazine]]''
* [[Derrick Jensen]] (2006) ''[[Endgame (Derrick Jensen books)|Endgame]]'' ({{ISBN|1-58322-730-X}}).
* [[Donella Meadows]] (1972). ''[[The Limits to Growth]]'' ({{ISBN|0-87663-165-0}}).
* [[Edward O. Wilson]] (2003). ''The Future of Life''. {{ISBN|0-679-76811-4}}
* {{Cite magazine | last = Holt | first = Jim | title = The Power of Catastrophic Thinking| magazine = [[The New York Review of Books]] | author-link = Jim Holt (philosopher) | volume = LXVIII | issue = 3 | date = February 25, 2021 | pages = 26–29 | url = https://www.nybooks.com/articles/2021/02/25/power-catastrophic-thinking-toby-ord-precipice/ | quote = Whether you are searching for a cure for cancer, or pursuing a scholarly or artistic career, or engaged in establishing more just institutions, a threat to the future of humanity is also a threat to the significance of what you do. | quote-page = 28}}
* Huesemann, Michael H., and Joyce A. Huesemann (2011). [http://www.newtechnologyandsociety.org/ ''Technofix: Why Technology Won't Save Us or the Environment''], Chapter 6, "Sustainability or Collapse", [[New Society Publishers]], Gabriola Island, British Columbia, Canada, 464 pages ({{ISBN|0865717044}}).
* [[Jared Diamond]], ''[[Collapse: How Societies Choose to Fail or Succeed]]'', [[Penguin Books]], 2005 and 2011 ({{ISBN|9780241958681}}).
* [[Jean-Francois Rischard]] (2003). [https://www.questia.com/library/book/ ''High Noon 20 Global Problems, 20 Years to Solve Them'']. {{ISBN|0-465-07010-8}}
* [[Joel Garreau]], ''[[Radical Evolution]]'', 2005 ({{ISBN|978-0385509657}}).
* [[John A. Leslie]] (1996). ''The End of the World'' ({{ISBN|0-415-14043-9}}).
* [[Joseph Tainter]], (1990). <!-- available online: http://monoskop.org/images/a/ab/Tainter_Joseph_The_Collapse_of_Complex_Societies.pdf -->''The Collapse of Complex Societies'', [[Cambridge University Press]], Cambridge, UK ({{ISBN|9780521386739}}).
* [[Martin Rees]] (2004). ''[[Our Final Hour|Our Final Hour: A Scientist's warning: How Terror, Error, and Environmental Disaster Threaten Humankind's Future in This Century—On Earth and Beyond]]''. {{ISBN|0-465-06863-4}}
* Roger-Maurice Bonnet and [[Lodewijk Woltjer]], ''Surviving 1,000 Centuries Can We Do It?'' (2008), Springer-Praxis Books.
* [[Toby Ord]] (2020). [https://theprecipice.com/ The Precipice - Existential Risk and the Future of Humanity]. Bloomsbury Publishing. {{ISBN|9781526600219}}

==External links==
{{Wikiquote}}
* {{Cite news |date=February 19, 2019 |title=Are we on the road to civilisation collapse? |work=[[BBC]] |url=http://www.bbc.com/future/story/20190218-are-we-on-the-road-to-civilisation-collapse}}
* {{Cite news |last=MacAskill |first=William |author-link=William MacAskill |date=August 5, 2022 |title=The Case for Longtermism |work=[[The New York Times]] |url=https://www.nytimes.com/2022/08/05/opinion/the-case-for-longtermism.html |access-date=}}
* [https://www.theguardian.com/life/feature/story/0,13026,1458536,00.html "What a way to go"] from ''[[The Guardian]]''. Ten scientists name the biggest dangers to Earth and assess the chances they will happen. April 14, 2005.
* [https://www.theguardian.com/environment/2020/feb/06/humanity-under-threat-perfect-storm-crises-study-environment Humanity under threat from perfect storm of crises – study]. ''The Guardian''. February 6, 2020.
* [https://globalchallenges.org/initiatives/analysis-research/reports/ Annual Reports on Global Risk] by the [[Global Challenges Foundation]]
* [https://longtermrisk.org Center on Long-Term Risk]
* [https://www.gcrpolicy.com/ Global Catastrophic Risk Policy]
* {{TED talk|stephen_petranek_counts_down_to_armageddon|Stephen Petranek: 10 ways the world could end}}

{{Doomsday|state=expanded}}
{{Effective altruism}}
{{Existential risk from artificial intelligence}}
{{Sustainability|state=collapsed}}
{{Authority control}}

[[Category:Existential risk| ]]
[[Category:Survivalism]]

Version vom 13. August 2023, 20:23 Uhr

Künstlerische Impression eines großen Impakt.Ein Asteroid verursachte das Aussterben der Nichtflugsaurier.[1]

Ein globales existenzielles Risiko (global catastrophic risk) oder Weltuntergangsszenario ist ein hypothetisches zukünftiges Ereignis, das das menschliche Wohlergehen in globalem Ausmaß[2] beeinträchtigen und sogar die moderne Zivilisation gefährden oder zerstören könnte.[3] Ein Ereignis, das zum Aussterben der Menschheit führen oder das Potenzial der Menschheit dauerhaft und drastisch einschränken könnte, wird als "existenzielles Risiko" bezeichnet.[4]

In den letzten zwei Jahrzehnten wurde eine Reihe von akademischen und gemeinnützigen Organisationen gegründet, die sich mit der Erforschung globaler katastrophaler und existenzieller Risiken befassen, potenzielle Abhilfemaßnahmen formulieren und diese Maßnahmen entweder befürworten oder umsetzen.[5][6][7][8]

Definition und Klassifizierung

Ausmaß-Schweregrad-Raster aus Bostroms Papier "Existential Risk Prevention as Global Priority"[9]

Definition von globalen Katastrophenrisiken

Der Begriff "globales Katastrophenrisiko" ist "nicht klar definiert" und bezieht sich im Allgemeinen (lose) auf ein Risiko, das "das menschliche Wohlergehen in globalem Ausmaß ernsthaft beeinträchtigen" könnte.[10]

Die Menschheit hat schon früher große Katastrophen erlebt. Einige davon haben schwere Schäden verursacht, waren aber nur lokal begrenzt - z. B. hat der Schwarze Tod möglicherweise den Tod von einem Drittel der europäischen Bevölkerung verursacht, was 10 % der damaligen Weltbevölkerung entsprach. Andere waren zwar global, aber nicht so schwerwiegend, z. B. tötete die Grippepandemie von 1918 schätzungsweise 3-6 % der Weltbevölkerung. Die meisten globalen Katastrophenrisiken wären nicht so gravierend, dass sie die Mehrheit des Lebens auf der Erde auslöschen würden, aber selbst wenn dies der Fall wäre, würden sich das Ökosystem und die Menschheit schließlich wieder erholen (im Gegensatz zu existenziellen Risiken).

In ähnlicher Weise werden in Catastrophe: Risk and Response (Risiko und Reaktion) stellt Richard Posner Ereignisse heraus, die einen "völligen Umsturz oder Ruin" auf globaler und nicht auf "lokaler oder regionaler" Ebene herbeiführen, und fasst sie zusammen. Posner hebt solche Ereignisse unter Kosten-Nutzen-Gesichtspunkten als besonders beachtenswert hervor, weil sie direkt oder indirekt das Überleben der Menschheit als Ganzes gefährden könnten.

Definition der existenziellen Risiken

Existenzielle Risiken werden definiert als "Risiken, die die Zerstörung des langfristigen Potenzials der Menschheit bedrohen".[11] Der Eintritt eines existenziellen Risikos (einer existenziellen Katastrophe) würde entweder das völlige Aussterben der Menschheit bewirken oder unumkehrbar zu einem drastisch schlechteren Zustand führen.[12] Existenzielle Risiken sind eine Unterkategorie globaler Katastrophenrisiken, bei denen der Schaden nicht nur global, sondern auch unheilbar und dauerhaft ist, so dass er sich nicht mehr erholen kann und somit sowohl die jetzige als auch alle künftigen Generationen betrifft.

Nicht-Aussterberisiken

Das Aussterben ist zwar die offensichtlichste Art und Weise, wie das langfristige Potenzial der Menschheit zerstört werden könnte, aber es gibt auch noch andere Möglichkeiten, darunter der unwiederbringliche Zusammenbruch und die unwiederbringliche Dystopie.[13]Eine Katastrophe, die schwerwiegend genug ist, um den dauerhaften, irreversiblen Zusammenbruch der menschlichen Zivilisation zu verursachen, wäre eine existenzielle Katastrophe, auch wenn sie nicht zum Aussterben führt.[14] In ähnlicher Weise wäre eine solche Dystopie eine existenzielle Katastrophe, wenn die Menschheit unter ein totalitäres Regime fiele und es keine Chance auf Besserung gäbe. Bryan Caplan schreibt, dass "vielleicht eine Ewigkeit des Totalitarismus schlimmer wäre als das Aussterben".[15] (George Orwells Roman 1984 schlägt ein Beispiel vor.) Ein dystopisches Szenario weist die gleichen Hauptmerkmale auf wie die Auslöschung und der unwiederbringliche Zusammenbruch der Zivilisation - vor der Katastrophe hatte die Menschheit eine große Auswahl an Zukunftsperspektiven, aus denen sie wählen konnte; nach der Katastrophe ist die Menschheit für immer in einem schrecklichen Zustand gefangen.[16]

Mögliche Risikoquellen

Potenzielle globale Katastrophenrisiken werden üblicherweise als anthropogene oder nicht-anthropogene Gefahren eingestuft. Beispiele für nicht-anthropogene Risiken sind ein Asteroiden- oder Kometeneinschlag, ein Supervulkanausbruch, eine natürliche Pandemie, ein tödlicher Gammastrahlenausbruch, ein geomagnetischer Sturm infolge eines koronalen Massenauswurfs, der elektronische Geräte zerstört, ein natürlicher langfristiger Klimawandel, feindliches außerirdisches Leben oder die Umwandlung der Sonne in einen roten Riesenstern, der die Erde in Milliarden von Jahren verschlingt.

Einteilung der globalen Katastrophenrisiken in drei Gruppen, je nachdem, ob sie größtenteils vom Menschen verursacht werden, ob der Mensch die Natur beeinflusst oder ob es sich um rein natürliche Risiken handelt

Anthropogene Risiken sind vom Menschen verursachte Risiken, die mit der Technologie, der Regierungsführung und dem Klimawandel zusammenhängen. Zu den technologischen Risiken gehören die Schaffung künstlicher Intelligenz, die nicht mit den Zielen der Menschheit übereinstimmt, sowie Bio- und Nanotechnologie. Eine unzureichende oder bösartige globale Governance schafft Risiken im sozialen und politischen Bereich, wie z. B. einen globalen Krieg und einen nuklearen Holocaust, biologische Kriegsführung und Bioterrorismus mit Hilfe genetisch veränderter Organismen, Cyberkriegsführung und Cyberterrorismus, die kritische Infrastrukturen wie das Stromnetz zerstören, oder radiologische Kriegsführung mit Waffen wie großen Kobaltbomben. Zu den globalen Katastrophenrisiken im Bereich der Steuerung des Erdsystems gehören die globale Erwärmung, die Umweltzerstörung, das Aussterben von Arten, Hungersnöte infolge ungleicher Ressourcenverteilung, Überbevölkerung, Missernten und eine nicht nachhaltige Landwirtschaft.

Methodische Herausforderungen

Die Erforschung des Wesens und der Abschwächung globaler Katastrophenrisiken und existenzieller Risiken unterliegt einer Reihe einzigartiger Herausforderungen und kann daher nicht ohne weiteres den üblichen Standards wissenschaftlicher Strenge unterworfen werden.[17] So ist es beispielsweise weder machbar noch ethisch vertretbar, diese Risiken experimentell zu untersuchen. Carl Sagan hat dies in Bezug auf den Atomkrieg zum Ausdruck gebracht: "Die langfristigen Folgen eines Atomkriegs zu verstehen, ist kein Problem, das sich experimentell überprüfen lässt".[18] Darüber hinaus ändern sich viele Katastrophenrisiken schnell, wenn sich die Technologie weiterentwickelt und sich die Rahmenbedingungen, z. B. die geopolitischen Verhältnisse, ändern. Eine weitere Herausforderung ist die allgemeine Schwierigkeit, die Zukunft über lange Zeiträume genau vorherzusagen, insbesondere bei anthropogenen Risiken, die von komplexen politischen, wirtschaftlichen und sozialen Systemen des Menschen abhängen.[19] Zusätzlich zu den bekannten und greifbaren Risiken können unvorhersehbare Aussterbeereignisse durch einen sogenannten schwarzem Schwan auftreten, was ein zusätzliches methodisches Problem darstellt.[20]

Fehlender historischer Präzedenzfall

Die Menschheit hat noch nie eine existenzielle Katastrophe erlebt, und wenn eine solche eintreten sollte, wäre sie zwangsläufig beispiellos. Daher stellen existenzielle Risiken aufgrund der Selektionswirkung der Beobachtung eine besondere Herausforderung für die Vorhersage dar, mehr noch als andere langfristige Ereignisse. Anders als bei den meisten Ereignissen ist das Ausbleiben eines vollständigen Aussterbeereignisses in der Vergangenheit kein Beweis gegen die Wahrscheinlichkeit eines solchen Ereignisses in der Zukunft, da es in jeder Welt, die ein solches Aussterbeereignis erlebt hat, keine Beobachter gibt, so dass unabhängig von ihrer Häufigkeit keine Zivilisation in ihrer Geschichte existenzielle Risiken beobachtet hat. Diese anthropischen Probleme lassen sich zum Teil dadurch vermeiden, dass man Beweise betrachtet, die keine derartigen Selektionseffekte haben, wie z. B. Asteroideneinschlagskrater auf dem Mond, oder indem man die wahrscheinlichen Auswirkungen neuer Technologien direkt bewertet.

Um die Dynamik eines noch nie dagewesenen, nicht wieder gutzumachenden globalen Zusammenbruchs der Zivilisation (eine Art existenzielles Risiko) zu verstehen, kann es lehrreich sein, die verschiedenen lokalen Zusammenbrüche von Zivilisationen zu studieren, die im Laufe der menschlichen Geschichte stattgefunden haben. So endeten beispielsweise Zivilisationen wie das Römische Reich mit dem Verlust der zentralisierten Regierungsgewalt und einem großen zivilisationsweiten Verlust an Infrastruktur und fortschrittlicher Technologie. Diese Beispiele zeigen jedoch, dass Gesellschaften gegenüber Katastrophen recht widerstandsfähig zu sein scheinen. So überlebte das mittelalterliche Europa den Schwarzen Tod, ohne dass es zu einem zivilisatorischen Zusammenbruch kam, obwohl es 25 bis 50 Prozent seiner Bevölkerung verlor.

Anreize und Koordinierung

Es gibt wirtschaftliche Gründe, die erklären können, warum so wenig Anstrengungen zur Verringerung existenzieller Risiken unternommen werden. Da es sich um ein globales öffentliches Gut handelt, sollten wir davon ausgehen, dass es auf den Märkten unterversorgt ist. Selbst wenn eine große Nation in Maßnahmen zur Risikominderung investiert, wird diese Nation nur einen kleinen Teil des Nutzens daraus ziehen. Darüber hinaus ist die Verringerung existenzieller Risiken ein globales öffentliches Gut zwischen den Generationen, da der größte Teil des Nutzens aus der Verringerung existenzieller Risiken künftigen Generationen zugute käme, und obwohl diese künftigen Menschen theoretisch vielleicht bereit wären, erhebliche Summen für die Verringerung existenzieller Risiken zu zahlen, gibt es keinen Mechanismus für eine solche Transaktion.

Kognitive Verzerrungen

Zahlreiche kognitive Verzerrungen können die Beurteilung der Bedeutung existenzieller Risiken beeinflussen, wie z. B. die Unempfindlichkeit gegenüber dem Umfang, die hyperbolische Diskontierung, die Verfügbarkeitsheuristik, der Konjunktionstrugschluss, die Affektheuristik und der Overconfidence-Effekt.

Die mangelnde Sensibilität für das Ausmaß des Problems beeinflusst, wie schlimm die Menschen das Aussterben der menschlichen Rasse einschätzen. Wenn Menschen beispielsweise motiviert sind, Geld für altruistische Zwecke zu spenden, steigt die Menge, die sie bereit sind zu geben, nicht linear mit dem Ausmaß des Problems: Die Menschen sind ungefähr genauso bereit, den Tod von 200.000 oder 2.000 Vögeln zu verhindern.[21] In ähnlicher Weise sind die Menschen oft mehr über die Bedrohung von Einzelpersonen besorgt als über die von größeren Gruppen.[22]

Eliezer Yudkowsky stellt die Theorie auf, dass die Vernachlässigung von Handlungsspielräumen bei der öffentlichen Wahrnehmung existenzieller Risiken eine Rolle spielt:[23]

Wesentlich größere Zahlen, wie 500 Millionen Tote, und vor allem qualitativ andere Szenarien, wie das Aussterben der gesamten menschlichen Spezies, scheinen eine andere Denkweise auszulösen... Menschen, die nicht im Traum daran denken würden, ein Kind zu verletzen, hören von der existenziellen Gefahr und sagen: "Nun, vielleicht verdient die menschliche Spezies nicht wirklich zu überleben".

Alle bisherigen Vorhersagen über das Aussterben der Menschheit haben sich als falsch erwiesen. Für einige lässt dies zukünftige Warnungen weniger glaubwürdig erscheinen. Nick Bostrom argumentiert, dass das Ausbleiben des menschlichen Aussterbens in der Vergangenheit ein schwacher Beweis dafür ist, dass es in der Zukunft kein menschliches Aussterben geben wird, und zwar aufgrund des Survivor Bias und anderer anthropischer Effekte.[24]

Der Soziobiologe E. O. Wilson argumentierte, dass: "Der Grund für diesen kurzsichtigen Nebel liegt nach Ansicht der Evolutionsbiologen darin, dass er bis auf die letzten paar Jahrtausende der zwei Millionen Jahre, die die Gattung Homo existiert, tatsächlich von Vorteil war... Es wurde viel Wert auf die nahe Zukunft und die frühe Fortpflanzung gelegt und wenig auf andere Dinge. Katastrophen von einem Ausmaß, wie sie nur alle paar Jahrhunderte vorkommen, wurden vergessen oder in einen Mythos verwandelt."[25]

Vorgeschlagene Entschärfung

Mehrschichtige Verteidigung

Defense in depth ist ein nützlicher Rahmen für die Kategorisierung von Maßnahmen zur Risikominderung in drei Verteidigungsebenen:

  1. Prävention: Verringerung der Wahrscheinlichkeit, dass eine Katastrophe überhaupt erst eintritt. Beispiel: Maßnahmen zur Verhinderung des Ausbruchs neuer hoch ansteckender Krankheiten.
  2. Reaktion: Verhinderung der Ausweitung einer Katastrophe auf die globale Ebene. Beispiel: Maßnahmen zur Verhinderung der Eskalation eines kleinen nuklearen Konflikts zu einem umfassenden Atomkrieg.
  3. Widerstandsfähigkeit: Erhöhung der Widerstandsfähigkeit der Menschheit (gegen das Aussterben) angesichts globaler Katastrophen. Beispiel: Maßnahmen zur Erhöhung der Ernährungssicherheit während eines nuklearen Winters.

Das Aussterben der Menschheit ist am wahrscheinlichsten, wenn alle drei Schutzmechanismen schwach sind, d. h. "wenn wir Risiken nicht verhindern können, nicht erfolgreich darauf reagieren können und nicht widerstandsfähig dagegen sind".[26]

Der beispiellose Charakter existenzieller Risiken stellt eine besondere Herausforderung für die Entwicklung von Maßnahmen zur Risikominderung dar, da die Menschheit nicht aus früheren Ereignissen lernen kann.[27]

Finanzierung

Einige Forscher argumentieren, dass sowohl die Forschung als auch andere Initiativen im Zusammenhang mit existenziellen Risiken unterfinanziert sind. Nick Bostrom stellt fest, dass mehr Forschung über Star Trek, Snowboarding oder Mistkäfer betrieben wurde als über existenzielle Risiken. Bostroms Vergleiche wurden als "selbstherrlich" kritisiert[28]. Im Jahr 2020 verfügte die Organisation des Biowaffenübereinkommens über ein Jahresbudget von 1,4 Millionen US-Dollar.[29]

Überlebensplanung

Einige Wissenschaftler schlagen vor, auf der Erde eine oder mehrere autarke, abgelegene und dauerhaft bewohnte Siedlungen zu errichten, die speziell für das Überleben einer globalen Katastrophe geschaffen werden. Der Wirtschaftswissenschaftler Robin Hanson vertritt die Auffassung, dass ein Zufluchtsort, der dauerhaft nur 100 Menschen beherbergt, die Überlebenschancen der Menschen bei einer Reihe von globalen Katastrophen erheblich verbessern würde.[30]

Die Lagerung von Lebensmitteln ist weltweit vorgeschlagen worden, aber die Kosten wären hoch. Außerdem würde sie wahrscheinlich zu den Millionen von Todesfällen pro Jahr aufgrund von Unterernährung beitragen. Im Jahr 2022 hat ein Team unter der Leitung von David Denkenberger die Kosteneffizienz von widerstandsfähigen Lebensmitteln mit der Sicherheit von künstlicher allgemeiner Intelligenz (AGI) verglichen und festgestellt, dass die Arbeit an widerstandsfähigen Lebensmitteln mit einer Wahrscheinlichkeit von 98-99 % eine höhere marginale Wirkung hat. [31]Einige Überlebenskünstler legen sich einen Vorrat an Lebensmitteln für mehrere Jahre an.

Der Svalbard Global Seed Vault ist 120 m tief in einem Berg auf einer Insel in der Arktis vergraben. Er soll 2,5 Milliarden Samen aus mehr als 100 Ländern aufnehmen, um die Ernten der Welt zu schützen. Das umgebende Gestein hat eine Temperatur von -6 °C (Stand 2015), aber der Tresor wird mit Hilfe von Kühlschränken, die mit lokal gewonnener Kohle betrieben werden, auf -18 °C gehalten.[32]

Wenn die Gesellschaft weiterhin funktioniert und die Biosphäre bewohnbar bleibt, könnte der Kalorienbedarf der derzeitigen menschlichen Bevölkerung theoretisch auch während einer längeren Abwesenheit von Sonnenlicht gedeckt werden, vorausgesetzt, man plant ausreichend voraus. Zu den vermuteten Lösungen gehören die Züchtung von Pilzen auf der toten Pflanzenbiomasse, die nach der Katastrophe zurückbleibt, die Umwandlung von Zellulose in Zucker oder die Verfütterung von Erdgas an Methan-verdauende Bakterien.[33]

Globale katastrophale Risiken und globale Governance

Eine unzureichende globale Governance schafft Risiken im sozialen und politischen Bereich, aber die Governance-Mechanismen entwickeln sich langsamer als der technologische und soziale Wandel. Regierungen, der Privatsektor und die breite Öffentlichkeit sind besorgt über das Fehlen von Governance-Mechanismen, die einen effizienten Umgang mit Risiken sowie Verhandlungen und Rechtsprechung zwischen unterschiedlichen und widersprüchlichen Interessen ermöglichen. Dies wird durch das Verständnis der Verflechtung globaler Systemrisiken noch unterstrichen.[34] In Ermangelung oder in Erwartung einer globalen Governance können die nationalen Regierungen individuell handeln, um globale Katastrophen besser zu verstehen, abzumildern und sich darauf vorzubereiten.[35]

Klima-Notfallpläne

2018 rief der Club of Rome zu mehr Klimaschutz auf und veröffentlichte seinen Klima-Notfallplan, der zehn Aktionspunkte zur Begrenzung des Anstiegs der globalen Durchschnittstemperatur auf 1,5 Grad Celsius vorschlägt[36]. Außerdem veröffentlichte der Club 2019 den umfassenderen Planetary Emergency Plan.[37]

Es gibt Anhaltspunkte dafür, dass die kollektive Auseinandersetzung mit den emotionalen Erfahrungen, die bei der Betrachtung der Anfälligkeit der menschlichen Spezies im Kontext des Klimawandels auftreten, eine Anpassung an diese Erfahrungen ermöglicht. Wenn die kollektive Auseinandersetzung mit emotionalen Erfahrungen und deren Verarbeitung förderlich ist, kann dies zu einem Wachstum der Widerstandsfähigkeit, der psychologischen Flexibilität, der Toleranz gegenüber emotionalen Erfahrungen und des gemeinschaftlichen Engagements führen.[38]

Kolonisierung des Weltraums

Die Besiedlung des Weltraums ist eine vorgeschlagene Alternative, um die Chancen zu verbessern, ein Aussterbeszenario zu überleben. [39] Lösungen dieses Ausmaßes könnten eine Technik im Megamaßstab erfordern.

Der Astrophysiker Stephen Hawking sprach sich dafür aus, andere Planeten innerhalb des Sonnensystems zu kolonisieren, sobald die Technologie weit genug fortgeschritten ist, um die Überlebenschancen der Menschheit bei planetenweiten Ereignissen wie einem globalen thermonuklearen Krieg zu verbessern.[40]

Der Milliardär Elon Musk schreibt, dass die Menschheit zu einer multiplanetaren Spezies werden muss, um nicht auszusterben.[41] Mit seinem Unternehmen SpaceX entwickelt Musk eine Technologie, die er für die Besiedlung des Mars einsetzen will.

Verschiebung der Erde

In einigen Milliarden Jahren wird sich die Sonne zu einem Roten Riesen ausdehnen und die Erde verschlucken. Dies kann vermieden werden, indem die Erde weiter von der Sonne entfernt wird, so dass die Temperatur in etwa konstant bleibt. Dies kann erreicht werden, indem man die Bahnen von Kometen und Asteroiden so verändert, dass sie nahe an der Erde vorbeiziehen, so dass sie der Erdbahn Energie zuführen. [42] Da sich die Sonne nur langsam ausdehnt, würde etwa eine solche Begegnung alle 6.000 Jahre ausreichen.

Zweifler und Gegner

Der Psychologe Steven Pinker hat das existenzielle Risiko als "nutzlose Kategorie" bezeichnet, die von realen Bedrohungen wie dem Klimawandel und dem Atomkrieg ablenken kann.[43]

Organisationen

Das Bulletin of the Atomic Scientists (gegründet 1945) ist eine der ältesten globalen Risikoorganisationen und wurde gegründet, nachdem die Öffentlichkeit nach dem Zweiten Weltkrieg durch die Möglichkeit eines Atomkriegs alarmiert wurde. Sie untersucht Risiken im Zusammenhang mit Atomkrieg und Kernenergie und ist bekannt für die 1947 eingeführte Weltuntergangsuhr. Das Foresight Institute (gegründet 1986) untersucht die Risiken der Nanotechnologie und deren Nutzen. Es war eine der ersten Organisationen, die sich mit den unbeabsichtigten Folgen einer ansonsten harmlosen Technologie beschäftigte, die auf globaler Ebene aus dem Ruder läuft. Gegründet wurde es von K. Eric Drexler, der "graue Schmiere" postulierte.[44]

Nach dem Jahr 2000 gründete eine wachsende Zahl von Wissenschaftlern, Philosophen und Tech-Milliardären Organisationen, die sich mit der Erforschung globaler Risiken sowohl innerhalb als auch außerhalb der akademischen Welt beschäftigen.[45]

Zu den unabhängigen Nichtregierungsorganisationen (NGOs) gehört das Machine Intelligence Research Institute (gegründet 2000), das sich zum Ziel gesetzt hat, das Risiko einer durch künstliche Intelligenz verursachten Katastrophe zu verringern; zu den Spendern gehören Peter Thiel und Jed McCaleb.[46]

Die Nuclear Threat Initiative (gegründet 2001) versucht, die globale Bedrohung durch nukleare, biologische und chemische Bedrohungen zu verringern und die Schäden nach einem Ereignis einzudämmen[47]. Sie unterhält einen Index für die Sicherheit von Kernmaterial.[48]

Die Lifeboat Foundation (gegründet 2009) finanziert Forschungsarbeiten zur Verhinderung einer technologischen Katastrophe. Der Großteil der Forschungsgelder fließt in Projekte an Universitäten.[49]

Das Global Catastrophic Risk Institute (seit 2011) ist eine gemeinnützige, überparteiliche Denkfabrik mit Sitz in den USA, die von Seth Baum und Tony Barrett gegründet wurde. Das GCRI betreibt Forschungs- und Politikarbeit zu verschiedenen Risiken, darunter künstliche Intelligenz, Atomkrieg, Klimawandel und Asteroideneinschläge. Die Global Challenges Foundation (gegründet 2012) mit Sitz in Stockholm, gegründet von Laszlo Szombatfalvy, veröffentlicht jährlich einen Bericht über den Stand der globalen Risiken. Das Future of Life Institute (gegründet 2014) setzt sich für die Verringerung extremer, weitreichender Risiken durch transformative Technologien ein und steuert die Entwicklung und den Einsatz dieser Technologien zum Nutzen aller Lebewesen durch die Vergabe von Zuschüssen, politische Lobbyarbeit in den Vereinigten Staaten, der Europäischen Union und den Vereinten Nationen sowie durch Bildungsarbeit.

Elon Musk, Vitalik Buterin und Jaan Tallinn sind einige der größten Spender. Das Center on Long-Term Risk (gegründet 2016), früher bekannt als Foundational Research Institute, ist eine britische Organisation, die sich auf die Verringerung der Risiken astronomischen Leids (S-Risiken) durch neue Technologien konzentriert.[50]

Zu den universitären Organisationen gehört das Future of Humanity Institute (gegründet 2005), das sich mit Fragen der langfristigen Zukunft der Menschheit und insbesondere mit existenziellen Risiken befasst.[51] Es wurde von Nick Bostrom gegründet und hat seinen Sitz an der Universität Oxford. [52]

Das Centre for the Study of Existential Risk (gegründet 2012) ist eine Organisation mit Sitz an der Universität Cambridge, die vier große technologische Risiken untersucht: künstliche Intelligenz, Biotechnologie, globale Erwärmung und Kriegsführung.[53] Alle sind vom Menschen verursachte Risiken, wie Huw Price gegenüber der Nachrichtenagentur AFP erklärte: "Es scheint eine vernünftige Vorhersage zu sein, dass irgendwann in diesem oder im nächsten Jahrhundert die Intelligenz den Zwängen der Biologie entkommen wird". Er fügte hinzu, dass wir dann "nicht mehr die Klügsten sind" und Gefahr laufen, der Gnade von "Maschinen ausgeliefert zu sein, die nicht böswillig sind, sondern Maschinen, deren Interessen uns nicht einschließen".[54] Stephen Hawking war als Berater tätig.

Die Millennium Alliance for Humanity and the Biosphere ist eine an der Stanford University ansässige Organisation, die sich mit vielen Fragen im Zusammenhang mit der globalen Katastrophe befasst, indem sie Mitglieder der akademischen Geisteswissenschaften zusammenbringt. [55] Sie wurde u. a. von Paul Ehrlich gegründet.[56] An der Stanford University gibt es auch das Center for International Security and Cooperation, das sich mit der politischen Zusammenarbeit zur Verringerung des globalen Katastrophenrisikos befasst.

Das Center for Security and Emerging Technology wurde im Januar 2019 an der Georgetown's Walsh School of Foreign Service gegründet und wird sich auf die politische Forschung zu neuen Technologien konzentrieren, wobei der Schwerpunkt zunächst auf künstlicher Intelligenz liegt. Es erhielt einen Zuschuss von 55 Mio. USD von Good Ventures, wie von Open Philanthropy vorgeschlagen.[57]

Andere Risikobewertungsgruppen sind in Regierungsorganisationen angesiedelt oder gehören zu diesen. Die Weltgesundheitsorganisation (WHO) verfügt über eine Abteilung namens Global Alert and Response (GAR), die globale epidemische Krisen überwacht und darauf reagiert.[58] GAR hilft den Mitgliedsstaaten bei der Ausbildung und der Koordinierung der Reaktion auf Epidemien. Die United States Agency for International Development (USAID) hat ihr Emerging Pandemic Threats Program, das darauf abzielt, natürlich entstandene Pandemien an ihrem Ursprung zu verhindern und einzudämmen.[59] Das Lawrence Livermore National Laboratory hat eine Abteilung mit der Bezeichnung Global Security Principal Directorate, die im Auftrag der Regierung Themen wie Biosicherheit und Terrorismusbekämpfung erforscht.[60]

Referenzen

  1. P. Schulte, L. Alegret, I. Arenillas, J. A. Arz, P. J. Barton, P. R. Bown, T. J. Bralower, G. L. Christeson, P. Claeys, C. S. Cockell, G. S. Collins, A. Deutsch, T. J. Goldin, K. Goto, J. M. Grajales-Nishimura, R. A. F. Grieve, S. P. S. Gulick, K. R. Johnson, W. Kiessling, C. Koeberl, D. A. Kring, K. G. MacLeod, T. Matsui, J. Melosh, A. Montanari, J. V. Morgan, C. R. Neal, D. J. Nichols, R. D. Norris, E. Pierazzo: The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary. In: Science. 327. Jahrgang, Nr. 5970, 5. März 2010, S. 1214–1218, doi:10.1126/science.1177265, PMID 20203042, bibcode:2010Sci...327.1214S (rero.ch [PDF]).
  2. Nick Bostrom: Global Catastrophic Risks. Oxford University Press, 2008, S. 1 (global-catastrophic-risks.com [PDF]).
  3. Ripple WJ, Wolf C, Newsome TM, Galetti M, Alamgir M, Crist E, Mahmoud MI, Laurance WF: World Scientists' Warning to Humanity: A Second Notice. In: BioScience. 67. Jahrgang, Nr. 12, 13. November 2017, S. 1026–1028, doi:10.1093/biosci/bix125.
  4. Nick Bostrom: Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards. In: Journal of Evolution and Technology. 9. Jahrgang, März 2002 (nickbostrom.com).
  5. About FHI. In: Future of Humanity Institute. Abgerufen am 12. August 2021.
  6. About FHI. In: Future of Humanity Institute. Abgerufen am 12. August 2021.
  7. About us. In: Centre for the Study of Existential Risk. Abgerufen am 12. August 2021.
  8. The Future of Life Institute. In: Future of Life Institute. Abgerufen am 5. Mai 2014.
  9. Nick Bostrom: Existential Risk Prevention as Global Priority. In: Global Policy. 4. Jahrgang, Nr. 1, 2013, S. 15–3, doi:10.1111/1758-5899.12002 (existential-risk.org [PDF]).
  10. Nick Bostrom, Milan Cirkovic: Global Catastrophic Risks. Oxford University Press, Oxford 2008, ISBN 978-0-19-857050-9, S. 1.
  11. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6: „This is an equivalent, though crisper statement of Nick Bostrom's definition: "An existential risk is one that threatens the premature extinction of Earth-originating intelligent life or the permanent and drastic destruction of its potential for desirable future development." Source: Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority". Global Policy. 4:15-31.“
  12. Nick Bostrom: Existential Risk Prevention as Global Priority. In: Global Policy. 4. Jahrgang, Nr. 1, 2013, S. 15–3, doi:10.1111/1758-5899.12002 (existential-risk.org [PDF]).
  13. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6.
  14. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6.
  15. Bryan Caplan (2008). "The totalitarian threat". Global Catastrophic Risks, eds. Bostrom & Cirkovic (Oxford University Press): 504–519. Vorlage:ISBN
  16. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6.
  17. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6.
  18. Vorlage:Cite magazine
  19. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6.
  20. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6.
  21. Desvousges, W.H., Johnson, F.R., Dunford, R.W., Boyle, K.J., Hudson, S.P., and Wilson, N. 1993, Measuring natural resource damages with contingent valuation: tests of validity and reliability. In Hausman, J.A. (ed), Contingent Valuation:A Critical Assessment, pp. 91–159 (Amsterdam: North Holland).
  22. Eliezer Yudkowsky: Cognitive Biases Potentially Affecting Judgment of Global Risks. In: Global Catastrophic Risks. 2008, S. 91–119, bibcode:2008gcr..book...86Y (intelligence.org [PDF]).
  23. Yudkowsky, Eliezer. "Cognitive biases potentially affecting judgment of global risks". Global catastrophic risks 1 (2008): 86. p.114
  24. We're Underestimating the Risk of Human Extinction. The Atlantic, 6. März 2012, abgerufen am 1. Juli 2016.
  25. Is Humanity Suicidal? The New York Times Magazine May 30, 1993)
  26. Owen Cotton-Barratt, Max Daniel, Anders Sandberg: Defence in Depth Against Human Extinction: Prevention, Response, Resilience, and Why They All Matter. In: Global Policy. 11. Jahrgang, Nr. 3, 2020, ISSN 1758-5899, S. 271–282, doi:10.1111/1758-5899.12786, PMID 32427180, PMC 7228299 (freier Volltext).
  27. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6.
  28. Kai Kupferschmidt: Could science destroy the world? These scholars want to save us from a modern-day Frankenstein In: Science, AAAS, January 11, 2018. Abgerufen im April 20, 2020 
  29. Toby Ord: The precipice: Existential risk and the future of humanity. 2020, ISBN 978-0-316-48489-3: „The international body responsible for the continued prohibition of bioweapons (the Biological Weapons Convention) has an annual budget of $1.4 million - less than the average McDonald's restaurant“
  30. Hanson, Robin. "Catastrophe, social collapse, and human extinction". Global catastrophic risks 1 (2008): 357.
  31. David C. Denkenberger, Anders Sandberg, Ross John Tieman, Joshua M. Pearce: Long term cost-effectiveness of resilient foods for global catastrophes compared to artificial general intelligence safety. In: International Journal of Disaster Risk Reduction. 73. Jahrgang, 2022, S. 102798, doi:10.1016/j.ijdrr.2022.102798, bibcode:2022IJDRR..7302798D (sciencedirect.com).
  32. Suzanne Goldenberg: The doomsday vault: the seeds that could save a post-apocalyptic world. In: The Guardian. 20. Mai 2015, abgerufen am 30. Juni 2017.
  33. David C. Denkenberger, Joshua M. Pearce: Feeding everyone: Solving the food crisis in event of global catastrophes that kill crops or obscure the sun. In: Futures. 72. Jahrgang, September 2015, S. 57–68, doi:10.1016/j.futures.2014.11.008 (archives-ouvertes.fr [PDF]).
  34. Global Challenges Foundation | Understanding Global Systemic Risk. In: globalchallenges.org. Archiviert vom Original am 16. August 2017; abgerufen am 15. August 2017.
  35. Global Catastrophic Risk Policy. In: gcrpolicy.com. Abgerufen am 11. August 2019.
  36. Club of Rome: The Climate Emergency Plan. 2018, abgerufen am 17. August 2020.
  37. Club of Rome: The Planetary Emergency Plan. 2019, abgerufen am 17. August 2020.
  38. J. Kieft, J Bendell: The responsibility of communicating difficult truths about climate influenced societal disruption and collapse: an introduction to psychological research. In: Institute for Leadership and Sustainability (IFLAS) Occasional Papers. 7. Jahrgang, 2021, S. 1–39 (cumbria.ac.uk).
  39. Vorlage:Citation
  40. David Shukman: Hawking: Humans at risk of lethal 'own goal' In: BBC News, January 19, 2016. Abgerufen im July 1, 2016 
  41. Leah Ginsberg: Elon Musk thinks life on earth will go extinct, and is putting most of his fortune toward colonizing Mars. In: CNBC. 16. Juni 2017;.
  42. Donald G. Korycansky, Gregory Laughlin, Fred C. Adams: Astronomical engineering: a strategy for modifying planetary orbits. In: Astrophysics and Space Science. 275. Jahrgang, Nr. 4, 2001, S. 349–366, doi:10.1023/A:1002790227314, arxiv:astro-ph/0102126, bibcode:2001Ap&SS.275..349K.
  43. Kai Kupferschmidt: Could science destroy the world? These scholars want to save us from a modern-day Frankenstein In: Science, AAAS, January 11, 2018. Abgerufen im April 20, 2020 
  44. Jim Giles: Nanotech takes small step towards burying 'grey goo'. In: Nature. 429. Jahrgang, Nr. 6992, 2004, S. 591, doi:10.1038/429591b, PMID 15190320, bibcode:2004Natur.429..591G.
  45. Sophie McBain: Apocalypse soon: the scientists preparing for the end times. In: New Statesman. 25. September 2014, abgerufen am 5. Juni 2015.
  46. Angela Chen: Is Artificial Intelligence a Threat? In: The Chronicle of Higher Education. 11. September 2014 (chronicle.com [abgerufen am 5. Juni 2015]).
  47. Nuclear Threat Initiative. In: Nuclear Threat Initiative. Abgerufen am 5. Juni 2015.
  48. About the Lifeboat Foundation. The Lifeboat Foundation, abgerufen am 26. April 2013.
  49. Vance Ashlee: The Lifeboat Foundation: Battling Asteroids, Nanobots and A.I. In: New York Times. 20. Juli 2010, abgerufen am 5. Juni 2015.
  50. About Us. Center on Long-Term Risk, abgerufen am 17. Mai 2020: „We currently focus on efforts to reduce the worst risks of astronomical suffering (s-risks) from emerging technologies, with a focus on transformative artificial intelligence.“
  51. About FHI. In: Future of Humanity Institute. Abgerufen am 12. August 2021.
  52. About FHI. In: Future of Humanity Institute. Abgerufen am 12. August 2021.
  53. About us. In: Centre for the Study of Existential Risk. Abgerufen am 12. August 2021.
  54. Sylvia Hui: Cambridge to study technology's risks to humans. Associated Press, 25. November 2012, archiviert vom Original am 1. Dezember 2012; abgerufen am 30. Januar 2012.
  55. Scott Barrett: Environment and Development Economics: Essays in Honour of Sir Partha Dasgupta. Oxford University Press, 2014, ISBN 978-0-19-967785-6, S. 112 (google.com [abgerufen am 5. Juni 2015]).
  56. Guruprasad Madhavan: Practicing Sustainability. Springer Science & Business Media, 2012, ISBN 978-1-4614-4348-3, S. 43 (google.com [abgerufen am 5. Juni 2015]).
  57. Nick Anderson: Georgetown launches think tank on security and emerging technology In: Washington Post, February 28, 2019. Abgerufen im March 12, 2019 
  58. Global Alert and Response (GAR). In: World Health Organization. Archiviert vom Original am 16. Februar 2003; abgerufen am 5. Juni 2015.
  59. USAID Emerging Pandemic Threats Program. USAID, archiviert vom Original am 22. Oktober 2014; abgerufen am 5. Juni 2015.
  60. Global Security. Lawrence Livermore National Laboratory, abgerufen am 5. Juni 2015.