Eliezer Yudkowsky

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Eliezer Yudkowsky (2006)

Eliezer Shlomo Yudkowsky (* 11. September 1979) ist ein aus den Vereinigten Staaten stammender Forscher im Bereich der Künstlichen Intelligenz. Er beschäftigt sich mit der technologischen Singularität und ist ein Befürworter von „Freundlicher Künstlicher Intelligenz“ (engl.: friendly artificial intelligence, FAI).[1] Er lebt in Redwood City, Kalifornien.[2]

Leben[Bearbeiten]

Yudkowsky beendete seine Schulausbildung, als er 12 Jahre alt war. Er ist seither Autodidakt und hat keine formale Ausbildung im Bereich der Künstlichen Intelligenz.[3] Er gründete im Jahr 2000 zusammen mit Brian und Sabine Atkins die Non-Profit-Organisation Singularity Institute for Artificial Intelligence (SIAI), welche ab Ende Januar 2013 Machine Intelligence Research Institute (MIRI) heißt.[4] Er ist dort weiterhin als Forscher angestellt.[5]

Werk[Bearbeiten]

Yudkowsky versucht in seiner Forschung eine Theorie zu entwickeln, die es ermöglicht eine Künstliche Intelligenz mit reflexivem Selbstverständnis zu erschaffen, welche zudem in der Lage ist sich selbst zu modifizieren und rekursiv zu verbessern ohne dabei ihre ursprüngliche Präferenzen, insbesondere Moral und Ethik, zu verändern (siehe Seed AI, Friendly AI, und insbesondere Coherent Extrapolated Volition).[6] Der von ihm verwendete Begriff "Friendly AI" beschreibt eine künstliche Intelligenz, die menschliche Werte vertritt und keine negativen Auswirkungen oder gar eine Vernichtung der Menschheit mit sich zieht. Neben seiner theoretischen Forschung hat Yudkowsky außerdem einige Einführungen in philosophische Themen geschrieben, wie zum Beispiel den Text „An Intuitive Explanation of Bayes' Theorem“ (deutsch „Eine intuitive Erklärung der Bayes-Formel“).

OvercomingBias und LessWrong[Bearbeiten]

Yudkowsky war, neben Robin Hanson, einer der wichtigsten Mitwirkenden beim Blog OvercomingBias, welcher vom Future of Humanity Institute der Universität Oxford gesponsert wurde. Im Frühjahr 2009 half er den Community-Blog LessWrong zu gründen, welcher sich zum Ziel setzt die menschliche Rationalität zu erhöhen.[7] Yudkowsky schrieb auch die sogenannten „Sequences“ auf „Lesswrong“, welche aus mehr als 600 Blog-Posts bestehen und Themen wie Erkenntnistheorie, Künstliche Intelligenz, Fehler der menschlichen Rationalität und Metaethik behandeln.

Weitere Publikationen[Bearbeiten]

Er trug zwei Kapitel zu dem von Nick Bostrom und Milan Cirkovic editierten Sammelband „Global Catastrophic Risk“ bei.[8]

Yudkowsky ist zudem der Autor folgender Publikationen: „Creating Friendly AI“ (2001),[9] „Levels of Organization in General Intelligence“ (2002), „Coherent Extrapolated Volition“ (2004) und „Timeless Decision Theory“ (2010).[10][11]

Yudkowsky hat auch einige belletristische Werke geschrieben. Seine Harry-Potter-Fan-Fiction-Geschichte „Harry Potter and the Methods of Rationality“ ist momentan die beliebteste Harry-Potter-Geschichte der Webseite fanfiction.net und behandelt Themen der Kognitionswissenschaft, Rationalität und Philosophie im Allgemeinen und wurde unter anderem positiv durch David Brin[12] und den Programmierer Eric S. Raymond bewertet.[13]

Literatur[Bearbeiten]

  • Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
  • The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265-272, 289, 321, 324, 326, 337-339, 345, 353, 370.

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. „Singularity Institute for Artificial Intelligence: Team“. Singularity Institute for Artificial Intelligence. Abgerufen am 16. Juli 2009
  2. Eliezer Yudkowsky: About
  3. „GDay World #238: Eliezer Yudkowsky“. The Podcast Network. Abgerufen am 26. Juli 2009
  4. „We are now the “Machine Intelligence Research Institute” (MIRI)“. Singularity Institute Blog.
  5. Kurzweil, Ray (2005). The Singularity Is Near. New York, US: Viking Penguin. p. 599
  6. Coherent Extrapolated Volition, Mai 2004
  7. „Overcoming Bias: About“. Overcoming Bias. Abgerufen am 26. Juli 2009
  8. Bostrom, Nick; Ćirković, Milan M., eds (2008). Global Catastrophic Risks. Oxford, UK: Oxford University Press. pp. 91–119, 308–345
  9. http://singinst.org/upload/CFAI.html
  10. http://singinst.org/upload/TDT-v01o.pdf
  11. „Eliezer Yudkowsky Profile“. Accelerating Future
  12. http://www.davidbrin.blogspot.com/2010/06/secret-of-college-life-plus.html
  13. http://esr.ibiblio.org/?p=2100