Diskussion:Gefangenendilemma/Archiv/1

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 8 Jahren von Eulenspiegel1 in Abschnitt Pareto-Optimum
Zur Navigation springen Zur Suche springen

Denkfehler (?)

Da steht: Die Zahlen zeigen die Bewertung der Situation für Gefangenen A (für Gefangenen B) an. Die bestmögliche Situation ist demnach gestehen/schweigen [(0)/5 aus Sicht von A bzw. (5)/0 bei B]. Die zweitbeste Situation wäre, der Fall, in dem beide gestehen. [von beiden bewertet mit Bewertungszahl 4] Allerdings besteht hier die große Gefahr, daß durch ein Schweigen des anderen die Situation gestehen/schweigen eintritt die ja mit 0 am schlechtesten bewertet wird. Es wird also wahrscheinlich die für beide suboptimale dritte Lösung gewählt, der Fall des doppelten Geständnisses. Zwar nur mit 2 bewertet, aber ohne Gefahr auf böse Überraschungen. Es ist damit für den einzelnen immer besser, eine Geständnis abzulegen. Daher treffen sich die Spieler in einem suboptimalen Punkt der in diesem Fall auch als Nash-Gleichgewicht bezeichnet wird.

Ich denke, hier ist ein Denkfehler. Wenn beide gestehen, erhält jeder die hohe Strafe, insgesamt 8 Jahre für beide zusammen, das dürfte erst die drittbeste Möglichkeit sein für den einzelnen, aber die schlechteste für beide zusammen sein. Ich korrigiere das.--Hutschi 10:53, 21. Apr 2004 (CEST)

Ich denke, du hast recht und hast es korrekt korrigiert :) --SirJective 11:58, 21. Apr 2004 (CEST)
Wenn einer gesteht, und somit seinen Partner belastet Mmh? Wieso "gesteht", eher den anderen belastet, oder? -- Hagbard 19:44, 2. Dez 2004 (CET)
gesteht und dabei den anderen belastet; "ja wir beide waren es" ...Sicherlich 20:14, 2. Dez 2004 (CET)
Ich bin auch über diese sehr widersprüchliche Aussage gestolpert (wenn jemand gesteht, dann hört sich das halt an, dass er sich selbst belastet und nicht noch den anderen), und weiß noch immer nicht, wie es gemeint ist ... vielleicht kann es nochmal präziser formuliert werden? Danke, --Abdull 19:46, 2. Mai 2005 (CEST)

Weblink

Habe mir mal aus Neugier die Weblinks angeschaut. Der erste hat mE überhaupt nichts mit dem Gefangenendilemma oder ähnlichem zu tun. Außer vielleicht, dass es um Gefangene geht... --Manja 10:46, 8. Feb 2005 (CET)

Bei sowas nicht lange fackeln und die Links raushauen. Linkspam ist an der Tagesordnung. Stern !? 01:34, 10. Mär 2005 (CET)
Wiskas Bode, was hat die Delphinstrategie konkret mit dem Gefangenendilemma zu tun? Das Gefangendilemma ist eine stark abstrahierte Situation und die Delphinstrategie (Managementtheorie) hat mE keinen konkreten Bezug dazu. Sonst könnten wir hier auch andere Verhaltensregeln und Lebensweisheiten wie "Liebe deinen Nächsten" zitieren. Bitte besser begründen oder rausnehmen.--83.77.36.224 13:16, 24. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)
ich bin gegen den link, denn er bringt dem leser keine weitere Information zum Thema. Sollten (irgendwann) forschungsergebnis da zu finden sein also weitergehende Informationen zu finden sein; dann hinein mit ihm! bis dahin ist es eigentlich nur werbung... zwar wohl ohne kommerzielle interessen aber werbung ist´s trotzdem ...Sicherlich Post 06:12, 10. Jun 2005 (CEST)
Ich war der Meinung, dass sich die Grundannahme für erfolgreiche soziale Verhaltensweise (tit for tat) in der Managementtheorie als Grundmaxime wiederfindet. Die Assoziation (und um nicht mehr handelt es sich bei assoziativen Verweisen) hält sicher nicht einer Falisfizierung stand - aber darum geht es bei weiterführnden Verweisen meiner Meinung nach auch nicht. Bo Kontemplation 10:56, 25. Jan 2006 (CET)
Also ich find das thema gefangenendilemma nicht so ungewöhnlich. Ist in der spieltheorie doch ein alter hut... --Nikolaus 13:52, 17. Jun 2005 (CEST)

Überhaupt nicht ungewöhnlich. Ich habe auf der Seite schon was anderes vorgeschlagen. --GS 13:57, 17. Jun 2005 (CEST)

Editproblem

Hallo 194.230.210.24,
es kann nicht sein dass du andauernd Kleinigkeiten änderst und dabei den ganzen Artikel zerstückelst. Bitte finde irgendeine Möglichkeit das Problem zu beheben, wir können nicht ständig hinterherräumen! Ich habe erstmal deine Änderungen kopiert und in die Version ohne Hickups übernommen. -- C.Löser Diskussion 06:39, 15. Mär 2005 (CET)

Alternative Argumentation

Alternativ lässt sich argumentieren, dass bei ebenbürtigen, gleichermassen rationalen Spielern, beide Spieler auch dieselbe Strategie anwenden werden. Somit sind für ebenbürtige Spieler nur die Resultate gestehen/gestehen oder betrügen/betrügen plausibel. Da gestehen/gestehen das günstigere Resultat darstellt, lässt sich folgern, dass rationale und nur am eigenen Wohl interessierte Spieler, am besten kooperieren und nicht gestehen sollen. Auch für rationale, rein egoistische Spieler löst sich das Dilemma nicht auf.

Es ist mir nicht ganz klar, was Du hiermit sagen willst. Deshalb ein paar Fragen:

1.) Alternativ lässt sich argumentieren, dass bei ebenbürtigen, gleichermassen rationalen Spielern, beide Spieler auch dieselbe Strategie anwenden werden. Somit sind für ebenbürtige Spieler nur die Resultate gestehen/gestehen oder betrügen/betrügen plausibel. Heißt das Deiner Meinung nach, daß gilt:

(Spieler A kooperiert und Spieler B kooperiert) oder (Spieler A kooperiert nicht und Spieler B kooperiert nicht) (*)--129.187.254.11 02:30, 16. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

Ja--83.77.36.224 12:58, 24. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)
Gut. Und woher weißt Du, daß (*) gilt? Weil "bei ebenbürtigen, gleichermassen rationalen Spielern, beide Spieler auch dieselbe Strategie anwenden werden"? Aber woher weißt Du, daß das der Fall ist?--129.187.254.11 03:16, 25. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

Und wissen/glauben das auch die Spieler, also gilt etwa auch:

Spieler A weiß ((Spieler A kooperiert und Spieler B kooperiert) oder (Spieler A kooperiert nicht und Spieler B kooperiert nicht))--129.187.254.11 02:30, 16. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

Wenn sich beide bewusst sind, dass eine stabile Lösung beide Partner zur selben Strategie führen wird, dann ja (master-and-servant bricht übrigens diese Symmetrie).--83.77.36.224 12:58, 24. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)
Da habe ich gleich noch mehr Fragen.
1. Was verstehst Du unter stabil? Kannst Du das genauer definieren? Oder meinst Du symmetrisch?--129.187.254.11 03:16, 25. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)
Du hast recht. 'Stabil' passt besser in die evolutionsdynamischen Turniere. Ich meine symmetrisch.--83.79.2.162 17:13, 28. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)
2. Du meinst offensichtlich, daß es der Fall ist, daß eine stabile Lösung beide Partner zur selben Strategie führen würde. Das ist so und Du weißt es. Oder?--129.187.254.11 03:16, 25. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)
Ich habe den Abschnitt bewusst als alternative Argumentation formuliert. Andere Erklärungen und Vorstellungen sind weiterhin möglich. Sonst wäre es kein Dilemma.--83.79.2.162 17:13, 28. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)
3. Hältst Du es für möglich, daß rationale Spieler sich nicht bewußt dessen sind, daß eine stabile Lösung beide Spieler zur selben Strategie führen wird?--129.187.254.11 03:16, 25. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)
(Daß master-and-servant die Symmetrie bricht, ist u.a. deshalb nicht unmittelbar revevant, da wir hier vom einmalig gespielten Gefangenendilemma sprechen.)

2.) Angenommen Spieler A kooperiert. Weiß und glaubt er das dann auch? Aus (*) und (Spieler A kooperiert) folgt (Spieler B kooperiert). Weiß und glaubt das Spieler A dann auch? Also gilt:

Spieler A kooperiert -> Spieler A glaubt/weiß (Spieler B kooperiert)--129.187.254.11 02:30, 16. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

Nein. Die Spieler können nicht kommunizieren. Die Möglichkeit dass asymmetrische Spielrunden entstehen besteht weiterhin.--83.77.36.224 12:58, 24. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)
Auf meine erste Frage unter 2. hast Du nicht geantwortet. Aber ich nehme mal an, daß Du darauf Ja antworten würdest. Ein rationaler Spieler weiß was er tut. (Oder bist du anderer Meinung?)
Die Antwort auf die zweite Frage ist problematisch. Denn aus (*) folgt:
Spieler A kooperiert -> Spieler B kooperiert.
Wenn Spieler A a) kooperiert, b) weiß, was er tut, d.h. weiß (Spieler A kooperiert), c) in Deinen Worten sich bewußt ist, daß "daß eine stabile Lösung beide Spieler zur selben Strategie führen wird" und deshalb auch weiß ((Spieler A kooperiert und Spieler B kooperiert) oder (Spieler A kooperiert nicht und Spieler B kooperiert nicht)) und d) nicht weiß (Spieler B kooperiert), dann kann nicht gelten:
(Spieler A weiß (P -> Q) und Spieler A weiß P) -> Spieler A weiß Q
Letzteres ist aber eine normale Annahme über das Wissen von rationalen Spielern. Locker gesagt, nimmt man an, daß rationale Spieler logisch denken können und alles wissen, was Spieltheoretiker wissen. Deine rationalen Spieler sind entweder nicht rational im normalerweise angenommen Sinn, oder wir wissen z.B. (*) eben nicht.
Die Sache mit der "Möglichkeit" ist eine unnötige Komplizierung. Deine Begründung für Dein Nein ist aber in jedem Fall ein non sequitur, da nicht die Rede davon war, was notwendig der Fall ist, sondern von dem, was der Fall ist. Es gibt kontingente, nicht notwendige Fakten, und Wissen von solchen Fakten. Das Folgende ist kein gültiges Theorem oder Axiom gängiger modal-epistemologischer Logiken:
möglich (nicht Q) -> niemand weiß (Q)
Oder bezogen auf unseren Fall:
möglich (B kooperiert nicht) -> A weiß nicht (B kooperiert)--129.187.254.11 03:16, 25. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

3.) Es ist natürlich die Frage, was wir unter Rationalität verstehen. In der Spieltheorie wird normalerweise angenommen, daß es in jedem Fall zu Rationalität eines nur am eigenen Wohl interessierten Spielers gehört, daß er die (für ihn) "beste Antwort" auf die (möglicherweise gemischte) Strategie spielt, von der glaubt, daß sie sein Gegner spielt. Gehört das auch zu Deinem Verständnis von Rationalität? Oder kann eine rationaler, nur am eigenen Wohl interessierter Spieler glauben, daß sein Gegner eine bestimmte Strategie S spielt, und dann selbst eine Strategie spielen, die nicht beste Antwort auf S ist? Wenn das Deiner Meinung nach möglich ist, wie definierst Du dann Rationalität?--129.187.254.11 02:30, 16. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

Ich habe den Abschnitt geschrieben, weil imho der Wortgebrauch der klassischen Analyse suggeriert, es gäbe einen "besten Weg" aus dem Dilemma. Wenn dem so wäre, wäre es mE kein Dilemma mehr. Die Spieltheorie bezeichnet die klassische Lösung ja auch als sub-optimal. Ich wollte nur demonstrieren, dass man mit denselben Voraussetzungen (rationale, egoistische Spieler) auch zu umgekehrten Schlüssen kommen kann; das Dilemma besteht weiterhin.--83.77.36.224 12:58, 24. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)
Ja, aber daß wir beide unsere Spieler "rational" und "egoistisch" nennen, heißt nicht, daß wir dasselbe damit meinen. Darum würde es mich freuen, wenn Du auf meine Fragen unter 3. auch antworten würdest und sagen würdest, was Du unter Rationalität verstehst.

4.) Da gestehen/gestehen das günstigere Resultat darstellt, lässt sich folgern, dass rationale und nur am eigenen Wohl interessierte Spieler, am besten kooperieren und nicht gestehen sollen. Auch für rationale, rein egoistische Spieler löst sich das Dilemma nicht auf. Wenn man meint, daß rationale, egoistische Spieler im Gefangendilemma nicht kooperieren, und das für ein Dilemma hält, dann meint normalerweise auch, daß es für beide besser wäre zu kooperieren - deshalb ist das Ganze ein Dilemma. Willst Du mit Deinen abschließenden Sätzen das sagen oder mehr? Ich rate mal, was dieses mehr sein könnte: Willst Du vielleicht sagen, daß wir nicht sagen können, was rationale Spieler tun werden, weil es auch diese alternative Argumentation gibt? Oder willst Du sagen, daß rationale Spieler - wenn sie denn wirklich rational sind (Definition?) - aufgrund dieser alternativen Argumentation kooperieren werden?--129.187.254.11 02:30, 16. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

Auch rationale Spieler haben keine Lösung für das Dilemma. Und unterscheidliche Auffassung davon, was eine "beste Strategie" sein könnte.--83.77.36.224 12:58, 24. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)
Natürlich wissen die Spieler weiterhin nicht voneinander was sie tun werden. Ich wollte lediglich darauf hinweisen, dass man sich neben der klassischen Analyse auch andere gute Argumente vorstellen kann, die auf andere Schlüsse kommen.
Wenn die klassische Analyse ein bottom-up Vorgehen ist (von der Art: Spieler B macht x oder y, wenn er x macht, mache ich besser q; wenn er y macht mache ich besser r); dann ist doch auch ein top-down Ansatz denkbar, der vom Resultat ausgeht (nämlich, dass falls es eine sinnvolle Strategie gibt, auch einige Wahrscheinlichkeit gibt, dass beide Spieler nach reiflicher Überlegung dieselbe Strategie anwenden werden (Natürlich ist das kein Beweis, dass es so rauskommen muss). Das und nichts mehr will ich sagen. Die Worte verwende ich so, wie ich denke, dass sie einem Laien verständlich sind. Wenn Du denkst, das passt nicht hierhin, oder ist missverständlich, dann bitte ändern.--83.79.2.162 17:13, 28. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

Wieso Paradoxon?

IMO ist paradoxon, wie es im ersten satz steht, nicht zutreffend. Andere meinungen?

-- Wenn man in den Wikipedia-Artikel zum Thema "Dilemma" schaut, wird man folgenden Eintrag finden: "Es wird durch seine Ausweglosigkeit als paradox empfunden." Genauso verhält es sich meiner Meinung nach beim PD. Es wird als Paradoxon empfunden - handelt sich aber um keines. Wenn ich mir die Kommentare hier anschaue, kann man dann den Begriff nicht endlich aus dem Artikel entfernen?--Nikolaus 19:31, 18. Mär 2005 (CET)

Was sind denn die Gründe für Deine Meinung? Könnte es sein, daß Du eine etwas enge Definition von "paradox" verwendest? Viele Leute finden es sicher widersinnig (also paradox), daß rationale Spieler für je vier Jahre in's Gefängnis wandern, obwohl sie sich auf eine Weise entscheiden könnten, die jedem von ihnen zwei davon ersparen würde. Wenn das nicht paradox ist ...
(Auch die Autoren von Paradoxon haben einen eher weiten Begriff von paradox, sonst müßten viele ihrer Beispiele rausfliegen. In der einleitenden Begriffsklärung nennen sie auch ausdrücklich "scheinbare Widersprüche" als eine Form von Paradoxa.)--129.187.254.11 23:04, 18. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)
@OPHELIA
Könnte Schönheit wohl bessern Umgang haben als mit der Tugend?
@HAMLET
Ja freilich: denn die Macht der Schönheit wird eher die Tugend in eine Kupplerin verwandeln, als die Kraft der Tugend die Schönheit sich ähnlich machen kann. Dies war ehedem paradox, aber nun bestätigt es die Zeit.--129.187.254.11 23:17, 18. Mär 2005 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)
Ja, ich ging tatsächlich von einer engen definition von Paradoxon aus, da ich meinte, ein mathematisches Paradox sei wohldefiniert. Diese defnition kann ich aber (zumindest im wp) so nicht finden - obwohl ich trotzdem der meinung bin, dass auch der artikel Paradoxon unpräzise ist, da fast alle dort aufgelisteten "paradoxa" in wirklichkeit nur "scheinbare paradoxa" sind, die auf verständnisschwierigkeiten beruhen (zb. Zwillingsparadoxon). --Nikolaus 13:15, 23. Mär 2005 (CET)

Auch wenn die Diskussion seit einiger Zeit beendet ersacheint. Wieso Paradoxon?? Es ist keines! Und sollte es fälschlicherweise so verstanden werden, muss man es hier nicht noch wiederholen. Das Gefangendilemma ist ein klassisches Problem der Spieltheorie, KEIN Paradoxon.--149.226.255.200 11:35, 13. Sep 2007 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

Bitte unterschreibe Deine Beiträge mit vier Tilden. - AlterVista 21:02, 13. Sep. 2007 (CEST)

Ja es ist KEIN PARADOX sondern ein Dilemma - ein Situation in der jede Entscheidung keine Verbesserung bringt. Ein paradox ist falsch und wurde deswegen von mir gelöscht. 26.07.2009 (nicht signierter Beitrag von 188.102.107.66 (Diskussion | Beiträge) 18:19, 26. Jul 2009 (CEST))

Reviewdiskussion Gefangenendilemma, 31. Januar 2005

Ein sehr anschauliches Beispiel zur Verdeutlichung von Dilemmasituationen. Braucht aber noch etwas Ergänzung. Stern !? 14:23, 1. Feb 2005 (CET)

  1. Beispiel: etwas zu wirr geschrieben, die Matrix könnte man "anschaulicher" gestalten. Es fehlt der Sinn, der hinter dem Beispiel steht: warum entscheiden die Gefangenen so und warum ist das schlecht.
  2. die Einordnung zur Spieltheorie geschieht erst sehr spät und da auch ziemlich versteckt. Warum?
  3. es fehlen Übertragungen in die Praxis: Mehrweg vs. Einweg, Kartellabsprachen über Produktionsquoten, .. mehr fällt mir gerade nicht ein.
  4. es sollte direkter auf den unterschiedlichen Ausgang zwischen einmaligen und mehrfachen Spielen hingewiesen werden.
  5. die Lösungen sind sehr spärlich
  6. gibt es eigentlich einen Erfinder?

--Manja 15:44, 1. Feb 2005 (CET)

Homann unterteilt in seiner Konzeption einer Wirtschaftsethik in erwünschte Dilemmasituationen (wie im Fall der beiden Gefangenen, man will ja, dass beide gestehen) und unerwünschte Dilemmasituationen (wo es zu nicht realisierten Kooperationsgewinnen kommt). Ich könnte das implementieren, es stellt sich nur die Frage ob hierein, oder wohl eher in den allgemeinen Artikel Soziales Dilemma, sind aber tolle Anwendungen auf praktische Probleme, in denen man ohne weiteres gar kein Dilemma erkannt hat, bzw. in denen die Dilemmasituation durch Institutionen verhindert wurde. Daneben könnte man (=ich, wenn ich dazu komme, sonst gerne jeder andere) ein paar Ausführungen zu wiederholten Situationen bzw. dem Problem des letzten Spiels hinweisen (Glaubwürdigkeit einer Sanktionsdrohung). --Einbayer 15:45, 2. Feb 2005 (CET)
Ich bin eigentlich nicht der Meinung, dass das Gefangenendilemma ein erwünschtes ist. Es geht doch um die beiden Gefangenen als Bezugspunkt. Wenn man es auf Sachverhalte der Wirtschaft überträgt, dann sieht man sehr schnell, dass das Gleichgewicht nicht zum gewünschten Ziel führt. Zum Beispiel bei dem Versprechen der Getränkeproduzenten in bezug auf Mehrwegverpackungen. Alle verpflichten sich erst dazu, dann weichen alle ab, weil es ihnen vorteile verschafft. Und am Ende produzieren alle Einwegverpackungen. Ein erwünschtes Dilemma ist z.B. der Kampf der Geschlechter, bei dem das Kooperieren zum besten Ergebnis führt.--Manja 10:40, 3. Feb 2005 (CET)
Nein, das ist eben abhängig vom Bezugspunkt. Der Staat (= die Strafverfolgungsbehörden) sehen das gegenseitige Defektieren (=Denunzieren) als erwünscht an, nicht natürlich die beiden Gefangenen. Auch auf die Wirtschaft übertragen ist ja letztlich die Instabilität von Kartellen auf eine Dilemmaproblematik zurückzuführen. Es kann doch sein, dass gesellschaftlich das gegenseitige Defektieren zu erwünschten Resultaten führt, weil sich die Akteuere gegenseitig schaden, was der Gesellschaft wiederum nützt. Dein Beispiel mit den Mehrwegverpackungen ist eben ein unerwünschtes Dilemma, in dem der Staat als Regelsetzer Institutionen schaffen kann, die das Defektieren sanktionieren und so teuer machen, dass sich das Nash-GG in der Kooperation einstellt. --Einbayer 11:05, 4. Feb 2005 (CET)
In dem Zusammenhang sollte man bei den ganzen Dilemmata jeweils beachten, was einzel- und was gesamtwirtschaftlich effizient ist. Letztlich interessiert ja vor allem die gesamtwirtschaftliche Komponente. Stern !? 13:51, 4. Feb 2005 (CET)

Nach dem ersten lesen: es muss doch möglich sein, mehr als ein vierzig jahre altes buch zum thema aufzutreiben. ob man die dritte partei (in den fall die strafverfolgungsbehörden) mit rein nehmen sollte, bin ich skeptisch - letztlich beschreibt das dilemma ja nur eine gescheiterte kooperation. und ob kooperationen nun in ihren auswirkungen bei erfolg schlecht wären oder gut für außenstehende, ist mE eine frage, nichts mehr mit dem dilemma an sich zu tun. mal schauen ob ich sie finde: es gab diverse experimente, bei denen jeweils zwei leute in die g-d-situation gebracht wurden + es zeigt sich, dass sie wesentlich öfter mit "assume good faith" reagieren (also schweigen) als mit wirklich rationalem handeln (also reden). wäre zur frage "wie relevant ist es praktisch" vielleicht nicht uninteressant. gerade vom axelrod-versuch aus, kommt man da zur frage ob es nicht antrainierte verhaltsnmuster gibt, die nicht langfristig wesentlich rationaler sind, als das kurzfristig rationale ansatz des gd. -- southpark 17:01, 4. Feb 2005 (CET)

Prima Beschreibung, teilweise nur viele mathematische Fachwörter, merkt man den akademischen Hintergrund des Autors. "Akkumulation" oder "Iteration" o.ä. muß man, würde ich meinen, nicht kennen, um die Problematik zu verstehen.--Stoerte 18:37, 16. Feb 2005 (CET)

Habe jetzt so ziemlich alles ergänzt, was mir einfiel. Die Fachwörter wurden rausgenommen, wo es überflüssig war. Allokation finde ich allerdings recht wichtig, es ist nunmal der genaue Fachbegriff dafür. Wer es nicht weiss, kann ja den blauen Link dafür benutzen. Sogar die Wohlfahrt ist jetzt eingebaut. Was fehlt noch? --Manja 16:25, 25. Feb 2005 (CET)

Gerade zum ersten mal gelesen. Was mir auf die Schnelle auffällt: Die Tit-for-Tat-Geschichte ist sehr knapp dargestellt und soweit ich weiß gab es zu der Geschichte mehrere Simulationswettbewerbe bei der letztlich nicht Tit for Tat, aber verwandte, komplexere Strategien am erfolgreichsten waren. Dann fehlt mir ein Hinweis zur Biologie bzw. Soziologie. Das Gefangenendilemma wird auch zur Erklärung der evolutionären Entstehung von kooperativem Verhalten herangezogen. Jetzt ist der Artikel nach meiner Meinung zu sehr auf Wirtschaft und Politik fokussiert. Rainer 18:02, 3. Mär 2005 (CET)

Es ist mehr ein soziologisches Thema, dass wirtschaftlich erörtert wird als ein wirtschaftliches Thema, und zudem gehören Spieletheorien mit ihrer Analyse auch in den mathematischen Bereich. Man könnte vielleicht in der Einleitung (zu diesem in dem Bereich sehr populären Beispiel) kurz auf den Sinn und Zweck solcher Gedankenspiele eingehen, da dies weder aus Spieltheorie noch aus Soziales Dilemma deutlich wird. Dass es um Strategien bzw. Entscheidungsfindungen dürfte im Moment noch nicht jedem gleich beim ersten Lesen klar werden. -- Schnargel 00:11, 16. Mär 2005 (CET)


Situation 1 Spieler B Spieler A Kooperation Defektion Kooperation 3,3 0,4 Defektion 4, 0 1,1

Situation 2 Spieler B Spieler A Kooperation Defektion Kooperation 3,3 0, 4-2=2 Defektion 4-2=2, 0 1-2= -1, 1-2= -1


Das bekannteste und anschaulichste Beispiel für eine Dilemmasituation ist das Gefangenendilemma. Zwei Akteure können jeweils zwischen den Wahlalternativen Kooperation und Defektion wählen. In allen vier verschiedenen Ergebniskonstellationen erhält jeder von ihnen einen bestimmten Auszahlungsbetrag, welcher proportional Nutzen stiftet. Umso höher also der Auszahlungsbetrag ist, umso größer ist auch der durch ihn gestiftete Nutzen. In Situation 1 ist es für jeden der beiden Akteure die einzige individuell-rationale Entscheidung zu defektieren. Unabhängig davon, ob der Gegenspieler defektiert oder kooperiert verspricht die Defektion dem einzelnen Akteur einen höheren Auszahlungsbeitrag: Das eigene Defektieren, während der Gegenspieler ebenfalls nicht kooperiert, weist mit 1 einen höheren Auszahlungswert auf als die Auszahlung von 0 im Falle der alleinigen Kooperation. Die eigene Defektion im Falle der Kooperation des Gegenspielers hat mit 4 einen um eine Auszahlungseinheit höheren Wert als die zusätzliche eigene Kooperation, welche lediglich einen Auszahlungswert von 3 ergeben würde. Für die Situation 1 wird sich also notwendigerweise ein stabiles Gleichgewicht in 1,1 einstellen, welches jedoch für beide Akteure keine nutzenoptimale Lösung darstellt. Anders sind die Bedingungen jedoch in Situation 2. Hier sind die Auszahlungen im Falle des Nicht-Kooperierens so modifiziert, dass im Sinne der individuellen Rationalität ist, eine Kooperationsbeziehung einzugehen. Ein alleiniges Defektieren ist nun mit einer Auszahlung von 2 verglichen mit der Auszahlung von 3 im beidseitigen Kooperationsfall ein Nachteil. Und auch für den Fall der Defektion des Gegenspielers ist mit einem Auszahlungsbetrag von 0, der größer ist als der Wert -1 im Defektionsfall, ein Anreiz zur Kooperation gegeben. In Situation 2 wird sich also zwangsläufig, der individuellen Rationalität entsprechend, ein Gleichgewichtszustand ergeben, welcher für beide Akteure einen höheren Nutzen induziert als im Falle des Gleichgewichtes in Situation 1. Zusätzlich liegt hier Pareto-Effizienz vor: Es sind alle Tauschgewinne ausgeschöpft, d.h. es ist nicht möglich einen Akteur besser zustellen, ohne dafür einen anderen Akteur schlechter zu stellen.

Optimale Strategie

Wenn ich mich richtig erinnere, dann ist bei Wiederholungen, z.B. beim Handlungsreisenden, dies die optimale Strategie, insbesondere wenn beide Tit-for-Tat spielen:

Anfangs Kooperation, dann Tit-for-Tat. Wenn dabei Zustand dauerhafter Konfrontation erreicht wird, dann nach zufälliger, d.h. für den Gegner nicht abschätzbarer Anzahl Wiederholungen spontan einseitg Kooperation spielen, um den Kreislauf der Konfrontation zu durchbrechen, da dadurch langfristig das beste Ergebnis erreicht wird.

Kennt jemand für diese Strategie den Namen oder Quellen, die die Bewertung "optimale Strategie" belegen ? --Benutzer:WHS 04:21, 23. Mai 2005 (CET)

Tit-for-Tat war empirisch gemessen die optimale Strategie, das heißt, im einem Versuch mit etlichen alternativen Strategien hatte diese über 100 Perioden den höchsten Ertrag gebracht. Theoretisch (mit einer wertfreien, ertragsoptimierenden Rationalitätsannahme) ist jedoch, (bei endlichen Spielen) always defect die beste Strategie. (Stichworte: Dominante Strategie, back-tracking). Die Strategie punisher ist für eine bestimmte Unterklasse mehrperiodischer Gefangenendilemmas (unendlich, nicht risikodominiert) optimal. -- Creativehq 15:53, 08. Juni 2006 (CEST)

Zwei Programmierwettkämpfe, bei denen jeweils Tit for Tat gewann, führte Robert Axelrod durch. Eine Quelle ist sein Buch: "Die Evolution der Kooperation". "Always defect" ist eine sehr schlechte Strategie. Axelrod führte weitere Untersuchungen durch. Dabei zeigte sich, dass Tit for Tat im Zweifel immer eine gute Strategie ist, dass "freundliche Strategien" (die am Anfang kooperieren) eher gewinnen. Nur: Strategien, die sich "ausbeuten" lassen (die immer unabhängig von der Reaktion kooperieren, verlieren, sofern sie auf defektierende Strategien stoßen. Immer defektierende Strategien verlieren, wenn sie auf defektierende Strategien stoßen. Kooperation zwischen Strategien, die sich ausbeuten lassen und solchen, die ausbeuten, können aber bei bestimmten räumlichen Verteilungen erfolgreich sein, wie das Räuber-Beute-Prinzip zeigt. In der Natur kommen auch Kooperationsbeziehungen vor. Wenn nur zwei Spieler da sind und das Ziel ist, das Spiel zu gewinnen, dann hat man keine Erfolgsstrategie. Unentschieden kann man mit Sicherheit erreichen, wenn man immer defektiert. (Der letzte Überlebende hätte dann gewonnen.) Wenn man aber wenig Schaden nehmen will, kann man auch dann "freundlich" spielen und sehen, was der Partner macht. Die Auszahlung kann dann wesentlich höher sein, es gibt dabei mehr Gewinn. --Hutschi 16:04, 8. Jun 2006 (CEST)

Warum ist "gradual" nicht als optimale (oder sehr gute) Strategie gelistet. Denn diese hat sich bei Mathieu und Delahaye im Versuch bewährt. Siehe Our meeting with gradual: "A good strategy for the iterated prisoner's dilemma" (http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.42.4041). --WeaselZX 17:32 23. September.2008

Wahl zum exzellenten Artikel

Seit langem hat mich wieder ein Artikel auf Anhieb überzeugt. Meiner Meinung nach, ist dieser Artikel hervorragend gelungen. Ohne daß ich große Kenntnis der Materie habe, bietet das "Gefangenendilemma" für mich eine Fülle gut verständlicher Informationen zu einem interessanten Thema und regt zum denken an. Ich habe wie gesagt nicht viel Erfahrung mit Spieltheorie, aber über inhaltliche Fragen kann man ja noch bei der Abstimmung streiten ;)

Grüße, Sentry 18:40, 3. Mai 2005 (CEST)

Wikipedia:Ungewöhnliche Artikel

Wieso steht denn die Seite hier bei den Ungewöhnlichen Artikeln? Das steht in jedem Mikroökonomie-Lehrbuch (vermut ich mal, im Varian stehts auf jeden Fall). Ist doch eine normale volkswirtschaftliche Theorie, oder? Das MPI forscht auf jeden Fall darüber. --ExIP 12:24, 11. Mai 2005 (CEST)

Gefangenendilemma 03. Mai 2005

Seit langem hat mich wieder ein Artikel auf Anhieb überzeugt. Meiner Meinung nach, ist dieser Artikel hervorragend gelungen. Ohne daß ich große Kenntnis der Materie habe, bietet das "Gefangenendilemma" für mich eine Fülle gut verständlicher Informationen zu einem interessanten Thema und regt zum denken an. Grüße, Sentry 20:20, 3. Mai 2005 (CEST)

  • Pro Ein interessantes Thema ist sehr verständlich und umfassend (ein Spiel, mehrere Runden, über Generationen, Strategien, psychologische Aspekte) dargestellt. Von vielen Seiten beleuchtet (Wirtschaft, Wohlfahrt, Kriminalistik). Sprachlich gut. Layout gut. -> Exzellent. Boris Fernbacher 22:09, 3. Mai 2005 (CEST)
  • abwartend -- Der Artikel ist zwar sehr gut geschrieben, aber die genauere Beschreibung, wie es zu dem Spiel kam, könnte noch interessant sein. Dazu wären ein paar mehr Links nicht schlecht. Nicht jeder weiss, was eine Matrix ist. --Djducky 22:12, 3. Mai 2005 (CEST) Unterschrift nachgetragen --Jcornelius Benutzer Diskussion:Jcornelius 22:33, 3. Mai 2005 (CEST)
  • pro endlich mal wieder ein guter Kandidat aus der Ökonomie. Stern !? 01:19, 4. Mai 2005 (CEST)
  • contra: stilistisch verbesserungsbedürftig, der Sprache fehlt es an Präzision. Literatur enthält die zentralen Werke, inhaltlich solide. --Elian Φ 03:51, 4. Mai 2005 (CEST)
  • Abwartend Die Literaturliste finde ich mit zwei Titeln etwas dürftig. Auch die Historie, wie es dazu kam, könnte noch nachgereicht werden, denn die ist sicher interessant. Liest sich teilweise sehr gut, teilweise dann recht "ruppig". Vor allem die Auflistung der Spielstrategien... Was habe ich da gerade hier bei den Exzellenten schon öfters lesen "müssen" "Listen ist nich..." usw.. Na ja, ganz so streng will ich es nicht nehmen, aber man könnte das sicherlich noch etwas besser ausformulieren. Ebenfalls spielt gerade in der VWL-Lehre und überhaupt in der Wirtschaft das Gefangenendilemma eine große Rolle und das könnte durchaus noch noch deutlicher herausgestellt werden mit ein paar schönen Beispielen für die jeweiligen Situationen. Auch die mangelnde Bebilderung stellt sicherlich für viele hier ein Problem dar... ;-) - War nur Spaß, stört mich persönlich bei dem Thema nicht, aber ich habe hier echt schon viel gelesen zu genau dem Umstand mittlerweile. Sonnenwind 19:42, 4. Mai 2005 (CEST)
  • Contra Hab den Artikel gelesen. Ist zwar interessant, aber irgendwie fehlt mir die Struktur, der Überblick, da er so wie er derzeit geschrieben steht, meiner Meinung nach zu lang ist, bzw. zu unpräzise und undeutlich geschrieben ist, für diese Länge. Ist meine Meinung. Abgesehen davon hab ich immer noch nicht die Spieltheorie begriffen (nämlich die Tabelle), aber das hat ja nichts mit dem Artikel zu tun ;-) -- Otto Normalverbraucher 00:28, 16. Mai 2005 (CEST)
  • contra Inhaltlich solide aber ich sehe auch keine wirklich Exzellenz irgendwo. Und was mir bei den Beispielen wieder auffällt: es gibt diverse sozialpsychologische Experimente, dass reale Menschen in halbwegs realen Situationen (die dem Gefangenendilemma nachgestellt sind) eben nicht egoistisch-rational handeln und damit als Gruppe weit bessere Ergebnisse erzielen, als sie es laut Theorie müssten. Das wäre als Gegenpunkt zu den rein abstrakten Beispielen eventuell dann doch erwähnenswert. -- southpark 04:37, 22. Mai 2005 (CEST)
  • Contra Einleitung und eigentliche Definition dieses Dilemmas sollten sprachlich noch überarbeitet werden; es dauert für den Leser eine Weile, bis er durchsteigt, was es mit dem Gefangenendilemma auf sich hat (ich bin vielleicht auch etwas schwer von Begriff;-)) Die Beispiele sind sehr gut und auch unterhaltsam zu lesen. Kettelring 17:19, 23. Mai 2005 (CEST)

Review Gefangenendilemma Juni 2005

Steht auf der Reviewhauptseite. -- Dishayloo [ +] 18:45, 19. Jun 2005 (CEST)

Ich könnte mir ein wenig mehr Beispiele vorstellen, die die unterschiedlichen Situationen veranschaulichen könnten. Stern !? 09:43, 22. Jun 2005 (CEST)

Gefangenendilemma

in der Exzellenzabstimmung gescheitert, aber trotzdem ein hervorragender Artikel

  • pro --Kurt seebauer 15:29, 21. Jun 2005 (CEST)
  • pro sehr interessanter Artikel --Aph 17:56, 21. Jun 2005 (CEST)
  • Pro --Jonathan Hornung 19:46, 21. Jun 2005 (CEST)
  • pro gefällt mir -- Geos 13:57, 22. Jun 2005 (CEST)
  • pro toller Artikel norro 23:08, 22. Jun 2005 (CEST)
  • pro (Laienvotum) Mir hat der Artikel sehr gut gefallen. --Benowar 13:10, 23. Jun 2005 (CEST)

Wird momentan reviewt, bitte entscheiden, ob Review oder Kandidatur. -- Carbidfischer Kaffee? 20:12, 22. Jun 2005 (CEST)

ist nach einer gescheiterten Kandidatur zum zweiten mal ins Review gestellt worden. Ich bezweifle, dass es noch viel bringt. Im Übrigen sehe ich kein Hindernis, "lesenswerte" Artikel zu reviewen. --Kurt seebauer 22:13, 22. Jun 2005 (CEST)
Ja, aber vor der Abstimmung oder von mir aus auch danach, nicht gleichzeitig. -- Carbidfischer Kaffee? 12:54, 23. Jun 2005 (CEST)
Warum nicht gleichzeitig? Es hat noch keinem Artikel geschadet, wenn er verbessert wurde ;c) -- Geos 12:57, 23. Jun 2005 (CEST)
Weil man dann Verwirrung stiften würde, wenn einerseits hier und andererseits im Review reviewt würde. Idealerweise sollte ein Artikel vor der Abstimmung schon so weit reviewt sein, dass die Abstimmung nur noch eine Formsache ist. -- Carbidfischer Kaffee? 13:23, 23. Jun 2005 (CEST)

Review und "Lesenswerte"-Kandidatur kommen einander nicht ins Gehege. Im Review passiert ja meistens nicht viel und selbst wenn sich was tut, stiftet das keine "Verwirrung". Warum Verwirrung? Gut ist alles, was den Artikeln nützt, und Artikel sollten nicht für eine fruchtbare "Lesenswert"-Diskussion blockiert werden können, indem sie im Review abhängen und Schimmel ansetzen. --Saum 16:41, 23. Jun 2005 (CEST)

Ich verstehe nicht ganz: Wenn sich im Review eh nichts tut, warum muss der Artikel dann unbedingt während der Kandidatur dort verbleiben? Was macht das Review während der Kandidatur zu dringend erforderlich? -- Carbidfischer Kaffee? 09:23, 24. Jun 2005 (CEST)

Nein, man sollte einen Artikel, der in der Lesenswerte-Diskussion ist, im Grunde aus dem Review raustun; die "Lesenswerte"-Diskussion sticht das Review. Vielleicht ist es die Mühe aber auch nicht wert, und es schadet nicht, wenn der Artikel eine Zeitlang unter beiden Kategorien subsummiert ist. --Saum 10:55, 24. Jun 2005 (CEST)

  • abwartend: der Artikel bedindet sich noch im Review, deswegen kann abschließend hier noch kein Urteil abgegeben werden. --Atamari 00:03, 24. Jun 2005 (CEST)

Master-Slave-Strategie-Erklärung in der Auflistung nicht richtig,

Also, ich zitiere (Version Ende Juni '05):

master-and-servant ("Herr und Knecht" oder auch "Southampton-Strategie"): Spielt während der ersten fünf bis zehn Runden ein der Erkennung dienendes, codiertes Verhalten. Die Strategie stellt so fest, ob der Mitspieler ebenfalls nach dem "Master-and-Servant"-Muster agiert. Ist dies der Fall wird der eine Mitspieler zum Ausbeuter, der immer betrügt, der andere Mitspieler zum Ausgenommenen, der bedingungslos kooperiert. Ist der Mitspieler nicht "Master-and-Servant"-Konform, wird betrogen, um die Mitstreiter im Wettbewerb zu schädigen. Diese Strategie führt dazu, dass ein Teil der "Master-and-Servant-Spieler" sehr gut abschneidet, da diese unüblich oft die maximal mögliche Punktzahl für einseitigen Verrat erhalten. Der ausgebeutete Teil der "Master-and-Servant"-Spieler „stirbt aus“, was aber durch die Nachkommen des erfolgreichen Teils überkompensiert wird.

Kritik: Der letzte Satz bezieht sich nur auf evolutionsdynamische Turniere, also nicht auf das Gefangenendilemma selbst. In nicht-evolutionären Turnieren hat er gar keine Aussage. Weiterhin ist er selbst dort schlicht und ergreifend falsch: Zum einen sterben die Slaves langsam aber sicher in so einem Turnier aus. Daher müssen auch einige Master sich dann dazu erniedrigen, Slave zu spielen oder es sowieso nur eine gemeinsame Master-Slave-Strategie geben. Da zwischen den einzelnen Spielen einer Evolutionsrunde diese aber keine Informationen behalten dürfen, wissen sie nicht, ob sie schon Slave waren und sie müssten sich ihre Rolle dann zufällig auswählen. Dann ist aber die Strategie futsch.

Und selbst, wenn sie die Informationen behalten könnten, würde es nichts bringen, da es ja hier wichtig ist, insgesamt mit der Strategie einen möglichst hohen Teil der Nachkommen zu produzieren. Da aber "suckers payoff"<2*"reward", macht diese Ausbeute dennoch keinen Sinn, da der Erwartungswert der Nachkommenanzahl dann niedriger ist, als wenn beide kooperieren.

Das ist richtig, aber eher sophisticated. Präzisiere doch bitte den Abschnitt so, dass es kurz, kompakt und präzise bleibt und dennoch Deinen Punkt abdeckt. Gruß --GS 17:33, 30. Jun 2005 (CEST)

Ok, hab' den Abschnitt umgeschrieben. Zu erwähnen wäre noch, dass die Southampton-Strategie schon im Abschnitt "Evolutionsdynamische" Turniere erwähnt wird. Das ist aber natürlich falsch, das 2004er-Turnier war natürlich nicht evolutionsdynamisch. Überhaupt sind IPD-Turniere, bei denen mehrere Autoren ihre Strategien einschicken, gar nicht erwähnt. -- Ruedi, 22:47, 2. Dez 2006

Die "Master and Servant"-Strategie ist eine einzige Strategie, die so angelegt ist, dass sie entweder in ein Master-Verhalten, oder ein Servant-Verhalten oder eine Drittstrategie (Always defect) bei 'Fremdkontakt' fallen kann. Es sind nicht zwei Strategien, die sich erinnern, was sie in der letzten Generation gespielt haben. Da wurde ich falsch verstanden. Ich meinte "die Punkte, die der Master einfährt kompensieren die Verluste, die der Servant macht, sodass netto ein gutes Resultat (und in evolutionsdynamischen Turnieren viele Nachkommen) erzielt werden". Wenn (T +P) < (2 * R) ist, hat es die Strategie schwer gegen Tit-for-tat zu gewinnen. Dann wird wohl wichtig, dass bei Fremdkontakt 'Always defect' gespielt wird. Aber (T +P) < (2 * R) ist nicht definiert, oder? Es gilt lediglich P < R . Meine Infos zu "Master and Servant" stammen übrigens aus dem angegebenen Wired-Artikel. Habe den Eintrag korrigiert. --83.76.168.102 06:03, 18. Okt. 2007 (CEST)

Einmaliges Spiel

Alternativ lässt sich argumentieren, dass bei ebenbürtigen, gleichermaßen rationalen Spielern, beide Spieler auch dieselbe Strategie anwenden werden. Somit sind für ebenbürtige Spieler nur die Resultate gestehen/gestehen oder betrügen/betrügen plausibel. Da gestehen/gestehen das günstigere Resultat darstellt, lässt sich folgern, dass rationale und nur am eigenen Wohl interessierte Spieler, am besten kooperieren und nicht gestehen sollen. Auch für rationale, rein egoistische Spieler löst sich das Dilemma nicht auf.

Ich denke, die Beschreibung bei "Einmaliges Spiel" ist im Moment falsch. Richtig sollte es sein:
Alternativ lässt sich argumentieren, dass bei ebenbürtigen, gleichermaßen rationalen Spielern, beide Spieler auch dieselbe Strategie anwenden werden. Somit sind für ebenbürtige Spieler nur die Resultate gestehen/gestehen oder schweigen/schweigen (beide kooperieren miteinander) plausibel. Da gestehen/gestehen das ungünstigere Resultat darstellt, lässt sich folgern, dass rationale und nur am eigenen Wohl interessierte Spieler, am besten miteinander kooperieren (schweigen) und nicht gestehen sollen. Auch für rationale, rein egoistische Spieler löst sich das Dilemma nicht auf.
Oder ist das ein Trugschluss? --Hutschi 11:25, 22. Jul 2005 (CEST)
Das alte ist falsch. Dein Vorschlag ist auch falsch. Richtig ist:
  • Für rationale und nur am eigenen Wohl interessierte Spieler ist es bei einmaliger Interaktion immer besser, zu defektieren (zu gestehen). Daher ja Dilemma.
  • Die in Summe bessere Situation des Kooperierens (Schweigen/Schweigen) ist instabil, auch wenn es im jeweiligen Eigeninteresse wäre, wenn beide kooperierten. Allerdings ist es ja dann jeweils indviduell besser, selber doch nicht zu kooperieren, daher Dilemma.
Ich hab den Absatz mal ganz rausgenommen. Was der uns, glaube ich, sagen wollte, ist, dass es in realen Interaktionen nicht zwingend ist, zu defektieren, da da andere Dinge wie Reputation, Fairneß, etc. reinspielen könnten. Wer auch immer den reingestellt hat, kann das ja nochmal genauer erklären.--Einbayer 12:04, 22. Jul 2005 (CEST)
Die Methode wie das Gefangenendilemma analysiert wird um eine Handlungsweise ableiten zu können, ist die Frage Wenn Spieler B Strategie X wählt, was sollte Spieler A machen? Mit der Ertragsmatrix des Gefangenendilemmas kommt man so auf Defect, egal was der Gegner macht. So stellt man sich immer besser. Die Fachbegriff für Strategien heißt Dominante Strategie. Bei endlichen mehrperiodischen Spielen tritt das Backtracking in Kraft. Die Überlegung ist dass man sich in der letzten Periode so verhalten sollte, wie in einem einperiodischen Spiel. Daher hat man aber auch keinen Grund, in der Vorperiode zu kooperieren.
Bei unendlich-periodischen Gefangenendilemmas wird die Sache komplizierter. Hierbei spielen die genauen Verhältnisse der Nutzenmatrix und einem eventuellen Abzinsungsfaktors zukünftigen Nutzens die wesentliche Rolle. Beispiel: Wenn man einen unendlich großen Schaden (den Tod) riskiert, wenn man auch nur einmal kooperiert, wird man dies unter keinen

tun. Wenn der Abzinsungsfaktor zu hoch ist wird der Nutzen langfristiger Kooperationen von den kurzfristigen Ertragen aus einem einseitig abweichenden Verhalten aufgezehrt.-- Creativehq

Mehrmalige Spiele und Backtracking: Ich denke, das ist nur richtig, wenn man siegen will. Wenn man gewinnen will, gilt es bereits nicht mehr. Ich kann dem anderen durch Kooperation zeigen, dass ich kooperieren möchte. Dabei erziele ich zeitweise vielleicht einen Verlust, aber wenn der andere die Strategie begreift, wird er ebenfalls kooperieren. Beide erzielen dann einen höheren Gewinn, wenn die Anzahl der Spiele ausreicht, um den Verlust aus den Ersten Runden rückgängig zu machen. Es gibt zu solchen Spielen Untersuchungen und Experimente. Dabei zeigte es sich, dass aus rationalen Gründen viel öfter kooperiert wird, als es aus der "Backtracking"-Theorie folgt. Es ist allerdings auch abhängig von der Kultur. Selbst einmalige Spiele sind von der Kultur abhängig. Es gibt Kulturen, in denen grundsätzlich kooperiert wird. Dann ist es aber kein Dilemma mehr. Ich denke auch, ob kooperiert wird, hängt von der Größe des Gewinns bei Kooperation und des Schadens bei Defektion ab. Wnn beispielsweise die Vernichtung der Erde auf dem Spiel steht, wird man eher zu Kooperation auch in schwierigen Situationen neigen. --Hutschi 09:12, 18. Okt. 2007 (CEST)
--Einbayer schrieb: ist es bei einmaliger Interaktion immer besser, zu defektieren (zu gestehen). Daher ja Dilemma. - Ich denke, das ist ein Trugschluss. Genau dann ist es eben kein Dilemma mehr. Es ist gerade deshalb ein Dilemma, weil man durch Kooperieren ein besseres Ergebnis erzielt, sich aber nicht darauf verlassen kann, dass der andere auch kooperiert. Man muss zwei rationale Lösungen haben, damit es ein Dilemma ist. --Hutschi 09:17, 18. Okt. 2007 (CEST)

Evolutionstheorie

Das "iterierende" Gefangenendilemma kann man zur Modellierung einiger Aspekte der Evolutionstheorie verwenden. Insbesondere wird klarer, was die "tüchtigsten" sind (die "überlebenden" überlebensfähigsten Gene). Insbeosndere zeigt es, dass Kooperation oft Evolutionsvorteile bringt. Und es zeigt, dass sich die Entwicklung nicht homogen, aber auch nicht rein zufällig entwickelt. Sollte das mit beschrieben werden?

das gehört wohl eher in den Artikel Evolutionäre Psychologie --Kurt seebauer 18:16, 16. Aug 2005 (CEST)
Es ist dabei keine psychologische Eigenschaft, sondern eine Eigenschaft der Entwicklung, ein Optimierungsproblem. Mikroorganismen, Tiere und Pflanzen denken nicht (zumindest nicht in unserem Sinne), aber gemischte Populationen verschiedener Arten verhalten sich wie beim iterierenden Gefangenendilemma. --Hutschi 07:57, 17. Aug 2005 (CEST)
verstehe ich leider nicht ganz. Kannst du mal ein Beispiel geben? Ich dachte, spieltheoretisch optimale Verhaltensweisen würden denkende Wesen (wie Menschen) erfordern. --Kurt seebauer 11:40, 18. Aug 2005 (CEST)
Nur so viel: Weniger optimale Verhaltensweisen erzeugen weniger Nachkommen oder sterben eher usw. Dabei kann es unterschiedliche Verhaltensweisen geben. So kann die belohnung für Kooperation unterschiedlich hoch sein und die Strafe für Verweigerung ebenso. Ein Beispiel für die Art der Kooperation: Vampire benötigen regelmäßig Blut zum Überleben. Sie finden es aber nur relativ selten. Wenn sie nun für sich den maximalen Gewinn (alles Blut) behalten würden, würden sie in der nächsten Runde sterben, sofern sie nichts von anderen Vampiren bekommen. Sie geben aber ab. Vampire, die nichts abgeben, sondern nur nehmen, die also nicht kooperieren (entspricht: die der Polizei verraten), werden nicht allzulange geduldet. Klar ist: das Modell wäre ein iterierendes Gefangenendilemma mit vielen Mitwirkenden, also eine Verallgemeinerung. Die Nutzenmatrix entspricht aber dem Gefangenendilemma. Für die Vampirfledermäuse zahlt sich die (in etwa verwendete) Strategie Tit for Tat aus. PS: man findet eine genauere Beschreibung, wenn man in Google eingibt: Vampir und Gefangenendilemma. Das Beispiel wurde bereits in "The Selfish Gen" von Richard Dawkins angegeben. Auch im Bereich der Mikroben ist das Modell verwendbar. --Hutschi 13:15, 18. Aug 2005 (CEST)
richtig, genau das Vampirbeispiel kommt auch im o.g. Artikel Evolutionäre_Psychologie#Kooperation vor. Dabei handelt es sich natürlich um eine evolutionäre Anpassung, nicht um bewusstes Denken. Die EP beschäftigt sich genau damit und bildet dadurch eine interessante Brücke zur Spieltheorie. --Kurt seebauer 16:58, 18. Aug 2005 (CEST)

"Gestehen"

Würd in der pay-off Matrix und im obrigen Text nicht "verraten" anstatt von "gestehen" viel besser als gestehen passen. Ich zumindest verstehe unter "gestehen", dass der Gefangene sein eigenes Verbrechen gesteht (somit mildernde Umstände bekommt) und nicht, dass er den anderen verratet.

Ist ganz oben schonmal angesprochen worden. Ich möchte es aber nicht eigenmächtig ändern, da es sich möglicherweise um einen Fachbegriff handelt. --AndreKR 06:29, 21. Okt 2005 (CEST)
Apropos Fachbegriff...

"Fachbegriffe (hier)"

Im Abschnitt Gefangenendilemma#Beschreibung_der_Situation steht "Fachbegriffe (hier) [...]" - was bedeutet das? --AndreKR 06:29, 21. Okt 2005 (CEST)

...wenn er selbst nicht kooperiert? oder wenn er selbst kooperiert?

Gemäß der klassischen Analyse des Spiels ist im nur einmal gespielten Gefangenendilemma die einzig rationale Strategie für einen am eigenen Wohl interessierten Spieler, nicht mit seinem Mitgefangenen zu kooperieren, sondern zu gestehen und den Mitgefangenen somit zu verraten, da er durch seine Entscheidung das Verhalten des Mitspielers nicht beeinflussen kann und er sich unabhängig von der Entscheidung des Mitspielers immer besser stellt, wenn er selbst nicht kooperiert.--Emily007 10:34, 6. Mär 2006 (CET)

Ich glaube, dass das bedeutet: ...wenn er gesteht. Jetzt ist alles klar! --Emily007 10:54, 6. Mär 2006 (CET)

Anmerkung zur Einfuehrung

im ersten abschnitt steht :

"Das Gefangenendilemma ist ein Paradoxon, das zentraler Bestandteil der Spieltheorie ist. Bei dem Dilemma handelt es sich um ein klassisches „Zwei-Personen-Nicht-Nullsummen-Spiel”, das in den 1950er Jahren von zwei Mitarbeitern der RAND Corporation formuliert wurde."

das stimmt so nicht, die spieltheorie wurde von john von neumann und oskar morgenstern entwickelt. 1949 schrieb john nash seine dissertation ueber "nichtkooperative spiele" die eine weiterentwicklung der theorie der oben genannten war. fuer diese dissertation erhielt er 1994 den nobelpreis fuer wirtschaft. von 1951 - 1954 arbeitet nash fuer die RAND Corporation.

anmerkung: seine dissertation kann man auch recht gut lesen, sie umfasst nur 27 seiten--Rems 03:31, 28. Mär 2006 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

Begrifflichkeiten - Fachbegriffe (nochmal)

Ist schon mehrfach angesprochen worden, aber scheinbar nicht angepasst worden. Innerhalb des gesamten Artikels werden nicht immer die gleichen Begriffe verwandt. Zu Beginn ist die Rede von kooperieren und verraten, später ist z.B. einmal betrügen erwähnt. Zudem kommt es immer wieder zu Unklarheiten durch diese Vokabeln, da gestehen = verraten ist. Dies zeigen einige Kommentare und auch die Praxis, wenn ich versuche anderen die Spieltheorie nahe zu bringen. Von daher wäre es wohl am Besten, wenn man zu Beginn (erstes Schema) die Begriffe cooperate und defect einführt. Das ist neutraler, wird in der wissenschaftlichen Literatur verwandt und läßt sich einfacher auf andere Probleme übertragen (Praxis). --Contadinova 10:44, 7. Jun 2006 (CEST)

Frage zur Rechnung bei TFT und den anderen Startegien

ich finde den Artikel sehr Verständlich bis auf die mathematischen Gleichungen bei den Strategien. Beispiel: TFT/K=a/1-delta

Im Artikel wird, sofern ich es nicht doch überlesen haben sollte,nicht erklärt was delta ist. Bitte um schnelle Hilfe, ich schreibe meine Facharbeit über das Thema und würde gerne diese Rechnung miteinbringen.--80.133.116.250 13:52, 8. Mai 2007, 13:52 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

Überarbeitung notwendig

Meiner Meinung ist der Artikel in der momentanen Form alles andere als "lesenwert". Einige Kritikpunkte:

  1. Am Anfang wird nicht klar, dass die Erklärung eigentlich nur eine konkrete Form eines abstrakten Lemmas ist. Insbesondere der Abschnitt "Schuld und Unschuld" ist an der Stelle definitiv zu früh.
  2. Turnier und Spiel wird konsequent durcheinandergebracht.
  3. Das Zusammenfassen der Rundenergebnisse eines Spiels zu einem Gesamtwert wird nicht erwähnt.
  4. Das unendliche Spiel wird gar nicht erklärt - Diskontfaktor, Äquivalenz zu einer geometrisch verteilten Spiellänge, etc.
  5. Der "Übergang" von Spieler zu Strategie ist fließend, ohne Erklärung.
  6. Das Erwähnen der Master/Slave-Strategie im Abschnitt evolutionsdynamische Turniere ist geradezu witzig, da nun genau die Southhampton-Strategie in einem solchen Turnier gegen Tit-fot-Tat *verliert* (auch wenn es durchaus möglich sein kann, Master/Slave-Strategien ohne dieses Manko zu schreiben). Das 2004er-Turnier war nämlich kein solches.
  7. Die Beispiel-Auszahlungen in einigen Begegnungen sollten wenn sie denn dort bleiben sollen, dann in eine eigene Tabelle. Ich bin mir auch gerade gar nicht 'mal sicher, dass die denn überhaupt stimmen (müsste da nicht meist 1+\delta stehen)? Nach der Änderung der Eintragsbezeichnungen der Payoff-Matrix habe ich die Formeln übrigens deshalb auch noch nicht angepasst. Ach ja: delta soll wohl für den Diskont-Faktor (nach Axelrod) stehen.

Ich hab' leider nicht so viel Zeit, das alles anzupassen. Ein Rechtschreibungsexperte könnte sich das ganze auch noch einmal angucken. Irgendwie ist da noch seeeeehr viel Umgangssprache 'drin. --Ruedi 00:28, 11. Jun 2007 (GMT)

Denke auch, dass der Artikel die Auszeichnung so nicht (mehr) verdient.--BECK's 17:39, 1. Okt. 2010 (CEST)

Häßliches Deutsch

Abschnitt "Aus der Kriminalistik": "während gleichzeitig ein einseitiges Geständnis durch extremen Verlust demotiviert wird". Ein Geständnis wird demotiviert? Zwiebelfisch läßt grüßen. Das geht ja wohl nicht. Mir fällt jetzt auf die schnelle keine bessere Formulierung ein, zumindest nicht, ohne den kompletten Satz bzw. Abschnitt umformulieren zu müssen, deswegen hier nur dieser Diskussionsbeitrag.--87.171.14.172 01:15, 16. Apr 2008 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

Beispiele aus Politik und Wirtschaft

Beachtenswert ist das Anbieterdilemma, das zu einer Beeinflussung der Preise für angebotene Güter führt. Zwar profitieren Anbieter bei Vorliegen des Dilemmas nicht, jedoch kann sich die Wohlfahrt einer Volkswirtschaft insgesamt erhöhen, da der Nachfrager durch niedrige Preise profitiert. Durch staatlichen Eingriff in Form von Wettbewerbspolitik wird ein Anbieterdilemma häufig künstlich generiert, indem beispielsweise Absprachen zwischen Anbietern untersagt werden. Somit sorgen Institutionen für mehr Wettbewerb, um den Verbraucher zu schützen.

Bei diesem Punkt fehlt meiner Meinung nach die Auswirkung des Gefangenendilemmas auf die Anbieter, die sich ja gegenseitig zu unterbieten suchen, um so individuell einen Vorteil für sich zu erhalten (nämlich in Form eines Auftrages/Geschäftes).

Dem gegenüber steht die Strategie der kollektiven gemeinsamen kooperierenden Strategie, um so für ALLE Anbieter höhere Preise zu erhalten.

Diesen Punkt würde ich gerne noch ein wenig ausgearbeitet gerne im Artikel sehen... (bin nur selbst gerade nicht mehr wirklich denkfähig), vielleicht kann das jemand übernehmen?! Anam 2008-06-04 22:47--Anam Cara 22:46, 4. Jun 2008 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

Kleiner Fehler im Text

Zitat aus dem Artikel dann kann ich mit meiner Aussage meine Strafe von zwei Jahren auf Null reduzieren! → das müsste heissen von Fünf auf Null --77.11.52.173 11:11, 14. Jul 2008 Vorstehende Signatur wurde nachgetragen von BECK's 17:38, 1. Okt. 2010 (CEST)

Individuell scheint es für beide vorteilhafter zu sein, auszusagen

Mir ist der Begriff "individuell" an dieser Stelle unklar. Die dominante Verratsstrategie beruht auf einem Modell, welches die Auszahlmatrix allein auf die verbrachten Gefängnisjahre reduziert. Dies ist mitnichten der Fall. Im Fall der Verrats und des auf der Gegenseite entgegengebrachten Vertrauens besteht z.B. die Möglichkeit, dass der Verratene den Verräter nach Verbüßung seiner Strafe abknallt. Abstrakt betrachtet beruht das Dilemma darauf, dass in der Auszahlmatrix nur die Gefängnisjahre gezählt werden, und nicht die echten Kosten des Verrats. Korrekt wäre das "individuelle" Modell nur beim Kampf gegen eine Maschine, welche sofort wieder vergisst. Spielt man das Spiel häufiger, so erweisen sich tatsächlich andere Strategien als die Verratsstrategien als besser. Dies liegt daran, dass in diesem Fall die tatsächlichen Kosten eines Verrats Eingang in die Strategiefindung finden (nämlich z.B. als Auslöser einer Verhaltensänderung des Gegners). Somit geht es bei diesem Dilemma weniger um die Gegenpole individuell/kollektiv, sondern um die Gegenpole kurzfristig/langfristig. --Kurt Saum 13:41, 2. Mär. 2009 (CET)

Das Gefangenendilemma ist ein mathematisches Modell. Es abstrahiert von allem, was außerhalb liegt. Historisch wurde das Beispiel nur zur Veranschaulichung des mathematischen Modells verwendet, um es etwas anschaulicher zu machen als eine reine Matrix. "Individuell" meint hier, dass man einen Vorteil gegenüber dem anderen erlangen kann. Sehr exakt ist es nicht, weil der andere vielleicht genauso denkt. Im übrigen sind die gesellschaftlichen und langfristigen Folgen, die außerhalb des Modells liegen, im Artikel besprochen. --Hutschi 15:15, 2. Mär. 2009 (CET)

5 oder 6 Jahre

Der Text ist widersprüchlich. Im Text steht etwas von 6 Jahren bei gegenseitigem Verrat, ich denke, es sollten aber nur 5 Jahre sein. Als Wikinoob möchte ich nicht bearbeiten, ich denke, das müsste aber Korrigiert werden

Grüße Tobias Georgi (nicht signierter Beitrag von 212.120.231.236 (Diskussion) 23:16, 4. Okt. 2010 (CEST))

Könntest du bitte kurz die zwei (oder mehr) Stellen angeben, die sich diesbezüglich widersprechen. Eine Stelle allein kann keinen Widerspruch ausmachen. Ob 5 oder 6 Jahre ist inhaltlich jedoch egal, solange die Nebenbedingungen Einseitige Defektion erhält mehr als beidseitige Kooperation. Die wiederum erhält mehr als beidseitige Defektion und die immerhin mehr als einseitige Kooperation sowie die halbierte Summe aus einseitige Kooperation + einseitige Defektion ist weniger als man bei beidseitiger Kooperation erhält, erfüllt sind. 6 hat hier den Vorteil, dass 2, 4, 6, stimmiger wirkt, als 2, 5, 6.--BECK's 22:16, 5. Okt. 2010 (CEST)

Lesenswert-Abwahl 1.-21. Oktober 2010

Die Kanditatur sollte aufgrund geringer Beteiligung an der Diskussion und der Tatsache, dass seit Anfechtung der Artikelauszeichnung aktiv am Artikel gearbeitet wurde, von Grund auf zum 21.10. hin verlängert werden. --Cum Deo 16:03, 13. Okt. 2010 (CEST)

Änderung

Der Artikel hat meiner Meinung nach leider die Lesenswertauszeichnung längst nicht mehr verdient. 2007 wurde diese Thematik von einem anderen Benutzer bereits auf der Artikeldiskussionsseite zur Sprache gebracht ohne großen Erfolg. Daher stelle ich die Auszeichnung hier(mit) zur Disposition.--BECK's 17:46, 1. Okt. 2010 (CEST)

Hab Rest nur Überflogen. Bin derzeit eher gegen Auszeichnung. Seit 05 wurde viel dazugeschrieben und ist damit anscheinend nicht mehr sehr konsistent. Z.B steht bei Endlichem Spiel: "Die Anzahl der Runden darf den Spielern allerdings nicht mitgeteilt werden, sondern muss diesen unbekannt sein." und wird dann anscheinden im weiteren auch so behandelt. Beim Unendlichen Spiel steht dann das gleiche: „Das Spiel wiederholt sich, ohne dass den Spielern bekannt ist, wann die letzte Runde stattfindet.“ Wenn die Formulierungen doch einen Unterschied darstellen, sollten diese klarer dargestellt werden. Auch ist mir nicht klar welcher Fall dann im Folgenden behandelt wird. --Chin tin tin 23:32, 3. Okt. 2010 (CEST)
Wo wird überhaupt definiert? (Tipp: gar nicht) Das ist so eher ein Fall für die QS.--Hagman 19:33, 7. Okt. 2010 (CEST)
Mit zwei Abwartend- und drei keine-Auszeichnungs-Stimmen ist der Artikel nicht mehr lesenswert --Orci Disk 16:12, 21. Okt. 2010 (CEST)

Freispruch oder 1 Jahr Strafe?

In der "Beschreibung der Situation" heißt es "Freispruch", in der Matrix darunter steht aber "–1", dto. unter "Ergebnisse" bei T / temptation. Warum "–1" und nicht "0"? Eigentlich müsste "–1" einer Strafe von einem Jahr entsprechen, wenn "–2" einer Strafe von 2 Jahren entspricht. (Das "–1" zieht sich weiter durch und betrifft auch den Abschnitt "Mehrmaliges (endliches) Spiel".) Ich kann es selbst nicht ändern, weil mir der Artikel zu unübersichtlich erscheint. Ich frage mich aber, warum jemand einen derart unübersichtlichen Artikel als "lesenswert" einstufen konnte. -- 109.125.94.50 18:10, 25. Okt. 2010 (CEST)

Danke für den Hinweis. Habe die Inkonsistenz beseitigt.
Wie du einen Abschnitt weiter oben siehst, stuft ja auch keiner mehr den Artikel als lesenswert ein. Genau aus solchen Gründen. Als er früher mal so eingestuft wurde, sah er noch ganz anders aus. Grüße --BECK's 20:40, 25. Okt. 2010 (CEST)

Lesenswert-Auflistung

Hallo, ich bin auf den Artikel gestoßen, als ich die Liste lesenswerter Artikel aus dem Bereich Wissenschaft und Philosophie durchgegangen bin. Dem Diskussionsverlauf nach ist der Artikel aber mittlerweile gar nicht mehr als lesenswert eingestuft. Sollte man ihn dann nicht auch von der Liste nehmen? Auf der Artikelseite ist er ja auch nicht mehr als lesenswert gekennzeichnet. Mit freundlichem Gruß. (nicht signierter Beitrag von 212.204.41.114 (Diskussion) 18:31, 11. Apr. 2011 (CEST))

Browser/Editor Problem

@194.230.182.124: Als Ergebnis deiner Überarbeitungen werden regelmäßig Wörter auseinandergerissen. Bitte, suche nach einer Editor/Browserkombination, die dieses Problem verhindert, oder korrigiere selber den Schaden. (nicht signierter Beitrag von 129.187.254.11 (Diskussion) 02:32, 13. Mär. 2005 (CET))

Es tut mir leid, das das passiert, denn es bedeutet, dass ich offenbar nicht an Wikipedia teilnehmen kann (Bin momentan jetzt auf einer Internetstation). Kann mir denn jemand sagen, was eine Editor/Browserkombination ist, die das verhindert? Da ich keine Ahnung habe, woher das Problem stammt, weiss ich auch nicht wie das zu beheben ist. (nicht signierter Beitrag von 83.77.36.224 (Diskussion) 11:45, 24. Mär. 2005 (CET))

Ich nehme an, daß Du Deine Antwort einrücken wolltest, und nicht eine viel zu breite vorformatierte Textbox konstruieren wolltest. Entsprechend habe ich deine Antwort neu formatiert.

Es wäre gut zu wissen, was Du benützt. Ich editiere einfach im Editfenster von Firefox oder Mozilla, beides funktioniert ohne Probleme. (nicht signierter Beitrag von 129.187.254.11 (Diskussion) 00:19, 25. Mär. 2005 (CET))

kollektiv Bestes?

@194.230.182.124: Die (klassische, Mainstream) Analyse des Gefangendilemmas ist von den kardinalen Eigenschaften der angegebenen Zahlen unabhängig: Auch wenn die Gefangenen bei Schweigen je 3 Jahre Gefängnis bekämen, besteht die Anreizsituation und das Dilemma fort. Die Aussage, schweigen/schweigen bringe das kollektiv beste Ergebnis, hilft deshalb nichts zum Verständnis des Gefangendilemmas. Da sie kardinale Eigenschaften voraussetzt, erschwert sie sogar das Verständnis.

Die Aussage selber ist nur unter Voraussetzung einer bestimmten Form von Utilitarismus möglich, die nicht allgemein geteilt wird, und für die Analyse des Gefangenendilemmas nicht gebraucht wird. Utilitaristen im allgemeinen würden nicht die Gefängnisjahre sondern die Nutzen dieser Gefängnisjahre addieren, um die kollektiv beste Lösung zu bestimmen (die abhängig von der Nutzenfunktion auch schweigen/gestehen sein könnte). Nicht-Utilitaristen würden überhaupt solche Summen als Kriterium ablehnen.

Ich nehme die Bemerkung noch einmal raus, wenn sie dann wieder jemand reinsetzt, lasse ich sie stehen, warne aber schon jetzt aller Leser, daß sie aus den beschriebenen Gründen irreführend und ethisch sehr voraussetzungsvoll ist. È (nicht signierter Beitrag von 129.187.254.11 (Diskussion) 02:32, 13. Mär. 2005 (CET))

Abs Ergebnis letzter Absatz

"In diesem Auseinanderfallen der möglichen Strategien besteht das Dilemma der Gefangenen. Die vermeintlich rationale, schrittweise Analyse der Situation verleitet beide Gefangene dazu zu gestehen, was zu einem schlechten Resultat führt (suboptimale Allokation). Das bessere Resultat wäre durch Kooperation erreichbar, die aber anfällig für einen Vertrauensbruch ist. Die rationalen Spieler treffen sich in einem Punkt, der in diesem Fall als Nash-Gleichgewicht bezeichnet wird. Das Paradoxe ist, dass beide Spieler keinen Grund haben, vom Nash-Gleichgewicht abzuweichen und das, obwohl in diesem Fall des Gefangenendilemmas das Nash-Gleichgewicht der einzige nicht pareto-effiziente Zustand ist."

1.Der Absatz ist ziemlich verwirrend und die verwendeten Fachbegriffe führen nicht grade zur Verbesserung des Verständnisses.

Nach dem überfliegen der Artikel zu Pareto-Opitmum und Nash-Gleichgewicht vermute ich:

-Der Zustand gestehen/gestehen ist das Nash-Gleichgewicht. Weil Einseitige Abweichung vom Misstrauen keinen Vorteil bringt.

Treffen sich die rationalen Spieler immer in diesem Punkt? Ist dieser Punkt immer supotimal? Was nützt mir die Aussage das das ein Nash-Gleichgewicht ist, vor allendingen wenn im Satz davor gesagt wird das das bessere Resultat eine Kooperation ist, die ja grade kein Nash-Gleichgewicht ist?

2.Wieso ist das der einzige nicht pareto-effiziente Zustand? Die Zustände gestehen/schweigen und schweigen/gestehen sind genauso wenig pareto-effizient oder? Im Gegenteil der Zustand ist fast schon metastabil, da er nur durch eine Veränderung beider Parameter eine allgemeine Verbesserung darstellt. Aber diese Metastabilität nennt man ja Nash-Gleichgewicht. (nicht signierter Beitrag von 87.168.157.108 (Diskussion) 22:32, 10. Jul 2011 (CEST))

es stimmt definitiv nicht, dass das nash-gleichgewicht der einzige nicht pareto-effiziente zustand ist. die zustände schweigen/gestehen und gestehen/schweigen sind ebenfalls nicht pareto-effizient. das dilemma besteht darin, dass beim gleichgewicht der payoffs nicht das nash-gleichgewicht gleichzeitig pareto-effizient ist. (nicht signierter Beitrag von 141.53.201.44 (Diskussion) 18:48, 16. Feb. 2012 (CET))

Du hast Recht. Ich habe das im Artikel mal entsprechend geändert. Btw, es ist hier üblich, seinen Artikel mit --~~~~ (zwei Bindestriche und 4 Tilden) zu beenden. --Eulenspiegel1 20:21, 16. Feb. 2012 (CET)

Regeln der Tit for Tat-Strategie

Vielleicht kann man sie etwas ausführlicher darstellen. Bei der optimalen Strategie wird gleich das Vendetta-Problem erörtert. "Auf Deutsch":

1.) Sei nicht neidisch! - Verfolge nur deine Interessen.

2.) Defektiere nicht als erster!, d.h. gib nicht als erster die Zusammenarbeit auf.

3.) Erwidere sowohl Kooperation als auch Defektion (= Nicht-Zusammenarbeit) Biete im ersten Spielzug Koperation an. Dann erwidere einfach alles, was der Gegenspieler im nächsten Zug tut: Prinzip der Gerechtigkeit! Nimmt der andere die Kooperation auf, dann "verzeihe" ihm!

4.) Sei nicht zu raffiniert!

So die Darstellung bei Kerber, Walter: Sozialethik. - Kohlhammer, Stuttgart u.a. 1998, Rn. 124 --Hans-Jürgen Streicher 21:40, 22. Feb. 2012 (CET)

Weblinks

Als Weblink wird unter anderen auch der Link zu der Seite von Michael Winkler angegeben (http://www.michaelwinkler.de/Pranger/040505.html). Hier eine Passage aus seinem Artikel zum Gefangenendilemma: "Ja, so läuft es in der Wirtschaft. Wenn ALLE Schlachthöfe ehrlich spielen und nur deutsche Arbeiter beschäftigen, geht es allen Schlachthöfen gut und die deutschen Schlachter haben Arbeit. Wenn aber der erste Schlachthof polnische Schlachter-Kolonnen einsetzt und damit billiger produziert als seine Konkurrenz, beginnt ein gnadenloser Preiskampf und zuletzt arbeiten alle mit Polen. Schön billig, aber die Familien der arbeitslosen deutschen Schlachter können sich weniger Fleisch leisten und damit haben die Schlachthöfe nicht nur in Geld, sondern auch in Menge weniger Umsatz als zuvor." Auch wenn man sich ein bißchen auf der Seite von Michael Winkler umschaut, wird man zu dem Schluss kommen, dass dieser Link hier bei wikipedia nichts verloren hat. Ich plädiere für das sofortige Löschen des Links. --Schlappschuh (Diskussion) 11:31, 30. Okt. 2012 (CET)

Löschen ist selten gut, aber ich habe den Link durch einen etwas Wissenschaftlicheren ersetzt. Und für das nächste Mal: Sei mutig! Du kannst die Links auch selber ersetzen. Das erspart den Wiki-Usern eine Menge Arbeit.
PS: Willkommen bei Wikipedia. ;-) --Eulenspiegel1 (Diskussion) 17:36, 30. Okt. 2012 (CET)

Oligopol: nicht 1-1 aus Gefangenendilemma herleitbar, da zeitliche Schiene (Wiederholung) vorhanden

m.E. trifft das Oligopol-Beispiel unter "Beispiele: Aus Politik und Wirtschaft" und folglich unten bei "Einfluss auf die Wohlfahrt" nicht ganz zu. Es würde zutreffen, wenn es eine einmalige Handlung wäre, zu einem Zeitpunkt. Allerdings ist davon auszugehen, das "Verrat" oder "Kooperation" im Laufe der Zeit immer wieder gewählt werden müssen, und das der Mit-Oligopolist Kenntnis über eine evtl. geänderte Outputquote erhält.
Außerdem sind m.E. andere Beträge anzusetzen, z.B. K/K: +3/+3; K/V: +1/+5; V/V: +3/+3; aber bei allen mit Verrat(V): +1/+1 in allen Folgezeiten wegen des Kartellzusammenbruchs. (o.ä.)
Langfristig ist Kooperation also in dem schematischen Beispiel sinnvoll.
Verkompliziert wird dies wieder dadurch, wenn ein Unternehmen sich zu einem Zeitpunkt x als stark genug empfindet, den Konkurrenten zunächst zu verraten und bei Aufdeckung des Verrats zu verdrängen, aufzukaufen, oder durch Einschüchterung eine Änderung der Kartellabsprache zu seinen Gunsten herbeizuführen.
Desweiteren kann der Informationsfluss ob der andere verraten hat getäuscht sein, dadurch das Kartell zusammenbrechen obwohl keiner getäuscht hat, oder ein Verrat einige Zeit unentdeckt bleiben.
Was denkt ihr? Gibts es Quellen dazu? --ElTirion (Diskussion) 05:09, 13. Jan. 2013 (CET)

Mehrmaliges (endliches) Spiel

Um das Hin und Her in dem Artikel nicht weiter fortzusetzen, eröffne ich hier mal ne Diskussion. Meine Kritik beginnt mit dem Satz " Andernfalls könnte es sich für eigentlich kooperierende Spieler lohnen, in der letzten Runde zu verraten, weil dafür eine Vergeltung nicht mehr möglich ist.", welcher meiner Meinung nach widersprüchlich ist, da die Spieler hier sowohl kooperierend als auch egoistisch sein sollen. Dies wird nun aber als Grundlage einer Induktion genommen, welche insofern kein Fundament hat. Hier verhält es sich ähnlich wie bei dem "Paradoxon der unerwarteten Hinrichtung".

In dem zitierten Buch "Robert Axelrod, The Evolution of Co-operation" wird hier einleitend von "egoists" gesprochen, die jeder auf seinen Vorteil bedacht, im letzten Zug den jeweils anderen verraten würden. Weiter wird da argumentiert, dass wissend, das der andere im letzten Zug sowieso egoistisch zieht, man auch im vorletzten Zug den anderen verrät usw.. Das Problem ist auch hier, dass in jedem Zug vorausgesetzt wird, dass ich bereits weiß, dass der andere mich ab dem kommenden Zug immer verrät, egal was ich in dem Zug tu. Dass heißt, mein jetziges Verhalten hat keinerlei Einfluss auf die Entscheidungen des anderen. Umgedreht interessiert mich auch nicht, ob der andere in der Vergangenheit kooperativ war. Daraus folgt aber, dass ich jegliches kooperatives Verhalten von Anfang an ausschließe. Das wird meineserachtens auch von dem Autor zu wenig diskutiert, allerdings sollte man da auch beachten, dass das ein Abschnitt aus der Einleitung ist und bestimmt keinen wissenschaftlichen Ansprüchen genügen soll. Insofern bin ich weiter für die Streichung des Absatzes. Hab auch nichts gegen eine richtige Umformulierung, allerdings fällt mir momentan keine ein, die den Sachverhalt in aller Kürze auf den Punkt bringt. --87.175.248.27 14:25, 12. Mär. 2013 (CET)

Es sollte eben der Quelle entsprechen. Da geht es darum, ob Anreize für kooperatives Verhalten bei rationalen Agenten bestehen. Ist gibt es einen letzten Zug, so lohnt es sich nach Axelrod nicht, kooperativ zu sein. Egoist ist m.E. nicht der Name eines Charakters oder Typs, sd. einer Strategie.-- Leif Czerny 15:35, 12. Mär. 2013 (CET)
„Daraus folgt aber, dass ich jegliches kooperatives Verhalten von Anfang an ausschließe.“ Korrekt. Genau das ist der Punkt. Ein (wissentlich) endlich wiederholtes Spiel wird damit de facto One shot (einen Einmalspiel), nur ein endloses bzw. ein mit unbekanntem Ende wiederholtes Spiel ist ein Single Shot. Durch die Backword Induction stellt ein endliches wiederholtes Spiel keinen eigenen Typ dar.--BECK's 15:43, 12. Mär. 2013 (CET)

Hier widerspricht aber sein eigenes Experiment (s. englische Version). Das Problem seiner Beweisführung in diesem Fall ist einfach die Annahme, dass der andere auch "viele" Züge vor dem Ende nie darüber nachdenkt, dass sich kooperatives Verhalten auszahlen könnte und seine Strategie anpasst. Es ist klar, dass ein kooperatives Verhalten sicherlich überdacht wird, umso näher die letzte Runde rückt. Insofern auch der Unterschied zur unendlichen Variante. Das heißt aber nicht, dass man ab Anfang an nie darüber nachdenkt.

Mal konkret an einem Beispiel: nehmen wir an, wir spielen eine Million Runden und ich zeige meinem Gegenüber in den ersten hundert Runden, dass ich kooperativ wäre, mich aber nicht ausbeuten lasse. Mit den meisten Partnern würde man dann wohl ab spätestens Runde 1000 und bis mindestens 1000 Runden vor Schluss kooperativ spielen und gewänne dadurch soviel, dass es auf die ersten und letzten 1000 Runden kaum ankäme. Im direkten Vergleich gewinnt natürlich immer die Verräter-Strategie, aber trotzdem ist die wohl in der Gesamtheit schlecht und somit auch nicht rational oder zumindest nicht die einzig rationale Wahl. Der Beweis ist ohne die Annahme, dass mein Verhalten keinerlei Auswirkung auf die kommenden Züge des anderen hat, ad absurdum geführt.--87.175.248.27 15:58, 12. Mär. 2013 (CET)

Du verkennst den Punkt. Das es vorteilhaft wäre zu kooperieren steht außer Frage. Dennoch gibt es einen Anreiz durch Defektion den Mitspieler zu übervorteilen. Außerdem verhindert man daruch selber übervorteilt zu werden. Daher ist es auch die domintante Strategie. Es ist empirisch belegt, dass in Experimenten sogar Studierende der Wirtschaftswissenschafte, die damit vertraut sind, dem Anreiz zur Defektion erliegen. Um auf dein Beispiel zurückzukommen. 1000 Runden lang habe ich mehr erhalten, indem ich dich über’s Ohr haue, als ich hätte, wenn ich dies nicht getan hätte. Warum sollte ich ab Runde 1001 plötzlich darauf verzichten, wenn ich durch Kooperation sogar weniger hätte?--BECK's 16:23, 12. Mär. 2013 (CET)

Habe mich jetzt nicht wissenschaftlich mit dem Thema auseinandergesetzt, aber wenn ich der englischen Wiki-Seite vertrau, dann ist das Experiment zugunsten der Tit for Tat-Strategie ausgegangen, obwohl die fixe Anzahl N bekannt war. Den Anreiz gibt es auch in der unendlichen Variante nicht, auch da ist die dominante Strategie im Eins gegen Eins jeder anderen überlegen. Der Punkt ist eben der Ausgleich. Und der wird hier verkannt, da immer davon ausgegangen wird, dass der andere Spieler die dominante Strategie wählt, weil es angeblich die einzig rationale Wahl ist.--87.175.248.27 16:32, 12. Mär. 2013 (CET)

Das Experiment ist zugunsten von TFT ausgegangen, weil hier das Gesamtergebnis von unterschiedlichen Spielen gegen unterschiedliche Strategien betrachtet wurde. Vereinfacht. TFT schneidet gegen einen ewigen Defekteur minimal schlechter ab, weil TFT in der ersten Runde kooperiert und dadurch übervorteilt wird. Gegen einen ewigen Kooperateur kooperiert TFT auch immer und erhält so hohe Auszahlungen. Der ewige Kooperateur wird aber im Spiel gegen den Defekteur nur übervorteilt und steht so in der Gesamtbetrachtung schlechter da als TFT (der Defekteur steht unterm strich auch schlechter da, weil neben den drei noch diverse andere Strategien mit dabei waren). Das Experiment war eine Gesamtbetrachtung im Vergleich verschiedener Strategien. Die Strategien waren vorab definiert. Es fanden keine (rationalen) Überlegungen zum Spielvorgehen mehr während des Spiels statt. So hat das mit der Backward Induction kaum was zu tun.--BECK's 16:47, 12. Mär. 2013 (CET)

Wir können sicherlich festhalten, da sind wir uns scheinbar einig, dass die dominante Strategie im Eins gegen Eins jeder anderen Strategie überlegen ist. Das trifft aber sowohl für den endlichen als auch für den unendlichen Fall zu und resultiert einfach aus der Betrachtung, dass in jedem einzelnen Zug die dominante Strategie "gewinnt". Dazu brauchen wir keine "Backward Induction". Andere Strategien entwickeln erst dann ihre Vorteile, wenn sie von mehreren Spielern eingesetzt werden.

Bloß geht es darum in den Absatz? Ich denke nein, denn es soll ja wohl ein Unterschied zwischen der endlichen und unendlichen Variante aufgezeigt werden. Wenn diese sogenannte "Backward Induction" in irgendeiner Weise einem mathematischen Induktionsbeweis genügen soll, sollte man dann erstmal klären, was überhaupt gezeigt werden soll und unter welchen Annahmen. Hierbei wird aber eben nicht betrachtet, dass mein Gegenüber durchaus auch auf mein Verhalten reagiert, d.h. ein angepasste Strategie, wie es z.B. TFT ist, nutzt. Ansonsten kann man da auch nichts rückwärts beweisen, denn bei den Überlegungen zum (k+1)-letzten Zug setze ich ja schon voraus, wie der andere ab dem k-letzten Zug spielen wird und das unabhängig von meiner Wahl.--87.175.248.27 17:04, 12. Mär. 2013 (CET)

Ok ein Versuch mache ich noch: Mir scheint du denkst das Spiel falsch herum, nämlich von Beginn an. Da ist es natürlich plausibel zu kooperien bzw. mit TFT auf kooperation hinauszuwollen, da dies (für beide) ein besseres Ergebnis generiert. Soweit entspricht das deinem Teil der Argumentation. Vollkommen einverstanden. Die Backward Induction setzt nun an, wenn das Spiel nahezu zu Ende ist, der wissentlich letzten Spielrunde. Da kommt der nutzenmaximierende Schweinehund in einem durch, der sich denkt. Hey, ich könnte den Kooperationsgewinn ein letztes Mal generieren, ODER ich mache noch mehr Gewinn, indem ich meinen Spielpartner, der ja so viele Runden lang brav kooperiert hat, über’s Ohr haue. Ist mir doch egal, dass der das im Nachhinein weiß, mich für ein A… hält und zukünftig nicht mehr mit mir kooperieren würde, weil er mir nicht mehr vertraut. Wir sehen uns nie wieder. Vollkommen egal, ob der mich zum Schluss in guter Erinnerung behält. Dann wird mir klar. Mein Mitspieler ist ja auch nicht blöd. Schließlich war er ja auch so schlau bisher immer zu kooperieren anstatt zu versuchen mich über’s Ohr zu hauhen. Hm, dann wird mein Mitspieler also wohl dieselben Überlegungen zur letzten Runde anstellen wie ich und defektieren. In der letzten Runde ist also für mich nichts zu hohlen, da wird mit Sicherheit defektiert. Die Runde kann ich also aus meinen Überlegungen ausblenden. Die letzte Runde, in der ich noch versuchen kann meinen Nutzen durch Defektion zu maximieren ist also die (eigentlich) vorletzte Runde. Hier kommt wieder der nutzenmaximierende Schweinehund in einem durch, der sich denkt. Hey, ich könnte den Kooperationsgewinn ein letztes Mal generieren, ODER ich mache noch mehr Gewinn, indem ich meinen Spielpartner, der ja so viele Runden lang brav kooperiert hat, über’s Ohr haue. Dann wird mir wieder klar. Mein Mitspieler ist ja auch nicht blöd. Hm, dann wird mein Mitspieler also wohl dieselben Überlegungen zu dieser Runde anstellen wie ich und defektieren. In dieser Runde ist also für mich nichts zu hohlen, da wird mit Sicherheit defektiert. Die Runde kann ich also aus meinen Überlegungen ausblenden. Die letzte Runde, in der ich noch versuchen kann meinen Nutzen durch Defektion zu maximieren ist also die Runde davor. uswusf. → Backward Induction. Wenn das nicht hilft, habe ich entweder nicht Verstanden, was genau dein Problem ist oder du verstehst mich nicht. So oder so scheint es mir wenig sinnvoll dies dann weiterzuführen. Hoffe aber es hat doch noch was gebracht. Beste Grüße BECK's 17:38, 12. Mär. 2013 (CET)

Ein Spiel beginnt nun mal am Anfang und genau das ist auch das Problem der "Backward Induction", die versucht, das Spiel von hinten aufzuziehen. Insofern stimmen wir auch in der Betrachtung der letzten Runde überein, wo es natürlich nur die Wahl Defektion geben kann. Nun gehe ich aber Runde für Runde zurück immer davon aus, dass der andere mehr als ein nutzenmaximierender Schweinehund ist ;), was in dem Buch durch "egoists" zumindest auch deutlich gemacht wird. Wo da die "eigentlich kooperierenden Spieler" aus dem Einleitungssatz des Abschnittes bleiben, frag ich mich schon und genau da setzte auch meine ursprüngliche Kritik an.--87.175.248.27 18:22, 12. Mär. 2013 (CET)

Der Gedanke ist, das eben nur bei endlichen Spielen die backwards-induction ein sinnvoller Gedankengang ist, die die Kooperation verhindert. Ob die evtl. fehlerhaft ist und sich analog zum Paradoxon der unerwarteten Hinrichtung verhält - dass mag ich nicht entscheiden, das sollte besser die Fachliteratur tun. -- Leif Czerny 18:32, 12. Mär. 2013 (CET)
Das Paradoxon der unerwarteten Hinrichtung korrespondiert mit der BI nur dahingehend, dass von der letzten Runde ausgehend eine Erkenntnis gewonnen wird, die bis zur ersten Runde reicht. Das entscheidende Paradoxon fehlt bei der BI jedoch, da die Erkenntnis keiner vorherigen Annahme/Ankündigung zuwiderläuft. Hier ist eher das Gegenteil gegeben: Die selbsterfüllende Prophezeiung. Wenn ich von Anfang an defektieren, bringe ich mein Gegenüber im Zweifelsfall dazu es auch zu tun. Wobei das nur theoretisch, da die BI ja beide dazu bringt von Beginn an zu defektieren.--BECK's 20:04, 12. Mär. 2013 (CET)
Nein, das Paradoxon trifft auch beim Gefangenendilemma auf: Aus der Iteration folgt, dass Defektieren die sinnvollste Alternative bei einem endlichen Spiel ist. Versuche zeigen jedoch, dass auch bei einem endlichen Spiel Tit-for-Tat erfolgreicher ist.
Wo liegt der Grund für diesen Widerspruch: Bei der rückwärts generierten Iteration geht man davon aus, dass der Gegenüber absolut rational handelt. Dies ist aber sehr häufig nicht gegeben. Der Gegenüber kann auch ein Tit-for-Tat Programm oder ein Spite oder ein Punisher sein. In all diesen Fällen erhältst du bessere Ergebnisse, wenn du selber Tit-for-Tat spielst. Selbst bei einem endlichen Spiel.
Andauernd deflektieren macht nur Sinn, wenn
  1. Ich weiß, dass der Gegenüber rational handelt.
  2. Der Gegenüber weiß, dass ich rational handle.
Nur wenn diese beiden Punkte erfüllt sind, ist dauerndes deflektieren sinnvoll. Ansonsten ist Tit-for-Tat sinnvoller. Und in dieser Hinsicht unterscheiden sich endliche Spiele nicht von endlosen Spielen. Auch bei endlosen Spielen ist dauernde Deflektion sinnvoller als Tit-for-Tat, falls die beiden oberen Annahmen zutreffen. Und falls einer der beiden oberen Annahmen nicht zutrifft, ist Tit-for-Tat besser, egal ob endlich oder unendlich.
Von daher haben wir hier ebenfalls das Paradoxon der unerwarteten Hinrichtung. --Eulenspiegel1 (Diskussion) 03:46, 27. Jul. 2013 (CEST)
Ich habe im folgenden mal eine Tabelle hinzugefügt, die das ganze verdeutlicht. Zu der Bedeutung der einzelnen Zellen in der Tabelle: In der ersten Spalte steht das Programm, das du benutzt. In der ersten Zeile steht das Programm, das der Gegenüber benutzt. In der Zelle dazwischen steht dann die Punktzahl, die du gegen diesen speziellen Gegner erhältst. Es gibt n=10 Runden. Dies ist den Algorithmen bekannt. Als Programme habe ich die folgenden gewählt:
  1. Spiele alle 10 Runden Tit-for-Tat.
  2. Spiele 9 Runden Tit-for-Tat und danach "always defect".
  3. Spiele 8 Runden Tit-for-Tat und danach "always defect".
  4. Spiele 7 Runden Tit-for-Tat und danach "always defect".
  5. ...
  6. Spiele 2 Runden Tit-for-Tat und danach "always defect".
  7. Spiele 1 Runde Tit-for-Tat und danach "always defect".
  8. Spiele 0 Runden Tit-for-Tat und danach "always defect". (Spiele also quasi immer "always defect".)
Die Zahl in der ersten Zeile bzw. ersten Spalte gibt nun an, wie viele Runden der Algorithmus Tit-for-Tat spielt, bevor er auf "always defect" wechselt. (Das Programm mit dem Namen "10R" spielt also alle 10 Runden Tit-for-Tat, während das Programm "0R" von Anfang an defect spielt.) Wir erhalten die folgende Auszahlungsmatrix:
  10R 9R 8R 7R 6R 5R 4R 3R 2R 1R 0R
10R   55 51 47 43 39 35 31 27 23 19 370
9R 60   51 47 43 39 35 31 27 23 19 375
8R 56 56   47 43 39 35 31 27 23 19 376
7R 52 52 52   43 39 35 31 27 23 19 373
6R 48 48 48 48   39 35 31 27 23 19 366
5R 44 44 44 44 44   35 31 27 23 19 355
4R 40 40 40 40 40 40   31 27 23 19 340
3R 36 36 36 36 36 36 36   27 23 19 321
2R 32 32 32 32 32 32 32 32   23 19 298
1R 28 28 28 28 28 28 28 28 28   19 271
0R 24 24 24 24 24 24 24 24 24 24   240
Die letzte Spalte gibt an, wieviel Punkte der Algorithmus sammelt. (Der einfacheren Zahlen wegen, habe ich folgende Auszahlungsmatrix zugrunde gelegt: 5 Punkte, wenn man als einziger verrät, 0 Punkt, wenn man verraten wird, 1 Punkt, wenn beide verraten, und 3 Punkte, wenn beide kooperieren. Aber es funktioniert auch mit jeder anderen Auszahlungsmatrix.)
Man sieht deutlich, dass die Algorithmen am meisten Punkte sammeln, die 8-9 Runden Tit-for-Tat spielen und erst in der letzten oder vorletzten Runde auf "always defect" umsteigen. Der Algorithmus, der immer Tit-for-Tat spielt, hat auch noch ein recht gutes Ergebnis und landet auf dem vierten Platz. Der Algorithmus "always defect" landet in unseren Spiel mit 10 Runden (und wo bekannt ist, dass es 10 Runden sind) jedoch auf dem letzten Platz. --Eulenspiegel1 (Diskussion) 04:59, 27. Jul. 2013 (CEST)

Abschnitt "Beschreibung der Situation"

Da der Artikel jetzt wieder für Lesenswert kandidiert, möchte ich doch noch einen Einwand gegen Beck's Änderungen vom Oktober 2010 bringen, der mir schon damals auf der Zunge bzw. auf den Fingerspitzen lag. Ich finde, dass die Version von September 2010 im o.g. Abschnitt instruktiver als die jetzige war, weil sie das Augenmerk auch noch auf die wichtige Rolle legte, die der Änderung der Spielregeln zukommt. Die praktische Anwendung des Phänomens Gefangenendilemma ist ja nicht, dass es regelmäßig von vorne herein vorliegt, (denn seine Analyse ist trivial, die schafft selbst der dümmste Kriminelle) sondern dass es oft durch Änderungen der Rahmenbedingungen (z.B. Gesetzgebungsverfahren) erst herbeigeführt werden kann. Ich finde daher, dass man diesen Aspekt etwas mehr in den Vordergrund stellen sollte, so wie es in der alten Version der Fall war. Zur Beschreibung des Dilemmas selbst ist das zwar nicht zwingend notwendig, aber für den Gesamtzusammenhang würde ich es für besser halten. --Grip99 02:04, 15. Jul. 2013 (CEST)

Entschuldige bitte mein schlechtes Gedächtnis und meine schlechten Augen. Weder sehe ich in der von dir verlinkten Version in besagtem Abschnitt etwas zur Änderung der Spielregeln noch wüsste ich im Oktober 2010 etwas dahingehendes geändert zu haben. Nicht beim ersten Mal am 1. Oktober 2010, nicht beim zweiten Mal am 4. Oktober 2010 und nicht beim dritten Mal am 25. Oktober 2010. Mag sein, dass der Tag einfach zu lang war und ich den Wald vor lauter Bäumen nicht mehr finde, aber gegenwärtig weiß ich leider nicht was du meinst. Gruß BECK's 23:08, 15. Jul. 2013 (CEST)
Sorry für die Verwirrung, ich hatte zwar die richtige Version, aber den falschen Abschnitt verlinkt. Ich meinte [1]. Es geht um den Absatz "Die Ausgangslage" und die Strategie zum Brechen des Schweigens. Das hat mir, als ich den Artikel das erste Mal las, sehr gut gefallen und war dann auf einmal plötzlich verschwunden. --Grip99 01:07, 21. Jul. 2013 (CEST)

Kooperationsrate im echten Leben

Offenbar gibt es bei tatsächlichen Gefängnisinsassen abweichendes Verhalten gegenüber nur theoretisch Betroffenen: Prisoners and their dilemma: Menusch Khadjavi & Andreas Lang /via Fefe --Sujalajus (Diskussion) 21:23, 24. Jul. 2013 (CEST)

Was kann man jetzt daraus schließen? Studenten vertrauen beim ersten Mal eher als Gefängnisinsassen darauf, dass der Kollege auch dicht hält? Klingt plausibel. --Grip99 03:08, 27. Jul. 2013 (CEST)

Kandidatur auf WP:KALP vom 13. bis 27. Juli 2013 (Ergebnis: vorerst keine Auszeichnung)

Das Gefangenendilemma ist ein zentraler Bestandteil der Spieltheorie. Bei dem Dilemma handelt es sich um ein Spiel mit zwei Spielern. Die Spieler haben die Möglichkeit zusammenzuarbeiten, um eine hohe Auszahlung zu erzielen, oder können sich für eine geringere Auszahlung gegenseitig verraten.

Lesenswert Gut geschrieben, übersichtlich und trotzdem tiefgehend. --Zulu55 (Diskussion) Unwissen 12:20, 13. Jul. 2013 (CEST)

warum wurden die hauptautoren Hutschi und Beck's nicht über die kandidatur informiert (siehe Benutzer Diskussion:Hutschi und Benutzer Diskussion:Beck's)? --Jbergner (Diskussion) 13:27, 13. Jul. 2013 (CEST)

Bei mir geht grade das Contributors-Tool nicht. Ferner: Automatisierungsvorschlag siehe deine Diskussionsseite. Gruß --Zulu55 (Diskussion) Unwissen 13:41, 13. Jul. 2013 (CEST)
Hauptautoren sind jetzt informiert. Danke für den Hinweis. --Zulu55 (Diskussion) Unwissen 17:46, 13. Jul. 2013 (CEST)
Danke für Information ~~Hutschi
Auch meinerseits Danke für die Inkenntnissetzung. BECK's 11:45, 14. Jul. 2013 (CEST)


Abwartend. Der Artikel ist inhaltlich soweit in Ordnung, weißt jedoch nach meiner Auffassung bislang einen entscheidenden Mangel auf, der einer Auszeichnung im Wege steht: Der gesamte letzte Teil, bestehend aus mehreren Abschnitten, ist komplett ohne Belege. Es werden in einem Abschnitt beispielsweise Einflussfaktoren erörtert, ohne dass nur eine einzige Quelle vorhanden ist. Von einem ausgezeichneten Artikel ist in besonderem Maße zu erwarten, dass triviale Inhalte auf seriöse Belege zurückgreifen. Schließlich handelt es sich bei solchen Seiten um das Aushängeschild des Projekts. In gegenwärtigem Zustand ist der Artikel daher nach meinem Dafürhalten nicht auszeichnungsfähig, ungeachtet wie gut er geschrieben ist. Da man Quellen jedoch noch nachtragen kann, erfolgt erstmal ein abwartendes Votum. --Gordon F. Smith 20:14, 13. Jul. 2013 (CEST)

Abwartend Das ist ein sehr guter Artikel, der mir irgendwie lange Zeit nicht richtig aufgefallen ist. Die Darstellung ist im Allgemeinen sehr gut. Die Einleitung ist mir irgendwie nicht knackig genug und "zu allgemein", mir fällt aber auch grad nichts ein, was dort noch hin müsste. Bei der "Entwicklung und Namensgebung" fange ich dann an, den ein oder anderen Einzelnachweise zu vermissen. Von der Darstellung her sollte man vllt. überlegen hier lieber auf Wiki-Syntax-Tabellen zu verzichten und eine "hübsche" Vierfeldermatrix wirklich zu zeichnen, und sanft farblich unterlegen. Das darf an der Stelle schon mal etwas weniger mathematisch sein, zumindest finde ich die Form unter "Beschreibung der Situation" auch schwierig lesbar (also besser eine Grafik hier, Vorlagen gibts genug). Es könnte auch noch ein paar mehr Sätze zum zugrundliegenden Menschenbild, zur Moralphilosophie fallen, es mittig bei Vertrauen erwähnt: William Poundstone weist darauf hin, dass es sich nicht um ein Dilemma handele, wenn man auf Grund des Vertrauens sofort und immer Kooperation wählt.[1] Offenbar gibt's kein Problem, wenn sich alle "anständig" benehmen. Was sind denn nun wirklich die Modellannahmen? Wie sieht es in der empirischen Realität aus? Das war mein erster Eindruck. Das sind aber alles Kleinigkeiten, der Artikel hat schon eine sehr gute Struktur und großes Potenzial :) Gruß, --WissensDürster (Diskussion) 09:27, 14. Jul. 2013 (CEST)

Abwartend Wie meine Vorredner, eigentlich schon ein recht guter Artikel, aber die Belegstruktur überzeugt noch nicht, bei weiten Teilen des Textes ist nicht ganz klar, woher sie stammen. Inhaltlich fällt mir auf:

  • Seitdem hat sich die Bezeichnung Gefangenendilemma für sämtliche Interaktionsbeziehungen mit denselben Rahmenbedingungen (zwei Akteure, je zwei Handlungsalternativen, symmetrische Auszahlungsmöglichkeiten, keine Möglichkeit der Absprache, wechselseitige Interdependenzen) etabliert. Dann wären aber das Chicken-Spiel oder das Battle of the Sexes auch Gefangenendilemmata. Das scheint mir merkwürdig.
  • Die rationalen Spieler treffen sich in einem Punkt, der in diesem Fall als Nash-Gleichgewicht bezeichnet wird Ist grundsätzlich korrekt, aber nicht extrem genau: Es liegt ein Gleichgewicht in dominanten Strategien vor, nicht "nur" ein NGG
  • Der Abschnitt zum unendlich wiederholten Spiel ist etwas kurz und unspezifisch. Natürlich muss da nicht die ganze Theorie wiederholter Spiele dargelegt werden, aber ein Verweis auf das Folk-Theorem und seine Implikationen für das Spiel hier sollte schon hinein, finde ich. --SEM (Diskussion) 09:45, 14. Jul. 2013 (CEST)
Hab mal meine Literaturbasis durchforstet und eine Reihe von Einzelnachweisen eingefügt. Unter anderem wie gewünscht zur Namensgebung. Mehr kann ich wegen beruflicher Auslastung erstmal nicht tuen. Vielleicht kümmert sich der Antragsteller ja etwas um seine Kandidatur und geht auf die Hinweise der votierenden ein. Gruß BECK's 20:33, 14. Jul. 2013 (CEST) P. S.: Das Battle of the Sexes ist in der Tat ein gängiges Bsp. für ein Gefangenendilemma.--BECK's 20:33, 14. Jul. 2013 (CEST)

Besten Dank für die Ergänzungen einiger Belege. Leider sind jedoch immer noch einige Passagen unbelegt, wie beispielswiese Evolutionsdynamische Turniere und Optimale Strategie. Auch in anderen Abschnitten ist die Dichte der Einzelbnachweise sehr dünn, weshalb ich mich noch nicht zu einem lesenswert durchringen kann. --Gordon F. Smith 09:56, 19. Jul. 2013 (CEST)

Mit 1x Lesenswert und 3x Abwartend erhält der Artikel vorerst keine Auszeichnung.
Da seit mehr als 10 Tagen keine substantiellen Veränderungen am Artikel mehr vorgenommen wurden,
schließe ich hiermit die Kandidatur nach nunmehr vier Tagen Verlängerung.
Übertragen von KALP durch --Krib (Diskussion) 07:14, 27. Jul. 2013 (CEST)

Was ist das Gefangenendilemma?

Eben bin ich in einem Text über diesen dort nicht erklärten Begriff "Gefangenendilemma" gestolpert. Hier auf Wikipedia wollte ich mir einen groben Überblick verschaffen und habe den kurzen Einleitungstext gelesen.
Folge: Ich habe keine Ahnung. Ich weiß jetzt, dass es "ein Spiel" sei, was aber

  1. 1. dem Begriff Gefangenen"dilemma" an sich (meines Verständnisses nach, man möge mich korrigieren)
  2. 2. dem Kontext meines Satzes

komplett widerspricht. Allein die ersten beiden Sätze des Artikels ergeben für mich als Unwissenden keinerlei Sinn. Wie soll ich verstehen, zu welcher Theorie das Gefangenendilemma ein integraler Bestandteil gehört oder mit was es nicht verwechselt werden darf (Gefangenenparadoxon, was ich auch nicht kenne), wenn ich keinerlei Ahnung habe, was das Gefangenendilemma eigentlich ist. Der 3. Satz hilft auch nicht weiter, dann nach dessen Lektüre (Gefangenendilemma = Spiel mit 2 Spielern.) verstehe ich gar nichts mehr, bzw. noch weniger, falls es ein weniger von "nichts" gibt.
Da überrascht mich die Kandidatur auf "lesenswert". Mag sein, dass der Rest des Artikels gut ist, aber nicht der Anfang und schon gar nicht für einen, der sich als Unwissenden einen Überblick schaffen will. Grüße--84.59.192.115 14:12, 18. Jun. 2015 (CEST)

Gerade Unwissende verwechseln das Gefangenendilemma und das Gefangenenparadoxon sehr häufig. Daher ist es denke ich schon wichtig, gleich am Anfang darzustellen, dass das zwei verschiedene Sachen sind. Und als Unwissender weist du gleich nach dem ersten Satz, dass es nicht zur Physik, nicht zur Mathematik, nicht zu Jura, nicht zu den Wirtschaftswissenschaften, sondern halt zur Spieltheorie gehört. Damit hast du schonmal einen groben Überblick, zu welcher wissenschaftlichen Teildisziplin das ganze überhaupt gehört. Damit sind im ersten Absatz schonmal die grundlegenden Informationen enthalten.
Wenn du dich dann näher für das Spiel interessierst, lese dir einfach den zweiten Absatz durch.
zu 1. Entweder er verrät seinen Freund, wodurch er eine geringere Strafe erhält. Oder er bleibt seinem Freund gegenüber treu, wodurch er selber jedoch eine höhere Strafe erhält. Diese Entscheidung ist schon ein Dilemma.
zu 2. Du darfst ein Spiel aus der Spieltheorie nicht unbedingt mit einem Spiel, das du in Läden kaufen kannst, verwechseln. Spiele aus der Spieltheorie sind halt häufig abstrakte Produkte, die man nicht spielt, um Spaß zu haben. Nicht falsch verstehen: Du kannst das Gefangenendilemma spielen. Das wäre aber extrem langweilig. Viel interessanter ist, dass man anhand dieses Spieles theoretische Probleme untersuchen kann. Von daher: Ja, es ist ein Spiel, das man spielen kann. Nein, es ist kein Spiel, dass man so zum Spaß in seiner Freizeit spielt. --Eulenspiegel1 (Diskussion) 22:29, 21. Jun. 2015 (CEST)
Das Dilemma besteht doch nicht darin, dass jeder der beiden Gefangenen sich durch „Verrat“ eine niedrigere Strafe „erkaufen“ kann und bei „Treue“ ein höhere Strafe erhält, ganz abgesehen davon, dass das gar nicht stimmt. Das Gefangenendilemma ist kein moralisches Dilemma. Diese Antwort zeigt leider, dass du nicht verstanden hast, worum es bei spieltheoretischen Fragestellungen geht (es geht nie um ein moralisches Dilemma). Der Rest deiner Antwort ist leider entsprechend. Ich empfinde das nicht als angemessene Antwort auf die durchaus nicht unberechtigte Kritik der IP. Wir sollten darüber nachdenken, ob die Einleitung in dieser Form wirklich optimal ist.
Troubled @sset  Work    Talk    Mail   09:13, 22. Jun. 2015 (CEST)
@Troubled asset: Als erstes möchte ich dich bitten, von der persönlichen Ebene runterzukommen. Das ist einfach nicht angebracht und du solltest das auch nicht nötig haben. Danke.
Zweitens ist die Antwort von Eulenspiegel eine ganz normale Antwort auf eine ganz normale Frage, die auch durchaus vertretbar ist und auch als seine Einschätzung zu dem Thema gekennzeichnet ist.
Drittens sehe ich die Einleitung ebenfalls als durchaus verbesserungswürdig an. Insbesondere sollte sie nach der fachlichen Eingruppierung sagen, was das Gefangenendilemma ist, und nicht was es nicht ist.
Viele Grüße, --Quartl (Diskussion) 10:10, 22. Jun. 2015 (CEST)
@Quartl: Ich hatte mich einfach geärgert, dass jemand, der eine ernsthafte und in meinen Augen berechtigte Kritik äußert, mit sachlich völlig falschen Argumenten abgespeist wird. Auch durch Sätze wie „Das Wort "Dilemma" im Namen kommt daher, dass der Gefangene in dem Spiel nunmal vor einem Dilemma steht“ zu unterstellen, der andere wüsste nicht einmal, was ein Dilemma ist, erachte ich als grenzwertig unverschämt gegenüber dem Fragenden. Das war nicht der Inhalt der Frage.
Wenn diese Antwort eine „ganz normale Antwort“ war, spricht das nicht für die Qualität der Argumente auf unseren Diskussionsseiten. Jedenfalls empfand ich sie nicht als angemessene Antwort, und deshalb auch meine etwas schärfere Erwiderung. Wenn du auch den Kollegen Eulenspiegel1 in deine Missfallensäußerung einbezogen hättest, würde ich diese Kritik an meiner Wortwahl gelten lassen. So ist das doch etwas einseitig.
Grüße zurück, Troubled @sset  Work    Talk    Mail   11:10, 22. Jun. 2015 (CEST)
Meine Kritik an deiner Antwort bezieht sich auf den von dir angeschlagenen Ton und nicht auf den Inhalt. Du kannst gerne sagen, dass du die Antwort als nicht angemessen empfindest, aber du darfst deinem Gegenüber nicht Unverständnis unterstellen. Ein respektvoller Umgang miteinander sollte absolut selbstverständlich sein. Ich hoffe, du siehst das ein.
Zudem ist falsches wortwörtliches Zitieren mehr als nur unhöflich, denn du legst dem anderen damit Worte in den Mund, die er so nicht gesagt hat. Ich hoffe, auch das siehst du ein.
Ich denke, wir sollten die Artikeldiskussion hiermit nicht weiter belasten. Für Rückfragen biete ich dir gerne meine persönliche Diskussionsseite an. Grüße, --Quartl (Diskussion) 11:42, 22. Jun. 2015 (CEST)
@ Troubled asset
  1. Ich habe nie behauptet, dass das ganze ein moralisches Dilemma sei. Wie kommst du darauf?
  2. Ich habe der IP auch nie unterstellt, dass sie nicht wüsste, was ein Dilemma ist. Aber sie hatte gefragt, worin beim Gefangenendilemma das Dilemma bestünde. Und ich habe ihr erklärt, worin das Dilemma besteht. Ich habe ihr nicht erklärt, was ein Dilemma ist.
  3. Und natürlich stimmt es, dass man, wenn man sich für Verrat entscheidet eine niedrigere Strafe erhält und bei der Entscheidung für Kooperation eine höhere Strafe:
1. Fall: Mitspieler wählt Kooperation.
Wenn ich selber auch Kooperation wähle, bekomme ich 2 Jahre Haft. Wenn ich Verrate wähle, bekomme ich 1 Jahr. Das heißt, wenn ich mich für Verrat entscheide, bekomme ich eine geringere Strafe.
2. Fall: Mitspieler wählt Verrat.
Wenn ich Kooperation wähle, bekomme ich 6 Jahre Haft. Wähle ich dagegen Verrat, bekomme ich nur 4 Jahre Haft. Das heißt, wenn ich mich für Verrat entscheide, bekomme ich eine geringere Strafe.
--Eulenspiegel1 (Diskussion) 20:48, 22. Jun. 2015 (CEST)
@Eulenspiegel1: Die von dir verwendete Formulierung „Entweder er verrät seinen Freund, wodurch er eine geringere Strafe erhält. Oder er bleibt seinem Freund gegenüber treu, wodurch er selber jedoch eine höhere Strafe erhält“ ist die typische Formulierung samt typischer Wortwahl eines moralischen Dilemmas („den Freund verraten“ für einen persönlichen Vorteil, „dem Freund treu bleiben“ und für ihn länger ins Gefängnis gehen) und nicht die Formulierung einer spieltheoretischen Frage. Allein schon die Qualifizierung des anderen Gefangenen als „Freund“ hebt die Fragestellung völlig unnötigerweise auf eine persönliche Ebene, dabei sind das Dilemma und die daraus resultierenden Überlegungen völlig unabhängig von der Beziehung der Gefangenen – auch wenn die beiden sich gar nicht kennen, stehen sie vor dem exakt gleichen Dilemma. Und natürlich stimmt es eben nicht, „dass man, wenn man sich für Verrat entscheidet, eine niedrigere Strafe erhält, und bei der Entscheidung für Kooperation eine höhere Strafe“. Das stimmt nur, wenn der andere kooperiert. Wenn der andere aufgrund der gleichen Überlegungen ebenfalls nicht kooperiert, bekommen beide eine höhere Strafe. „Verrat“ – obwohl er subjektiv erfolgversprechend scheint – bringt also nicht unbedingt einen Vorteil, sondern nur unter Bedingungen, auf deren Eintreten man keinen Einfluss hat, weil sie von Entscheidungen der anderen Spieler abhängen. Dieses Dilemma – dass jede Entscheidung, auch die subjektiv bzw. egoistisch richtige, letztlich nachteilig sein kann, während die altruistische Kooperation besser sein kann, aber nur, wenn der andere sich auch dafür entscheidet – ist der Kern spieltheoretischer Fragestellungen, und nicht „soll ich den Freund verraten“ oder Ähnliches.
Ich habe mir einen Anschiss eine Rüge vom Kollegen Quartl eingehandelt, weil ich geschrieben habe, dass ich bei den von dir verwendeten Formulierungen nicht den Eindruck habe, dass du den Kern des Problems und die Basis spieltheoretischer Fragestellungen vollumfänglich verstanden hättest. Ich werde das daher nicht wiederholen. Ich bleibe aber dabei, dass jemandem, der nicht schon weiß, worum es geht, bei den von dir gewählten Formulierungen die entscheidenden Punkte nicht klarer werden.
Troubled @sset  Work    Talk    Mail   11:40, 24. Jun. 2015 (CEST)
1) Wenn für dich "Freund" eine persönlichere Ebene als "Mitspieler" ist, dann ist das dein subjektives Empfinden. Mache mich aber bitte nicht für dein subjektives Empfinden verantwortlich. Wenn du willst, kann ich zukünftig aber gerne von "Mitspieler" anstatt von "Freund" sprechen.
2) Richtig. Es ist vollkommen unerheblich, ob sich die beiden kennen oder nicht. (Ausnahme: Master-and-Servant Algorithmus. Aber auf den würde ich in der Einleitung nicht eingehen wollen.)
3) Falsch. Auch wenn der andere Verrät wählt, gilt: Wenn ich selber verrate bekomme ich eine niedrigere Strafe als wenn ich kooperiere. Schau dir die Fallunterscheidung doch mal an. Ich kann das ganze auch gerne nochmal mit Zahlen schreiben:
1. Fall: Mitspieler wählt Kooperation.
„Entweder ich verrate meinen Mitspieler, wodurch ich eine geringere Strafe erhalte (Nur 1 Jahr). Oder ich bleibe dem Mitspieler gegenüber treu, wodurch ich selber jedoch eine höhere Strafe erhalte (2 Jahre)“
2. Fall: Mitspieler wählt Verrat.
„Entweder ich verrate meinen Mitspieler, wodurch ich eine geringere Strafe erhalte (Nur 4 Jahre). Oder ich bleibe dem Mitspieler gegenüber treu, wodurch ich selber jedoch eine höhere Strafe erhalte (6 Jahre)“
Du siehst: Selbst wenn der Mitspieler verrät, bekomme ich durch Verrat eine niedrigere Strafe als durch Kooperation. Es stimmt einfach nicht, dass mir Verrat nichts bringt, wenn der Mitspieler auch Verrat wählt. Verrat ist für mich immer die bessere Option, unabhängig davon, was der Gegenüber wählt. (Und falls du mir nicht glaubst, rechne es doch einfach mal nach.)
Und nochmal: Das Dilemma besteht nicht darin, dass meine Entscheidung für mich nachteilig ist. Das Dilemma besteht darin, dass meine Entscheidung für den Mitspieler nachteilig ist. (Bzw. für meinen Mitspieler besteht dessen Dilemma darin, dass seine Entscheidung für mich nachteilig ist.)
Aber ich kann es nicht oft genug wiederholen: Verrat ist für mich immer die bessere Entscheidung. Vollkommen egal, was der andere wählt. (Das ändert sich später im unendlichen Spiel. Aber das Original ist das einmalige Spiel.) --Eulenspiegel1 (Diskussion) 18:11, 24. Jun. 2015 (CEST)
  • „Das Dilemma besteht darin, dass meine Entscheidung für den Mitspieler nachteilig ist.“ Das ist doch Unsinn. Ob meine Entscheidung für den Mitspieler gut oder schlecht ist, ist mir völlig wurscht.
  • „Verrat ist für mich immer die bessere Entscheidung.“ Natürlich nicht. Wenn beide kooperieren, ist das für beide besser, als wenn beide nicht kooperieren. Das ist ja der springende Punkt, dass die auf den ersten Blick in jedem Fall bessere Entscheidung („Verrat“) eben keineswegs immer die tatsächlich bessere Entscheidung ist.
Auf die Gefahr hin, dass mich Quartl wieder rügt: Du hast nicht verstanden, worum es geht. Troubled @sset  Work    Talk    Mail   18:40, 24. Jun. 2015 (CEST)
Nein, du hast nicht verstanden, worum es geht. Du hast keinen Einfluss auf die Entscheidung deines Mitspielers. Du kannst nicht entscheiden, ob dein Mitspieler Verrat oder Kooperation wählt. Du kannst nur entscheiden, was du selber wählst. Daher kannst du gar nicht zwischen "Beide wählen Kooperation" und "Beide wählen Verrat" entscheiden. Du kannst nur entscheiden, ob du selber Kooperation oder Verrat wählst. Was dein Mitspieler wählt, darauf hast du keinen Einfluss.
Daher: Das beste für dich ist, wenn dein Mitspieler Kooperation und du Verrat wählst. "Mitspieler wählt Kooperation und du wählst Verrat" ist besser als "Beide wählen Kooperation."
Und wenn beide Verrat wählen, ist das besser, als wenn du der einzige bist, der Kooperation wählt. "Beide wählen Verrat" ist besser als "Mitspieler wählt Verrat und ich wähle Kooperation."
Ich bin mir nicht sicher, wo dein Verständnisfehler liegt: Entweder glaubst du, dass dein Mitspieler die gleiche Entscheidung wie du triffst. Das ist falsch!
Oder du verstehst nicht, wie man optimale Entscheidungen aussucht. In diesem Fall: Du machst eine Fallunterscheidungen von all den Sachen, auf die du keinen Einfluss hast (in diesem Fall also die Entscheidungen deines Gegenübers). Und dann schaust du dir für jeden Fall an, was die beste Entscheidung für dich ist.
Natürlich ist "Beide kooperieren" besser als "Beide Verraten". Aber das liegt nicht daran, dass du Kooperation gewählt hast. Das liegt daran, dein Mitspieler Kooperation gewählt hast.
Mal fünf simple Fragen.
  1. Wenn dein Mitspieler "Kooperation" wählt, was ist in diesem Fall die beste Entscheidung für dich?
  2. Wenn dein Mitspieler "Verrat" wählt, was ist in diesem Fall die beste Entscheidung für dich?
  3. Wenn du nicht weißt, ob dein Mitspieler "Verrat" oder "Kooperation" wählt, was ist in diesem Fall die beste Entscheidung für dich?
  4. Ich hatte weiter oben einen Satz unter den Punkt 1. Fall geschrieben. Stimmst du diesem Satz zu?
  5. Ich hatte weiter oben einen Satz unter den Punkt 2. Fall geschrieben. Stimmst du diesem Satz zu?
Vielleicht lässt sich mit der Beantwortung dieser fünf simplen Fragen das Problem eingrenzen. --Eulenspiegel1 (Diskussion) 19:08, 24. Jun. 2015 (CEST)
Du schreibst:„Natürlich ist "Beide kooperieren" besser als "Beide Verraten". Aber das liegt nicht daran, dass du Kooperation gewählt hast. Das liegt daran, dein Mitspieler Kooperation gewählt hast.“ Wenn wir beide kooperieren, bedeutet das doch wohl, dass wir beide Kooperation gewählt haben, oder? Es liegt also sehr wohl auch daran, dass auch ich Kooperation gewählt habe, oder? Die Unlogik und Widersprüchlichkeit deiner Argumentation lässt mich ehrlich gesagt ratlos zurück.
Solange du die beiden Aussagen
  • „Natürlich ist "Beide kooperieren" besser als "Beide Verraten"“ und
  • „Verrat ist für mich immer die bessere Entscheidung“
für gleichzeitig richtig hältst, was du offensichtlich tust, sind weitere Diskussionen sinnlos.
Bitte nimm keine Veränderungen am Artikel ohne vorgängige mehrheitliche Zustimmung auf der Disk vor.
Troubled @sset  Work    Talk    Mail   21:24, 24. Jun. 2015 (CEST)
Wenn du nicht mal in der Lage bist, fünf simple Fragen zu beantworten, sind weitere Diskussionen mit dir sinnlos. Von Quartl, der sich in der Materie auszukennen scheint, habe ich ja bereits die Zustimmung. (Ein Kapitel tiefer.) --Eulenspiegel1 (Diskussion) 23:39, 24. Jun. 2015 (CEST)

Ich habe nun die Einleitung entsprechend überarbeitet. Hoffentlich wird jetzt klarer, was das Dilemma ist. Viele Grüße, --Quartl (Diskussion) 14:39, 22. Jun. 2015 (CEST)

Dilemma

Bei einem Dilemma geht es darum, dass man zwischen zwei Optionen entscheiden muss, wobei keine der beiden Optionen eindeutig besser ist. So, wie es im Augenblick dort steht, haben wir jedoch kein Dilemma. Der Gefangene hat die Wahl zwischen Option A, bei der er eine geringe Strafe bekommt und der Option B, bei der er straffrei ausgeht. Hier ist eindeutig Option B die bessere Wahl. Damit das ganze ein Dilemma wird, muss auch Option B einen Nachteil beinhalten. --Eulenspiegel1 (Diskussion) 18:48, 23. Jun. 2015 (CEST)

Der Idealfall tritt nur dann ein, wenn der andere kooperiert. Der Haken steht im folgenden Satz. Viele Grüße, --Quartl (Diskussion) 19:15, 23. Jun. 2015 (CEST)
Richtig, der Idealfall für mich ist: "Ich verrate und der andere kooperiert." Aber ob ich kooperiere oder nicht, hat doch keine Auswirkungen auf den anderen.
Denn wenn der andere verrät, dann ist Verrat für mich die bessere Alternative. Und wenn der andere kooperiert, dann ist Verrat auch für mich die bessere Alternative. Es ist vollkommen egal, ob der andere nun verrät oder kooperiert, Verrat ist für mich immer die bessere Alternative. Das Dilemma tritt erst auf, wenn man sich klarmacht, dass die für mich optimale Entscheidung negativ für den Gegenüber ist.
Um das zu verdeutlichen 2 Beispiele:
  1. Angenommen, der Gegenüber möchte möglichst lange ins Gefängnis. Dann wählt er Kooperation und ich Verrat. Kein Dilemma!
  2. Oder angenommen, der Gegenüber geht immer straffrei aus (Variante "Diplomatische Immunität"), dann wähle ich immer Verrat und der Gegenüber wählt irgend etwas. Kein Dilemma!
Das Dilemma entsteht doch erst in dem Augenblick, wo durch die Wahl, die für mich günstig ist, der Gegenüber etwas Ungünstiges erhält. Solange das nicht der Fall ist, habe ich kein Dilemma.
Du schreibst ja selber: "In beiden Fällen droht jedoch eine wesentlich höhere Strafe, falls sich der andere Gefangene nicht wie erhofft verhält." Und gerade, weil das in beiden Fällen auftritt, wäre das alleine kein Dilemma. Schau dir meine beiden obigen Beispiele an. Da tritt das auch in beiden Fällen auf. Trotzdem sind sie kein Dilemma. Im Gegenteil: Wenn es nur in einem Fall auftreten würde, dann wäre das ein Dilemma. Dein Absatz wäre richtig für das folgende Beispiel:
  • Der Spieler kann zwischen Sicherheit und Risiko wählen. Wenn er Sicherheit wählt, bekommt er immer 3 Jahre. Wenn er Risiko wählt, hat er die Chance auf 1 Jahr (falls der andere Sicherheit wählt) bzw. bekommt 7 Jahre, falls der andere ebenfalls Risiko wählt.
In diesem Beispiel wäre dein Absatz richtig. Hier ist es tatsächlich vollkommen egal, was der andere bekommt. Aber im Original-Gefangenendilemma entsteht das Dilemma erst dadurch, dass der Gegenüber ein schlechteres Ergebnis bekommt, falls ich mich für die (für mich) optimale Option entscheide. --Eulenspiegel1 (Diskussion) 21:32, 23. Jun. 2015 (CEST)
Das Problem ist offenbar, dass es bei dem Gefangenendilemma mehrere Dilemmas gibt:
  • ein Entscheidungsdilemma: der Gefangene muss sich zwischen zwei Alternativen A und B entscheiden, die beide unangenehme Folgen haben können
  • ein moralisches Dilemma: die rationale Entscheidung eines Gefangenen verschlechtert die Lage für den anderen Gefangenen
  • ein soziales Dilemma: rationale individuelle Entscheidungen führen zu einem schlechteren kollektiven Ergebnis
Ich hatte mich für die naheliegende erste Variante entschieden, weil hier Rationalität noch keine Rolle spielt. Die moralische Komponente wird zwar häufig vernachlässigt, wenn du aber möchtest kannst du hierzu gerne noch einen Satz ergänzen. Das soziale Paradox wird ein paar Sätze weiter erwähnt. Viele Grüße, --Quartl (Diskussion) 09:37, 24. Jun. 2015 (CEST)
Die moralische Komponenten wird nicht vernachlässigt, sie ist grundsätzlich kein Element einer spieltheoretischen Fragestellung. Ob der andere Gefangene mein Freund ist oder ob ich den überhaupt kenne, spielt keine Rolle. Ob ich durch meine Entscheidung dem anderen schade oder nütze, spielt keine Rolle. Der Kollege Eulenspiegel1 schreibt hier drüber schon wieder: „Das Dilemma entsteht doch erst in dem Augenblick, wo durch die Wahl, die für mich günstig ist, der Gegenüber etwas Ungünstiges erhält.“ Das ist fundamental falsch. Dies ist eine moralische Fragestellung („Darf ich für mich einen Vorteil herausholen, auch wenn ich dem anderen dadurch schade?“). Solche moralischen Aspekte sind nicht Gegenstand des Gefangenendilemmas. Es geht beim Gefangenendilemma ausschließlich darum, was für mich am besten ist, völlig unabhängig davon, ob ich dem anderen durch meine Entscheidung schade oder nütze. Das Dilemma ist, dass ich nicht weiß, was mir letzlich schadet und was mir nützt, weil eine individuell egoistische Entscheidung, wenn sie vom anderen genauso getroffen wird, die Situation insgesamt so verschlechtert, dass es für beide nachteilig ist und es bei Kooperation eine für beide bessere Möglichkeit gegeben hätte, dass ich aber, wenn ich kooperativ bin, der Dumme sein kann, wenn der andere nicht kooperativ ist. Es handelt sich dabei ausschließlich um eine taktische, nicht um eine moralische Frage.
Troubled @sset  Work    Talk    Mail   15:36, 24. Jun. 2015 (CEST)
Ich habe Quartl zwei Varianten genannt, die sich vom Original nur in einem Punkt unterscheiden: Die Auszahlungsmatrix für den Mitspieler. Aber die Auszahlungsmatrix für mich bleibt exakt die selbe. Würdest du bei diesen beiden Varianten auch von Dilemma sprechen?
Nochmal: Für mich ist IMMER am besten, wenn ich Verrat wähle.
Der Mitspieler wählt Kooperation? Für mich ist es am besten, Verrat zu wählen.
Der Mitspieler wählt Verrat? Für mich ist es auch am besten, Verrat zu wählen.
Es ist vollkommen egal, was der andere wählt, für mich ist Verrat immer die bessere Alternative.
Ein Dilemma besteht aber darin, dass keine der beiden Optionen eindeutig besser sind. --Eulenspiegel1 (Diskussion) 18:38, 24. Jun. 2015 (CEST)
@Eulenspiegel1: Am Anfang steht das Dilemma, sich zwischen zwei Alternativen mit potentiell unangenehmen Folgen entscheiden zu müssen. Es gibt nun verschiedene Möglichkeiten, dieses Dilemma zu lösen. Eine Lösung, auf die man auch erst einmal kommen muss, ist es die dominante Strategie zu finden. Die Gefangenen könnten aber zum Beispiel auch eine Münze zur Entscheidungsfindung werfen. Das Dilemma verschwindet, sobald man eine Entscheidungsstrategie gewählt hat.
@Troubled asset: Dass die Gefangenen ihren eigenen Nutzen maximieren wollen, ist eine Zusatzprämisse. Neben der egoistischen Sicht gibt es beispielsweise auch die altruistische Sicht (ich möchte den Nutzen des anderen maximieren) oder die utilitaristische Sicht (ich möchte den Gesamtnutzen maximieren). Auch diese Sichtweisen werden in der Spieltheorie untersucht.
Viele Grüße, --Quartl (Diskussion) 06:27, 25. Jun. 2015 (CEST)
@Quartl: Welche Sichtweisen in der Spieltheorie vielleicht auch noch untersucht werden, kann gerne im Artikel Spieltheorie abgehandelt werden. Dies hier ist der Artikel zum Gefangenendilemma, und dabei geht es darum, den eigenen Nutzen zu maximieren. Das ist keine „Zusatzprämisse“, sondern die Basis des Gefangenendilemmas – wie muss ich mich entscheiden, um möglichst wenig lang ins Gefängnis zu müssen?
Das Dilemma beruht darauf, dass die auf den ersten Blick bessere egoistische Sichtweise dann, wenn beide Gefangenen diese Sichtweise anwenden, zu einem schlechteren Ergebnis für beide führt, weshalb beidseitige Kooperation eben doch besser ist als beidseitiger Verrat. Der andere an dieser Diskussion beteiligte Kollege behauptet ja gleichzeitig, „Natürlich ist "Beide kooperieren" besser als "Beide Verraten"“, und im nächsten Satz, dass Verrat für beide immer die bessere Entscheidung ist, und sieht den Widerspruch nicht. Ich bedaure, dass dieser Widerspruch hier offensichtlich mehrheitlich nicht als solcher gesehen wird, was andererseits erklärt, warum bei der Darstellung des Dilemmas so herumgeschwurbelt werden muss, statt durch die korrekte Darstellung der Situation diesen Widerspruch gar nicht erst aufkommen und das Dilemma dadurch offensichtlich werden zu lassen.
Wie auch immer: Moralische Fragestellungen („darf man einen Freund verraten, um sich einen Vorteil zu verschaffen, oder muss man ihm treu bleiben, selbst wenn man dafür extra lange ins Gefängnis kommt“) sind jedenfalls nicht Teil der Spieltheorie.
Grüße zurück, Troubled @sset  Work    Talk    Mail   11:16, 25. Jun. 2015 (CEST)
Auch für das Gefangendilemma werden beispielsweise Pareto-Optima untersucht. Ein Pareto-Optimum ist gerade dadurch charakterisiert, dass sich die Lage für den anderen nicht verschlechtert, wenn man seine eigene Lage verbessert. Dass das Nash-Gleichgewicht kein Pareto-Optimum ist, ist Teil des Dilemmas. Viele Grüße, --Quartl (Diskussion) 15:43, 25. Jun. 2015 (CEST)
Quartl, ein Dilemma lässt sich normalerweise wie folgt beschreiben: "Entweder du tust Handlung A, wodurch das negative Ergebnis x eintreten kann, oder du tust Handlung B, wodurch das negative Ergebnis y eintreten kann."
Und wenn du dir meinen Artikel-Vorschlag durchliest, habe ich diesen in genau dieser Form verfasst.
Dein Vorschlag dagegen lautet eher wie folgt:
"Entweder du tust Handlung A, wodurch ein gutes Ergebnis eintreten kann, oder du tust Handlung B, wodurch ein sehr gutes Ergebnnis eintreten kann. Wenn du Pech hast, kann jedoch ein Ereignis eintreten, welches du nicht beeinflussen kannst und welches unabhängig von deiner Handlung zu einem schlechten Ergebnis führt."
Das ist kein Dilemma! Denn wie du selber sagtest: Bei einem Dilemma muss man sich zwischen zwei Handlungen entscheiden, die beide potentiell unangenehmen sind. Also sollte man auch für jede Handlungsoption schreiben, wieso diese potentiell unangenehm ist.
Troubled asset, bitte unterstelle mir keine Sachen, die ich nie geschrieben habe. Ich habe nie geschrieben, dass Verrat für beide immer die bessere Entscheidung ist. Ich habe geschrieben: "Verrat ist für mich immer die bessere Entscheidung." Und ich hatte ja bereits im Artikelvorschlag geschrieben, dass die für mich bessere Entscheidung für den Mitspieler negativ ist. Wir haben also:
  • Verrat ist für beide immer die bessere Entscheidung.
  • Verrat ist für mich immer die bessere Entscheidung, wobei dies für den Mitspieler immer negative Auswirkungen hat.
Du unterstellst mir Ersteres, ich habe jedoch Zweiteres behauptet. Ich bin mir unsicher, ob du den Unterschied nicht erkennen kannst oder ob du mir absichtlich etwas Falsches unterstellt hast.
Dass du die 5 relativ simplen Fragen nicht beantwortet hast, ist bezeichnend. Daher vielleicht nur die ersten beiden:
  1. Angenommen der Mitspieler wählt Kooperation: Was ist dann für dich die bessere Entscheidung?
  2. Angenommen der Mitspieler wählt Verrat: Was ist dann für dich die bessere Entscheidung?
Wenn du diese Fragen beantwortest, dann erkennst du vielleicht auch, wieso "beidseitige Kooperation ist besser als beidseitiger Verrat" kein Widerspruch ist zu "Verrat ist für mich immer die bessere Entscheidung". --Eulenspiegel1 (Diskussion) 19:14, 25. Jun. 2015 (CEST)
Ich habe das Dilemma in der Einleitung noch einmal etwas umformuliert. Ist diese Variante besser? Viele Grüße, --Quartl (Diskussion) 09:43, 26. Jun. 2015 (CEST)
Ja, sie ist jetzt besser. --Eulenspiegel1 (Diskussion) 00:52, 27. Jun. 2015 (CEST)
Aufgrund der Symmetrie der Situation und der à priori Ununterscheidbarkeit der beiden Gefangenen stellen beide dieselbe Überlegung an. Beide würden also sagen, „Verrat ist für mich immer die bessere Entscheidung“. Und das ist selbstverständlich ein Widerspruch zu „beidseitige Kooperation ist besser als beidseitiger Verrat“. Und hör endlich auf mit diesen idiotischen Fragen. Wir alle wissen, dass aus der subjektiv-egoistischen Sicht auf der ersten Überlegungsebene der Verrat in jedem Fall besser scheint. Für wie blöd hältst du mich eigentlich?
Troubled @sset  Work    Talk    Mail   21:13, 25. Jun. 2015 (CEST)
Nein, selbstverständlich stellen beide nicht die selbe Überlegung an. Der eine Spieler ist vielleicht ein "Tit-for-Tat"-Programm. Und der andere Spieler ein "Always-Defect"-Programm. Und wenn du keine Programme gegeneinander antreten lässt sondern reale Menschen, ist es noch unwahrscheinlicher, dass beide die selben Überlegungen anstellen.
Die Annahme, dass beide Spieler das gleiche denken, wird als Superrationalität bezeichnet. Bei normalen rationalen Spielern kann man aber nicht davon ausgehen, dass beide das gleiche denken. Und klar, wenn zwei superrationale Spieler gegeneinander antreten, dann würden beide mehr Gewinn machen als wenn zwei rationale Spieler gegeneinander antreten. Aber wenn ein superrationaler Spieler gegen einen rationalen Spieler antritt, dann gewinnt der rationale Spieler.
Stell dir mal vor, wir wären beide im Gefangenendilemma. Und wir wären beide furchtbar egoistisch und würden uns nicht für das Wohl des anderen interessieren.
Du denkst dir: "Beide kooperieren" ist besser als "beide verraten". Deswegen wählst du Kooperation.
Ich denke mir: "Verrat ist für mich immer die bessere Entscheidung." Deswegen wähle ich Verrat.
Resultat: Ich erhalte 0 Jahre während du die Maximalzahl an Jahren erhältst. --Eulenspiegel1 (Diskussion) 21:59, 25. Jun. 2015 (CEST)
Selbstverständlich stellen beide Gefangenen dieselben Überlegungen an. Das heißt (insbesondere bei mehrfacher Wiederholung des Spiels) nicht, dass sie sich (dauerhaft) für dieselbe Strategie entscheiden, wenn es keine immer und jederzeit eindeutig bessere Strategie gibt, aber die Überlegungen sind exakt dieselben. Die Symmetrie der Situation ist ein zentrales Element des Gefangenendilemmas. Und dass „reale“ Menschen (gemeint wohl: menschen mit unterschiedlichen intellektuellen Fähigkeiten zur vollständigen Erfassung der Situation und der Konsequenzen von Entscheidungen sowie der Einfluss von Emotionen) in der Praxis vielleicht tatsächlich unterschiedlich denken und handeln würden, ist für das Gefangenendilemma der Spieltheorie völlig irrelevant. „Reale Menschen“ sind nicht Gegenstand des Gefangenendilemmas oder überhaupt der Spieltheorie. Beide Spieler handeln zu jeder Zeit ausschließlich und vollständig rational. Die Fragestellung enthält keinerlei „menschliche Komponente“.
Troubled @sset  Work    Talk    Mail   11:23, 26. Jun. 2015 (CEST)
Ich bitte doch nochmal, dir den Artikel en:Superrationality durchzulesen. Dieser erklärt den Unterschied zwischen Superrationaliät und Rationalität sehr gut. Auch am Beispiel des Gefangenendilemmas.
Du musst zwischen Resultat und Vorbedingung unterscheiden. Wenn beide Spieler in einem symmetrischen Spiel rational handeln, dann ist natürlich das Resultat, dass sie das gleiche tun. Du darfst aber nicht den Fehler machen, das a priori anzunehmen. Wenn du das a priori annimmst, ist das keine rationale Überlegung. Das ändert nichts daran, dass du es a posteriori dennoch herausbekommst.
Und falls du den englischsprachigen Artikel nicht lesen willst, zitiere ich einfach mal aus dem hiesigen Artikel:
Gemäß der klassischen Analyse des Spiels ist im nur einmal gespielten Gefangenendilemma (engl.: One Shot) die einzig rationale Strategie für einen am eigenen Wohl interessierten Spieler, zu gestehen und den Mitgefangenen damit zu verraten.[1] Denn durch seine Entscheidung kann er das Verhalten des Mitspielers nicht beeinflussen, und unabhängig von der Entscheidung des Mitspielers stellt er sich immer besser, wenn er selbst nicht mit dem Mitgefangenen kooperiert.
  1. Tucker, A. W. (1950), A Two-Person Dilemma – The Prisoner's Dilemma; Nachdruck in: Straffin, P. D. (1983), The Mathematics of Tucker – A Sampler, in: Two-Year College Mathematics Journal, 14. Jg., Nr. 3, S. 228–232; hier: S. 228.
--Eulenspiegel1 (Diskussion) 00:52, 27. Jun. 2015 (CEST)

Pareto-Optimum

@Beck's: Im Gefangenendilemma gibt es sogar drei Pareto-Optima:

  1. Ich verrate, der andere kooperiert.
  2. Ich kooperiere, der andere verrät.
  3. Wir beide kooperieren.

Aber es ging auch gar nicht um die Frage, ob es im Gefangenendilemma ein Pareto-Optimum gibt. Die Frage ist, ob das Nash-Gleichgewicht (beide verraten) ein Pareto-Optimum ist. Und hier lautet die Antwort: "Nein, das Nash-Gleichgewicht ist beim Gefangenendilemma kein Pareto-Optimum."

Begründung: Es gibt eine Möglichkeit wie alle beteiligten Parteien besser dastehen. --Eulenspiegel1 (Diskussion) 00:06, 25. Jun. 2015 (CEST)

Korrekt. Viele Grüße, --Quartl (Diskussion) 09:56, 26. Jun. 2015 (CEST)
Nö, nach wie vor falsch:
Zu 1. und 2. Der Defekteur kann sich nicht zu Lasten des Kooperateurs verbessern. Das wäre aber eine Bedingung für das Vorliegen von Pareto Optima bzw. Pareto Effizienz → PO/E nicht gegeben
Im Nash-GG ist keine Verbesserung eines Agenten möglich, die ceteris paribus nicht zu einer Verschlechterung des anderen Agenten führt. Pareto-Bedingung ist also erfüllt. → PO/E gegeben.--BECK'sDisclaimer 23:31, 26. Jun. 2015 (CEST)
  1. Falsch, ob sich jemand zu Lasten eines anderen verbessern kann oder nicht, ist für das Pareto-Optimum vollkommen unerheblich. Wichtig für das Pareto-Optimum ist: "Niemand kann sich verbessern, ohne dass sich ein anderer verschlechtert." Oder anders ausgedrückt: "Wenn sich jemand verbessern kann, ohne dass sich ein anderer verschlechtert, dann liegt kein Pareto-Optimum vor." Lese dir dazu einfach mal den Einleitungssatz vom Artikel Pareto-Optimum durch.
  2. Zum Nash-GG: Dein Fehler ist, dass du Ceteris paribus annimmst. Unter Ceteris paribus ist natürlich keine allgemeine Verbesserung möglich. Aber das ist ja auch gar nicht gefordert! Es reicht aus, dass es irgendeine allgemeine Verbesserung (auch ohne ceteris paribus) gibt. Und diese erhältst du, indem beide kooperieren. (Auch hier wieder: Lese dir den Artikel Pareto-Optimum durch: Dort steht nichts von ceteris paribus. Im Gegenteil: Die Erklärung mit den Tupeln macht deutlich, dass alle Möglichkeiten (alle n-Tupel) zum Vergleich herangezogen werden.
  3. Du argumentierst inkonsequent: Bei 1. und 2. kann sich der Defekteur nicht zu Lasten des anderen Spielers verbessern. Deswegen ist es angeblich kein Pareto-Optimum. Im Nash-GG kann sich der Defekteur aber auch nicht zu Lasten des anderen Spielers verbessern. Hier ist es aber plötzlich trotzdem ein Pareto-Optimum laut deiner Aussage.
  4. Richtige Aussage wäre: In 1., 2. und 3. ist keine Verbesserung eines Agenten möglich, die ceteris paribus nicht zu einer Verschlechterung des anderen Agenten führt. Pareto-Bedingung ist also erfüllt. → PO/E gegeben.
--Eulenspiegel1 (Diskussion) 00:52, 27. Jun. 2015 (CEST)