Der Text ist etwas lang, aber es lohnt sich durchzuhalten.
Ich finde es faszinierend, wie der Autor von der anfänglichen mathematischen Spielsituation am Ende überleitet zu Lehren
für das tägliche Leben einschließlich der Politik.
Und beruhigend, daß demnach die Evolution trotz aller Rückschläge langfristig auf Kooperation und Frieden hinsteuert.
Im Anschluß an den Artikel steht ein Bericht über praktische Anwendung im Tierreich.
Außerdem gibt es im Netz einen weiteren Artikel,
der zwar nicht so gut geschrieben ist, aber zusätzliche Einflussgrößen berücksichtigt.
Metamagikum
Von Douglas R. Hofstadter
© Spektrum der Wissenschaft
Aus Spektrum der Wissenschaft, August 1983
Das Leben steckt voller Paradoxien und Zwickmühlen.
Manchmal hat es sogar den Anschein, als sei die Würze des Daseins gerade das Erfahren – ja das Auskosten – seiner Widersprüche.
Obwohl sich alle Paradoxien irgendwie ähneln, wirken die einen doch eher abstrakt und philosophisch, während andere mitten aus dem Leben gegriffen scheinen.
Eine sehr lebensnahe Paradoxie ist das Gefangenendilemma. Es wurde 1950 von Merrill M. Flood und Melvin Dresher erfunden und später von Albert W. Tucker formalisiert.
Ich werde es hier zunächst als Parabel und dann als formales Problem präsentieren.
Die Originalversion, bei der es um Gefangene geht, ist meiner Erfahrung nach für Uneingeweihte weniger einsichtig als die folgende Variante.
Angenommen, Sie besitzen große Mengen irgendeines Gutes (Geld zum Beispiel) und möchten dafür eine bestimmte Menge eines anderen Gutes
(Briefmarken, Lebensmittel, Diamanten) erwerben. Also arrangieren Sie mit dem einzigen Händler für dieses Gut, den Sie kennen, ein beide Seiten befriedigendes Tauschgeschäft.
Aus irgendeinem Grund muß der Tauschhandel jedoch im geheimen stattfinden. Sie kommen überein, daß
jeder von Ihnen einen Sack an einem vereinbarten Ort im Wald deponiert und den Sack des anderen an dessen Versteck abholt.
Ihnen beiden ist auch klar, daß Sie sich nie begegnen und keine weiteren Geschäfte miteinander machen werden.
Unter diesen Umständen muß jeder von Ihnen natürlich befürchten, daß der andere einen leeren Sack daläßt. Keine Frage:
Wenn Sie beide volle Säcke deponieren, wird jeder zufriedengestellt; aber ebenso selbstverständlich wird der noch mehr zufriedengestellt, der seinen Teil umsonst erhält.
Die Versuchung, einen leeren Sack zu hinterlassen, ist daher groß. Ja, man kann sogar scheinbar zwingend so argumentieren:
"Wenn der Händler einen vollen Sack bringt, ich aber einen leeren abgestellt habe, bin ich fein raus; denn dann kriege ich das, was ich wollte, umsonst.
Aber auch wenn der Händler einen leeren Sack zurückläßt, war es besser, auch einen leeren Sack deponiert zu haben;
denn dann bin ich wenigstens nicht übers Ohr gehauen worden. Ich habe zwar nichts bekommen, aber auch nichts verloren.
Wie es aussieht, bin ich mit einem leeren Sack in jedem Fall also besser dran, egal wozu sich der Händler entschließt.
Folglich deponiere ich einen leeren Sack."
Der Händler, der ja mehr oder weniger im gleichen Boot sitzt (wenn auch am anderen Ende), hat sich mittlerweile dasselbe überlegt.
Auch er ist zu dem Schluß gekommen. am besten nichts in den Sack zu tun.
Und so deponieren Sie beide auf Grund Ihrer (scheinbar) unfehlbaren Logik einen leeren Sack – und gehen beide leer aus.
Traurig, traurig: denn wenn Sie kooperiert hätten, hätten Sie beide bekommen, was Sie wollten.
Schließt Logik kooperatives Verhalten aus? Dies ist die Frage, um die sich das Gefangenendilemma dreht.
Falls Sie sich wundern, warum es das Gefangenendilemma heißt – hier ist die Erklärung: Angenommen Sie und ein Komplize (der Ihnen sonst nichts weiter bedeutet)
haben ein Ding gedreht; doch man hat Sie beide erwischt und eingesperrt, und nun warten Sie bangen Herzens auf Ihren Prozeß.
Sie sitzen in getrennten Zellen ohne Möglichkeit, sich irgendwie zu verständigen.
Der Staatsanwalt bietet nun jedem von Ihnen den folgenden Kuhhandel an (und sagt dazu, daß er Ihnen beiden den gleichen Handel vorschlägt und daß auch
der andere das weiß): "Wir haben eine ganze Menge Indizien gegen Euch.
Es reicht, um Euch beide für zwei Jahre hinter Schloß und Riegel zu bringen, wenn Ihr hier weiter die Unschuldslämmer spielt.
Aber wenn Sie alles zugeben und uns so helfen, Ihren Komplizen – pardon: Ihren mutmaßlichen Komplizen – zu verknacken, dann lassen wir Sie laufen.
Und keine Angst, daß Ihr Komplize sich rächt – er brummt dann erst mal fünf Jahre. Also, wie steht's?" Argwöhnisch fragen Sie:
"Und was, wenn wir beide gestehen?" "Je nun, Freundchen – dann, fürchte ich, wandert Ihr beide für vier Jahre in den Knast."
Jetzt sitzen Sie ganz schön in der Tinte! Natürlich wollen Sie nicht länger den Unschuldigen spielen, wenn Ihr Komplize gestanden hat; denn dann kriegen Sie fünf Jahre.
Da wäre es schon besser, Sie gestehen beide und bekommen nur vier.
Auf der anderen Seite: Beharrt Ihr Partner auf seiner Unschuld, so wäre es das beste für Sie, zu gestehen; denn dann blieben Sie ungeschoren.
Auf den ersten Blick also scheint es völlig klar, was Sie zu tun haben: Singen. Doch was für Sie gilt, gilt auch für Ihren Partner, und so scheint für Sie beide nur eins zu gelten: Sing! Das aber heißt – Sing-Sing für vier Jahre. So jedenfalls sagt es Ihnen die Logik. Wirklich komisch: Wenn Sie beide unlogisch gehandelt und standhaft geleugnet hätten, hätten Sie nur halb so lange sitzen müssen. Oh unbarmherzige Logik!
Kehren wir nun zur ursprünglichen Geschichte zurück, und wandeln wir sie etwas ab.
Angenommen, sowohl Sie als auch Ihr Händler sind sehr daran interessiert, mit dem, was der andere anzubieten hat, regelmäßig beliefert zu werden.
Vor der ersten Transaktion verabreden Sie also, auf Lebenszeit einmal pro Monat einen Tausch durchzuführen.
Auch diesmal rechnen Sie nicht damit, den anderen je zu Gesicht zu bekommen. Ja, keiner von Ihnen hat die leiseste Ahnung, wie alt der andere ist.
Also wissen Sie auch nicht, wie lange Ihre lebenslange Übereinkunft dauern mag.
Immerhin können Sie davon ausgehen, daß sie wenigstens ein paar Monate, wahrscheinlich aber einige Jahre Bestand hat.
Was nun machen Sie diesmal beim ersten Tausch? Einen leeren Sack zu deponieren, wäre eine ausgesprochen fiese Art, eine Beziehung anzuknüpfen, und wohl kaum geeignet,
eine Vertrauensbasis zu schaffen. Angenommen also, Sie bringen einen vollen Sack, und der Händler tut das gleiche. Alles ist eitel Freude – einen Monat lang.
Dann beginnt das Spielchen von vorn: leerer oder voller Sack?
Jeden Monat müssen Sie neu entscheiden, ob Sie "mogeln" (einen leeren Sack bringen) oder "kooperieren" (einen vollen Sack hinterlassen).
Angenommen, eines Monats – völlig unerwartet – legt Sie Ihr Händler herein. Wie reagieren Sie?
Hat er in Ihren Augen nun für immer alle Glaubwürdigkeit verloren, so daß Sie in Zukunft nur noch leere Säcke deponieren, also faktisch den Handel platzen lassen?
Oder tun Sie so, als sei nichts gewesen, und halten sich Ihrerseits weiter an die Abmachung? Oder versuchen Sie, den Händler durch eigene Vertragsbrüche zu bestrafen?
Wieviele? Einen? Zwei? Eine willkürliche Zahl? Eine Zahl, die mit der Zahl seiner Vertragsbrüche wächst? Wie weit gehen Sie in Ihrem Zorn?
Dies ist das sogenannte iterative Gefangenendilemma. Es ist ein sehr schwieriges Problem, das sich jedoch quantifizieren und mit den Methoden der
Spieltheorie und durch Computersimulation untersuchen läßt. Wie macht man das?
Man stellt eine "Nutzen-Matrix" auf, in der die Auswirkungen der verschiedenen Verhaltensweisen durch Punktwerte dargestellt sind.
Eine typische derartige Matrix ist in Bild 1 wiedergegeben.
Nach dieser Matrix trägt beiderseitige Kooperation beiden Beteiligten 2 Punkte ein (ein Wert, der der subjektiven Befriedigung darüber Rechnung trägt, für einen
vollen Sack des eigenen Gutes einen vollen des erwünschten Gutes erhalten zu haben).
Beiderseitiges Mogeln bringt beiden 0 Punkte (denn abgesehen von einem vergeblichen Ausflug in die Wälder hat keiner von Ihnen etwas gewonnen oder verloren).
Zu kooperieren, während der Händler mogelt, tut weh: Sie erhalten -1 Punkte, während der Schuft 4 Punkte einheimst. Warum so viele?
Weil es so angenehm ist, etwas umsonst zu bekommen. Und natürlich:
Wenn zufälligerweise Sie einmal der Schuft sind, während der Händler kooperiert, dann kassieren Sie die 4 Punkte, und er kriegt -1.
Es ist offensichtlich, daß Sie beide zusammen am besten wegkämen, wenn Sie stets kooperieren würden.
Wir nehmen jedoch an, daß Ihnen der andere völlig gleichgültig ist: Es gibt kein "Gemeinwohl", das Sie beide zu mehren trachten.
Sie sind Egoisten reinsten Wassers. Was dann?
Die Bedeutung des Wortes "Egoist" läßt sich vielleicht am besten durch das folgende Beispiel veranschaulichen.
Angenommen, Sie und Ihr Händler haben durch jahrelange ehrliche Kooperation eine vertrauensvolle Geschäftsbeziehung geschaffen.
Eines Tages aber erfahren Sie insgeheim aus zuverlässiger Quelle, daß der Händler schwer krank ist und voraussichtlich nur noch ein, zwei Monate zu leben hat.
Ihr Partner ahnt nicht, daß Sie Wind davon bekommen haben.
Ist die Verlockung nun nicht übermächtig, auf die jahrelange Kooperation zu pfeifen und urplötzlich die krumme Tour zu versuchen?
Schließlich leben wir in einer gnadenlosen Welt, und jeder muß sehen, wo er bleibt. Und da dies gut der letzte Monat sein könnte,
den Ihr Händler noch erlebt, warum sollten Sie aus Ihrem geheimen Wissen nicht das größtmögliche Kapital schlagen? Ihr Betrug wird vielleicht nie bestraft.
Schlimmstenfalls vergilt es Ihnen der sterbende Händler noch eben mit einem leeren Sack vor seinem letzten Atemzug. Aber das können Sie riskieren.
Je sicherer Sie sind, daß der nächste Tausch der letzte ist, desto größer wird die Versuchung zu mogeln. Dem Händler ginge es umgekehrt natürlich genauso.
Das ist es, was "Egoismus" heißt: Sie bringen Ihrem Gegenüber keinerlei Freundschaft.
Wohlwollen oder Mitleid entgegen; Sie kennen keine Skrupel; Sie sind auf nichts aus, als Punkte einzuheimsen – je mehr, desto besser.
Wie sieht die Nutzen-Matrix für die Geschichte mit den Gefangenen aus? Sie ist in Bild 2 gezeigt.
Die Äquivalenz dieser Matrix zu der in Bild 1 wird deutlich, wenn Sie zu allen Werten eine Konstante, nämlich 4, hinzuzählen.
Tatsächlich könnten wir zu beiden Matrizen beliebige Konstanten addieren, ohne daß sich an dem Dilemma selbst etwas ändern würde.
Daher wollen wir zu der Matrix in Bild 2 einfach 5 zuzählen, damit wir uns nicht mehr mit negativen Zahlen herumschlagen müssen.
Damit ergibt sich die in Bild 3 gezeigte "kanonische" Nutzen-Matrix für das Dilemma des Gefangenen.
Darin bezeichnet die Zahl 3 den "Lohn für beiderseitige Kooperation", kurz L. Die Zahl 1 ist die "Strafe" für beiderseitiges Mogeln, kurz S. Die Zahl 5 repräsentiert die "Versuchung" zu mogeln, abgekürzt V, und 0 ist das, was der "Trottel" bekommt, der sich hereinlegen läßt, und wird durch T symbolisiert. Damit eine Matrix eine dem Gefangenendilemma äquivalente Situation beschreibt, müssen die beiden folgenden Bedingungen erfüllt sein:
(1) V > L > S > T
(2) (( V + T ) /2 ) < L
Auf Grund der ersten Bedingung muß sich jeder der Beteiligten sagen: "Es ist besser für mich zu mogeln, egal was der andere tut." Die zweite Bedingung stellt sicher, daß Sie im Fall eines Wechselspiels der Art, daß in einem Monat der eine kooperiert und der andere mogelt, im nächsten Monat dagegen umgekehrt, nicht besser – sondern in Wahrheit schlechter – wegkommen als bei durchgehender Kooperation.
Welches wäre also nun die beste Strategie? Es läßt sich leicht zeigen, daß es darauf keine allgemeingültige Antwort gibt.
Das heißt, es existiert keine Strategie, die allen anderen unter allen Umständen überlegen wäre.
Betrachten Sie den Fall, daß Ihr Gegenüber IMMER M spielt, also stets mogelt (zweifellos auch eine Strategie).
In diesem Fall ist es das beste, Sie machen es genauso, und zwar von Anfang an.
Aber angenommen, Ihr Gegenspieler verfolgt eine Strategie der Massiven Vergeltung nach dem Motto: "Ich kooperiere, bis du das erste Mal mogelst, und dann mogle ich nur noch."
Wenn Sie in diesem Fall gleich beim ersten Zug mogeln, erhalten Sie ein V und dann nur noch ein S bis an Ihr Lebensende (oder das Ihres Partners).
Hätten Sie mit dem Mogeln etwas gewartet, so hätte Ihnen eine fruchtbare Kooperation zuvor eine Menge L's eingebracht.
Zweifellos summiert sich dieses Bündel an L's zu mehr als einem einzigen V, sofern das Spiel über mehr als ein paar Züge geht.
Das heißt, daß die beste Strategie gegenüber IMMER M zwar IMMER M ist, die beste Antwort auf die Strategie der Massiven Vergeltung aber lautet:
"Kooperiere, bis du merkst oder erfährst, daß es mit dir oder deinem Partner demnächst zu Ende geht; dann mogle."
Diese einfache Überlegung zeigt, daß die beste Strategie stets vom Verhalten des Gegenspielers abhängt.
Die Frage der "Qualität" einer Strategie erhält eine sehr viel weitere und allgemeinere Bedeutung, wenn man sich einen Ozean vorstellt, in dem Dutzende
von Tierchen umherschwimmen und unentwegt Gefangenendilemma miteinander spielen.
Angenommen, jedesmal, wenn zwei der Tierchen zusammentreffen, erkennen sie einander und erinnern sich an den Ausgang früherer Begegnungen.
Damit kann jedes anhand der früheren Erfahrung entscheiden, wie es sich diesmal verhalten soll.
Wenn alle Tierchen ständig herumschwimmen und unablässig aufeinanderstoßen, wird schließlich jedes jedes andere viele Male getroffen haben,
so daß alle Strategien Gelegenheit hatten, sich miteinander zu messen.
Mit "sich messen" ist hier sicherlich nicht gemeint, daß irgendein Tierchen ein anderes unwiderruflich aus dem Rennen (sprich Ozean) wirft wie in einem K.o.-Turnier.
Nein, bei diesem Kampf geht es nur um Punkte. Bei jeder Begegnung erhält jedes Tierchen null oder mehr Punkte.
Wenn dann genug Zeit verstrichen ist, kann man sicher sein, daß jedes Tierchen alle anderen etwa gleich oft getroffen hat.
Alles, was nun zählt, ist: Wer hat die meisten Punkte?
Dabei nutzt es Tierchen X wenig, wenn es Tierchen Y "geschlagen", das heißt mehr Punkte beim Zusammentreffen mit Y als Y beim Zusammentreffen mit X erhalten hat.
Auf diese Art "Sieg" kommt es hier gar nicht an. Statt der "Siege", die irgendein Tierchen errungen haben mag, zählt nur seine Gesamtpunktzahl –
das ist der Gradmesser seiner Fähigkeit, in diesem speziellen "Meer" der Strategien zu überleben.
Es klingt geradezu paradox, aber ein Tierchen kann die meisten, ja alle seiner Scharmützel mit anderen Tierchen verlieren und doch am Ende Gesamtsieger sein.
Dieses Bild läßt ahnen, daß die Situation für Fragen der Evolutionsbiologie von Bedeutung ist.
Können absolut selbstsüchtige Organismen ohne Bewußtsein, die einen bestimmten Lebensraum teilen, verläßliche Kooperationsstrategien entwickeln?
Kann es in einer Welt purer Egoisten überhaupt zu Kooperation kommen? Oder prägnanter: Kann aus Nicht-Kooperation Kooperation werden?
Wenn ja, wäre das von ungeheurer Tragweite für die Evolutionstheorie; denn bislang warfen ihr viele Kritiker vor, an diesem Punkt hoffnungslos zu versagen.
Der unwiderlegliche Beweis, daß Egoismus zur Kooperation führen kann, ist jetzt erbracht – und zwar durch ein Computer-Turnier, das Robert Axelrod,
Politologe am Institute for Public Policy Studies der Universität von Michigan in Ann Arbor, veranstaltet hat.
Genauer: Axelrod untersuchte zunächst anhand eines Computer-Turniers, auf welche Arten Kooperation entstehen kann.
Aus den allgemeinen Tendenzen, die dabei sichtbar wurden, konnte er auf die zugrundeliegenden Prinzipien rückschließen und schließlich
Lehrsätze über jene Bedingungen ableiten, unter denen Kooperation aus dem Nichts entsteht.
Seine Erkenntnisse hat Axelrod in einem Buch mit dem Titel "The Evolution of Cooperation" niedergelegt,
das bemerkenswert viele Denkanstöße gibt und demnächst bei Basic Books erscheinen wird.
Überdies haben er und der Evolutionsbiologe William D. Hamilton zahlreiche Implikationen dieser Entdeckungen für die Evolutionstheorie abgeleitet und veröffentlicht.
Ihre Arbeit fand starke Beachtung. So wurde sie 1981 mit dem Newcomb-Cleveland-Preis ausgezeichnet, den die Amerikanische Vereinigung
zur Förderung der Wissenschaften alljährlich für "eine herausragende Veröffentlichung in [der Zeitschrift] Science" vergibt.
Die Frage nach dem Entstehen von Kooperation in einer Weit von Egoisten hat im Grunde drei Aspekte.
Der erste betrifft ihren Ursprung (Wie kann es überhaupt zu Kooperation kommen?), der zweite ihre Optimierung (Welche kooperativen Strategien taugen am besten,
und wie setzen sie sich durch?) und der dritte ihre Überlebensfähigkeit (Können sich kooperative Strategien gegen nichtkooperative behaupten?).
Damit das alles etwas anschaulicher wird, möchte ich Axelrods Turnier und seine erstaunlichen Ergebnisse hier ausführlicher beschreiben.
1979 schickte Axelrod einer Reihe professioneller Spieltheoretiker, darunter einigen, die selbst über das Gefangenendilemma publiziert hatten, eine Einladung zu einer speziellen Art
von Wettbewerb, in dem es darum ging, möglichst viele Strategien für das Gefangenendilemma in einem Turnier alle gegen alle antreten zu lassen.
Sieger sollte die Strategie sein, die insgesamt mehr Punkte einbrachte als irgendeine andere.
Axelrod bat darum, die Strategien in Form von Computer-Programmen einzureichen, Ein solches Programm sollte auf das K (für Kooperation) oder M (für Mogeln) eines
anderen Spielers mit K oder M antworten können und dabei das Verhalten dieses Spielers bei früheren Begegnungen berücksichtigen.
Die Entscheidung brauchte nicht deterministisch zu sein; es war also jederzeit erlaubt. einen Zufallsgenerator zu Rate zu ziehen.
Es gingen 14 Programme ein. Axelrod selbst steuerte eines bei, das er ZUFALL nannte.
Es warf bei jedem Zug eine (simulierte) Münze: Bei Zahl kooperierte, bei Wappen mogelte es.
Alles in allem war das Feld weit gestreut. Das kürzeste Programm bestand aus nur 4, das längste aus stattlichen 77 Zeilen (in der Programmiersprache BASIC).
Jedes Programm mußte 200mal gegen jedes andere sowie gegen sich selbst antreten.
Damit sich Pseudoeffekte durch statistische Fluktuationen im Zufallsgenerator herausmittelten, wurde das Turnier fünfmal nacheinander ausgetragen.
Das Siegerprogramm stammte von einem alten Hasen in Sachen Gefangenendilemma: von Anatol Rapoport, Psychologe und Philosoph an der Universität Toronto.
Es war das kürzeste von allen und hieß TIT FOR TAT (auf deutsch: "Wie du mir, so ich dir").
TIT FOR TAT verfolgt eine sehr simple Taktik oder Tak-for-tik, wie man in diesem Fall vielleicht besser sagt:
Kooperiere beim Zug 1; danach tue stets das, was der andere Spieler im Zug davor getan hat.
Wie in aller Welt konnte ein solches Programm all die raffinierten Strategien der anderen Experten übertrumpfen?
Nun, nach Axelrods Überzeugung sind die anderen Spieltheoretiker bei ihren Analysen einfach nicht weit genug gegangen. Sie sahen nur zwei Stufen tief;
um besser abzuschneiden, hätten sie noch eine Stufe tiefer schauen müssen.
Was soll das heißen? Zur Erläuterung verweist Axelrod auf das Programm JOSS (das der Zürcher Mathematiker Johannes Joss eingesandt hatte).
Seine Strategie ist der von TIT FOR TAT sehr ähnlich: Es kooperiert im ersten Zug, antwortet auf jedes Mogeln mit einem Mogeln und auf fast jede Kooperation mit einer Kooperation.
Der Haken ist, das JOSS den Zufallsgenerator benutzt, um ab und an ein "Überraschungs-Foul" einzustreuen.
Das Programm ist so angelegt, daß es in zehn Prozent der Züge, die auf einen kooperativen Zug des Gegenübers folgen, unversehens mogelt.
Beim Spiel gegen TIT FOR TAT schlägt sich JOSS so lange gut, bis es versucht, seinen Gegner auf dem falschen Fuß zu erwischen.
Wenn JOSS mogelt, rächt sich TIT FOR TAT im nächsten Zug mit genau einem Revanche-Foul, während JOSS mit Unschuldsmiene zur Kooperation zurückkehrt.
Das Resultat ist ein MK-Paar. Im nächsten Zug tauschen M und K die Plätze, weil ja beide Programme den letzten Zug des Gegners übernehmen.
Dasselbe gilt für den übernächsten Zug. So kommt es zu einer langen Kette von Wechselzügen:
MK, KM, MK, KM und so weiter. Früher oder später aber wird JOSS unerwartet ein weiteres M einwerfen, nachdem TIT FOR TAT gerade kooperiert hat.
An dieser Stelle nun ergibt sich ein MM-Paar, und dieses Paar bestimmt den Rest des Spiels. Denn von nun an spielen beide Programme nur noch M.
Der Echo-Effekt, den der erste Versuch von JOSS, TIT FOR TAT zu übervorteilen, und dessen einfache Strafmaßnahme ausgelöst haben,
bewirken einen völligen Vertrauensverlust und das Ende der Kooperation.
Danach mag es scheinen, daß beide Strategien die Verlierer sind, indem sie sich zugunsten anderer blockieren. Der Verlierer ist jedoch vor allem JOSS, da es den gleichen Trick
bei allen Partnern versucht, was oft zu der gleichen Art von Vertrauensschwund führt; TIT FOR TAT hingegen mogelt nie zuerst und ist daher nie der Urheber einer Vertrauenskrise.
Axelrod bezeichnet eine Strategie, die nie mogelt, bevor ihr Gegenspieler damit anfängt, als "nett".
TIT FOR TAT ist also eine nette Strategie, JOSS dagegen eine "unnette".
Beachten Sie. daß "nett" keineswegs heißt, daß eine Strategie nie mogelt.
TIT FOR TAT mogelt durchaus, wenn es provoziert wird, gilt aber trotzdem als nett.
Axelrod faßt das Ergebis des ersten Turniers so zusammen: "Eine wichtige Lehre aus diesem Turnier ist, daß es in einem Umfeld, in dem sich jeder in einer Machtposition
gegenüber jedem anderen befindet, darauf ankommt, Echoeffekte möglichst gering zu halten. Eine gründliche Analyse muß mindestens drei Stufen tief gehen.
Das erste ist, die direkte Auswirkung einer Entscheidung zu betrachten. Das ist leicht, weil ein einmaliger Wortbruch immer mehr einbringt als eine einmalige Kooperation.
Auf der zweiten Stufe werden auch die indirekten Folgen einer Entscheidung mitbedacht; das heißt, es wird berücksichtigt, ob und wie die andere Seite zurückschlägt.
Soweit sind viele der Turnier-Teilnehmer mit ihren Überlegungen sicherlich auch gekommen.
Aber drittens gilt es schließlich zu bedenken, daß man mit der Erwiderung auf ein Mogeln der Gegenseite möglicherweise den vorausgegangenen
eigenen Übervorteilungsversuch wiederholt oder sogar verstärkt.
Ein einzelner Betrug mag so zwar erfolgreich erscheinen, wenn man seine direkten Folgen untersucht, und auch noch, wenn man die sekundären Folgen berücksichtigt.
Doch der wahre Preis zeigt sich womöglich erst bei den tertiären Folgen, wenn die eigenen, vereinzelten Mogeleien in eine endlose Kette
gegenseitiger Vergeltungsmaßnahmen münden. Ohne es zu merken, bestraften sich viele dieser Übervorteilungsstrategien am Ende selbst.
Da die Tatsache, daß der andere Spieler erst reagieren muß, den Selbstbestrafungseffekt hinauszögert, entging er vielen der Tunier-Teilnehmer."
Und Axelrod erläuterte weiter: "Die Analyse des Turnier-Ausgangs legt nahe, daß es noch viel darüber zu lernen gibt, wie man mit Situationen, in denen sich
jeder in einer Machtposition gegenüber jedem anderen befindet, am besten fertig wird.
Selbst Strategie-Experten aus Politologie, Soziologie, Ökonomie, Psychologie und Mathematik machten den gleichen Fehler, zu sehr auf den eigenen Vorteil aus zu sein,
zu nachtragend zu sein und die Kooperationsbereitschaft der anderen Seite zu pessimistisch einzuschätzen."
Axelrod beschränkte sich nicht auf die Analyse des Turniers, sondern führte noch eine Reihe von "Was-wäre-wenn-Rückspielen" durch,
in die er weitere Strategien aufnahm.
So fand er heraus, daß die Strategie TIT FOR TWO TATS, die erst nach zwei Betrugsmanövern böse wird (aber trotzdem nur einmal zurückschlägt), gewonnen hätte,
wenn sie mit von der Partie gewesen wäre. Ebenso hätten zwei andere von ihm
selbst erfundene Strategien, die er REVISED DOWNING ("verbessertes Abschießen") und LOOK AHEAD ("schau nach vorn") nannte, den ersten Platz belegt.
Als Fazit des ersten Turniers kristallisierte sich also heraus, daß es wichtig ist, sowohl nett ("Mogle nie als erster") als auch versöhnlich
("Vergiß allen Groll, nachdem du deinem Ärger Luft gemacht hast") zu sein. TIT FOR TAT ist beides.
Nach dieser eingehenden Analyse hatte Axelrod das Gefühl, einige wesentliche Grundsätze aufgedeckt zu haben, und war überzeugt, daß sich auf dieser Grundlage
noch raffiniertere Strategien aushecken lassen müßten. Daher entschloß er sich, ein noch größeres Computer-Turnier abzuhalten.
Dazu lud er nicht nur alle Teilnehmer der ersten Runde ein, sondern inserierte auch in Zeitschriften für Computer-Fans –
in der Hoffnung, Programmierwütige anzusprechen, die bereit wären, viel Zeit und Mühe auf das Austüfteln raffinierter Strategien zu verwenden.
Jedem Interessenten schickte Axelrod eine detaillierte Analyse des ersten Turniers sowie eine Diskussion der "Was-wäre-wenn-Rückspiele" mit Angabe der jeweiligen Gewinner.
Er beschrieb die Prinzipien der "Nettigkeit" und "Versöhnlichkeit", die das Fazit des Turniers darzustellen schienen, und wies auf mögliche Fallen hin.
Natürlich war jedem Teilnehmer klar, daß alle anderen die gleichen Informationen erhalten hatten,
so daß jeder wußte, daß jeder wußte, daß jeder wußte ...
Die Resonanz war groß. Einsendungen kamen aus sechs Ländern, von Leuten aller Altersklassen und acht verschiedener akademischer Fachrichtungen.
Rapoport trat wieder mit TIT FOR TAT an (und zwar als einziger, obwohl es ausdrücklich geheißen hatte, jeder dürfe jede beliebige Strategie wählen).
Ein Zehnjähriger nahm ebenso teil wie einer der führenden Experten auf dem Feld der Spieltheorie: John Maynard Smith, Biologieprofessor an der Universität von Sussex.
Während er TIT FOR TWO TATS einreichte, setzten zwei andere Teilnehmer unabhängig voneinander auf REVISED DOWNING.
Alles in allem gingen 62 Vorschläge ein, und in der Regel waren sie deutlich ausgeklügelter als die beim ersten Turnier.
Wieder war TIT FOR TAT das kürzeste Programm. Das längste stammte diesmal aus Neuseeland und bestand aus 152 Zeilen in der Progammiersprache FORTRAN.
Axelrod steuerte erneut sein ZUFALL bei. Dann ein Druck auf die Starttaste, und ab ging die Post! Mehrere Stunden Rechenzeit später lag das Ergebnis vor.
Dreimal dürfen Sie raten, wer das Rennen machte: Es war wieder TIT FOR TAT, das simpelste Programm von allen.
Aber nicht nur das, die beiden Programme, die in den "Was-wäre-wenn-Rückspielen" des ersten Turniers gewonnen hatten,
landeten diesmal unter ferner liefen – TIT FOR TWO TATS auf Platz 24 und REVISED DOWNING weit abgeschlagen in der hinteren Hälfte.
Das mag unglaublich scheinen. Aber denken Sie daran, daß der Erfolg eines Programms strikt vom Milieu abhängt, in dem es "schwimmt".
Die beste Strategie für alle Milieus gibt es nicht, und so ist der Sieg in einem Turnier keine Gewähr für den Erfolg in einem anderen.
TIT FOR TAT allerdings schafft es offenbar, mit einer Vielzahl von Strategien zurechtzukommen, während andere weniger geschickt darin sind, Kooperationsbereitschaft zu wecken.
Axelrod drückt es so aus: "Was sich abgespielt hat, war offenbar eine interessante Interaktion zwischen zwei Gruppen von Leuten, die verschiedene Lehren aus dem
Ergebnis der ersten Runde gezogen hatten. Die einen beherzigten den Grundsatz: 'Seid nett und versöhnlich'. Die zweiten dagegen spekulierten:
'Wenn die anderen allzu nett und versöhnlich werden, lohnt sich der Versuch, das auszunutzen'.
Die Leute, die Grundsatz 1 befolgten, hatten in der zweiten Runde unter denen zu leiden, die sich an Grundsatz 2 hielten."
Folglich hatte die Mehrzahl der Teilnehmer des zweiten Turniers die wichtigste Lektion aus der ersten Runde nicht begriffen:
Noch immer erkannten sie nicht, wie sehr es auf die Bereitschaft ankommt, Kooperation anzubieten und zu erwidern.
Axelrod selbst ist dieser Punkt so wichtig, daß er es vermeidet, zwei rivalisierende Strategien als "Gegner" zu bezeichnen.
Statt dessen spricht er nur neutral von "Strategien" oder "Spielern" oder den "beiden Seiten".
Ja er sträubt sich sogar dagegen, zu sagen, sie spielten gegeneinander, und schreibt lieber "miteinander".
Ich habe mich bemüht, diesen Sprachgebrauch hier zu übernehmen, weiche aber gelegentlich davon ab.
Zu den auffallenden Resultaten des zweiten Turniers zählt der durchschlagende Erfolg "netter" Strategien: Unter den ersten 15 war nur eine "unnette"
(und zwar auf Platz 8). Genau das Umgekehrte gilt lustigerweise für die Schlußlichter: Von den 15 Letztplazierten war nur eine Strategie nett.
Mehrere der unnetten Strategien versuchten den Gegner (Verzeihung!) auf trickreiche Art auszuspionieren, ihn daraufhin abzuklopfen, wie übel er es nimmt, bemogelt zu werden.
Obwohl sich vereinzelt Programme mit dieser Art des Aushorchens hereinlegen ließen, ging der Schuß doch öfter nach hinten los und führte zu
schwerwiegendem Vertrauensschwund. Unter dem Strich stellte sich jeder Versuch, die Schwachstellen der anderen Spieler ausfindig zu machen, als sehr kostspielig heraus.
Als viel lohnender erwies es sich, einerseits so oft wie möglich zu kooperieren, andererseits aber jeden Betrugsversuch rasch zu bestrafen.
Doch beachten Sie, daß Strategien, die massive Vergeltung übten, weniger erfolgreich waren als TIT FOR TAT mit seiner zahmeren Politik einer begrenzten Vergeltung.
Das Schlüsselwort hier heißt Versöhnungsbereitschaft; denn sie hilft, die sprichwörtliche "Atmosphäre gegenseitigen Vertrauens"
(um einen Ausdruck aus der Diplomatensprache zu verwenden) wiederherzustellen.
Das Fazit des ersten Turniers war: "Sei nett und versöhnlich!" Anscheinend aber wollten es viele einfach nicht glauben, sie waren überzeugt, mit noch mehr List
und Tücke den Sieg erringen zu können. Es brauchte das zweite Turnier, um sie zu widerlegen.
Schließlich enthüllte dieses Turnier ein drittes strategisches Grundprinzip: das der Provozierbarkeit. Es ist gut, schnell böse zu werden und zurückzuschlagen,
wenn man hereingelegt wurde. Damit erweitert sich unsere Goldene Regel für das Gefangenendilemma zu: "Sei nett, provozierbar und versöhnlich!"
Strategien, die in den unterschiedlichsten Umgebungen gut abschneiden, nennt Axelrod "robust".
Wie es aussieht, sind Strategien "mit positiven Charakterzügen" – das heißt nette, provozierbare und versöhnliche Strategien auch ausgesprochen robust.
TIT FOR TAT ist beileibe nicht die einzige Strategie mit diesen Charakterzügen, aber sicher der Prototyp. Und TIT FOR TAT ist erstaunlich robust.
Den eindrucksvollsten Beweis dafür erbrachten verschiedene "Was-wäre-wenn-Rückspiele" zum zweiten Turnier. TIT FOR TAT gewann sie fast alle.
Eine der bedeutsamsten und genialsten Rückspiel-Varianten, die Axelrod erprobte, war zweifellos das "ökologische Turnier". Es bestand nicht nur aus einem einzigen
Rückspiel, sondern gleich aus einer ganzen Serie. Dabei wurde die Umgebung in jedem Spiel durch das Ergebnis des vorangegangenen bestimmt. Nimmt man nämlich
die Punktzahl eines Programms in einem Turnier als Maßstab seiner "Fitness" und deutet man "Fitness" als "Zahl seiner Nachkommen in der nächsten Generation"
und versteht man schließlich unter "nächster Generation" "nächstes Turnier",
so hat das zur Folge, daß erfolgreiche Programme im nächsten Turnier zahlreicher, erfolglose dagegen weniger zahlreich vertreten sind.
Auf diese Weise bestimmt also das Ergebnis eines Turniers die Umgebung des nächsten.
Diese Form eines iterativen Wettkampfs heißt ökologisch, weil sie die ökologische Anpassung
simuliert (das heißt die Verschiebung der Populationsgrößen einer festen Zahl von Arten als Reaktion auf ihre wechselseitig definierte, dynamisch sich
entwickelnde Umgebung). Die für die Evolution gleichfalls bedeutsame Mutation, durch die neue Arten entstehen können, wird dabei vernachlässigt.
Geht ein ökologisches Turnier über viele Generationen, so beginnt die Umwelt sich allmählich zu wandeln. Zu Anfang sind schlechte und gute Programme noch gleich
stark vertreten. Mit der Zeit aber sterben die schlechten aus, während die guten sich vermehren. Dabei kann sich auch unter den guten die Rangordnung verschieben;
denn das Feld von Konkurrenten, gegen das sie sich durchsetzen müssen, ist nicht mehr das gleiche wie zu Anfang.
So liegt im Erfolg die Basis für noch mehr Erfolg – freilich nur, wenn er vom Austausch mit ähnlich erfolgreichen Programmen herrührt. Verdankt ein Programm
seinen Erfolg dagegen vor allem der Fähigkeit, "dümmere" Programme nach Strich und Faden zu schröpfen, so gräbt es sich sein eigenes Grab:
Indem es seine Opfer dezimiert, entzieht es sich die Existenzgrundlage und geht schließlich selbst zugrunde.
Ein konkretes Beispiel für einen solchen ökologischen Selbstmord bietet HARRINGTON, das einzige unnette Programm unter den 15 Spitzenreitern des zweiten Turniers.
Während der ersten 200 Generationen des ökologischen Turniers, als TIT FOR TAT sowie andere nette und erfolgreiche Programme nach und nach ihren Anteil an der
Population erhöhten, konnte auch HARRINGTON dank seiner Ausbeutertaktik Prozentpunkte gutmachen. Doch dann wendete sich das Blatt.
Schwächere Programme begannen auszusterben, so daß es immer weniger Tölpel gab, von denen HARRINGTON profitieren konnte.
Bald zeigten sich die Folgen: HARRINGTON vermochte mit seinen netten Rivalen
nicht mehr mitzuhalten. In der 1000. Generation war es dann ebenso tot wie jene Dinosaurier, die es geschröpft hatte.
Resümiert Axelrod: "Gegen Regeln gut abzuschneiden, die selbst schlecht abschneiden, ist letztlich ein selbstzerstörerischer Akt. Nicht nett zu sein, mag auf den ersten Blick vielversprechend erscheinen, auf die Dauer aber kann es genau die Umgebung zerstören, die für den eigenen Erfolg unentbehrlich ist.
Überflüssig zu sagen, daß TIT FOR TAT phänomenal gut abschnitt. Es baute seinen Vorsprung immer weiter aus. Nach 1000 Generationen lag es nicht nur vorn,
sondern besaß auch die größte Zuwachsrate von allen Programmen. Eine unglaubliche Erfolgsgeschichte, zumal bei einem derart "schlichten" Helden.
Amüsant daran ist, daß TIT FOR TAT keinen einzigen seiner Rivalen im direkten "Zweikampf" besiegt hat. Das ist kein Ulk; es liegt einfach im Wesen von TIT FOR TAT.
TIT FOR TAT kann niemanden besiegen; bestenfalls zieht es gleich, oft aber verliert es (allerdings nicht hoch).
Axelrod drückt das sehr klar aus:
"TIT FOR TAT gewann das Turnier nicht, indem es den anderen Spieler schlug, sondern indem es ihn zu einem Verhalten ermunterte, das ihnen beiden zum Vorteil gereichte.
TIT FOR TAT hat mit solcher Beharrlichkeit für beide Seiten lohnende Ergebnisse herbeigeführt,
daß es schließlich eine höhere Gesamtpunktzahl erreichte als alle anderen Strategien im Turnier."
Er folgert daraus: "Man muß demnach (außer in einer Nullsummen-Welt) nicht besser sein als der andere Spieler, um selbst gut dazustehen.
Das gilt insbesondere für den Austausch zwischen vielen unterschiedlichen Spielern.
Sie können ruhig zulassen, daß jeder Ihrer Mitspieler genauso gut abschneidet wie Sie oder sogar etwas besser, solange Sie selbst nur auf Ihre Kosten kommen.
Es hat absolut keinen Zweck, neidisch auf den Erfolg des anderen zu sein, denn in einem iterativen Gefangenendilemma ist
auf lange Sicht der Erfolg des anderen die Voraussetzung für das eigene gute Abschneiden.
Axelrod nennt auch Beispiele aus dem täglichen Leben, wo dieses Prinzip gilt:
"Eine Firma, die regelmäßig bei einem Lieferanten bestellt, kann erwarten, daß beide Gewinn aus einer erfolgreichen Zusammenarbeit ziehen.
Es bringt nichts, dem Lieferanten seinen Profit zu mißgönnen.
Jeder Versuch, ihm durch unkooperatives Verhalten – etwa verspätetes Zahlen der Rechnungen – den Gewinn zu schmälern, wird ihn nur zu Vergeltungsmaßnahmen bewegen.
Diese können vielerlei Formen annehmen und treten oft gar nicht ausdrücklich als solche in Erscheinung.
Beispielsweise könnte Ihr Partner die Lieferungen verzögern, die Qualitätskontrolle lockern, beim Mengenrabatt weniger Entgegenkommen zeigen oder Prognosen über die
Marktentwicklung weniger frühzeitig an Sie weiterleiten. So könnte Sie Ihre Mißgunst teuer zu stehen kommen.
Anstatt sich über den Profit des Verkäufers Gedanken zu machen, sollte sich der Käufer lieber überlegen, ob eine andere Kaufstrategie vielleicht besser wäre.
Gleich einem Geschäftsmann, der nie jemanden übervorteilt, ist TIT FOR TAT ein Programm, das nie jemanden schlägt. Und doch kommen beide auf ihre Kosten.
Gegenüber einem unzugänglichen Spieler allerdings, der stur sein Spiel macht, ohne sich um das Verhalten der anderen zu kümmern, ist nicht TIT FOR TAT die beste Strategie, sondern IMMER M. Auf den ersten Blick mag das widersinnig erscheinen. Eine Zufalls-Strategie brächte mehr, sollte man meinen. Doch weit gefehlt! Wenn ich all meine Züge vorher festgelegt habe, dann haben Sie nichts davon, wenn Sie eine Münze werfen oder TIT FOR TAT spielen. In diesem Fall gibt es nur eins: immer mogeln, gleich weiches System oder Muster ich gewählt habe. Nur wenn ich durch Ihr Spiel zu beeinflussen bin, hat Kooperation einen Sinn.
Zum Glück ist in einer Welt, die von kooperierenden Programmen bevölkert wird (deren Kooperation auf Gegenseitigkeit beruht), Sturheit eine denkbar schlechte Strategie (weshalb auch IMMER M nicht viel bringt). Der einzige unzugängliche Teilnehmer beim zweiten Turnier war ZUFALL, und er wurde Vorletzter. Der Letztplazierte war zwar zu beeinflussen, doch verhielt er sich derart undurchsichtig, daß er gleichfalls unbeeinflußbar wirkte. Bei einem späteren Computer-Tumier, das Marek Lugowski und ich an der Informatik-Abteilung der Universität von Indiana durchführten, belegten drei IMMER-M-Programme die letzten Plätze (bei 53 Teilnehmern), während ein paar Zufalls-Strategien ihnen einen zähen Kampf um diese zweifelhafte Ehre lieferten.
Das Erfolgsgeheimnis von TIT FOR TAT liegt, wenn man so will, in seiner Fähigkeit, durch freundliche Überredung zur Kooperation zu ermuntern, in Axelrods Worten: "Ein Teil des Erfolgs [von TIT FOR TAT] mag daher rühren, daß andere Regeln seine Anwesenheit voraussetzen und darauf angelegt sind, gut mit ihm auszukommen. Gut mit ihm auskommen aber heißt mit ihm kooperieren, und davon profitiert wiederum TIT FOR TAT. Selbst Regeln, die darauf angelegt waren, festzustellen, was sie sich ungestraft erlauben können, entschuldigten sich meist bald bei TIT FOR TAT. Jede Regel, die TIT FOR TAT auszunutzen versucht, schadet nur sich selbst. TIT FOR TAT profitiert von der Unmöglichkeit, es auszunutzen, weil die drei folgenden Bedingungen erfüllt sind:
Dies offenbart einen vierten "Charakterzug" (außer den dreien Nettigkeit, Provozierbarkeit und Versöhnlichkeit), der wichtig für den Erfolg sein dürfte:
Kenntlichkeit, sprich Unkompliziertheit. Axelrod nennt es Klarheit und besticht durch die Klarheit seiner Ausführungen über den Wert dieser Eigenschaft:
"Was allzu kompliziert ist, wirkt oft völlig chaotisch. Wenn Sie eine Strategie verfolgen, die willkürlich scheint, dann werden die anderen Sie für unbeeinflußbar halten.
Wenn Sie aber unbeeinflußbar sind, gibt es auch keinen Grund mehr, mit Ihnen zu kooperieren.
So kompliziert zu sein, daß keiner Sie mehr versteht, ist also sehr gefährlich." Wer könnte die Parallelen zum sozialen und politischen Bereich übersehen?
In einem Brief an Axelrod warnt Rapoport davor, die Qualitäten von TIT FOR TAT zu überschätzen. Insbesondere schlage es, wie er meint, manchmal allzu schroff zurück.
Ebenso überzeugend freilich ließe sich die Ansicht vertreten, TIT FOR TAT sei in anderen Fällen eher zu langmütig.
Natürlich läßt sich nicht beweisen, daß TIT FOR TAT die absolut optimale Strategie ist.
Schon allein deshalb nicht, weil es, wie mehrfach betont, eine "beste" Strategie eben nicht gibt; hängt doch die Qualität jedes Programms von der Umgebung ab.
Beim Turnier an der Universität von Indiana schnitten mehrere Strategien, die TIT FOR TAT glichen, besser ab als TIT FOR TAT selbst. Sie alle besaßen jedoch
die drei entscheidenden "Charakterzüge", die laut Axelrods Analyse den Erfolg von TIT FOR TAT ausmachen.
Sie merkten es nur etwas schneller, wenn sie es mit einem unzugänglichen Spieler zu tun hatten – und schalteten dann auf IMMER M.
In seinem Buch gibt sich Axelrod große Mühe, Antworten auf die drei genannten Grundfragen zur Evolution der Kooperation in einer Welt brutaler Egoisten zu geben.
Zunächst also das Problem ihres Ursprungs: Wie kann Kooperation in einer Welt bedingungsloser Treulosigkeit, einem Urmeer voller unzugänglicher IMMER-M-Organismen,
überhaupt Fuß fassen? Die Antwort (sie zu beweisen, würde hier zu weit führen) lautet:
Eine Invasion durch kleine Grüppchen kooperativer Lebewesen, auch wenn sie eine
verschwindende Minderheit sind, würde genügen, um einen Brückenkopf für die Kooperation zu bilden.
Ein kooperatives Wesen allein ginge zugrunde; doch ein Grüppchen aus Kooperationswilligen, die beispielsweise durch Mutation entstanden
sind und sich zusammengefunden haben, könnte sich auch in einer feindlichen Umgebung ausbreiten, sofern sich seine Mitglieder so defensiv verhielten wie TIT FOR TAT.
Die zweite Frage ist die nach der Durchsetzungsfähigkeit oder Robustheit: Welche Art von Strategie kommt in Umgebungen, die sich ständig in unvorhersehbarer
Weise ändern, gut zurecht? Die Antwort kennen wir schon: Es sind alle Strategien mit den vier grundlegenden Charakterzügen Nettigkeit, Provozierbarkeit,
Versöhnlichkeit und Klarheit. Sobald sie einmal Fuß gefaßt haben, blühen und gedeihen sie, vor allem unter den Bedingungen einer ökologischen Evolution.
Schließlich die Frage nach der Stabilität: Kann sich die Kooperation ihrerseits gegen eine Invasion schützen? Sie kann es, wie Axelrod nachwies.
In diesem Punkt existiert eine höchst erfreuliche Asymmetrie: Während eine Weit voller "Schurken" (IMMER-M-Strategien) stets von Grüppchen kooperativer Organismen
unterwandert werden kann, haben Schurken nicht die geringste Chance, eine Welt voller Kooperativer zu durchsetzen, auch wenn sie in noch so großen Scharen auftreten.
Hat sich die Kooperation erst einmal eingenistet, ist sie von Dauer. "Die Zahnräder der sozialen Evolution haben", so Axelrod, "eine Rücklaufsperre."
Dabei heißt "sozial" nicht, daß diese Erkenntnisse nur für vernunftbegabte höhere Lebewesen gelten.
Ein vierzeiliges Computer-Programm kann natürlich nicht denken; und doch war es eine Welt aus solchen "Organismen", in der sich, wie wir sahen, Kooperation entwickelt hat.
Die einzige "kognitive Fähigkeit", die TIT FOR TAT braucht, ist die, frühere Partner wiederzuerkennen und sich an ihr Verhalten bei der letzten Begegnung zu erinnern.
Selbst Bakterien sind dazu in der Lage, sofern sie mit nur einem anderen Organismus verkehren (den sie so automatisch wiedererkennen) und lediglich die zuletzt erfolgten Handlungen
ihres "Partners" berücksichtigen (was nur ein minimales Gedächtnis erfordert).
Das Wunderbare daran ist, daß es keine Rolle spielt, mit was für Einheiten man es zu tun hat. Das können Bakterien, kleine Tiere, große Tiere oder Nationen sein.
Es bedarf keiner "reflektiven Vernunft"; ja man könnte TIT FOR TAT wohl eher als "reflexiv" denn als "reflektiv" bezeichnen:
Der Kniesehnenreflex ist auch nicht viel primitiver.
Leuten, die meinen, moralisches Verhalten lasse sich nur durch Androhen einer gräßlichen Strafe im Jenseits (der Hölle zum Beispiel) oder durch die tröstliche
Aussicht auf himmlische Belohnung (die ewige Seligkeit) erzwingen, sollten die Ergebnisse dieser Untersuchung zu denken geben. Axelrod faßt es in einem Satz zusammen:
"Wechselseitige Kooperation kann auch ohne zentrale Kontrolle in einer Welt von Egoisten
entstehen, wenn sie von einer Gruppe von Einzelwesen ausgeht, die auf Zusammenarbeit setzt."
Es gibt viele Bereiche in unserer heutigen Welt, in denen diese Ideen extrem bedeutsam – ja lebenswichtig – sind, so daß man versucht ist, alle
möglichen Lehren daraus zu ziehen. In den hinteren Kapiteln seines Buches erteilt Axelrod Ratschläge zur Förderung zwischenmenschlicher Kooperation,
und ganz zum Schluß wagt sich der Politologe in ihm mit ein paar vorsichtig formulierten, allgemeinen Schlußfolgerungen zu globalen Fragen hervor,
die auch hier einen passenden Abschluß bilden.
"Heute liegen die bedeutendsten Probleme, mit denen die Menschheit konfrontiert ist, auf dem Feld der internationalen Beziehungen, wo sich unabhängige, egoistische
Nationen in einem Zustand gegenüberstehen, der weitgehend an Anarchie grenzt. Viele dieser Probleme haben die Form eines iterativen Gefangenendilemmas.
Als Beispiele mögen das Wettrüsten, die Verbreitung von Kernwaffen, das Krisenmanagement und die militärische Eskalation dienen.
Natürlich gehört zu einer realistischen Betrachtung dieser Probleme, daß man viele Faktoren in Rechnung stellt, die über das Gefangenendilemma in
seiner einfachen Formulierung hinausgehen: Ideologie, Bürokratie, Verpflichtungen, Koalitionen, Mittlerrolle und Führerschaft.
Dennoch können wir alles gebrauchen, was uns an Erkenntnissen zur Verfügung steht.
Robert Gilpin weist [in seinem Buch 'War and Change in World Politics' ('Krieg und Wandel in der Weltpolitik')] darauf hin, daß angefangen von den
alten Griechen bis zur Gegenwart alle politischen Theorien nur um die eine grundsätzliche Frage kreisen:
"Wie kann die Menschheit – ob aus Eigennutz oder aus eher kosmopolitischen Gründen die scheinbar blinden Kräfte der
Geschichte verstehen und kontrollieren?" Die Entwicklung der Kernwaffen hat
dieser Frage in der heutigen Weit eine besondere Brisanz verliehen.
Die den Mitspielern beim Gefangenendilemma in diesem Buch erteilten Ratschläge könnte man auch den politischen Führern ans Herz legen:
Seid nicht neidisch, begeht nicht als erste einen Wortbruch, vergeltet sowohl Kooperation wie Verrat und versucht nur nicht, zu clever zu sein.
Analog könnten die hier diskutierten Techniken zur Förderung der Kooperation beim Gefangenendilemma auch in der
internationalen Politik helfen, ein besseres Klima der Zusammenarbeit zu schaffen.
Das Fatale an dem Problem ist, daß man aus Erfahrung leider nur sehr langsam klug wird. Die Aussichten mögen auf lange Sicht zwar durchaus günstig sein,
aber vielleicht bleibt uns nicht mehr genug Zeit, um zu warten, bis uns blinde Abläufe langsam in Richtung beiderseitig vorteilhafter Strategien
auf der Grundlage der Zusammenarbeit lenken.
Wenn wir den Prozeß besser verstünden, könnten wir vielleicht unsere Einsicht nutzen, um die Evolution der Kooperation zu beschleunigen."
Anmerkung zum letzten Absatz:
Der Artikel erschien 1983. Inzwischen ist der eiserne Vorhang gefallen, der kalte Krieg beendet.
Wir haben eindeutig eine bessere Ausgangsbasis als damals.
Daß es immer wieder Rückfälle durch regional begrenzte Konflikte gibt, sollte uns nicht das Vertrauen in die langfristige Evolution der Menschheit nehmen.
Und wir sollten vor allem nicht wegen Ideologien oder diffuser Gefühle Regierungen in den Rücken fallen,
die sich gemäß TIT FOR TAT oder annähernd guten Strategien verhalten.
Den "Kampf ums Dasein" gewinnt nicht immer der Stärkste
Von Axel Tillemans, 1999
Ohne Säugetierblut überleben Vampirfledermäuse nur zweieinhalb Tage.
In einer durchschnittlichen Nacht kehren zehn Prozent der Fledermäuse mit leerem Magen heim.
Satte Vampire füttern dann hungernde Artgenossen, die den nächsten Tag nicht überleben würden – scheinbar zum eigenen Nachteil.
Eigentlich sollte ein derartiges selbstloses Verhalten zwischen nicht verwandten Artgenossen nicht geben. Doch eine erste Erklärung für den Erfolg kooperativen
Verhaltens lieferte Ende der siebziger Jahre der kanadische Spieltheoretiker Anatol Rapoport mit seinem Programm "Tit for Tat" (Wie du wir, so ich dir).
Die britischen Biologen Gilbert Roberts und Thomas Sherratt haben diese Verhaltensstrategie nun an einem verfeinerten Compurmodell simuliert.
Dabei gab es "Egoisten", "knauserige Tauscher" und "nette Sondierer". Diese Individuen trafen immer wieder wechselseitig aufeinander.
Abhängig vom vergangenen Verhalten ihres Gegenübers vergaben sie Punkte. Die Egoisten verschenkten grundsätzlich keine Punkte.
Ein knauseriger Tauscher gab etwas weniger, als er das letzte Mal vom Partner bekommen hatte.
Die netten Sondierer verschenkten beim ersten Treffen zunächst ein wenig, steigerten ihre Geschenke bei Partnern, die ihren letzten Einsatz mindestens erwidert hatten.
Sogar ein Partner, der, einen netten Sondierer beim vorigen Mal unterboten hatte, bekam beim nächsten Treffen noch seinen letzten Einsatz zurück.
Nach mehreren Runden wurde für jeden der Charaktere der Punktestand ermittelt.
Die Charaktere, die überdurchschnittlich gut abgeschnitten hatten, bekamen nun entsprechend ihrem Punktergebnis eine bestimmte Anzahl an Nachkommen.
Die anderen starben aus. Das Spiel wurde mit den Nachkommen fortgesetzt und konnte somit über viele Generationen hinweg die natürliche Selektion simulieren.
Das Ergebnis war ein überwältigender Fortpflanzungserfolg der netten Sondierer. Sie schafften es sogar, eine von Egoisten beherrschte Population umzupolen.
Der Erfolg der netten Sondierer gründet sich zum Teil auf ihre Kooperationsbereitschaft.
Andererseits sind sie nicht sehr risikofreudig. Sie erhöhen ihre Geschenke erst dann, wenn der Partner sich als freigebig herausgestellt hat. Das schützt sie vor Ausbeutung.
Auch für die Vampirfledermäuse rechnet es sich, nett zu sein: Der Stoffwechsel eines satten Vampirs ist wesentlich höher als der eines darbenden Artgenossen.
Mit der Nahrungsmenge, die der satte Vampir innerhalb der nächsten drei Stunden verbraucht hatte, kann der Hungernde zwölf weitere Stunden überleben.
Unter dem Strich heißt das: Der Satte hat nach wie vor zwei Nächte, in denen er auf Beutezug gehen kann. Der Hungernde gewinnt eine Nacht hinzu.
Statt des sicheren Todes findet er mit einer Wahrscheinlichkeit von 90 Prozent Nahrung und kann seinerseits einem Artgenossen als Blutspender dienen.