einfÜhrung in die spieltheorie

131

Upload: dinhanh

Post on 05-Jan-2017

222 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: EINFÜHRUNG IN DIE SPIELTHEORIE

EINFÜHRUNG IN DIESPIELTHEORIE

Theorie und Numerik von Nash�Gleichgewichtsproblemen

Christian Kanzow

Universität WürzburgInstitut für Mathematik

Am Hubland97074 Würzburg

e-mail: [email protected]: http://www.mathematik.uni-wuerzburg.de/~kanzow/

Vorlesungsskript, Wintersemester 2006/07

Stand: 06.02.2007

Page 2: EINFÜHRUNG IN DIE SPIELTHEORIE
Page 3: EINFÜHRUNG IN DIE SPIELTHEORIE

Inhaltsverzeichnis

Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii1 Einführung 1

1.1 De�nition und Beispiele strategischer Spiele . . . . . . . . . . . . . . . . . 11.2 Nash�Gleichgewichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.3 Andere Lösungskonzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.4 Klassi�kation strategischer Spiele . . . . . . . . . . . . . . . . . . . . . . . 12

2 Existenz von Nash�Gleichgewichten 172.1 Konvexe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.2 Monotone Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.3 Variationsungleichungen und Nash�Gleichgewichte . . . . . . . . . . . . . . 292.4 Existenz von Nash�Gleichgewichten via Variationsungleichungen . . . . . . 322.5 Der Existenzsatz von Nikaido�Isoda . . . . . . . . . . . . . . . . . . . . . . 40

3 Zwei�Personen�Spiele 433.1 Matrixspiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433.2 Matrixspiele in gemischten Strategien . . . . . . . . . . . . . . . . . . . . . 473.3 Bi�Matrixspiele und quadratische Programme . . . . . . . . . . . . . . . . 523.4 Bi�Matrixspiele und lineare Komplementaritätsprobleme . . . . . . . . . . 58

4 Verallgemeinerte Nash�Gleichgewichtsprobleme 634.1 Problemstellung und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . 634.2 Normalisierte Nash�Gleichgewichte . . . . . . . . . . . . . . . . . . . . . . 674.3 Charakterisierung normalisierter Nash�Gleichgewichte . . . . . . . . . . . . 704.4 Existenz normalisierter Nash�Gleichgewichte . . . . . . . . . . . . . . . . . 75

5 Numerische Verfahren für (verallgemeinerte) Nash�Gleichgewichtsprobleme 795.1 Diagonalisierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 795.2 Die Nikaido�Isoda�Funktion und ein Relaxationsverfahren . . . . . . . . . 825.3 Die regularisierte Nikaido�Isoda�Funktion . . . . . . . . . . . . . . . . . . 875.4 Die Di�erenz zweier regularisierter Nikaido�Isoda�Funktionen . . . . . . . 94

i

Page 4: EINFÜHRUNG IN DIE SPIELTHEORIE

6 Numerische Verfahren für Variationsungleichungen 1016.1 Projektionsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1016.2 Josephy�Newton�Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 1046.3 Die (regularisierte) Gap�Funktion . . . . . . . . . . . . . . . . . . . . . . . 1086.4 Die D�Gap�Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1156.5 Verallgemeinerte KKT�Bedingungen . . . . . . . . . . . . . . . . . . . . . 119

Literatur 123

Page 5: EINFÜHRUNG IN DIE SPIELTHEORIE

VORWORT iii

VorwortDie Spieltheorie beschäftigt sich mit der Beschreibung und Analyse von Spielen in einemweiten Sinne. Bei den Spielen mag es sich ganz allgemein um Kon�iktsituationen zwischenmehreren Beteiligten (Spielern) handeln, die verschiedene Handlungsmöglichkeiten habenund damit den Ausgang des Kon�ikts beein�ussen können. Es kann sich bei einer solchenKon�iktsituation um einen Markt mit konkurrierenden oder interagierenden Unterneh-men, um politische Gruppen mit unterschiedlichen Zielen, aber auch um die Spieler einerSchachpartie handeln.

Hingegen beschäftigt sich die Spieltheorie nicht mit reinen Glücksspielen (wie etwa vie-len Würfelspielen), da deren Verlauf ausschlieÿlich durch den Zufall bestimmt wird undman somit keine Möglichkeit hat, durch eigene Entscheidungen Ein�uss auf den weiterenSpielverlauf zu nehmen. Aus diesem Grunde spricht man in der Spieltheorie von strategi-schen Spielen, um sie von den reinen Glücksspielen auch sprachlich zu unterscheiden.

Die Spieltheorie ist zweifellos ein interdisziplinäres Forschungsgebiet. Sie tritt insbe-sondere in den Wirtschaftswissenschaften, in der Informatik und in der Mathematik auf.Die jeweiligen Schwerpunkte in den einzelnen Disziplinen sind sicherlich andere. Die Wirt-schaftswissenschaften etwa haben diverse spieltheoretische Modelle, die oft per Hand gelöstwerden oder aus denen zumindest qualitative Aussagen gewonnen werden. KompliziertereModelle hingegen können nicht per Hand gelöst werden. Hier bedarf es geeigneter Verfah-ren, wie sie etwa in der Mathematik entwickelt werden und hier auch im Mittelpunkt derVorlesung stehen.

Im Gegensatz zur Informatik befassen wir uns hauptsächlich mit kontinuierlichen Spie-len, bei denen die Strategiemengen überabzählbare Mengen sind. In der Informatik hinge-gen werden meist endliche Spiele betrachtet (das sind Spiele mit endlichen Strategiemen-gen) und hierfür geeignete e�ziente Verfahren entwickelt. Diese endlichen Spiele werdendurch die vorliegende Vorlesungsausarbeitung nur sehr einführend behandelt.

Die restliche Sto�auswahl ist groÿenteils durch persönliche Vorlieben geprägt. Im Vor-dergrund stehen hierbei die so genannten Nash�Gleichgewichtsprobleme und deren nume-rische Behandlung. Dabei werden teilweise sehr neue (und manchmal selbst in der Origi-nalliteratur noch nicht publizierte) Ergebnisse mit aufgenommen. Das geht natürlich aufKosten der Breite unserer Darstellung. Hierfür sei insbesondere auf die in der Literaturlistegenannten Bücher verwiesen.

Page 6: EINFÜHRUNG IN DIE SPIELTHEORIE
Page 7: EINFÜHRUNG IN DIE SPIELTHEORIE

Kapitel 1

Einführung

1.1 De�nition und Beispiele strategischer Spiele1.2 Nash�Gleichgewichte1.3 Andere Lösungskonzepte1.4 Klassi�kation strategischer Spiele

1.1 De�nition und Beispiele strategischer SpieleWir beginnen diesen Abschnitt mit der zentralen De�nition eines strategischen Spiels.De�nition 1.1 Ein (strategisches) Spiel (in Normalform) wird beschrieben durch

(a) eine Menge {1, . . . , N} von (endlich vielen) Spielern;(b) Strategiemengen Xν für jeden Spieler ν = 1, . . . , N ;

(c) Auszahlungsfunktionen oder Nutzenfunktionen θν : X → R für jeden Spieler ν =1, . . . , N , wobei X := X1 × . . . × XN das kartesische Produkt aller Strategiemengenbezeichnet.

Zur Abkürzung für ein solches Spiel schreiben wir Γ = {θν , Xν}Nν=1 und bezeichnen Γ auchals ein N�Personen�Spiel.In der Literatur �ndet man häu�g eine allgemeinere De�nition eines (strategischen) Spiels,bei der als Bildbereich der Auszahlungsfunktionen nicht notwendig die Menge der reellenZahlen steht, vergleiche etwa [38]. Für unsere (und viele andere) Zwecke reicht jedoch dieobige De�nition.

Wir illustrieren den Begri� eines Spiels zunächst an einigen (sehr populären) Beispielen.Beispiel 1.2 ( Gefangenendilemma )Nach einem Raubüberfall werden zwei Personen 1 und 2 festgenommen, da sie unter drin-gendem Tatverdacht stehen. Die Polizei trennt beide Personen, damit zwischen diesen keineAbsprachen möglich sind, und macht beiden unabhängig voneinander den folgenden Vor-schlag:

1

Page 8: EINFÜHRUNG IN DIE SPIELTHEORIE

2 KAPITEL 1. EINFÜHRUNG

• Wenn einer sich schuldig bekennt und der andere nicht, so erhält der Geständigeals Strafe 1 Jahr Gefängnis aufgrund einer Kronzeugenregelung, während der andere(Nichtgeständige) dann für 10 Jahre ins Gefängnis kommt.• Wenn beide gestehen, bekommt jeder 5 Jahre Gefängnis.• Wenn keiner gesteht, bekommt jeder 2 Jahre Gefängnis wegen illegalen Wa�enbesit-zes.

Hierbei handelt es sich um ein Spiel im Sinne der De�nition 1.1 mit der Menge {1, 2} vonzwei Spielern, den Strategiemengen

X1 := X2 := {S, G} mit S:=schweigen, G:=gestehenund den Auszahlungsfunktionen

θ1 : X1 ×X2 → R, θ2 : X1 ×X2 → R,

die elementweise de�niert sind durchθ1(S, S) := 2, θ1(S, G) := 10, θ1(G, S) := 1, θ1(G, G) := 5

undθ2(S, S) := 2, θ2(S, G) := 1, θ2(G, S) := 10, θ2(G, G) := 5.

Dies ist die formale Beschreibung des Gefangenendilemmas als ein 2�Personen�Spiel inNormalform. 3

In dem Beispiel 1.2 traten lediglich 2 Spieler auf und die zugehörigen Strategiemengen wa-ren beide endlich. In einem solchen Fall lassen sich die Auszahlungsfunktionen einfacher inder Gestalt einer Auszahlungsmatrix angeben, wobei man, je nach Zusammenhang, auchvon einer Gewinn� oder Verlustmatrix spricht. Im Beispiel 1.2 sind die Auszahlungsmatri-zen der beiden Spieler gegeben durch:

Auszahlungsmatrix für Spieler 1 Auszahlungsmatrix für Spieler 2Spieler 2 Spieler 2

Spieler 1S G

S 2 10G 1 5

Spieler 1S G

S 2 1G 10 5

Zur Analyse des Spiels: O�enbar ist (S,S) die beste Lösung, denn dann bekämen beideSpieler �nur� eine Strafe von 2 Jahren. Allerdings dürfen sich die Spieler ja nicht absprechen,daher besteht für jeden Spieler, der die Strategie S wählt, die groÿe Gefahr, dass der jeweilsandere Spieler die Strategie G wählt, um dann nur 1 Jahr Gefängnis zu erhalten, währendder andere 10 Jahre aufgebrummt bekommt. Um dieser Gefahr vorzubeugen, wird einstrategisch denkender Spieler deshalb die Strategie G wählen, denn dann bekommt er 5

Page 9: EINFÜHRUNG IN DIE SPIELTHEORIE

1.1. DEFINITION UND BEISPIELE STRATEGISCHER SPIELE 3

Jahre (statt 10 Jahre) Gefängnis, wenn der andere Spieler gesteht, bzw. 1 Jahr (statt 2Jahre) Gefängnis, wenn der andere schweigt. Aus analogen Überlegungen heraus wird derandere Spieler ebenfalls die Strategie G wählen. Beide erhalten somit 5 Jahre aufgebrummt.Dies ist insofern ein Dilemma, als dass sie beide mit nur 2 Jahren davonkommen könnten,sofern sie sich beide auf die Strategie S einigen würden. Eine Einigung ist aber nichtmöglich, da beide Spieler sich nicht absprechen konnten und man davon ausgehen muss,dass jeder Spieler selbstsüchtig ist und im Falle der Strategie S die Gegenstrategie G wählt,um möglichst doch nur 1 Jahr Gefängnis zu erhalten.Beispiel 1.3 ( Kampf der Geschlechter )Ein Ehepaar möchte gemeinsam ein Konzert besuchen, allerdings bevorzugt sie ein Konzertmit Musik von Bach, während er lieber ein Konzert mit Musik von Stravinsky hören möchte.Bezeichnen wir die Ehefrau als Spieler 1 und den Ehemann als Spieler 2, so haben beideSpieler die Strategiemengen

X1 := X2 := {Bach, Stravinsky}.Die Auszahlungsfunktionen θ1 und θ2 ergeben sich aus der nachfolgenden Auszahlungsma-trix:

Spieler 2 (Ehemann)Spieler 1 (Ehefrau)

Bach StravinskyBach 2, 1 0, 0

Stravinsky 0, 0 1, 2

Die jeweils erste Zahl soll dabei die Bewertung der Ehefrau sein, die zweitgenannte Zi�er dieBewertung des Mannes. Wir haben die eigentlich zwei Auszahlungsmatrizen somit etwaskompakter in einer Matrix zusammengefasst. 3

Die Situation im Beispiel 1.3 ist anders als im Beispiel 1.2, denn jetzt können (und wollen)beide Spieler sich miteinander absprechen (in der Spieltheorie nennt man dies kooperieren).Da man gemeinsam ausgehen will, sind die beiden Strategientupel (Bach, Stravinsky) und(Stravinsky, Bach) wertlos. Die Bewertungen der beiden Kombinationen (Bach, Bach) und(Stravinsky, Stravinsky) sind bei Mann und Frau zwar verschieden, in ihrer Summe al-lerdings gleich. Daher wird keine dieser beiden Kombinationen bevorzugt. Dass sich dasEhepaar in der Praxis dann doch meist im Bach�Konzert wieder�ndet, liegt letztlich dar-an, dass der Kampf der Geschlechter (in Patt�Situationen) im Allgemeinen von der Fraugewonnen wird . . .

Beispiel 1.4 ( Stein, Schere, Papier )Gegeben seien zwei Spieler 1 und 2, die unabhängig voneinander Stein, Schere oder Papierwählen. Die Strategiemengen beider Spieler sind also gegeben durch

X1 := X2 := {Stein, Schere, Papier}.

Page 10: EINFÜHRUNG IN DIE SPIELTHEORIE

4 KAPITEL 1. EINFÜHRUNG

Es gelten die bekannten Regeln: Das Papier hüllt den Stein ein, der Stein macht die Scherestumpf, und die Schere wiederum zerschneidet das Papier. Das können wir auch auf diefolgende Weise ausdrücken:

Papier schlägt Stein, Stein schlägt Schere, Schere schlägt Papier.Gewinnt Spieler 1, so erhält er 1 Euro von Spieler 2, verliert Spieler 1, so zahlt er hingegen1 Euro an den Gegenspieler. In Patt�Situationen müssen keine Zahlungen erfolgen. DieAuszahlungsmatrix dieses Spiels lautet daher wie folgt:

Spieler 2

Spieler 1Stein Schere Papier

Stein 0, 0 1,−1 −1, 1Schere −1, 1 0, 0 1,−1Papier 1,−1 −1, 1 0, 0

Die Einträge in dieser Matrix haben ansonsten dieselbe Bedeutung wie im vorigen Beispiel.3Im obigen Spiel gibt es o�ensichtlich keine Strategie, die garantiert zum Sieg führt. Würdeman hingegen die Wahl des Gegenspielers kennen, so gäbe es stets eine Strategie, die einemden Sieg einbringt. Ansonsten ist der Gewinn des einen Spielers stets gleich dem Verlustdes anderen, so dass die Summe der Auszahlungsfunktionen θ1 und θ2 stets gleich Null ist.Wir werden solche Spiele später Nullsummenspiele nennen.Beispiel 1.5 ( Oligopol�Modell nach Cournot )Ein gewisses Produkt möge von N Unternehmen produziert werden (wobei der Ökonombei einem Oligopol davon ausgeht, dass es sich hierbei um nur wenige Unternehmen han-delt, während für den Mathematiker die Zahl N auch groÿ sein darf). Sei xν die vom ν-tenUnternehmen hergestellte Menge dieses Produkts. Es seien ferner cν(xν) die gesamten Ko-sten, die für das Unternehmen ν zur Erzeugung von xν Einheiten des Produktes anfallen.Seien ξ :=

∑Nν=1 xν die insgesamt vom Produkt hergestellte Menge und p(ξ) der Preis pro

Einheit des Produktes, bei dem die Konsumenten gewillt sind, insgesamt ξ Einheiten zukaufen (p heiÿt auch inverse Nachfragefunktion1). Jedes Unternehmen ν wird natürlichversuchen, seinen Gewinn zu maximieren. Für das Unternehmen ν ergibt sich daher dasOptimierungsproblem

maxxν

xνp(xν +

∑µ 6=ν

)− cν(xν) u.d.N. xν ≥ 0,

wobei xµ mit µ 6= ν die Produktionsmengen der Konkurrenzunternehmen bezeichnet. DasUnternehmen ν besitzt somit die Strategiemenge Xν := [0, +∞) (da nur nichtnegative

1Die Nachfragefunktion f(p) gibt zu jedem Preis p die gesamte Nachfrage ξ = f(p) des Produktes an.Nehmen wir f als streng monoton fallend an, was aus ökonomischer Sicht sinnvoll erscheint, so besitztf insbesondere eine Inverse p(ξ) := f−1(ξ). Dies liefert gerade die inverse Nachfragefunktion, die dannnatürlich ebenfalls streng monoton fällt.

Page 11: EINFÜHRUNG IN DIE SPIELTHEORIE

1.2. NASH�GLEICHGEWICHTE 5

Stückzahlen produziert werden können) und die Auszahlungsfunktionθν(x) := xνp

(xν +

∑µ 6=ν

)− cν(xν),

welche gerade die Di�erenz zwischen den Einnahmen und den Ausgaben (Kosten) angibt.3Das vorige Beispiel unterscheidet sich von seinen Vorgängern darin, dass die Strategiemen-gen jetzt nicht mehr endlich sind. Wir werden dies später ein kontinuierliches Spiel nennen.Die möglichen Auszahlungen lassen sich o�enbar nicht mehr in Form einer einfachen Ta-belle oder Matrix angeben.

1.2 Nash�GleichgewichteWir haben im vorigen Abschnitt mehrere Beispiele von strategischen Spielen betrachtetund uns dabei intuitiv klar gemacht, welches wohl die Lösung des gegebenen strategischenSpiels ist, ohne hierfür einen formalen Lösungsbegri� zur Hand zu haben. Dies soll in diesemAbschnitt nachgeholt werden. Dabei sei bereits an dieser Stelle erwähnt, dass es eine Reihevon verschiedenen Lösungsbegri�en gibt. Der bedeutendste seiner Art ist aber sicherlichder eines Nash�Gleichgewichts, den wir deshalb auch an den Anfang dieses Abschnittsstellen.De�nition 1.6 Gegeben sei ein strategisches Spiel Γ = {θν , Xν}Nν=1. Ein Vektor x∗ =(x∗,ν)N

ν=1 heiÿt Nash�Gleichgewicht dieses Spiels, wenn x∗,ν ∈ Xν und

θν(x∗) ≤ θν(x

∗,1, . . . , x∗,ν−1, xν , x∗,ν+1, . . . , x∗,N) ∀xν ∈ Xν (1.1)und alle ν = 1, . . . , N gilt.

Zur bequemeren Formulierung der Bedingung (1.1) führen wir noch eine neue und inder Spieltheorie übliche Schreibweise ein: Ist x = (x1, . . . , xN)T ein gegebener Vektormit den Block�Komponenten xν ∈ Xν , ν = 1, . . . , N , und wollen wir die ν-te Block�Komponente xν besonders hervorheben, so schreiben wir hierfür x = (xν , x−ν)T , wobeix−ν alle Block�Komponenten xµ mit µ 6= ν enthält. Dann ist (xν , x∗,−ν) eine abkürzen-de Bezeichnung für den Vektor (x∗,1, . . . , x∗,ν−1, xν , x∗,ν+1, . . . , x∗,N)T , bei dem die Block�Komponente x∗,ν durch xν ersetzt wird. In dieser Notation ist x∗ = (x∗,ν)N

ν=1 genau dannein Nash�Gleichgewichtspunkt des gegebenen Spiels, wenn x∗,ν ∈ Xν und

θν(x∗) ≤ θν(x

ν , x∗,−ν) ∀xν ∈ Xν

und alle ν = 1, . . . , N gelten, wenn x∗,ν also eine Lösung des Optimierungsproblemsminxν

θν(xν , x∗,−ν) u.d.N. xν ∈ Xν (1.2)

Page 12: EINFÜHRUNG IN DIE SPIELTHEORIE

6 KAPITEL 1. EINFÜHRUNG

für alle ν = 1, . . . , N ist (u.d.N. = unter der Nebenbedingung). Man beachte hierbei, dassdie Zielfunktion θν von der optimalen Strategie aller Mitspieler abhängt und daher imAllgemeinen nicht explizit bekannt ist.

Das Lösungskonzept von Nash lässt sich auch noch etwas anders formulieren. Sei dazux = (x1, . . . , xN)T ein gegebener Vektor und Sν(x

−ν) die Lösungsmenge des Optimierungs-problems

minxν

θν(xν , x−ν) u.d.N. xν ∈ Xν

für ν = 1, . . . , N . Dann ist x∗ = (x∗,ν)Nν=1 o�enbar genau dann ein Nash�Gleichgewicht des

gegebenen Spiels, wennx∗,ν ∈ Sν(x

∗,−ν) ∀ν = 1, . . . , N

gilt. Wir halten diese Beobachtung formal in dem folgenden Resultat fest.Satz 1.7 Gegeben sei ein strategisches Spiel Γ = {θν , Xν}Nν=1. Dann ist x∗ genau dann einNash�Gleichgewicht von Γ, wenn x∗,ν ∈ Sν(x

∗,−ν) für alle ν = 1, . . . , N gilt.

Im Zusammenhang mit dem obigen Resultat ist der nachfolgende Begri� manchmal rechtnützlich.De�nition 1.8 Die Abbildung x−ν 7→ Sν(x

−ν) heiÿt die Beste�Antwort�Funktion desSpielers ν. Die hieraus zusammengesetzte Abbildung x 7→ S(x) mit

S(x) := S1(x−1)× . . .× SN(x−N)

wird auch als Beste�Antwort�Funktion des gegebenen Spiels bezeichnet.

Mit diesen Bezeichnungen lässt sich der Satz 1.7 auch so formulieren, dass x∗ genau dannein Nash�Gleichgewicht ist, wenn x∗ ∈ S(x∗) gilt.Bemerkung 1.9 Wir haben bislang den Fall betrachtet, dass die Block�Komponentenx∗,ν eines Nash�Gleichgewichtes die Lösung eines Minimierungsproblems sind, siehe (1.2).Häu�g haben wir es jedoch auch mit Maximierungsproblemen zu tun, vergleiche etwaBeispiel 1.5. In diesem Fall heiÿt x∗ natürlich ein Nash�Gleichgewicht des gegebenen SpielesΓ = {θν , Xν}Nν=1, wenn

θν(x∗) ≥ θν(x

ν , x∗,−ν) ∀xν ∈ Xν

und alle ν = 1, . . . , N gilt. O�enbar ist x∗ genau dann eine Lösung der Minimierungspro-bleme

minxν

θν(xν , x∗,−ν) u.d.N. xν ∈ Xν

für ν = 1, . . . , N , wenn x∗ die Maximierungsproblememax

xν−θν(x

ν , x∗,−ν) u.d.N. xν ∈ Xν

für ν = 1, . . . , N löst. Durch Ersetzen von θν durch −θν lassen sich alle Ausführungenund Ergebnisse für Nash�Gleichgewichte in Minimierungsform auf Nash�Gleichgewichte inMaximierungsform übertragen (und umgekehrt).

Page 13: EINFÜHRUNG IN DIE SPIELTHEORIE

1.2. NASH�GLEICHGEWICHTE 7

Die obige Bemerkung ist für unsere weiteren Ausführungen sehr wichtig, da wir häu�gzwischen Nash�Gleichgewichten in Minimierungsform und Nash�Gleichgewichten in Maxi-mierungsform springen werden. Aus dem jeweiligen Zusammenhang ist stets klar, ob wirnun minimieren oder maximieren wollen. Im Beispiel 1.2 soll die Strafe in Gefängnisjah-ren natürlich minimiert werden, während im Beispiel 1.5 der Gewinn der Unternehmen zumaximieren ist.

Wir überprüfen das Lösungskonzept von Nash kurz an den Beispielen des vorigen Ab-schnitts.Beispiel 1.10 (a) Das Gefangenendilemma aus dem Beispiel 1.2 besitzt o�enbar ge-

nau einen Nash�Gleichgewichtspunkt, nämlich die Strategiekombination (G, G), beidem beide Spieler gestehen. Dies entspricht gerade der im vorigen Abschnitt intuitivherausgearbeiteten Lösung.

(b) Im Kampf der Geschlechter aus dem Beispiel 1.3 gibt es zwei Nash�Gleichgewichte,nämlich die beiden Strategiekombinationen (Bach, Bach) und (Stravinsky, Stravins-ky). Durch das Lösungskonzept von Nash wird keine dieser beiden Strategien bevor-zugt (und damit die häu�g gröÿere Durchsetzungsfähigkeit der Frau nicht berück-sichtigt).

(c) Das Stein�Schere�Papier�Spiel aus dem Beispiel 1.4 schlieÿlich hat gar keinen Nash�Gleichgewichtspunkt. Dies entspricht genau unserer früheren Beobachtung, dass eshier keine Lösung gibt. 3

Wir betrachten als Nächstes auch noch ein konkretes Beispiel zum Oligopol�Modell vonCournot. Da hier nur N = 2 Unternehmen (Spieler) beteiligt sind, spricht man statt voneinem Oligopol meist von einem Duopol.Beispiel 1.11 ( Duopol�Modell nach Cournot )Betrachte das Oligopol�Modell aus dem Beispiel 1.5 mit N = 2 Unternehmen, den linearenKostenfunktionen cν(xν) := αxν für ν = 1, 2 (mit einer Konstanten α > 0) und der inversenNachfragefunktion

p(ξ) :=

{γ − ξ, falls ξ ≤ γ,0, falls ξ ≥ γ,

für eine weitere Konstante γ > α. Damit lautet die zu maximierende Zielfunktion desUnternehmens 1

θ1(x1, x2) := x1

(p(x1 + x2)

)− c1(x1) =

{x1(γ − x1 − x2)− αx1, falls x1 + x2 ≤ γ,−αx1, falls x1 + x2 ≥ γ.

Entsprechend lautet die zu maximierende Zielfunktion des Unternehmens 2

θ2(x1, x2) := x2

(p(x1 + x2)

)− c2(x2) =

{x2(γ − x1 − x2)− αx2, falls x1 + x2 ≤ γ,−αx2, falls x1 + x2 ≥ γ.

Page 14: EINFÜHRUNG IN DIE SPIELTHEORIE

8 KAPITEL 1. EINFÜHRUNG

Eine elementare Überlegung zeigt nun, dass die zugehörigen Beste�Antwort�Funktionender beiden Unternehmen bei gegebenem x1 bzw. x2 (in dem letztlich nur interessierendenFall x1 + x2 < γ) wie folgt lauten:

S1(x2) =

{12(γ − α− x2), falls x2 ≤ γ − α,

0, falls x2 ≥ γ − α

undS2(x1) =

{12(γ − α− x1), falls x1 ≤ γ − α,

0, falls x1 ≥ γ − α

(beachte hierbei, dass die Produktionszahlen x1, x2 nichtnegativ sein sollen). Nun ist x∗ =(x∗1, x

∗2) genau dann ein Nash�Gleichgewicht, wenn x∗1 ∈ S1(x

∗2) und x∗2 ∈ S2(x

∗1) gelten. Dadie beiden Beste�Antwort�Funktionen jeweils einelementig sind, ist dies äquivalent zu

x∗1 =

{12(γ − α− x∗2), falls x∗2 ≤ γ − α,

0, falls x∗2 ≥ γ − α

undx∗2 =

{12(γ − α− x∗1), falls x∗1 ≤ γ − α,

0, falls x∗1 ≥ γ − α.

Eine elementare geometrische Überlegung zeigt nun (vergleiche die Abbildung 1.1), dassx∗ :=

(13(γ − α), 1

3(γ − α)

) der einzige Nash�Gleichgewichtspunkt im gegebenen Duopol�Modell ist. 3

x1

x2

S1(x∗2)

S2(x∗1)

γ − α

12(γ − α)

12(γ − α) γ − α

x∗

Abbildung 1.1: Nash�Gleichgewicht beim Duopol aus dem Beispiel 1.11Die Nash�Gleichgewichte im Zusammenhang mit dem Oligopol�Modell von Cournot wer-den in der Literatur oft auch als Cournot�Nash�Gleichgewichte bezeichnet.

Das folgende Resultat beschäftigt sich mit der Äquivalenz von strategischen Spielen.

Page 15: EINFÜHRUNG IN DIE SPIELTHEORIE

1.3. ANDERE LÖSUNGSKONZEPTE 9

Satz 1.12 Seien Γ = {Xν , θν}Nν=1 und Γ = {Xν , θν}Nν=1 zwei Spiele mit gleicher Zahl anSpielern und gleichen Strategiemengen derart, dass für die zugehörigen Auszahlungsfunk-tionen eine Beziehung der Gestalt

θν(x) = rνθν(x) + ην(x−ν) ∀ν = 1, . . . , N (1.3)

mit gewissen Konstanten rν > 0 und gewissen Funktionen ην gilt. Dann sind die beidenSpiele Γ und Γ strategisch äquivalent, d.h. besitzen die gleichen Nash�Gleichgewichte.

Beweis: Sei x∗ ein Nash�Gleichgewicht von Γ. Dann ist x∗ ∈ X1 × . . .×XN undθν(x

∗) ≤ θν(xν , x∗,−ν) ∀xν ∈ Xν

und für alle ν = 1, . . . , N . Dies impliziert aberθν(x

∗) = rνθν(x∗) + ην(x

∗,−ν) ≤ rνθν(xν , x∗,−ν) + ην(x

∗,−ν) = θν(xν , x∗,−ν) ∀xν ∈ Xν

und für alle ν = 1, . . . , N . Also ist x∗ auch ein Nash�Gleichgewicht von Γ.Sei umgekehrt x∗ ein Nash�Gleichgewicht von Γ, also

θν(x∗) ≤ θν(x

ν , x∗,−ν) ∀xν ∈ Xν ∀ν = 1, . . . , N.

Wegen (1.3) ist dies äquivalent zurνθν(x

∗) + ην(x∗,−ν) ≤ rνθν(x

ν , x∗,−ν) + ην(x∗,−ν) ∀xν ∈ Xν ∀ν = 1, . . . , N.

Durch geeignetes Kürzen erhalten wir hierausθν(x

∗) ≤ θν(xν , x∗,−ν) ∀xν ∈ Xν ∀ν = 1, . . . , N.

Also ist x∗ auch ein Nash�Gleichgewicht von Γ. 2

Wegen Satz 1.12 bleibt die Menge der Nash�Gleichgewichte also unverändert, wenn wirbei einem gegebenen Spiel die Auszahlungsfunktionen θν mit einer positiven Konstantenmultiplizieren oder eine beliebige von xν unabhängige Funktion addieren.

1.3 Andere LösungskonzepteMit dem Nash�Gleichgewicht haben wir das zentrale Lösungskonzept der Spieltheorie ken-nengelernt. Es gibt allerdings eine Reihe weiterer Lösungsansätze, von denen wir hier zu-mindest zwei vorstellen wollen.

Bei einem Nash�Gleichgewicht wird die optimale Strategie des Spielers ν so gewählt,dass er seine eigene Auszahlungsfunktion bei gegebener optimaler Strategie aller Mitspie-ler minimiert (bzw. maximiert). Kann jeder Spieler seine Strategie hingegen unabhängigdavon wählen, wie sich die übrigen Spieler verhalten, so gelangt man zu dem Begri� einesGleichgewichtes in dominanten Strategien.

Page 16: EINFÜHRUNG IN DIE SPIELTHEORIE

10 KAPITEL 1. EINFÜHRUNG

De�nition 1.13 Gegeben sei ein Spiel Γ = {θν , Xν}Nν=1.

(a) Eine Strategie xν ∈ Xν dominiert eine Strategie xν ∈ Xν des Spielers ν, wenn

θν(xν , x−ν) ≤ θν(x

ν , x−ν)

für alle x−ν ∈ X−ν := X1 × . . .×Xν−1 ×Xν+1 × . . .×XN ist.

(b) Eine Strategie xν ∈ Xν heiÿt dominant für den Spieler ν, wenn sie jede andereStrategie xν ∈ Xν des Spielers ν dominiert.

(c) Ein Vektor x∗ ∈ X := X1 × . . .×XN heiÿt Gleichgewicht in dominanten Strategien,wenn für alle Spieler ν = 1, . . . , N

θν(x∗,ν , x−ν) ≤ θν(x

ν , x−ν) ∀(xν , x−ν) ∈ X

gilt, also x∗,ν für alle Spieler ν = 1, . . . , N dominant ist.

Die obigen De�nitionen entsprechen nicht immer jenen aus der Literatur, wo insbesondereim Teil (a) oft noch zusätzlich verlangt wird, dass die dortige Ungleichung für mindestensein x−ν strikt erfüllt ist. Dies wäre dann allerdings nicht mehr konsistent mit dem Teil (c)der De�nition, so dass wir unsere Version hier bevorzugen.

Ist x∗ ein Gleichgewicht in dominanten Strategien und wählt man speziell x−ν = x∗,−ν ,so gelangt man unmittelbar zu dem folgenden Resultat.Satz 1.14 Jedes Gleichgewicht in dominanten Strategien ist auch ein Nash�Gleichgewicht.

Die Umkehrung des Satzes 1.14 gilt im Allgemeinen nicht. Tatsächlich ist ein Gleichgewichtin dominanten Strategien zwar ein sehr schöner Lösungsbegri�, der aber in der Praxis vielzu stark ist, da ein solches Gleichgewicht nur relativ selten existiert. Beispielsweise besitztdas Gefangenendilemma aus dem Beispiel 1.2 kein Gleichgewicht in dominanten Strategien.

Dennoch ist der Begri� einer dominierten Strategie in einigen Fällen sinnvoll. So wirdein Spieler eine dominierte Strategie beispielsweise als wenig sinnvoll erachten und dieseMöglichkeit daher völlig auÿer Acht lassen. Dies führt auf die so genannte Eliminationdominierter Strategien, mit deren Hilfe man ein strategisches Spiel manchmal sogar lösenkann. Wir illustrieren die Vorgehensweise an einem Beispiel, wobei man beachte, dass wirdem Beispiel ein Maximierungsproblem zu Grunde legen.Beispiel 1.15 ( Elimination dominierter Strategien )Wir betrachten ein abstraktes Spiel mit zwei Spielern (und zwar in Maximierungsform).Spieler 1 habe die Strategiemenge X1 := {U,D}, Spieler 2 die Strategiemenge X2 :={L, M, R}. Die Auszahlungsmatrix lautet wie folgt:

Spieler 2Spieler 1

L M RU 1, 0 1, 2 0, 1D 0, 3 0, 1 2, 0

Page 17: EINFÜHRUNG IN DIE SPIELTHEORIE

1.3. ANDERE LÖSUNGSKONZEPTE 11

Beide Spieler mögen rational denken. Dann wird Spieler 2 keinesfalls die Strategie R wählen,denn diese wird von seiner Strategie M (strikt) dominiert (wegen 2 > 1 und 1 > 2).Spieler 1 bemerkt dies natürlich ebenfalls. Daher reduziert sich das Spiel auf die folgendeAuszahlungsmatrix:

Spieler 2Spieler 1

L MU 1, 0 1, 2D 0, 3 0, 1

Hier wird die Strategie D von Spieler 1 aber (strikt) dominiert von der Strategie U (wegen1 > 0 und 1 > 0). Elimination dieser (strikt) dominierten Strategie liefert die Auszahlungs-matrix:

Spieler 2Spieler 1 L M

U 1, 0 1, 2

Jetzt wird die Strategie L von Spieler 2 aber (strikt) dominiert durch die Strategie M(wegen 2 > 0). Durch sukzessive Elimination (strikt) dominierter Strategien erhalten wirdamit die Lösung (U,M) als einziges Gleichgewicht.Wir erwähnen als Nächstes zumindest noch ein weiteres Lösungskonzept, das in der spiel-theoretischen Literatur manchmal auftritt und aus der mehrkriteriellen Optimierung (Op-timierung mit mehreren Zielfunktionen) stammt, vergleiche [7].De�nition 1.16 Gegeben sei ein Spiel Γ = {θν , Xν}Nν=1. Dann heiÿt x∗ ∈ X := X1× . . .×XN ein Pareto�Gleichgewicht, wenn es kein x ∈ X gibt mit

θν(xν , x−ν) ≤ θν(x

∗,ν , x∗,−ν) ∀ν = 1, . . . , N,

so dass für zumindest ein ν ∈ {1, . . . , N} diese Ungleichung strikt ist.

Wir haben also genau dann ein Pareto�Gleichgewicht x∗ vorliegen, wenn dieses durchkeine andere Strategie x ∈ X dominiert werden kann in dem Sinne, dass sie für alleSpieler zumindest keinen schlechteren Wert der Auszahlungsfunktion als x∗ liefert, und fürmindestens einen Spieler sogar eine echte Verbesserung bringt.

Einen direkten Zusammenhang zwischen Nash� und Pareto�Gleichgewichten gibt esnicht. Die Schnittmenge dieser beiden Gleichgewichtskonzepte mag leer sein. Im Beispiel1.2 etwa sind die Strategien (S, S), (S, G) und (G, S) allesamt Pareto�Gleichgewichte, nichtjedoch das einzige Nash�Gleichgewicht (G, G). Dieses Beispiel deutet allerdings auch an,dass die Anzahl der Pareto�Gleichgewichte im Allgemeinen sehr viel gröÿer als die Anzahlder Nash�Gleichgewichte ist. Tatsächlich ist der Begri� eines Pareto�Gleichgewichtes inder Spieltheorie meist nicht di�erenziert genug, um als ein brauchbares Lösungskonzept zugelten.

Page 18: EINFÜHRUNG IN DIE SPIELTHEORIE

12 KAPITEL 1. EINFÜHRUNG

1.4 Klassi�kation strategischer SpieleWir führen in diesem Abschnitt einige Begri�e ein, die zur Klassi�kation von strategischenSpielen nützlich sind und später bei der Wahl eines geeigneten Lösungsverfahrens einegewisse Rolle spielen.De�nition 1.17 Ein Spiel Γ = {θν , Xν}Nν=1 heiÿt

(a) endlich, wenn alle Strategiemengen Xν nur endlich viele Elemente enthalten.

(b) abzählbar, wenn mindestens eine Strategiemenge Xν abzählbar viele Elemente enthältund alle anderen Strategiemengen höchstens abzählbar sind.

(c) überabzählbar oder kontinuierlich, wenn mindestens eine Strategiemenge Xν überab-zählbar viele Elemente enthält.

Endliche Spiele sind beispielsweise das Gefangenendilemma aus dem Beispiele 1.2, derKampf der Geschlechter aus dem Beispiel 1.3 und das Stein�Schere�Papier�Spiel aus demBeispiel 1.4. Hingegen ist das Oligopol�Modell nach Cournot aus dem Beispiel 1.5 ein kon-tinuierliches Spiel. Wir werden uns im Folgenden ausschlieÿlich mit endlichen und kontinu-ierlichen Spielen auseinandersetzen, wobei letztere den Schwerpunkt unserer Ausführungenbilden.

Eine andere Klassi�kation von strategischen Spielen basiert auf gewissen Eigenschaftender Auszahlungsfunktionen.De�nition 1.18 Ein Spiel Γ = {θν , Xν}Nν=1 heiÿt

(a) Nullsummenspiel, falls ∑Nν=1 θν(x) = 0 für alle x ∈ X := X1 × . . .×XN gilt.

(b) Konstantsummenspiel, falls eine Konstante c ∈ R existiert mit∑N

ν=1 θν(x) = c füralle x ∈ X := X1 × . . .×XN .

(c) Nicht�Nullsummenspiel, wenn es kein Nullsummenspiel ist.

Das Stein�Schere�Papier�Spiel aus dem Beispiel 1.4 ist nach obiger De�nition etwa einNullsummenspiel. Alle anderen im Abschnitt 1.1 vorgestellten Beispiele von strategischenSpielen sind Nicht�Nullsummenspiele.

Konstantsummenspiele können stets auf Nullsummenspiele zurückgeführt werden. Diesist der Inhalt des folgenden Resultates.Lemma 1.19 Jedes Konstantsummenspiel ist strategisch äquivalent zu einem Nullsum-menspiel.

Beweis: Sei Γ = {θν , Xν}Nν=1 ein Konstantsummenspiel. Dann existiert ein c ∈ R mit∑Nν=1 θν(x) = c für alle x ∈ X := X1 × . . . × XN . De�niere nun ein zweites Spiel Γ =

Page 19: EINFÜHRUNG IN DIE SPIELTHEORIE

1.4. KLASSIFIKATION STRATEGISCHER SPIELE 13

{θν , Xν}Nν=1 durch θν(x) := θν(x) − cN

für ν = 1, . . . , N . Wegen Satz 1.12 ist das Spiel Γstrategisch äquivalent zu dem Konstantsummenspiel Γ. Wegen

N∑ν=1

θν(x) =N∑

ν=1

(θν(x)− c

N

)= c− c = 0

für alle x ∈ X handelt es sich bei Γ auÿerdem um ein Nullsummenspiel. 2

Aufgrund des vorigen Resultates braucht man also nur zwischen Nullsummenspielen undNicht�Nullsummenspielen zu unterscheiden.

Endliche Spiele mit nur zwei Spielern sind oft von besonderer Bedeutung und erhaltendaher einen eigenen Namen. Sie werden von uns im Kapitel 3 allerdings nur relativ kurzbehandelt.De�nition 1.20 (a) Ein endliches 2�Personen�Nullsummenspiel heiÿt Matrixspiel.(b) Ein endliches 2�Personen�Spiel heiÿt Bi�Matrixspiel.

Wir wollen noch kurz erläutern, warum man von einem Matrix� bzw. Bi�Matrixspielspricht. Betrachte dazu zunächst ein endliches 2�Personen�Spiel Γ = {θν , Xν}2ν=1. NachVoraussetzung sind die beiden Strategiemengen X := X1 und Y := X2 endlich, etwaX = {x1, . . . , xm} und Y := {y1, . . . , yn}. De�nieren wir dann zwei Matrizen A, B ∈ Rm×n

elementweise durch die Auszahlungenaij := θ1(xi, yj), bij := θ2(xi, yj) ∀i = 1, . . . ,m, ∀j = 1, . . . , n,

so kann man die Auszahlungsfunktionen θ1 und θ2 durch die beiden Matrizen A und Bvollständig darstellen. Man benötigt hierzu allerdings im Allgemeinen tatsächlich zweiMatrizen, weshalb man von einem Bi�Matrix�Spiel spricht. Im Falle eines 2�Personen�Nullsummenspiels hingegen ist B = −A, so dass man mit nur einer Matrix auskommtund daher von einem Matrixspiel spricht. Beispiele von Bi�Matrixspielen sind das Gefan-genendilemma aus dem Beispiel 1.2 und der Kampf der Geschlechter aus dem Beispiel 1.3,während es sich bei dem Stein�Schere�Papier�Spiel aus dem Beispiel 1.4 um ein Matrixspielhandelt (die Summe der Auszahlungen ist stets Null).

Neben den gerade eingeführten Klassi�kationsmerkmalen, die für unsere Ausführungeneine gewisse Rolle spielen, existieren verschiedene weitere Unterscheidungsmöglichkeiten,die insbesondere dann wichtig werden, wenn man weitere spieltheoretische Themen behan-deln möchte, die im Rahmen dieser Ausarbeitung nicht weiter vorkommen. Die folgendeListe entstammt im Wesentlichen dem Vorlesungsskript [20] und mag bei der Einordnungder in der Literatur zur Spieltheorie behandelten Probleme sehr hilfreich sein:• kooperative vs. nicht-kooperative SpieleBei den nicht�kooperativen Spielen wird davon ausgegangen, dass die einzelnen Spie-ler strikt gegeneinander agieren und es keine bindenden Absprachen (Kooperationen)zwischen den Teilnehmern gibt, wie sie bei den kooperativen Spielen erlaubt sind.

Page 20: EINFÜHRUNG IN DIE SPIELTHEORIE

14 KAPITEL 1. EINFÜHRUNG

Zur Sicherung des Wettbewerbs ist das Bundeskartellamt beispielsweise dafür ver-antwortlich, dass es in gewissen Bereichen (etwa bei den Mineralölkonzernen) keineKooperationen (Preisabsprachen) gibt. Ein bekanntes Beispiel einer Kooperation ver-schiedener beteiligter Personen (Länder) ist das Ölkartell der OPEC, bei der sich alleTeilnehmerländer auf eine Förderquote einlassen und auf diese verp�ichten müssen.Wir werden in unseren Ausführungen ausschlieÿlich nicht�kooperative Spiele betrach-ten.• statische vs. dynamische SpieleBei den statischen Spielen wählen alle Spieler ihre Strategien simultan aus. KeinemSpieler sind die Entscheidungen der Gegenspieler bekannt. Bei den dynamischen Spie-len hingegen tritt eine zeitliche Reihenfolge der Spielzüge auf.Wir werden hier nur statische Spiele untersuchen. Eine wichtige Klasse von dyna-mischen Spielen sind die so genannten Stackelberg�Spiele. Im Prinzip handelt essich bei diesen Stackelberg�Spielen um eine Duopol�Situation, bei der, anders alsim Cournot�Beispiel, ein Unternehmen (der Stackelberg�Führer) zuerst entscheidetund das andere Unternehmen (der Stackelberg�Folger) erst danach seine Strategieoptimal anpasst.• One-shot games vs. wiederholte SpieleOne-short games werden genau einmal gespielt, bei den wiederholten Spielen hingegenkann ein und dasselbe Spiel mehrfach hintereinander gespielt werden. Die Lösung deswiederholten Spiels muss dabei nicht notwendigerweise einer immer gleichen Abfolgeder Lösung des one-shot games entsprechen (dies würde eine Unterscheidung auchvöllig über�üssig machen), da jetzt Lerne�ekte auftreten können, die einen Ein�ussauf die Wahl der möglichen Strategien haben können.Als Beispiel für einen solchen Lerne�ekt betrachten wir den Elfmeter beim Fuÿ-ballspiel. Nehmen wir an, Miroslav Klose hat schon drei Elfmeter gegen Oliver Kahnverwandelt. Jeder Schuss möge in die linke Ecke gegangen sein, während Oliver Kahnsich stets für die rechte Ecke entschieden hatte. Wenn Klose dann erneut zu einemElfmeter gegen Kahn antritt, so könnte Kahn aus den bisherigen Abläufen gelernthaben und sich dieses Mal für die linke Ecke entscheiden.Wir betrachten hier lediglich one-shot games.• Spiele mit vollständiger vs. unvollständiger InformationDas hier angesprochene Unterscheidungsmerkmal bezieht sich auf die Informations-lage der Spieler. Bei Spielen mit vollständiger Informationen stehen sämtliche rele-vanten Informationen allen Spielern zur Verfügung. Jeder Spieler kennt die möglichenStrategien sowie die Auszahlungsfunktionen von allen Mitspielern. Man spricht in die-sem Zusammenhang auch von Spielen mit vollkommener Information. Anderenfallshandelt es sich um eine Spiel mit unvollständiger (unvollkommener) Information.

Page 21: EINFÜHRUNG IN DIE SPIELTHEORIE

1.4. KLASSIFIKATION STRATEGISCHER SPIELE 15

Schach ist etwa ein Paradebeispiel für ein Spiel mit vollkommener Information: BeideSpieler kennen den kompletten bisherigen Spielverlauf und wissen, welche Zugmög-lichkeiten im Augenblick bestehen. Skat hingegen ist ein Spiel mit unvollständigerInformation. Zwar weiÿ man, welche Karten die beteiligten Spieler in jeder Rundeabgelegt haben, jedoch ist die anfängliche Kartenverteilung zufallsbedingt, so dassman nicht weiÿ, welche Karten die Mitspieler noch auf der Hand halten.Bei uns treten ausschlieÿlich Spiele mit vollständiger Information auf.

Page 22: EINFÜHRUNG IN DIE SPIELTHEORIE

16 KAPITEL 1. EINFÜHRUNG

Page 23: EINFÜHRUNG IN DIE SPIELTHEORIE

Kapitel 2

Existenz von Nash�Gleichgewichten

2.1 Konvexe Funktionen2.2 Monotone Funktionen2.3 Variationsungleichungen und Nash�Gleichgewichte2.4 Existenz von Nash�Gleichgewichten via Variationsungleichungen2.5 Der Existenzsatz von Nikaido�Isoda

2.1 Konvexe FunktionenWir beginnen mit der zentralen De�nition dieses Abschnitts.De�nition 2.1 Sei X ⊆ Rn eine konvexe Menge. Eine Funktion f : X → R heiÿt

(a) konvex (auf X), wenn für alle x, y ∈ X und alle λ ∈ (0, 1) gilt:

f(λx + (1− λ)y

)≤ λf(x) + (1− λ)f(y);

(b) strikt konvex (auf X), wenn für alle x, y ∈ X mit x 6= y und alle λ ∈ (0, 1) gilt:

f(λx + (1− λ)y

)< λf(x) + (1− λ)f(y);

(c) gleichmäÿig konvex (auf X), wenn es ein µ > 0 gibt mit

f(λx + (1− λ)y

)+ µλ(1− λ)‖x− y‖2 ≤ λf(x) + (1− λ)f(y)

für alle x, y ∈ X und alle λ ∈ (0, 1).

Aus der De�nition 2.1 ergibt sich unmittelbar, dass jede gleichmäÿig konvexe Funktionstrikt konvex ist. Ebenso ist jede strikt konvexe Funktion auch konvex. Hingegen sind dieUmkehrungen im Allgemeinen nicht richtig.Beispiel 2.2 Sei f : R→ R. Dann gelten:

17

Page 24: EINFÜHRUNG IN DIE SPIELTHEORIE

18 KAPITEL 2. EXISTENZ VON NASH�GLEICHGEWICHTEN

(a) Die Gerade f(x) := x ist konvex, aber nicht strikt konvex.(b) Die Abbildung f(x) := exp(x) ist strikt konvex, aber nicht gleichmäÿig konvex.(c) Die Parabel f(x) := x2 ist gleichmäÿig konvex. Die hiermit eng verwandte Funktion

f(x) := x4 hingegen ist zwar strikt konvex, nicht jedoch gleichmäÿig konvex. 3

Für quadratische Funktionen gilt die folgende Bemerkung.Bemerkung 2.3 Sei f : Rn → R eine quadratische Funktion, d.h.

f(x) =1

2xT Qx + cT x + γ

mit gewissen Q ∈ Rn×n, c ∈ Rn und γ ∈ R. Dann lassen sich die folgenden Aussagen leichtveri�zieren:(a) f ist konvex ⇐⇒ Q ist positiv semide�nit.(b) f ist strikt konvex ⇐⇒ f ist gleichmäÿig konvex ⇐⇒ Q ist positiv de�nit.

Im Gegensatz zu quadratischen Funktionen (siehe Bemerkung 2.3 (b)) gilt die Äquivalenzf ist strikt konvex ⇐⇒ f ist gleichmäÿig konvex

bei beliebigen nichtlinearen Funktionen im Allgemeinen nicht mehr, vergleiche hierzu dieAbbildung f(x) := x4 aus dem Beispiel 2.2 (c).

Der folgende Satz enthält eine Charakterisierung der Klasse der stetig di�erenzierbaren(strikt, gleichmäÿig) konvexen Funktionen.Satz 2.4 Seien X ⊆ Rn eine o�ene und konvexe Menge sowie f : X → R stetig di�eren-zierbar. Dann gelten:

(a) f ist genau dann konvex (auf X), wenn für alle x, y ∈ X gilt:

f(x)− f(y) ≥ ∇f(y)T (x− y). (2.1)

(b) f ist genau dann strikt konvex (auf X), wenn für alle x, y ∈ X mit x 6= y gilt:

f(x)− f(y) > ∇f(y)T (x− y). (2.2)

(c) f ist genau dann gleichmäÿig konvex (auf X), wenn es ein µ > 0 gibt mit

f(x)− f(y) ≥ ∇f(y)T (x− y) + µ‖x− y‖2 (2.3)für alle x, y ∈ X.

Page 25: EINFÜHRUNG IN DIE SPIELTHEORIE

2.1. KONVEXE FUNKTIONEN 19

Beweis: Es gelte zunächst (2.3). Seien x, y ∈ X und λ ∈ (0, 1) beliebig. Setze z :=λx + (1− λ)y ∈ X. Wegen (2.3) gelten dann

f(x)− f(z) ≥ ∇f(z)T (x− z) + µ‖x− z‖2

undf(y)− f(z) ≥ ∇f(z)T (y − z) + µ‖y − z‖2.

Multipliziert man diese Ungleichungen mit λ ≥ 0 bzw. 1− λ ≥ 0 und addiert sie anschlie-ÿend, so erhält man unter Verwendung der De�nition von z die Ungleichung

λf(x) + (1− λ)f(y)− f(λx + (1− λ)y

)≥ µλ(1− λ)‖x− y‖2,

d.h. f ist gleichmäÿig konvex.Analog zeigt man, dass aus (2.1) bzw. (2.2) die Konvexität bzw. strikte Konvexität von

f folgt.Sei f nun als gleichmäÿig konvex vorausgesetzt. Für alle x, y ∈ X und alle λ ∈ (0, 1)

gilt dann mit einem µ > 0:f(y + λ(x− y)

)= f

(λx + (1− λ)y

)≤ λf(x) + (1− λ)f(y)− µλ(1− λ)‖x− y‖2

und daherf(y + λ(x− y)

)− f(y)

λ≤ f(x)− f(y)− µ(1− λ)‖x− y‖2.

Aus der stetigen Di�erenzierbarkeit von f folgt somit für λ→ 0+ :

∇f(y)T (x− y) = limλ→0+

f(y + λ(x− y)

)− f(y)

λ≤ f(x)− f(y)− µ‖x− y‖2, (2.4)

d.h. es gilt (2.3).Ist f nur konvex, so ergibt sich mittels des soeben geführten Beweises mit µ = 0 ebenso

die Gültigkeit von (2.1).Seien nun f strikt konvex und x, y ∈ X mit x 6= y gegeben. Der Beweis, dass dann auch

(2.2) gilt, muss etwas anders geführt werden als die entsprechenden Beweise im (gleichmä-ÿig) konvexen Fall, da beim Grenzübergang in (2.4) sonst das �<��Zeichen verlorenginge.

Als strikt konvexe Funktion ist f insbesondere konvex. Somit gilt für f insbesonderedie Ungleichung (2.1) aufgrund der bereits bewiesenen Behauptung (a). Für

z :=1

2(x + y) =

1

2x + (1− 1

2)y

ergibt sich daher∇f(y)T (x− y) = 2∇f(y)T (z − y) ≤ 2

(f(z)− f(y)

). (2.5)

Page 26: EINFÜHRUNG IN DIE SPIELTHEORIE

20 KAPITEL 2. EXISTENZ VON NASH�GLEICHGEWICHTEN

Auf der anderen Seite ist x 6= y. Aus der strikten Konvexität von f folgt somit unterBerücksichtigung der De�nition von z:

f(z) <1

2f(x) +

1

2f(y). (2.6)

Aus (2.5) und (2.6) ergibt sich damit∇f(y)T (x− y) < f(x)− f(y),

also gerade (2.2). 2

Wir verallgemeinern in der nachstehenden De�nition noch den Begri� einer konvexen Funk-tion.De�nition 2.5 Sei X ⊆ Rn eine o�ene Menge. Eine stetig di�erenzierbare Funktion f :X → R heiÿt pseudokonvex (auf X), falls die Implikation

∇f(y)T (x− y) ≥ 0 =⇒ f(x) ≥ f(y)

für alle x, y ∈ X gilt.

Man beachte, dass der De�nitionsbereich X einer pseudokonvexen Funktion nicht notwen-dig konvex sein muss.

Aus dem Satz 2.4 und der De�nition 2.5 ergibt sich unmittelbar das nachstehendeResultat.Korollar 2.6 Seien X ⊆ Rn o�en und konvex sowie f : X → R stetig di�erenzierbar. Istf konvex, so ist f auch pseudokonvex.

Die Umkehrung des Korollars 2.6 gilt im Allgemeinen nicht; beispielsweise ist die Funktionf(x) := x + x3 pseudokonvex auf X = R, aber nicht konvex.

Wir geben nun noch eine zweite Verallgemeinerung der Klasse der konvexen Funk-tionen an, die im Folgenden zunächst nur aus beweistechnischen Gründen benötigt wird,später aber auch im zentralen Existenzsatz für Nash�Gleichgewichte wieder auftreten wird,vergleiche hierzu den Satz 2.45.De�nition 2.7 Sei X ⊆ Rn eine konvexe Menge. Eine Funktion f : X → R heiÿt quasi-konvex (auf X), wenn für alle x, y ∈ X mit f(y) ≤ f(x) auch f

(λx + (1 − λ)y

)≤ f(x)

für alle λ ∈ (0, 1) gilt.

Aus den entsprechenden De�nitionen ergibt sich unmittelbar, dass jede konvexe Funktioninsbesondere quasikonvex ist. Das nächste Resultat enthält eine einfache Charakterisie-rung von quasikonvexen Funktionen, die oft leichter zu merken ist als die etwas technischanmutende De�nition.

Page 27: EINFÜHRUNG IN DIE SPIELTHEORIE

2.1. KONVEXE FUNKTIONEN 21

Satz 2.8 Seien X ⊆ Rn konvex und f : X → R gegeben. Dann ist f genau dann quasi-konvex (auf X), wenn die Levelmengen Lα := {x ∈ X | f(x) ≤ α} für alle α ∈ R konvexsind.

Beweis: Sei zunächst Lα konvex für alle α ∈ R. Seien ferner x, y ∈ X mit f(y) ≤ f(x)gegeben sowie λ ∈ (0, 1) beliebig. Setze α := f(x). Nach Voraussetzung ist Lα konvex, alsoist λx + (1− λ)y ∈ Lα, mithin f

(λx + (1− λ)

)≤ α = f(x), folglich f quasikonvex.

Seien umgekehrt f quasikonvex auf X und α ∈ R beliebig gegeben. Ist Lα = ∅, so istnichts zu zeigen. Sei daher Lα 6= ∅ und wähle x, y ∈ Lα sowie λ ∈ (0, 1) beliebig. OhneEinschränkung gelte f(y) ≤ f(x). Wegen x, y ∈ Lα ist f(y) ≤ f(x) ≤ α. Da f quasikonvexund X konvex sind, gilt

f(λx + (1− λ)y

)≤ f(x) ≤ α.

Folglich ist λx + (1− λ)y ∈ Lα und Lα daher konvex. 2

Der Satz 2.8 hat eine wichtige Anwendung im Zusammenhang mit Optimierungsproblemender Gestalt

min f(x) u.d.N. x ∈ X. (2.7)Die Lösungsmenge von (2.7) ist gerade gegeben durch L := {x∗ ∈ X | f(x∗) ≤ f(x) ∀x ∈X}, also gerade durch die (eventuell leere) Levelmenge Lα mit α := f(x∗) für ein x∗ ∈ L.Aus dem Satz 2.8 erhalten wir daher unmittelbar das folgende Resultat.Korollar 2.9 Seien X ⊆ Rn konvex und f : X → R quasikonvex. Dann ist die Lösungs-menge des Optimierungsproblems (2.7) konvex (evtl. leer).Eine weitere Konsequenz aus der De�nition einer quasikonvexen Funktion ist das nachste-hende technische Hilfsresultat, welches später im Beweis des Satzes 2.21 benötigt wird.Korollar 2.10 Seien X ⊆ Rn eine o�ene und konvexe Menge sowie f : X → R stetigdi�erenzierbar und quasikonvex. Dann gilt ∇f(x)T (y − x) ≤ 0 für alle x, y ∈ X mitf(y) ≤ f(x).

Beweis: Seien x, y ∈ X mit f(y) ≤ f(x) gegeben. Da f quasikonvex ist, gilt somit auchf(λx + (1− λ)y

)≤ f(x)

für alle λ ∈ (0, 1). Aus der stetigen Di�erenzierbarkeit von f ergibt sich daher

∇f(x)T (y − x) = limt→0+

f(x + t(y − x)

)− f(x)

t

= limλ→1−

f(x + (1− λ)(y − x)

)− f(x)

1− λ

= limλ→1−

f(λx + (1− λ)y

)− f(x)

1− λ≤ 0,

Page 28: EINFÜHRUNG IN DIE SPIELTHEORIE

22 KAPITEL 2. EXISTENZ VON NASH�GLEICHGEWICHTEN

also die Behauptung. 2

Wir zeigen nun, dass jede auf einer konvexen Menge stetig di�erenzierbare pseudokonvexeFunktion auch quasikonvex ist.Satz 2.11 Seien X ⊆ Rn eine o�ene und konvexe Menge sowie f : X → R eine stetigdi�erenzierbare pseudokonvexe Funktion. Dann ist f quasikonvex.

Beweis: Sei f pseudokonvex. Angenommen, es existieren x, y ∈ X mitf(y) ≤ f(x) und f

(λx + (1− λ)y

)> f(x) (2.8)

für ein λ ∈ (0, 1). De�niere θ : [0, 1]→ R gemäÿθ(λ) := f

(λx + (1− λ)y

)= f

(y + λ(x− y)

),

und betrachte das eindimensionale Maximierungsproblemmax θ(λ) u.d.N. λ ∈ [0, 1]. (2.9)

Da die Funktion θ auf dem kompakten Intervall [0, 1] stetig ist, existiert ein Punkt λ∗ ∈[0, 1], in dem in (2.9) das Maximum angenommen wird. Wegen (2.8) ist λ∗ sogar aus demo�enen Intervall (0, 1). Aus der notwendigen Optimalitätsbedingung erster Ordnung folgtdaher

0 = θ′(λ∗) = ∇f(z∗)T (x− y),

wobei zur Abkürzung z∗ := λ∗x + (1− λ∗)y ∈ X gesetzt wurde. Also gilt∇f(z∗)T (x− z∗) = (1− λ∗)∇f(z∗)T (x− y) = 0 ≥ 0.

Da f nach Voraussetzung pseudokonvex ist, ergibt sich hierausf(x) ≥ f(z∗).

Andererseits ist f(z∗) ≥ f(λx + (1 − λ)y

)> f(x) wegen (2.8) und per De�nition von z∗,

ein Widerspruch. 2

Wir geben abschlieÿend noch die De�nition einer (strikt, gleichmäÿig) konkaven Funktionan. Für diese Klassen von Funktionen lassen sich sehr einfach ähnliche Resultate wie fürdie Klassen der (strikt, gleichmäÿig) konvexen Funktionen beweisen. Wir verzichten hierauf die genauere Ausführung.De�nition 2.12 Sei X ⊆ Rn eine konvexe Menge. Dann heiÿt eine Funktion f : X → R(strikt, gleichmäÿig) konkav (auf X), falls die Funktion −f (strikt, gleichmäÿig) konvex (aufX) ist. Entsprechend heiÿt f quasikonkav (pseudokonkav), wenn −f quasikonvex (pseudo-konvex) ist.

Page 29: EINFÜHRUNG IN DIE SPIELTHEORIE

2.2. MONOTONE FUNKTIONEN 23

2.2 Monotone FunktionenDe�nition 2.13 Sei X ⊆ Rn eine gegebene Menge. Eine Funktion F : X → Rn heiÿt

(a) monoton (auf X), wenn

(x− y)T(F (x)− F (y)

)≥ 0

für alle x, y ∈ X gilt.

(b) strikt monoton (auf X), wenn

(x− y)T(F (x)− F (y)

)> 0

für alle x, y ∈ X mit x 6= y gilt.

(c) gleichmäÿig monoton (auf X), wenn es ein µ > 0 gibt mit

(x− y)T(F (x)− F (y)

)≥ µ‖x− y‖2

für alle x, y ∈ X.

Die Konstante µ > 0 im Teil (c) der De�nition 2.13 wird häu�g auch als Modulus dergleichmäÿigen Monotonie bezeichnet.

O�enbar ist jede gleichmäÿig monotone Funktion auch strikt monoton, und jede striktmonotone Funktion ist bereits monoton. Die Umkehrungen gelten im Allgemeinen jedochnicht.Beispiel 2.14 Sei F : R→ R. Dann gelten:(a) Die Funktion F (x) := c, c eine beliebige Konstante, ist monoton, nicht jedoch strikt

monoton.(b) Die Funktion F (x) := ex ist strikt monoton, aber nicht gleichmäÿig monoton.(c) Die Abbildung F (x) := x ist gleichmäÿig monoton. 3

In Analogie zu der Bemerkung 2.3 gilt hier das folgende Resultat für a�n�lineare Funk-tionen.Bemerkung 2.15 Sei F : Rn → Rn eine a�n�lineare Funktion, d.h.

F (x) = Mx + q

für gewisse M ∈ Rn×n und q ∈ Rn. Dann lassen sich die folgenden Aussagen leicht veri�-zieren:(a) F ist monoton ⇐⇒ M ist positiv semide�nit.

Page 30: EINFÜHRUNG IN DIE SPIELTHEORIE

24 KAPITEL 2. EXISTENZ VON NASH�GLEICHGEWICHTEN

(b) F ist strikt monoton ⇐⇒ F ist gleichmäÿig monoton ⇐⇒ M ist positiv de�nit.Man beachte, dass die Äquivalenz zwischen den strikt und gleichmäÿig monotonen Funk-tionen bei nichtlinearen Funktionen im Allgemeinen nicht mehr gilt; beispielsweise ist dieAbbildung F (x) := x3 strikt monoton, aber nicht gleichmäÿig monoton, vergleiche hierzuden Satz 2.17.

Mittels des Satzes 2.4 sind wir nun in der Lage, den folgenden Zusammenhang zwischenkonvexen und monotonen Funktionen zu beweisen.Satz 2.16 Seien X ⊆ Rn eine o�ene und konvexe Menge sowie f : X → R stetig di�e-renzierbar. Dann gelten:

(a) f ist genau dann konvex, wenn ∇f monoton ist.

(b) f ist genau dann strikt konvex, wenn ∇f strikt monoton ist.

(c) f ist genau dann gleichmäÿig konvex, wenn ∇f gleichmäÿig monoton ist.

Beweis: Sei f zunächst als gleichmäÿig konvex vorausgesetzt. Wegen des Satzes 2.4 exi-stiert dann ein µ > 0, so dass für alle x, y ∈ X gilt:

f(x)− f(y) ≥ ∇f(y)T (x− y) + µ‖x− y‖2

undf(y)− f(x) ≥ ∇f(x)T (y − x) + µ‖x− y‖2.

Addiert man diese beiden Ungleichungen, so erhält man(x− y)T

(∇f(x)−∇f(y)

)≥ 2µ‖x− y‖2, (2.10)

d.h. ∇f ist gleichmäÿig monoton.Analog zeigt man, daÿ aus der (strikten) Konvexität von f auch die (strikte) Monotonie

von ∇f folgt.Sei jetzt ∇f als monoton vorausgesetzt. Seien x, y ∈ X fest, aber beliebig. Aufgrund

des Mittelwertsatzes existiert dann ein ϑ ∈ (0, 1) mitf(x)− f(y) = ∇f(z)T (x− y), (2.11)

wobeiz := y + ϑ(x− y) ∈ X (2.12)

gesetzt wurde. Aus der Monotonie von ∇f sowie (2.12) folgt:ϑ(x− y)T

(∇f(z)−∇f(y)

)= (z − y)T

(∇f(z)−∇f(y)

)≥ 0. (2.13)

Daher istf(x)− f(y) =

(∇f(z)−∇f(y)

)T(x− y) +∇f(y)T (x− y) ≥ ∇f(y)T (x− y)

Page 31: EINFÜHRUNG IN DIE SPIELTHEORIE

2.2. MONOTONE FUNKTIONEN 25

wegen (2.11) und (2.13). Also ist f konvex aufgrund des Satzes 2.4.Analog ergibt sich aus der strikten Monotonie von ∇f die strikte Konvexität von f.Sei ∇f nun gleichmäÿig monoton, d.h., es gelte etwa (2.10) für alle x, y ∈ X. Seien

x, y ∈ X gegeben. Sei ferner m ≥ 0 eine zunächst feste, aber beliebige natürliche Zahl.Setze tk := k

m+1für k = 0, 1, . . . ,m,m + 1. Wiederum aufgrund des Mittelwertsatzes

existieren dann Zahlen ϑk ∈ (tk, tk+1) mitf(y + tk+1(x− y)

)− f

(y + tk(x− y)

)= (tk+1 − tk)∇f(zk)T (x− y),

wobei zk := y + ϑk(x− y) gesetzt wurde. Hieraus folgt

f(x)− f(y) =m∑

k=0

[f(y + tk+1(x− y)

)− f

(y + tk(x− y)

)]=

m∑k=0

(tk+1 − tk)∇f(zk)T (x− y)

= ∇f(y)T (x− y) +m∑

k=0

(tk+1 − tk)(∇f(zk)−∇f(y)

)T(x− y)

= ∇f(y)T (x− y) +m∑

k=0

(tk+1 − tk)

ϑk

(∇f(zk)−∇f(y)

)T(zk − y)

≥ ∇f(y)T (x− y) + 2µm∑

k=0

(tk+1 − tk)

ϑk

‖zk − y‖2

= ∇f(y)T (x− y) + 2µ‖x− y‖2m∑

k=0

ϑk(tk+1 − tk).

Wegenm∑

k=0

ϑk(tk+1 − tk) ≥m∑

k=0

tk(tk+1 − tk) =1

(m + 1)2

m∑k=0

k =1

2

m

m + 1

folgt somitf(x)− f(y) ≥ ∇f(y)T (x− y) + µ

m

m + 1‖x− y‖2.

Für m→∞ ergibt sichf(x)− f(y) ≥ ∇f(y)T (x− y) + µ‖x− y‖2.

Also ist f gleichmäÿig konvex aufgrund des Satzes 2.4. 2

Als Nächstes gehen wir auf die Eigenschaften der Jacobi�Matrizen von (strikt, gleichmäÿig)monotonen Funktionen ein, die im gewissen Sinne die Bemerkung 2.15 auf nichtlineareAbbildungen verallgemeinern.

Page 32: EINFÜHRUNG IN DIE SPIELTHEORIE

26 KAPITEL 2. EXISTENZ VON NASH�GLEICHGEWICHTEN

Satz 2.17 Seien X ⊆ Rn eine o�ene und konvexe Menge sowie F : X → Rn stetigdi�erenzierbar. Dann gelten:

(a) F ist genau dann monoton (auf X), wenn F ′(x) für alle x ∈ X positiv semide�nitist.

(b) Ist F ′(x) für alle x ∈ X positiv de�nit, so ist F strikt monoton (auf X).

(c) F ist genau dann gleichmäÿig monoton (auf X), wenn F ′(x) gleichmäÿig positivde�nit auf X ist, d.h., wenn es ein µ > 0 gibt mit

dT F ′(x)d ≥ µ‖d‖2 (2.14)für alle x ∈ X und für alle d ∈ Rn.

Beweis: Wir beweisen zunächst Teil (c). Sei F gleichmäÿig monoton. Aus der stetigenDi�erenzierbarkeit von F folgt:

dT F ′(x)d = dT limt→0

F (x + td)− F (x)

t

= limt→0

tdT(F (x + td)− F (x)

)t2

≥ limt→0

1

t2µ‖td‖2

= µ‖d‖2

für alle x ∈ X und alle d ∈ Rn, d.h., F ′(x) ist gleichmäÿig positiv de�nit.Sei umgekehrt (2.14) vorausgesetzt. Aus dem Mittelwertsatz in der Integralform ergibt

sich dann(x− y)T

(F (x)− F (y)

)=

∫ 1

0

(x− y)T F ′(y + t(x− y))(x− y)dt ≥ µ‖x− y‖2, (2.15)

d.h. F ist gleichmäÿig monoton auf X.Der Beweis von Teil (a) kann analog erfolgen, indem man einfach µ = 0 setzt.Zum Nachweis von Teil (b): Sei F ′(z) positiv de�nit für alle z ∈ X. Dann ist θ(t) :=

(x− y)T F ′(y + t(x− y))(x− y) > 0 für alle t ∈ [0, 1] und alle x, y ∈ X mit x 6= y. Folglich

ist(x− y)T

(F (x)− F (y)

)=

∫ 1

0

θ(t)dt > 0

für alle x, y ∈ X mit x 6= y, vergleiche (2.15). Also ist F strikt monoton. 2

Man beachte, dass die Umkehrung der Aussage (b) des Satzes 2.17 im Allgemeinen nichtgilt; z.B. ist die Funktion F (x) := x3 strikt monoton, aber F ′(0) = 0 ist nur positivsemide�nit.

Als unmittelbare Folgerung aus den Sätzen 2.16 und 2.17 erhält man das nachstehendeResultat.

Page 33: EINFÜHRUNG IN DIE SPIELTHEORIE

2.2. MONOTONE FUNKTIONEN 27

Korollar 2.18 Seien X ⊆ Rn eine o�ene und konvexe Menge sowie f : X → R zweimalstetig di�erenzierbar. Dann gelten:

(a) f ist genau dann konvex (auf X), wenn ∇2f(x) für alle x ∈ X positiv semide�nitist.

(b) Ist ∇2f(x) für alle x ∈ X positiv de�nit, so ist f strikt konvex (auf X).

(c) f ist genau dann gleichmäÿig konvex (auf X), wenn ∇2f(x) gleichmäÿig positiv de-�nit auf X ist.

Wir führen nun eine Verallgemeinerung der Klasse der monotonen Funktionen ein.De�nition 2.19 Sei X ⊆ Rn eine gegebene Teilmenge. Eine Funktion F : X → Rn heiÿtpseudomonoton (auf X), falls für alle x, y ∈ X die Implikation

(x− y)T F (y) ≥ 0 =⇒ (x− y)T F (x) ≥ 0

gilt.

Es folgt unmittelbar aus den entsprechenden De�nitionen, dass jede monotone Funktionauch pseudomonoton ist. Hingegen ist die Funktion F (x) := e−x zwar pseudomonoton aufX = R, nicht jedoch monoton. Ebenso ist die von Billups [3] als Testbeispiel für Komple-mentaritätsprobleme vorgeschlagene Funktion F (x) := (x−1)2−1.01 zwar pseudomonotonauf X = R+, aber weder pseudomonoton auf X = R noch monoton auf X = R+.

Wir beweisen zunächst ein sehr einfaches Resultat über pseudomonotone Funktionen.Lemma 2.20 Seien X ⊆ Rn und F : X → Rn pseudomonoton. Dann gilt die Implikation

(x− y)T F (y) > 0 =⇒ (x− y)T F (x) > 0

für alle x, y ∈ X.

Beweis: Sei F pseudomonoton. Angenommen, es gibt x, y ∈ X mit(x− y)T F (y) > 0 und (x− y)T F (x) = 0. (2.16)

Dann gilt auch (y − x)T F (x) = 0. Aus der De�nition einer pseudomonotonen Funktionfolgt daher (y − x)T F (y) ≥ 0, also (x− y)T F (y) ≤ 0 im Widerspruch zu (2.16). 2

Wir sind nun in der Lage, das folgende Analogon des Satzes 2.16 zu beweisen.Satz 2.21 Seien X ⊆ Rn eine o�ene und konvexe Menge sowie f : X → R stetig di�e-renzierbar. Dann ist f genau dann pseudokonvex, wenn ∇f pseudomonoton ist.

Page 34: EINFÜHRUNG IN DIE SPIELTHEORIE

28 KAPITEL 2. EXISTENZ VON NASH�GLEICHGEWICHTEN

Beweis: Sei f zunächst pseudokonvex. Seien x, y ∈ X gegeben mit∇f(y)T (x− y) ≥ 0. (2.17)

Aus (2.17) und der Pseudokonvexität von f folgtf(x) ≥ f(y). (2.18)

Wegen Satz 2.11 ist die pseudokonvexe Funktion f insbesondere quasikonvex. Aus (2.18)und Korollar 2.10 folgt daher

∇f(x)T (y − x) ≤ 0.

Also ist ∇f(x)T (x− y) ≥ 0 und ∇f somit pseudomonoton.Sei jetzt ∇f als pseudomonoton vorausgesetzt. Seien x, y ∈ X gegeben mit

∇f(y)T (x− y) ≥ 0. (2.19)Angenommen, es ist

f(x) < f(y). (2.20)Aufgrund des Mittelwertsatzes existiert ein ϑ ∈ (0, 1) mit

f(x)− f(y) = ∇f(z)T (x− y) (2.21)und

z := y + ϑ(x− y). (2.22)Aus (2.20)�(2.22) ergibt sich

∇f(z)T (y − z) = ϑ∇f(z)T (y − x) = ϑ(f(y)− f(x)

)> 0.

Da ∇f nach Voraussetzung pseudomonoton ist, folgt aus dem Lemma 2.20 daher∇f(y)T (y − z) > 0.

Unter Verwendung von (2.22) folgt somit∇f(y)T (x− y) < 0;

dies widerspricht jedoch (2.19). Folglich ist f pseudokonvex. 2

Page 35: EINFÜHRUNG IN DIE SPIELTHEORIE

2.3. VARIATIONSUNGLEICHUNGEN UND NASH�GLEICHGEWICHTE 29

2.3 Variationsungleichungen und Nash�GleichgewichteWir de�nieren zunächst den Begri� einer Variationsungleichung. Anschlieÿend werden wirzeigen, dass eine ganze Reihe von bekannten Problemen sich in der Gestalt einer Variations-ungleichung formulieren lassen. Insbesondere wird sich herausstellen, dass unter gewissenVoraussetzung ein Nash�Gleichgewicht gerade die Lösung einer zugehörigen Variationsun-gleichung ist.De�nition 2.22 Seien X ⊆ Rn nichtleer und abgeschlossen sowie F : X → Rn gegeben.Als (�nite) Variationsungleichung (engl.: variational inequality problem; kurz: VIP(X,F ))versteht man das Problem, einen Vektor x∗ ∈ X zu �nden mit

F (x∗)T (x− x∗) ≥ 0

für alle x ∈ X. (Häu�g wird die Menge X zusätzlich noch als konvex vorausgesetzt.)

In dem folgenden Resultat geben wir einen einfachen Spezialfall einer Variationsungleichungan.Lemma 2.23 Betrachte die Variationsungleichung VIP(X, F ) mit X = Rn. Dann ist einVektor x∗ ∈ X genau dann eine Lösung von VIP(X, F ), wenn er das nichtlineare Glei-chungssystem F (x) = 0 löst.

Beweis: Sei x∗ zunächst eine Lösung von VIP(X, F ) mit X = Rn. Dann ist F (x∗)T (x−x∗) ≥ 0 für alle x ∈ Rn. Speziell für x = x∗ − F (x∗) folgt dann:

−F (x∗)T F (x∗) = F (x∗)T (x− x∗) ≥ 0.

Also ist F (x∗) = 0.Gilt umgekehrt F (x∗) = 0, so ist o�ensichtlich F (x∗)T (x−x∗) = 0 ≥ 0 für alle x ∈ Rn. 2

Bevor wir auf einen weiteren wichtigen Spezialfall einer Variationsungleichung eingehen,geben wir zunächst eine weitere De�nition an.De�nition 2.24 Sei F : X → Rn mit X := Rn gegeben. Das Komplementaritätsproblembesteht darin, einen Vektor im Rn zu �nden, der dem folgenden System genügt:

x ≥ 0, F (x) ≥ 0, xT F (x) = 0⇐⇒ xi ≥ 0, Fi(x) ≥ 0, xiFi(x) = 0 ∀i = 1, . . . , n.

Ist F dabei eine a�n�lineare Funktion, d.h., F (x) = Mx + q für ein M ∈ Rn×n undein q ∈ Rn, so spricht man von einem linearen Komplementaritätsproblem (engl.: linearcomplementarity problem; kurz: LCP(q, M)), anderenfalls von einem nichtlinearen Kom-plementaritätsproblem (engl.: nonlinear complementarity problem; kurz: NCP(F )).

Der Zusammenhang zwischen einer Variationsungleichung und einem Komplementaritäts-problem wird in dem folgenden Resultat geklärt.

Page 36: EINFÜHRUNG IN DIE SPIELTHEORIE

30 KAPITEL 2. EXISTENZ VON NASH�GLEICHGEWICHTEN

Lemma 2.25 Seien X = Rn+ und F : X → Rn. Dann löst ein Vektor x∗ ∈ Rn genau dann

die Variationsungleichung VIP(X, F ), wenn x∗ das Komplementaritätsproblem NCP(F )löst.

Beweis: Sei x∗ ∈ Rn zunächst eine Lösung von VIP(X, F ) mit X = Rn+. Dann gilt x∗ ≥ 0

und F (x∗)T (x− x∗) ≥ 0 für alle x ≥ 0. Speziell für x := x∗ + ei ≥ 0 ist dannFi(x

∗) = F (x∗)T (x− x∗) ≥ 0 ∀i ∈ I := {1, . . . , n},

also F (x∗) ≥ 0. Insbesondere ist F (x∗)T x∗ ≥ 0. Angenommen, es existiert ein Index i ∈ Imit Fi(x

∗)x∗i > 0. Wähle dann x := (x∗1, . . . , x∗i−1, 0, x

∗i+1, . . . , x

∗n)T ≥ 0. Damit folgt

0 > −Fi(x∗)x∗i = F (x∗)T (x− x∗) ≥ 0,

ein Widerspruch. Somit ist auch F (x∗)T x∗ = 0, d.h., x∗ löst das Problem NCP(F ).Sei umgekehrt x∗ ∈ Rn eine Lösung von NCP(F ), also x∗ ≥ 0, F (x∗) ≥ 0 und

F (x∗)T x∗ = 0. Sei ferner x ≥ 0 beliebig. Dann giltF (x∗)T (x− x∗) = F (x∗)T x− F (x∗)T x∗ = F (x∗)T x ≥ 0,

d.h. x∗ ist eine Lösung von VIP(X, F ) mit X = Rn+. 2

Als ein weiteres Beispiel einer Variationsungleichung erhält man das Optimierungsproblemmin f(x) u.d.N. x ∈ X. (2.23)

Das nächste Resultat beschreibt den Zusammenhang mit einer Variationsungleichung.Lemma 2.26 ( Minimumprinzip )Seien f : Rn → R stetig di�erenzierbar und X ⊆ Rn nichtleer, abgeschlossen und konvex.Dann gelten:

(a) Ist x∗ ∈ X ein lokales Minimum von (2.23), so löst x∗ die VariationsungleichungVIP(X,∇f).

(b) Ist f pseudokonvex und x∗ eine Lösung von VIP(X,∇f), so ist x∗ ein globales Mi-nimum von (2.23).

Beweis: (a) Sei x∗ ∈ X ein lokales Minimum von (2.23). Angenommen, es existiert einx ∈ X mit ∇f(x∗)T (x − x∗) < 0. Da ∇f(x∗)T (x − x∗) gerade die Richtungsableitungvon f im Punkte x∗ in Richtung x − x∗ ist, fällt f also in Richtung x − x∗. Also giltf(x∗ + λ(x − x∗)

)< f(x∗) für alle λ > 0 hinreichend klein. Da X konvex ist, gilt auch

x∗ + λ(x− x∗) = λx + (1− λ)x∗ ∈ X. Dies steht aber im Widerspruch zur vorausgesetztenlokalen Minimalität von x∗. Also ist ∇f(x∗)T (x − x∗) ≥ 0 für alle x ∈ X, d.h., x∗ löstVIP(X,∇f).

Page 37: EINFÜHRUNG IN DIE SPIELTHEORIE

2.3. VARIATIONSUNGLEICHUNGEN UND NASH�GLEICHGEWICHTE 31

(b) Seien f pseudokonvex und x∗ ∈ X eine Lösung von VIP(X,∇f). Dann gilt∇f(x∗)T (x−x∗) ≥ 0 für alle x ∈ X. Aus der De�nition einer pseudokonvexen Funktion folgt dannf(x) ≥ f(x∗) für alle x ∈ X, d.h., x∗ ist ein globales Minimum von (2.23). 2

Bemerkenswert am Teil (a) des Lemmas 2.26 ist insbesondere die Tatsache, dass be-reits jedes lokale (nicht notwendig globale) Minimum von (2.23) die VariationsungleichungVIP(X,∇f) löst.

Variationsungleichungen besitzen zahlreiche weitere Anwendungen und stellen ein eige-nes Forschungsgebiet dar. Hier kommen wir nun zu dem wesentlichen Resultat im Zusam-menhang mit der Spieltheorie, wonach man einen Nash�Gleichgewichtspunkt durch dieLösung einer zugehörigen Variationsungleichung bestimmen kann. Dieses Resultat wirduns später sowohl von theoretischem (Existenz� und Eindeutigkeitsresultate bei Nash�Gleichgewichtsproblemen) als auch praktischem (numerische Lösung von Nash�Gleichge-wichtsproblemen) Nutzen sein.Satz 2.27 Gegeben sei ein Spiel Γ = {θν , Xν}Nν=1 mit nichtleeren, abgeschlossenen undkonvexen Strategiemengen Xν ⊆ Rnν sowie stetig di�erenzierbaren Auszahlungsfunktionenθν : X → R (mit X := X1 × . . .×XN) derart, dass θν(x

ν , x−ν) als Funktion von xν pseu-

dokonvex sei. Dann ist x∗ =(x∗,1, . . . , x∗,N

)Tgenau dann ein Nash�Gleichgewichtspunkt

von Γ, wenn x∗ die Variationsungleichung VIP(X, F ) mit

F (x) :=

∇x1θ1(x)...

∇xN θN(x)

löst.

Beweis: Sei x∗ =(x∗,1, . . . , x∗,N

)T zunächst ein Nash�Gleichgewichtspunkt von Γ. Dannist x∗,ν für jedes ν = 1, . . . , N eine Lösung des Optimierungsproblems

minxν

θν(xν , x∗,−ν) u.d.N. xν ∈ Xν . (2.24)

Wegen Lemma 2.26 gilt dann∇xνθν(x

∗)T (xν − x∗,ν) ≥ 0 ∀xν ∈ Xν

für alle ν = 1, . . . , N . Hieraus folgt unmittelbar

F (x∗)T (x− x∗) =N∑

ν=1

∇xνθν(x∗)T (xν − x∗,ν) ≥ 0 ∀x = (x1, . . . , xN)T ∈ X.

Also ist x∗ eine Lösung von VIP(X,F ). (Man beachte, dass diese Richtung nicht die Pseu-dokonvexität von θν(x

ν , x−ν) benötigt.)

Page 38: EINFÜHRUNG IN DIE SPIELTHEORIE

32 KAPITEL 2. EXISTENZ VON NASH�GLEICHGEWICHTEN

Sei umgekehrt x∗ jetzt eine Lösung der Variationsungleichung VIP(X, F ). Dann giltF (x∗)T (x− x∗) ≥ 0 ∀x ∈ X.

Speziell für einen Vektor der Gestaltx := (xν , x∗,−ν) ∈ X

mit einem beliebigen xν ∈ Xν folgt hieraus∇xνθν(x

∗)T (xν − x∗,ν) ≥ 0 ∀xν ∈ Xν .

Wegen Lemma 2.26 und der vorausgetzten Pseudokonvexität von θν(·, x∗,−ν) ergibt sichhieraus, dass x∗,ν das Optimierungsproblem (2.24) löst. Also ist x∗ ein Nash�Gleichgewichtvon Γ. 2

Wegen Korollar 2.6 gilt die Charakterisierung aus dem Satz 2.27 insbesondere für den Fall,dass die Auszahlungsfunktionen θν(·, x−ν) für alle ν = 1, . . . , N konvex sind.

2.4 Existenz von Nash�Gleichgewichten via Variations-ungleichungenIn diesem Abschnitt weisen wir nach, dass ein strategisches Spiel unter gewissen Voraus-setzungen stets eine Lösung besitzt. Ferner beweisen wir auch ein Eindeutigkeitsresultat.Die Vorgehensweise ist dabei so, dass wir zunächst Existenz� und Eindeutigkeitsresultatefür Lösungen von Variationsungleichungen zeigen, aus der sich durch Spezialisierung we-gen des im Satz 2.27 genannten Zusammenhanges dann sofort entsprechende Resultate fürNash�Gleichgewichtsprobleme ergeben.

Als Vektornorm wird im Folgenden stets die durch eine symmetrische und positiv de-�nite Matrix G ∈ Rn×n induzierte Norm

‖x‖G :=√

xT Gx

gewählt. Im Fall G = I stimmt diese Norm mit der euklidischen Norm überein, die weiterhinmit ‖.‖ bezeichnet wird.

Unser erstes Ziel wird es sein, eine äquivalente Formulierung der VariationsungleichungVIP(X, F ) als ein Fixpunktproblem anzugeben. Dazu bedarf es jedoch noch einiger Vor-bereitungen.Lemma 2.28 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex sowie G ∈ Rn×n symme-trisch und positiv de�nit. Dann existiert zu jedem y ∈ Rn ein eindeutig bestimmter Vektorz ∈ X mit

‖y − z‖G ≤ ‖y − x‖G für alle x ∈ X.

Dieser Vektor z heiÿt die Projektion von y auf X bzgl. der Norm ‖.‖G und wird mit PX,G(y)bezeichnet; im Fall G = I schreiben wir auch PX(y).

Page 39: EINFÜHRUNG IN DIE SPIELTHEORIE

2.4 EXISTENZ VON NASH�GLEICHGEWICHTEN VIA VIPS 33

Beweis: Sei y ∈ Rn. Es ist zu zeigen, dass die Funktion f(x) := ‖y − x‖G (oder ihrQuadrat) ein eindeutig bestimmtes Minimum auf der Menge X besitzt. Ist nun w ∈ X einbeliebiger Vektor, so ist z ∈ X o�enbar genau dann eine Lösung von

min f(x) u.d.N. x ∈ X,

wenn z ∈ X das Problemmin f(x) u.d.N. x ∈ X ∩

{x ∈ Rn

∣∣ ‖y − x‖G ≤ ‖y − w‖G}

löst. Der zulässige Bereich dieses Problems ist aber nichtleer und kompakt. Da f stetigist und eine stetige Funktion auf einer nichtleeren und kompakten Menge ihr Minimumannimmt, existiert ein z ∈ X mit

‖y − z‖G ≤ ‖y − x‖G für alle x ∈ X.

Die Eindeutigkeit folgt unmittelbar aus der strikten Konvexität der Abbildung x → ‖y −x‖2G = (x− y)T G(x− y). 2

Die gerade eingeführte Projektion eines Vektors lässt sich mittels des folgenden Resultatesgeometrisch charakterisieren. Man betrachte hierzu insbesondere den Fall der euklidischenNorm zur Veranschaulichung.Satz 2.29 ( Projektionssatz)

Seien X ⊆ Rn nichtleer, abgeschlossen und konvex, G ∈ Rn×n symmetrisch und positivde�nit sowie y ∈ Rn. Genau dann ist der Vektor z ∈ X gleich der Projektion von y auf Xbzgl. der Norm ‖.‖G, wenn

(z − y)T G(x− z) ≥ 0 für alle x ∈ X

gilt.

Beweis: Die Funktion f(x) := 12‖y − x‖2G ist konvex, insbesondere also pseudokonvex.

Aus Lemma 2.26 ergibt sich daher:z = PX,G(y) ⇐⇒ z ist globales Minimum von f auf X

⇐⇒ ∇f(z)T (x− z) ≥ 0 für alle x ∈ X

⇐⇒ (z − y)T G(x− z) ≥ 0 für alle x ∈ X

wegen ∇f(z) = −G(y − z). 2

Etwas anders formuliert besagt der Projektionssatz 2.29, dass die Ungleichung(PX,G(y)− y

)TG

(x− PX,G(y)

)≥ 0 ∀y ∈ Rn ∀x ∈ X

Page 40: EINFÜHRUNG IN DIE SPIELTHEORIE

34 KAPITEL 2. EXISTENZ VON NASH�GLEICHGEWICHTEN

gilt. Speziell für G = I ergibt sich damit die Ungleichung(PX(y)− y

)T (x− PX(y)

)≥ 0 ∀y ∈ Rn ∀x ∈ X,

die in einigen späteren Abschnitten noch sehr häu�g benutzt wird.Als einfache Anwendung des Projektionssatzes 2.29 beweisen wir die folgende nützliche

Eigenschaft des Projektionsoperators.Lemma 2.30 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex sowie G ∈ Rn×n sym-metrisch und positiv de�nit. Dann gilt∥∥PX,G(x)− PX,G(y)

∥∥G≤ ‖x− y‖G

für alle x, y ∈ Rn. Insbesondere ist der Projektionsoperator stetig.

Beweis: Seien x, y ∈ Rn. Dann istx− y = PX,G(x)− PX,G(y) +

(x− PX,G(x)

)+

(PX,G(y)− y

)= PX,G(x)− PX,G(y) + u

mitu :=

(x− PX,G(x)

)+

(PX,G(y)− y

).

Daher ist‖x− y‖2G =

∥∥PX,G(x)− PX,G(y)∥∥2

G+ ‖u‖2G

+2uT G(PX,G(x)− PX,G(y)

)=

∥∥PX,G(x)− PX,G(y)∥∥2

G+ ‖u‖2G

+2(x− PX,G(x)

)TG

(PX,G(x)− PX,G(y)

)+2

(PX,G(y)− y

)TG

(PX,G(x)− PX,G(y)

).

Aufgrund des Projektionssatzes 2.29 gilt einerseits(x− PX,G(x)

)TG

(PX,G(x)− PX,G(y)

)≥ 0

und andererseits (PX,G(y)− y

)TG

(PX,G(x)− PX,G(y)

)≥ 0.

Zusammenfassend ergibt sich daher‖x− y‖2G ≥

∥∥PX,G(x)− PX,G(y)∥∥2

G,

also die Behauptung. 2

Im nächsten Satz geben wir nun die angekündigte Formulierung der VariationsungleichungVIP(X,F ) als ein Fixpunktproblem an. Diese Fixpunktcharakterisierung ist sowohl theo-retisch als auch numerisch von erheblicher Bedeutung. In diesem Abschnitt werden wir ausdiesem Resultat zunächst nur einen Existenzsatz für VIP(X,F ) herleiten. Später gehenwir aber auch auf algorithmische Anwendungen ein.

Page 41: EINFÜHRUNG IN DIE SPIELTHEORIE

2.4 EXISTENZ VON NASH�GLEICHGEWICHTEN VIA VIPS 35

Satz 2.31 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex, F : X → Rn, G symme-trisch und positiv de�nit sowie γ > 0. Genau dann ist x∗ ∈ Rn eine Lösung der Variations-ungleichung VIP(X,F ), wenn x∗ ein Fixpunkt der Abbildung H(x) := PX,G

(x−γG−1F (x)

)ist, d.h. wenn x∗ = H(x∗) gilt.

Beweis: Aufgrund des Projektionssatzes 2.29 gelten die folgenden Äquivalenzen:x∗ löst VIP(X, F ) ⇐⇒ F (x∗)T (x− x∗) ≥ 0 ∀x ∈ X

⇐⇒ γ(G−1F (x∗)

)TG(x− x∗) ≥ 0 ∀x ∈ X

⇐⇒(x∗ −

(x∗ − γG−1F (x∗)

))TG(x− x∗) ≥ 0 ∀x ∈ X

⇐⇒ x∗ = PX,G

(x∗ − γG−1F (x∗)

)= H(x∗).

Damit ist der Satz auch schon bewiesen. 2

Zur Anwendung des Satzes 2.31 benötigen wir noch den fundamentalen Fixpunktsatz vonBrouwer, der hier ohne Beweis wiedergegeben wird.Satz 2.32 ( Fixpunktsatz von Brouwer )Seien X ⊆ Rn eine nichtleere, konvexe und kompakte Menge sowie f : X → X stetig.Dann besitzt f einen Fixpunkt in X.

Das erste zentrale Resultat dieses Abschnittes ist der folgende Existenzsatz.Satz 2.33 Seien X ⊆ Rn eine nichtleere, konvexe und kompakte Menge sowie F : X → Rn

stetig. Dann besitzt die Variationsungleichung VIP(X, F ) (mindestens) eine Lösung.

Beweis: Betrachte wieder die im Satz 2.31 eingeführte AbbildungH(x) := PX,G

(x− γG−1F (x)

).

Aus Lemma 2.30 und der vorausgesetzten Stetigkeit von F ergibt sich unmittelbar, dassauch die Abbildung H stetig ist. Ferner ist H : X → X eine Selbstabbildung von X in X.Da die Menge X auÿerdem den Voraussetzungen des Brouwerschen Fixpunktsatzes 2.32genügt, besitzt H daher einen Fixpunkt x∗ ∈ X. Nach Satz 2.31 ist dieser Vektor x∗ dannauch eine Lösung von VIP(X, F ). 2

Als Nächstes wollen wir zeigen, dass die Lösungsmenge einer Variationsungleichung VIP(X, F )mit pseudomonotonem F stets konvex ist. Dabei ist das folgende Resultat von zentralerBedeutung.Lemma 2.34 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex sowie F : X → Rn stetigund pseudomonoton. Dann sind die folgenden Aussagen äquivalent:

(a) x∗ ∈ X löst VIP(X, F ), d.h. F (x∗)T (x− x∗) ≥ 0 ∀x ∈ X.

Page 42: EINFÜHRUNG IN DIE SPIELTHEORIE

36 KAPITEL 2. EXISTENZ VON NASH�GLEICHGEWICHTEN

(b) F (x)T (x− x∗) ≥ 0 ∀x ∈ X.

Beweis: Gilt die Aussage (a), so folgt (b) unmittelbar aus der De�nition einer pseudo-monotonen Funktion. Umgekehrt möge nun (b) gelten. Seien x ∈ X und t ∈ [0, 1] beliebiggegeben. De�niere y := x∗ + t(x− x∗). Dann ist auch y ∈ X aufgrund der Konvexität derMenge X. Aus der Voraussetzung (b) folgt daher

F(x∗ + t(x− x∗)

)T (t(x− x∗)

)≥ 0 ∀ t > 0.

Also ist auchF

(x∗ + t(x− x∗)

)T(x− x∗) ≥ 0 ∀ t > 0.

Der Grenzübergang t→ 0+ liefert aufgrund der Stetigkeit von F somitF (x∗)T (x− x∗) ≥ 0.

Folglich ist x∗ eine Lösung von VIP(X, F ). 2

Hiermit lässt sich die schon angedeutete Konvexität der Lösungsmenge für pseudomonotoneVariationsungleichungen sehr leicht beweisen.Lemma 2.35 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex sowie F : X → Rn stetigund pseudomonoton. Dann ist die Lösungsmenge von VIP(X, F ) konvex (evtl. leer).

Beweis: Seien x1, x2 ∈ X zwei Lösungen von VIP(X,F ) und λ ∈ (0, 1). Aufgrund desLemmas 2.34 gelten dann

F (x)T (x− x1) ≥ 0 ∀x ∈ X

undF (x)T (x− x2) ≥ 0 ∀x ∈ X.

Speziell für x∗ := λx1 + (1− λ)x2 ∈ X gilt daherF (x)T (x− x∗) = F (x)T

(λx + (1− λ)x− λx1 − (1− λ)x2

)= λF (x)T (x− x1) + (1− λ)F (x)T (x− x2)

≥ 0

für alle x ∈ X. Wiederum aufgrund des Lemmas 2.34 ist x∗ daher eine Lösung vonVIP(X, F ). 2

Wir wollen nun zeigen, dass VIP(X,F ) unter gewissen Voraussetzungen an die FunktionF auch dann eine (eindeutige) Lösung besitzt, wenn die Menge X unbeschränkt ist. Dazubeginnen wir zunächst mit dem nachstehenden Resultat.Lemma 2.36 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex sowie F : X → Rn striktmonoton. Dann besitzt VIP(X, F ) höchstens eine Lösung.

Page 43: EINFÜHRUNG IN DIE SPIELTHEORIE

2.4 EXISTENZ VON NASH�GLEICHGEWICHTEN VIA VIPS 37

Beweis: Angenommen, VIP(X, F ) besitzt zwei Lösungen x1, x2 ∈ Rn mit x1 6= x2. Danngelten

F (x1)T (x− x1) ≥ 0

undF (x2)T (x− x2) ≥ 0

für alle x ∈ X. Wegen x1, x2 ∈ X ergeben sich daher insbesondereF (x1)T (x2 − x1) ≥ 0

undF (x2)T (x1 − x2) ≥ 0.

Addition dieser beiden Ungleichungen liefert unter Anwendung der strikten Monotonie vonF :

0 < (x1 − x2)T (F (x1)− F (x2)) ≤ 0,

ein Widerspruch. 2

Für ein r > 0 sei im FolgendenKr(0) :=

{x ∈ Rn

∣∣ ‖x‖ ≤ r}

die abgeschlossene Kugelumgebung um den Nullpunkt vom Radius r. Ist X ⊆ Rn gegeben,so wird mit Xr die Schnittmenge

Xr := X ∩ Kr(0)

bezeichnet. Ist X abgeschlossen und konvex, so ist o�enbar auch Xr abgeschlossen (sogarkompakt) und konvex. Ist ferner X nichtleer, so ist auch die Menge Xr nichtleer für allehinreichend groÿen r > 0. Die Bedeutung der Menge Xr ergibt sich aus dem folgendenLemma, welches selbst wiederum für den nachfolgenden Existenzsatz wichtig ist.Lemma 2.37 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex sowie F : X → Rn

stetig. Dann besitzt VIP(X, F ) genau dann eine Lösung x∗, wenn es ein r > ‖x∗‖ gibt, sodass x∗ auch die Variationsungleichung VIP(Xr, F ) löst.

Beweis: Zunächst besitze VIP(X, F ) eine Lösung x∗. Wähle dann r > ‖x∗‖ beliebig.Wegen Xr = X ∩ Kr(0) ⊆ X ist x∗ insbesondere eine Lösung von VIP(Xr, F ).

Sei umgekehrt ein r > 0 gegeben, so dass VIP(Xr, F ) eine Lösung x∗ besitzt mit‖x∗‖ < r. Sei x ∈ X beliebig. Für hinreichend kleines λ > 0 ist dann

y := x∗ + λ(x− x∗) ∈ Xr.

Da x∗ das Problem VIP(Xr, F ) löst, giltλF (x∗)T (x− x∗) = F (x∗)T (y − x∗) ≥ 0

Page 44: EINFÜHRUNG IN DIE SPIELTHEORIE

38 KAPITEL 2. EXISTENZ VON NASH�GLEICHGEWICHTEN

und somit auchF (x∗)T (x− x∗) ≥ 0

wegen λ > 0. Also ist x∗ bereits eine Lösung von VIP(X, F ). 2

Im folgenden Satz wird die Existenz einer Lösung von VIP(X, F ) auch für nicht notwendigbeschränktes X nachgewiesen unter der Voraussetzung, dass die Funktion F einem gewissenWachstumsverhalten genügt.Satz 2.38 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex sowie F : X → Rn stetig.Existiert ein x ∈ X mit

limx∈X,‖x‖→∞

(x− x)T(F (x)− F (x)

)‖x− x‖

=∞, (2.25)

so besitzt VIP(X, F ) (mindestens) eine Lösung.

Beweis: Aufgrund der Voraussetzung (2.25) existieren Konstanten µ > ‖F (x)‖ und r >‖x‖ mit

(x− x)T(F (x)− F (x)

)> µ‖x− x‖

für alle x ∈ X mit ‖x‖ ≥ r. Daher istF (x)T (x− x) > µ‖x− x‖+ F (x)T (x− x)

≥ µ‖x− x‖ − ‖F (x)‖ ‖x− x‖=

(µ− ‖F (x)‖

)‖x− x‖

≥(µ− ‖F (x)‖

)(‖x‖ − ‖x‖

)> 0

(2.26)

für alle x ∈ X mit ‖x‖ ≥ r. Betrachte nun die Menge Xr := X ∩ Kr(0). Diese ist konvex,kompakt und nichtleer wegen x ∈ Xr. Aufgrund des Satzes 2.33 besitzt die zugehörigeVariationsungleichung VIP(Xr, F ) daher eine Lösung x∗. Folglich gilt

F (x∗)T (x− x∗) ≥ 0

für alle x ∈ Xr. Insbesondere ist daherF (x∗)T (x− x∗) ≥ 0,

alsoF (x∗)T (x∗ − x) ≤ 0.

Wegen (2.26) muss somit ‖x∗‖ < r gelten. Aufgrund des Lemmas 2.37 ist x∗ deshalb bereitseine Lösung von VIP(X,F ). 2

Als unmittelbare Konsequenz aus den obigen Resultaten erhalten wir das nachstehendeKorollar.

Page 45: EINFÜHRUNG IN DIE SPIELTHEORIE

2.4 EXISTENZ VON NASH�GLEICHGEWICHTEN VIA VIPS 39

Korollar 2.39 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex sowie F : X → Rn

stetig und gleichmäÿig monoton. Dann besitzt VIP(X,F ) genau eine Lösung.

Beweis: Da F gleichmäÿig monoton (auf X) ist, genügt F insbesondere der Wachstums-bedingung (2.25) für ein beliebiges x ∈ X. Wegen Satz 2.38 besitzt VIP(X,F ) dahermindestens eine Lösung. Auf der anderen Seite ist die gleichmäÿig monotone Funktion Finsbesondere strikt monoton, so dass VIP(X,F ) höchstens eine Lösung besitzt, vergleicheLemma 2.36. Also hat VIP(X, F ) genau eine Lösung. 2

Durch Anwendung der Resultate dieses Abschnittes in Kombination mit dem Satz 2.27 er-halten wir daher die nachstehenden Aussagen über die Existenz von Nash�Gleichgewichten.Korollar 2.40 Sei Γ = {θν , Xν}Nν=1 ein Spiel mit stetig di�erenzierbaren Auszahlungsfunk-tionen θν sowie nichtleeren, abgeschlossenen und konvexen Strategiemengen Xν ⊆ Rnν , ν =1, . . . , N . Setze

F (x) :=

∇x1θ1(x)...

∇xN θN(x)

.

Dann gelten die folgenden Aussagen:

(a) Ist F pseudomonoton, so ist Menge aller Nash�Gleichgewichtspunkte konvex (even-tuell leer).

(b) Ist F strikt monoton, so existiert höchstens ein Nash�Gleichgewichtspunkt.

(c) Ist F gleichmäÿig monoton, so gibt es genau einen Nash�Gleichgewichtspunkt.

(d) Sind alle Strategiemengen Xν kompakt (und F ansonsten beliebig), so gibt es minde-stens einen Nash�Gleichgewichtspunkt.

Wir können die Ergebnisse dieses Abschnitts auch auf Optimierungsprobleme anwendenund erhalten dann insbesondere das nachstehende Resultat.Korollar 2.41 Betrachte das Optimierungsproblem

min f(x) u.d.N. x ∈ X (2.27)mit X ⊆ Rn nichtleer, abgeschlossen und konvex sowie f : X → R stetig di�erenzierbar.Dann gelten die folgenden Aussagen:

(a) Ist f pseudokonvex, so ist die Menge aller Minima von (2.27) konvex (eventuell leer).(b) Ist f strikt konvex, so besitzt (2.27) höchstens ein Minimum.

(c) Ist f gleichmäÿig konvex, so hat (2.27) genau ein Minimum.

Page 46: EINFÜHRUNG IN DIE SPIELTHEORIE

40 KAPITEL 2. EXISTENZ VON NASH�GLEICHGEWICHTEN

Beweis: Wegen des Minimumprinzips aus dem Lemma 2.26 ist x∗ für jede zumindestpseudokonvexe Funktion f genau dann ein Minimum von (2.27), wenn x∗ die zugehörigeVariationsungleichung VIP(X, F ) mit F (x) := ∇f(x) löst. Aufgrund der Resultate im Ab-schnitt 2.2 ist F aber genau dann pseudomonoton (strikt monoton, gleichmäÿig monoton),wenn f pseudokonvex (strikt konvex, gleichmäÿig konvex) ist. Damit erhalten wir alle Aus-sagen als Folgerungen der Ergebniss dieses Abschnitts. 2

2.5 Der Existenzsatz von Nikaido�IsodaIm vorigen Abschnitt haben wir die Existenz von Nash�Gleichgewichten über den Umwegder Varitionsungleichungen bewiesen. Dieser liefert gleichzeitig einen numerisch brauchba-ren Zugang zur Lösung von Nash�Gleichgewichtsproblemen, benötigt als Voraussetzungjedoch die stetige Di�erenzierbarkeit aller Auszahlungsfunktionen θν . Andererseits zeigtebereits das sehr einfache Beispiel 1.11 eines Duopols, dass die Auszahlungsfunktionen nichtdi�erenzierbar sein müssen. Wir wollen in diesem Abschnitt daher einen Existenzsatz un-ter schwächeren Glattheitsvoraussetzungen beweisen. Dabei werden wir ganz wesentlichauf den Fixpunktsatz von Kakutani zurückgreifen. Zu dessen Formulierung werden nocheinige Begri�e benötigt.De�nition 2.42 Sei X ⊆ Rn. Dann heiÿt jede Abbildung f : X → P(Rm), wobei P(Rm)die Potenzmenge des Rm bezeichnet, eine Korrespondenz oder Punkt�Menge�Abbildung.Wir schreiben hierfür auch kurz f : X ⇒ Rm.

Punkt�Menge�Abbildungen treten in vielen Zusammenhängen auf. Ist beispielsweise g :Rm → Rn eine gegebene Funktion, so ist die Abbildung f : Rn ⇒ Rm, die jedem Elementx ∈ Rn das Urbild f(x) := g−1(x) zuordnet, eine Korrespondenz. Ebenso ist die schonfrüher aufgetretene Beste�Antwort�Abbildung x 7→ Sν(x

−ν) für jeden Spieler ν = 1, . . . , Neine Korrespondenz. Sollten die Lösungsmengen Sν(x

−ν) hierbei stets eindeutig sein, han-delt es sich bei diesen Korrespondenzen natürlich um eine Abbildung im herkömmlichenSinne.

Ein wichtiger Begri� im Zusammenhang mit Punkt�Menge�Abbildungen wird in dernachstehenden De�nition eingeführt.De�nition 2.43 Sei X ⊆ Rn. Eine Korrespondenz f : X ⇒ Rm heiÿt abgeschlossen, fallsfür je zwei konvergente Folgen {xk} → x in X und {yk} → y in Rm mit yk ∈ f(xk) füralle k ∈ N bereits y ∈ f(x) gilt.

Damit sind wir nun in der Lage, den wichtigen Fixpunktsatz von Kakutani zu formulieren.Auf einen Beweis verzichten wir an dieser Stelle und verweisen dazu auf die Literatur, etwa[17].

Page 47: EINFÜHRUNG IN DIE SPIELTHEORIE

2.5. DER EXISTENZSATZ VON NIKAIDO�ISODA 41

Satz 2.44 ( Fixpunktsatz von Kakutani )Seien X ⊆ Rn nichtleer, konvex und kompakt sowie f : X ⇒ X eine abgeschlosseneKorrespondenz derart, dass die Bildungen f(x) für alle x ∈ X nichtleer und konvex sind.Dann besitzt f einen Fixpunkt, d.h. es existiert ein x∗ ∈ X mit x∗ ∈ f(x∗).

Es sei an dieser Stelle kurz erwähnt, dass man aus dem Fixpunktsatz von Kakutani sehrleicht den Fixpunktsatz von Brouwer erhält: Sei dazu X ⊆ Rn eine nichtleere, konvexeund kompakte Menge sowie φ : X → X stetig. Setze f(x) := {φ(x)} für alle x ∈ X.Dann ist f : X ⇒ X eine Korrespondenz und die Bildmengen f(x) stets einelementig,also insbesondere nichtleer und konvex. Für zwei konvergente Folgen {xk} → x in Xsowie {yk} → y in Rn mit yk ∈ f(xk) für alle k ∈ N gilt auÿerdem yk = φ(xk), alsoy = φ(x) ∈ f(x) für k → ∞ aufgrund der vorausgesetzten Stetigkeit von φ. Nach demFixpunktsatz von Kakutani besitzt f daher einen Fixpunkt x∗ ∈ X. Gemäÿ De�nition vonf ist dann x∗ = φ(x∗) und damit der Fixpunkt von Brouwer bewiesen.

Wir kehren jetzt wieder zur Spieltheorie zurück und beweisen den nachstehenden Exi-stenzsatz für Nash�Gleichgewichtsprobleme als Anwendung des Fixpunktsatzes von Kaku-tani, vergleiche auch die zugehörige Originalarbeit [33].Satz 2.45 ( Existenzsatz von Nikaido�Isoda )Sei Γ = {θν , Xν}Nν=1 ein Spiel mit folgenden Eigenschaften:

(a) Die Strategiemengen Xν sind nichtleer, konvex und kompakt für alle ν = 1, . . . , N .

(b) Die Auszahlungsfunktionen θν : X → R (mit X := X1 × . . . × XN) sind stetig füralle ν = 1, . . . , N .

(c) Die Auszahlungsfunktionen θν(xν , x−ν) sind quasikonvex als Abbildung in xν (für alle

x−ν).

Dann besitzt das Spiel Γ einen Nash�Gleichgewichtspunkt.

Beweis: Sei x−ν 7→ Sν(x−ν) die Beste�Antwort�Funktion des Spielers ν, also Sν(x

−ν) dieMenge aller Lösungen des Optimierungsproblems

minxν

θν(xν , x−ν) u.d.N. xν ∈ Xν (2.28)

für ν = 1, . . . , N . Wir betrachten nun die hierdurch induzierte Korrespondenzf(x) := S(x) := S1(x

−1)× . . .× SN(x−N).

O�enbar ist f eine Abbildung von X in P(X), also f : X ⇒ X. Aus Voraussetzung (a) folgtauÿerdem, dass X = X1× . . .×XN nichtleer, konvex und kompakt ist. Die LösungsmengenSν(x

−ν) sind stets nichtleer, denn die Zielfunktion θν in (2.28) ist stetig und der zulässigeBereich Xν in (2.28) nichtleer und kompakt. Ferner ist Sν(x

−ν) für jedes ν = 1, . . . , Nkonvex, da es sich um die Lösungsmenge des quasikonvexen Optimierungsproblems (2.28)handelt, vergleiche Korollar 2.9. Als kartesisches Produkt von nichtleeren und konvexen

Page 48: EINFÜHRUNG IN DIE SPIELTHEORIE

42 KAPITEL 2. EXISTENZ VON NASH�GLEICHGEWICHTEN

Mengen ist dann auch f(x) = S(x) = S1(x−1) × . . . × SN(x−N) nichtleer und konvex für

alle x ∈ X.Wir zeigen als Nächstes, dass die Korrespondenz f : X ⇒ X auch abgeschlossen im

Sinne der De�nition 2.43 ist. Seien dazu zwei Folgen {xk} und {sk} gegeben mit {xk} → xin X, {sk} → s in Rn sowie sk ∈ f(xk) = S(xk). Somit gilt

θν(sk,ν , xk,−ν) ≤ θν(x

ν , xk,−ν) ∀xν ∈ Xν ∀k ∈ N

und für alle ν = 1, . . . , N . Aus der Stetigkeit von θν folgt für k →∞ somitθν(s

ν , x−ν) ≤ θν(xν , xk,−ν) ∀xν ∈ Xν

und alle ν = 1, . . . , N . Also ist sν für jedes ν = 1, . . . , N eine Lösung des Optimierungs-problems

minxν

θν(xν , x−ν) u.d.N. xν ∈ Xν .

Folglich gilt s = (s1, . . . , sN) ∈ S(x) = f(x), d.h., die Korrespondenz f ist abgeschlossen.Somit können wir den Fixpunktsatz 2.44 von Kakutani anwenden: Die Punkt�Menge�

Abbildung f besitzt einen Fixpunkt x∗. Per De�nition von f = S gilt für diesen dann x∗,ν ∈Sν(x

∗,−ν) für alle ν = 1, . . . , N . Wegen Satz 1.7 ist x∗ daher ein Nash�Gleichgewichtspunktdes gegebenen Spiels Γ. 2

Der Satz 2.45 ist im Prinzip eine Verallgemeinerung des Korollars 2.40 (d) auf die Klasse derstetigen (statt stetig di�erenzierbaren) Funktionen θν . Eine ganz wesentliche Voraussetzungist hierbei die Kompaktheit von Xν . Ohne diese Voraussetzung lässt sich der Fixpunktsatzvon Kakutani nicht anwenden. Allerdings haben wir im Korollar 2.40 auch die Existenzvon Nash�Gleichgewichten bei nicht notwendig beschränkten Strategiemengen Xν bewiesen(für stetig di�erenzierbare Funktionen θν).

Die Namensgebung des Satzes 2.45 variiert in der Literatur etwas, so wird er in [11]beispielsweise als Satz von Debreu, Glicksberg und Fan bezeichnet.

Page 49: EINFÜHRUNG IN DIE SPIELTHEORIE

Kapitel 3

Zwei�Personen�Spiele

3.1 Matrixspiele3.2 Matrixspiele in gemischten Strategien3.3 Bi�Matrixspiele und quadratische Programme3.4 Bi�Matrixspiele und lineare Komplementaritätsprobleme

3.1 MatrixspieleWir betrachten in diesem Abschnitt Matrixspiele in der Maximierungsform, also endliche2�Personen�Nullsummenspiele der Gestalt

maxx1 θ1(x) maxx2 θ2(x)u.d.N. x1 ∈ X1 u.d.N. x2 ∈ X2

mit der Eigenschaft θ1(x) = −θ2(x) für alle x ∈ X := X1×X2. Da die Strategiemengen X1

und X2 endlich sind, bezeichnen wir ihre Elemente einfach mit X1 = {1, . . . ,m} und X2 ={1, . . . , n}. Die Auszahlungen des Spielers 1 können dann bequem mittels der zugehörigenAuszahlungsmatrix A ∈ Rm×n mit den Elementen

aij := θ1(i, j) ∀i = 1, . . . ,m, ∀j = 1, . . . , n

dargestellt werden. Dann ist B := −A automatisch die Auszahlungsmatrix des Spielers 2.Bevor wir mit einigen allgemeinen Ergebnissen über Matrixspiele fortfahren, beginnen

wir mit einem kleinen Beispiel aus [16].Beispiel 3.1 Wir untersuchen hier ein Matrixspiel mit m = 2, n = 3 und der Auszah-lungsmatrix

A :=

(3 1 84 10 0

).

Welche Strategie wird Spieler 1 (= Zeilenspieler) sinnvoll wählen? Nimmt er die ersteStrategie, so liegt sein minimaler Gewinn bei 1 (= minimaler Eintrag in der ersten Zeile).

43

Page 50: EINFÜHRUNG IN DIE SPIELTHEORIE

44 KAPITEL 3. ZWEI�PERSONEN�SPIELE

Entscheidet er sich für die zweite Strategie, so beläuft sich sein minimaler Gewinn auf 0(= minimaler Eintrag in der zweiten Zeile). Nimmt er daher das Maximum dieser Werteüber die Zeilen, so beträgt sein minimaler Gewinn

maxi

minj

aij = 1.

Spieler 2 (= Spaltenspieler) verhält sich ähnlich: Bei Wahl der Strategie 1 hat er einenmaximalen Verlust von 4 (= maximaler Eintrag in Spalte 1). Entscheidet er sich hingegenfür seine zweite bzw. dritte Strategie, so beträgt sein maximaler Verlust 10 bzw. 8. Umseinen Verlust insgesamt zu minimieren, nimmt er das Minimum über diese Werte. Seinmaximaler Verlust beträgt demzufolge

minj

maxi

aij = 4.

Wir zeigen im folgenden Resultat ganz allgemein, dass der minimale Gewinn (auchMaxmin�Strategie genannt) stets eine untere Schranke für den maximalen Verlust (auch alsMinmax�Strategie bezeichnet) darstellt.Lemma 3.2 Für jedes Matrixspiel mit Auszahlungsmatrix A ∈ Rm×n gilt die Ungleichung

maxi

minj

aij ≤ minj

maxi

aij. (3.1)

Beweis: Für jeden festen Spaltenindex ` ∈ {1, . . . , n} und alle i ∈ {1, . . . ,m} gilt zunächstmin

jaij ≤ ai`.

Hieraus folgt natürlichmax

imin

jaij ≤ max

iai`.

Da dies letztlich für jeden Spaltenindex ` ∈ {1, . . . , n} der Fall ist, ergibt sichmax

imin

jaij ≤ min

jmax

iaij,

wenn wir statt ` einfach j schreiben. 2

Die beiden in (3.1) auftretenden Gröÿenv := max

imin

jaij und v := min

jmax

iaij

heiÿen auch unter Spielwert und oberer Spielwert des gegebenen Matrixspiels. Lemma 3.2lässt sich hiermit kurz schreiben als v ≤ v. Im Folgenden wird vor allem der Fall vonInteresse sein, bei dem hier Gleichheit gilt.

Page 51: EINFÜHRUNG IN DIE SPIELTHEORIE

3.1. MATRIXSPIELE 45

Zu diesem Zweck beginnen wir mit einigen Vorüberlegungen, die insbesondere auf einenanderen Sprachgebrauch im Zusammenhang mit Matrixspielen führen. Sei dazu (i∗, j∗) einNash�Gleichgewichtspunkt des gegebenen Matrixspiels, also

θ1(i∗, j∗) ≥ θ1(i, j∗) ∀i = 1, . . . ,m und θ2(i∗, j∗) ≥ θ2(i∗, j) ∀j = 1, . . . , nθ2=−θ1⇐⇒ θ1(i∗, j∗) ≥ θ1(i, j∗) ∀i = 1, . . . ,m und θ1(i∗, j∗) ≤ θ1(i∗, j) ∀j = 1, . . . , n

⇐⇒ θ1(i, j∗) ≤ θ1(i∗, j∗) ≤ θ1(i∗, j) ∀i = 1, . . . ,m, ∀j = 1, . . . , n

⇐⇒ aij∗ ≤ ai∗j∗ ≤ ai∗j ∀i = 1, . . . ,m, ∀j = 1, . . . , n.

Ein Strategienpaar (i∗, j∗) mit der Eigenschaftaij∗ ≤ ai∗j∗ ≤ ai∗j ∀i = 1, . . . ,m, ∀j = 1, . . . , n

wird als Sattelpunkt des Matrixspiels bezeichnet. Mit den obigen Überlegungen haben wirdann das folgende Resultat.Satz 3.3 Gegeben sei ein Matrixspiel mit Auszahlungsmatrix A ∈ Rm×n. Dann ist dasStrategienpaar (i∗, j∗) genau dann ein Nash�Gleichgewicht, wenn (i∗, j∗) ein Sattelpunktist.

Das nachstehende Resultat besagt nun, dass genau dann ein Sattelpunkt (bzw. Nash�Gleichgewicht) existiert, wenn in (3.1) Gleichheit gilt, also unterer und oberer Spielwertübereinstimmen.Satz 3.4 Gegeben sei ein Matrixspiel mit Auszahlungsmatrix A ∈ Rm×n. Dann existiertgenau dann ein Sattelpunkt (bzw. Nash�Gleichgewicht), wenn in (3.1) Gleichheit gilt.Beweis: Sei (i∗, j∗) zunächst ein Sattelpunkt des gegebenen Matrixspiels, also

aij∗ ≤ ai∗j∗ ≤ ai∗j ∀i = 1, . . . ,m, ∀j = 1, . . . , n.

Hieraus folgt insbesonderemax

iaij∗ ≤ ai∗j∗ ≤ min

jai∗j.

Dies impliziert wiederumv = min

jmax

iaij ≤ ai∗j∗ ≤ max

imin

jaij = v.

Wegen Lemma 3.2 gilt dann zwangsläu�g die Gleichheit v = v.Sei umgekehrt

v = v ⇐⇒ maxi

minj

aij = minj

maxi

aij. (3.2)Aus der De�nition von V sowie v ergibt sich unmittelbar die Existenz von Indizes i∗ undj∗ mit

v = minj

ai∗j und v = maxi

aij∗ .

Page 52: EINFÜHRUNG IN DIE SPIELTHEORIE

46 KAPITEL 3. ZWEI�PERSONEN�SPIELE

Aus der Ungleichungv = min

jai∗j ≤ ai∗j∗ ≤ max

iaij∗ = v

ergibt sich mit v = v dahermin

jai∗j = ai∗j∗ = max

iaij∗ .

Dies impliziert aber geradeai∗j∗ ≥ aij∗ ∀i = 1, . . . ,m und ai∗j∗ ≤ ai∗j ∀j = 1, . . . , n,

also ist das Indexpaar (i∗, j∗) ein Sattelpunkt des gegebenen Matrixspieles. 2

Die wegen Satz 3.4 im Falle der Existenz von Nash�Gleichgewichten eindeutig bestimmteGröÿe

v := maxi

minj

aij = minj

maxi

aij ⇐⇒ v := v = v

heiÿt der Wert eines Matrixspiels.Zum Abschluss dieses Abschnitts betrachten wir noch eine spezielle Klasse von Matrix-

spielen.De�nition 3.5 Ein Matrixspiel mit Auszahlungsmatrix A ∈ Rm×n heiÿt symmetrisch,wenn n = m gilt und A = −AT ist.

Ein symmetrisches Matrixspiel im gerade de�nierten Sinn ist etwa das Spiel Stein, Schere,Papier aus dem Beispiel 1.4. Man beachte ansonsten, dass die Diagonalelemente von Abei einem symmetrischen Matrixspiel zwangsläu�g Null sein müssen. Für symmetrischeMatrixspiele gilt nun das folgende Kriterium.Satz 3.6 Ein symmetrisches Matrixspiel mit Auszahlungsmatrix A ∈ Rn×n besitzt genaudann einen Sattelpunkt (bzw. Nash�Gleichgewichtspunkt), wenn ein Index i∗ ∈ {1, . . . , n}existiert mit

ai∗j ≥ 0 ∀j = 1, . . . , n. (3.3)In diesem Fall ist (i∗, i∗) ein Sattelpunkt und v = 0 der Wert des Matrixspiels.

Beweis: Sei (i∗, j∗) zunächst ein Sattelpunkt, alsoai∗j ≥ ai∗j∗ ≥ aij∗ ∀i, j = 1, . . . , n.

Speziell für i = j∗ folgt hieraus ai∗j ≥ aj∗j∗ = 0 für alle j = 1, . . . , n.Sei umgekehrt i∗ ∈ {1, . . . , n} ein Index mit der Eigenschaft (3.3). Dann folgt mit

A = −AT , also aij = −aji für alle i, j = 1, . . . , n, unmittelbaraji∗ = −ai∗j ≤ 0 ∀j = 1, . . . , n.

Page 53: EINFÜHRUNG IN DIE SPIELTHEORIE

3.2. MATRIXSPIELE IN GEMISCHTEN STRATEGIEN 47

Somit istai∗j ≥ 0 ≥ aji∗ ∀j = 1, . . . , n.

Wegen ai∗i∗ = 0 ist (i∗, i∗) daher ein Sattelpunkt des symmetrischen Matrixspiels. 2

Das Kriterium (3.3) für symmetrische Matrixspiele ist o�enbar sehr handlich: Es mussnur eine Zeile i∗ mit lauter nichtnegativen Einträgen geben. Beispielsweise de�niert dieAuszahlungsmatrix

A :=

0 −1 −11 0 11 −1 0

ein symmetrisches Matrixspiel, bei dem der Index i∗ := 2 dem Kriterium aus Satz 3.6genügt, so dass (2, 2) ein Sattelpunkt und daher auch ein Nash�Gleichgewicht des zuge-hörigen Spieles ist. Auf der anderen Seite sieht man sofort, dass für unser Stein, Schere,Papier�Spiel kein Index i∗ mit der Eigenschaft (3.3) existiert.

3.2 Matrixspiele in gemischten StrategienGegeben sei wieder ein Matrixspiel mit Auszahlungsmatrix A ∈ Rm×n. Bei der Unter-suchung solcher Spiele haben wir im letzten Abschnitt ausschlieÿlich �reine� Strategienbetrachtet, d.h., die Spieler entscheiden sich für genau ein Element ihrer jeweiligen Strate-giemenge. Wie das Beispiel des Stein�Schere�Papier�Spiels zeigte, muss ein solches Spielaber kein Nash�Gleichgewicht besitzen. Obendrein ist es nicht immer sinnvoll, sich für ge-nau eine Strategie zu entscheiden. Wird ein Spiel beispielsweise mehrfach wiederholt, somacht es vielmehr Sinn, dass jeder Spieler eine Strategie mit einer gewissen Wahrschein-lichkeit spielt.

Spieler 1 wählt also einen Vektor x ∈ Rm mit

x = (x1, . . . , xm)T ,

m∑i=1

xi = 1, xi ≥ 0 ∀i = 1, . . . ,m,

Spieler 2 wählt einen Vektor y ∈ Rn mit

y = (y1, . . . , yn)T ,n∑

j=1

yj = 1, yj ≥ 0 ∀j = 1, . . . , n.

Dabei gibt xi bzw. yj die Wahrscheinlichkeit an, mit welcher Spieler 1 bzw. 2 die Stra-tegie i bzw. j wählt. Man nennt dies ein Matrixspiel in gemischten Strategien (bzw. daszum gegebenen Matrixspiel zugehörige Matrixspiel in gemischten Strategien). Jeder solcheVektor x bzw. y enthält nämlich eine gemischte Strategie. Ist einer dieser Vektoren derEinheitsvektor, so spricht man auch von einer reinen Strategie. Dies entspricht gerade dembisher betrachteten Spezialfall aus dem vorigen Abschnitt 3.1.

Page 54: EINFÜHRUNG IN DIE SPIELTHEORIE

48 KAPITEL 3. ZWEI�PERSONEN�SPIELE

Bei einem Matrixspiel in gemischten Strategien sind die Strategiemengen des Spielers1 bzw. 2 somit gegeben durch

X :={

x ∈ Rm∣∣∣ m∑

i=1

xi = 1 und xi ≥ 0 für alle i = 1, . . . ,m}

undY :=

{y ∈ Rn

∣∣∣ n∑j=1

yj = 1 und yj ≥ 0 für alle i = 1, . . . , n}

.

Wählt Spieler 1 die gemischte Strategie x ∈ X und wählt Spieler 2 die gemischte Strategiey ∈ Y , so ist der Erwartungswert für die Auszahlung an den Spieler 1 gegeben durch denAusdruck

θ(x, y) := xT Ay.

Damit können wir den Begri� des Nash�Gleichgewichts auf Matrixspiele in gemischtenStrategien erweitern.De�nition 3.7 Seien X, Y und θ wie oben de�niert. Dann heiÿt ein Paar (x∗, y∗) ∈ X×Yein Nash�Gleichgewicht in gemischten Strategien für das gegebene Matrixspiel, wenn

θ(x∗, y∗) ≥ θ(x, y∗) ∀x ∈ X und θ(x∗, y∗) ≤ θ(x∗, y) ∀y ∈ Y

gelten, wenn also (x∗, y∗) ein Sattelpunkt von θ ist.

Der gerade eingeführte Begri� eines Nash�Gleichgewichtes in gemischten Strategien isto�enbar nichts anderes als die De�nition des üblichen Nash�Gleichgewichtes für das 2�Personenspiel mit den Auszahlungsfunktionen θ1 := θ und θ2 := −θ und den Strategie-mengen X1 := X und X2 := Y der Spieler 1 und 2. Da die Mengen X und Y beideo�enbar nichtleer, konvex und kompakt sind und θ sowohl linear in x als auch linear iny ist, erhalten wir aus dem Satz 2.45 unmittelbar das folgende Existenzresultat von Nash[31].Satz 3.8 ( Existenzsatz von Nash )Jedes Matrixspiel besitzt mindestens ein Nash�Gleichgewicht in gemischten Strategien.

Der Satz 3.8 zeigt also einen fundamentalen Unterschied auf zwischen Matrixspielen ingemischten Strategien auf der einen Seite und Matrixspielen in reinen Strategien auf deranderen Seite.

Das nächste Resultat ist insbesondere von groÿer praktischer Bedeutung, da es dasLösen eines Matrixspiels auf ein lineares Programm zurückführt.Satz 3.9 Gegeben sei ein Matrixspiel mit Auszahlungsmatrix A ∈ Rm×n. Ferner seienθ, X und Y wie oben de�niert. Dann ist (x∗, y∗) genau dann ein Nash�Gleichgewicht ingemischten Strategien, wenn die beiden folgenden Aussagen gelten:

Page 55: EINFÜHRUNG IN DIE SPIELTHEORIE

3.2. MATRIXSPIELE IN GEMISCHTEN STRATEGIEN 49

(a) x∗ (zusammen mit einer skalaren Gröÿe v∗) löst das (primale) lineare Programm

maxv,x

v u.d.N. xT A ≥ v1Tn ,

m∑i=1

xi = 1, x ≥ 0. (3.4)

(b) y∗ (zusammen mit einer skalaren Gröÿe w∗) löst das (duale) lineare Programm

minw,y

w u.d.N. Ay ≤ w1m,n∑

j=1

yj = 1, y ≥ 0. (3.5)

Hierbei bezeichnet 1k := (1, . . . , 1)T den Einsvektor im Rk.

Beweis: Sei (x∗, y∗) zunächst ein Nash�Gleichgewicht in gemischten Strategien, alsoθ(x, y∗) ≤ θ(x∗, y∗) ≤ θ(x∗, y) ∀x ∈ X, ∀y ∈ Y . (3.6)

Setzev∗ := (x∗)T Ay∗ und w∗ := (x∗)T Ay∗.

Wir behaupten, dass (v∗, x∗) das lineare Programm (3.4) und (w∗, y∗) das lineare Programm(3.5) lösen. Betrachte hierzu zunächst (v∗, x∗). Aus (3.6) folgt zunächst v∗ ≤ (x∗)T Ay füralle y ∈ Y . Speziell für die in Y liegenden Einheitsvektoren y = ei ∈ Rn liefert diesv∗ ≤ [(x∗)T A]i für alle i = 1, . . . , n. Hieraus ergibt sich insbesondere die Zulässigkeit von(v∗, x∗) für das lineare Programm (3.4). Angenommen, (v∗, x∗) sei nicht optimal. Dannexistiert ein für (3.4) zulässiger Vektor (v, x) mit v > v∗. Multiplikation von [xT A]i ≥ vmit y∗i ≥ 0 und anschlieÿende Summation ergibt dann den Widerspruch

xT Ay∗ =n∑

j=1

[xT A]jy∗j ≥ v

n∑j=1

y∗j = v > v∗ = (x∗)T Ay∗

zu der linken Ungleichung in (3.6). Somit ist (v∗, x∗) in der Tat eine Lösung von (3.4).Wir betrachten als Nächstes den Punkt (w∗, y∗). Aus (3.6) folgt xT Ay∗ ≤ (x∗)T Ay∗ =

w∗ für alle x ∈ Rm, speziell für die Einheitsvektoren x = ei ∈ Rm daher [Ay∗]i ≤ w∗ unddamit zumindest die Zulässigkeit von (w∗, y∗) für das lineare Programm (3.5). Angenom-men, es gibt einen für (3.5) zulässigen Vektor (w, y) mit w < w∗. Multiplizieren wir dieUngleichung [Ay]i ≤ w dann mit x∗i ≥ 0 und summieren wir anschlieÿend auf, so folgt derWiderspruch

(x∗)T Ay =m∑

i=1

x∗i [Ay]i ≤m∑

i=1

x∗i w = w < w∗ = (x∗)T Ay∗

zu der rechten Ungleichung in (3.6). Also ist (w∗, y∗) Lösung von (3.5).

Page 56: EINFÜHRUNG IN DIE SPIELTHEORIE

50 KAPITEL 3. ZWEI�PERSONEN�SPIELE

Sei umgekehrt (v∗, x∗) eine Lösung von (3.4) und (w∗, y∗) eine Lösung von (3.5). Ausden Nebenbedingungen von (3.4) und (3.5) sowie dem starken Dualitätssatz für lineareProgramme folgt für alle x ∈ X und alle y ∈ Y dann

xT Ay∗ ≤ w∗1Tmx = w∗ = v∗ = v∗1T

ny ≤ (x∗)T Ay.

Ebenso ergibt sich ausw∗ = w∗1T

mx∗ = (w∗1m)T x∗ ≥ (Ay∗)T x∗ =((x∗)T A

)y∗ ≥ v∗1T

ny∗ = v∗ = w∗

auch w∗ = (x∗)T Ay∗ = v∗. Folglich istθ(x, y∗) ≤ θ(x∗, y∗) ≤ θ(x∗, y∗) ∀x ∈ X, ∀y ∈ Y ,

also (x∗, y∗) ein Nash�Gleichgewicht in gemischten Strategien. 2

Wir betrachten kurz ein Beispiel zu dem obigen Resultat.Beispiel 3.10 Betrachte ein Matrixspiel mit der Auszahlungsmatrix

A :=

(1 0−1 2

).

O�ensichtlich existiert kein Nash�Gleichgewicht in reinen Strategien. Löst man die zuge-hörigen linearen Programme aus dem Satz 3.9, so erhält man die Lösungen

x∗ :=

(3

4,1

4

)T

und y∗ :=

(1

2,1

2

)T

mit dem zugehörigen Wert v∗ := 12. Auf lange Sicht kann Spieler 1 also einen Gewinn von

12erwarten, wenn er mit 75% die erste Strategie und mit 25% die zweite Strategie wählt.

Spieler 2 hingegen wird seine erste und zweite Strategie jeweils mit 50% wählen, um seinenVerlust auf Dauer einzudämmen auf 1

2pro Spiel.

In der MATLABr Optimization Toolbox steht unter dem Namen linprog ein Löser fürlineare Programme zur Verfügung. Dieser behandelt lineare Programme der Gestalt

min cT zu.d.N. Ainz ≤ bin (inequality constraints),

Aeqz = beq (equality constraints),` ≤ z ≤ u (` = lower bounds, u = upper bounds).

Das lineare Programm aus dem Satz 3.9 (a) beispielsweise lässt sich mit dem Variablen-vektor z := (v, x) auf diese Gestalt bringen mit Hilfe der Setzungen

c := (−1, 0, . . . , 0)T ∈ R× Rn,

Page 57: EINFÜHRUNG IN DIE SPIELTHEORIE

3.2. MATRIXSPIELE IN GEMISCHTEN STRATEGIEN 51

Ain := (1n,−AT ) ∈ Rn×(1+n),

bin := (0),

Aeq := (0, 1, . . . , 1) ∈ R1×(1+n),

beq := (1),

` := (−∞, 0, . . . , 0)T ,

u := (+∞, . . . , +∞)T .

Entsprechend lässt sich das lineare Programm aus dem Satz 3.9 (b) auf die gewünsch-te Form bringen und dann ebenfalls mittels linprog lösen. Weitere Informationen zumMATLABr�Programm linprog erhält man durch die Eingabe des Befehls help linprog imMATLABr�Fenster.

Zur Illustration betrachten wir konkret die Daten aus dem Beispiel 3.10. De�niert manhierfür die Gröÿen

c=[-1 0 0]';

A=[1 -1 1; 1 0 -2];

b=[0 0]';

Aeq=[0 1 1];

beq=[1];

b=[-inf 0 0]';

lb=[-inf 0 0]';

ub=[];

und schreibt anschlieÿend[x,fval]=linprog(f,A,b,Aeq,beq,lb,ub),

so liefert MATLABr die MeldungOptimization terminated.

x =

0.5000

0.7500

0.2500

fval =

-0.5000

Page 58: EINFÜHRUNG IN DIE SPIELTHEORIE

52 KAPITEL 3. ZWEI�PERSONEN�SPIELE

Hier ist x der Lösungsvektor (mit den Komponenten (v, x1, x2) in unserer bisherigen No-tation) und dem optimalen Zielfunktionswert in fval für das primale lineare Programm.Dieser Zielfunktionswert hat hier ein anderes Vorzeichen als im Beispiel 3.10, da das lineareProgramm aus dem Satz 3.9 (a) ein Maximierungsproblem ist, welches wir zur Behandlungmittels linprog zunächst in ein äquivalentes Minimierungsproblem umformulieren musssten.

3.3 Bi�Matrixspiele und quadratische ProgrammeWir betrachten in diesem Abschnitt Bi�Matrixspiele der Gestalt

minx1 θ1(x) minx2 θ2(x)u.d.N. x1 ∈ X1 u.d.N. x2 ∈ X2.

Anders als in den beiden vorigen Abschnitten untersuchen wir (ohne Beschränkung derAllgemeinheit) also Spiele in Minimierungsform. Die beiden endlichen Strategiemengenseien wie vorher gegeben durch

X := X1 := {1, . . . ,m} und Y := X2 := {1, . . . , n}.

Dann lassen sich die beiden Auszahlungsfunktionen θ1 und θ2 (für die jetzt im Allgemeinenθ1 6= θ2 gilt) durch die Matrizen A = (aij) ∈ Rm×n und B = (bij) ∈ Rm×n mit denElementen

aij := θ1(i, j), bij := θ2(i, j) für alle i = 1, . . . ,m, j = 1, . . . , n

beschreiben. Da die zuvor behandelten Matrixspiele ein Spezialfall der Bi�Matrixspielesind, werden letztere im Allgemeinen ebenfalls keine Lösung besitzen. Wir benutzen daherdie Idee des letzten Abschnitts und gehen gleich zu dem zugehörigen Bi�Matrixspiel ingemischten Strategien über. Dazu de�nieren wir wieder die beiden Mengen

X :={

x ∈ Rm∣∣∣ m∑

i=1

xi = 1, xi ≥ 0 für alle i = 1, . . . ,m}

,

Y :={

y ∈ Rm∣∣∣ n∑

j=1

yj = 1, yj ≥ 0 für alle j = 1, . . . ,m}

.

Für einen Vektore x ∈ X mit x = (x1, . . . , xm)T bezeichnet xi somit die Wahrschein-lichkeit, dass Spieler 1 die Strategie i wählt. Entsprechend ist die Interpretation vony = (y1, . . . , ym)T .De�nition 3.11 Seien X und Y wie oben de�niert. Dann heiÿt ein Paar (x∗, y∗) ∈ X× Yein Nash�Gleichgewicht in gemischten Strategien für das gegebene Bi�Matrixspiel, wenn

(x∗)T Ay∗ ≤ xT Ay∗ für alle x ∈ X und

(x∗)T By∗ ≤ (x∗)T By für alle y ∈ Y

gelten.

Page 59: EINFÜHRUNG IN DIE SPIELTHEORIE

3.3. BI�MATRIXSPIELE UND QUADRATISCHE PROGRAMME 53

Die Nash�Gleichgewichte in reinen Strategien sind in der De�nition 3.11 mit enthaltenfür den speziellen Fall, dass (x∗, y∗) = (ei, ej) für gewissen Einheitsvektoren ei und ej

ist. Der Zusammenhang zwischen solchen Nash�Gleichgewichten in reinen Strategien undNash�Gleichgewichten in gemischten Strategien wird in dem folgenden Resultat geklärt.Lemma 3.12 Jedes Nash�Gleichgewicht in reinen Strategien eines gegebenen Bi�Matrixspielesist stets auch ein Nash�Gleichgewicht in gemischten Strategien.

Beweis: Sei (x∗, y∗) ein Nash�Gleichgewicht in reinen Strategien, etwa (x∗, y∗) = (ei, ej)für den i-ten Einheitsvektor ei im Rm und den j-ten Einheitsvektor ej im Rm. Dann geltenalso

aij = eTi Aej ≤ eT

k Aej = akj ∀k = 1, . . . ,m

undbij = eT

i Bej ≤ eTi Bek = bik ∀k = 1, . . . , n.

Für alle gemischten Strategien x ∈ X und y ∈ Y folgt daher

xT Ay∗ = xT [Aej] =m∑

k=1

xkakj ≥m∑

k=1

xkaij = aij = (x∗)T Ay∗

und, analog,

(x∗)T By = eTi By =

n∑k=1

ykbik ≥n∑

k=1

ykbij = bij = (x∗)T By∗.

Also ist (x∗, y∗) = (ei, ej) auch ein Nash�Gleichgewicht in gemischten Strategien. 2

Hat man ein Nash�Gleichgewicht in reinen Strategien für ein gegebenes Bi�Matrixspielgefunden, so besagt das Lemma 3.12 im Prinzip, dass man sich gar nicht weiter auf dieSuche nach Nash�Gleichgewichten in gemischten Strategien machen muss, da ein solchesbereits vorliegt. Oft allerdings gibt es kein solches Nash�Gleichgewicht in reinen Strategien.In diesem Fall bildet das Nash�Gleichgewicht in gemischten Strategien eine alternativeLösung an. Wir werden jetzt kurz argumentieren, warum ein solches Gleichgewicht stetsexistiert.

Die obige De�nition eines Nash�Gleichgewichtes in gemischten Strategien entspricht ge-rade der üblichen De�nition eines Nash�Gleichgewichtes (für Spiele in Minimierungsform)für das 2�Personenspiel mit den Auszahlungsfunktionen θ1(x, y) := xT Ay und θ2(x, y) :=xT By (dies sind die Erwartungswerte der Auszahlungen an die Spieler 1 und 2) und denStrategiemengen X und Y für Spieler 1 und 2. Da die Mengen X und Y wieder nichtleer,konvex und kompakt sind sowie die Funktionen θ1 und θ2 linear in x und y sind, erhaltenwir aus dem Satz 2.45 wieder folgendes Existenzresultat, vergleiche den entsprechendenSatz 3.8 für Matrixspiele.Satz 3.13 Jedes Bi�Matrixspiel besitzt mindestens ein Nash�Gleichgewicht in gemischtenStrategien.

Page 60: EINFÜHRUNG IN DIE SPIELTHEORIE

54 KAPITEL 3. ZWEI�PERSONEN�SPIELE

Wir wollen in diesem Abschnitt zeigen, dass man ein Nash�Gleichgewicht in gemischtenStrategien �nden kann, indem man ein zugehöriges Optimierungsproblem löst. Dieser An-satz stammt von Mangasarian und Stone [27] und verwendet das quadratische Programm

min xT Ay + xT By − v − wu.d.N Ay ≥ v1m,

BT x ≥ w1n,xT 1m = 1,yT 1n = 1,x, y ≥ 0,

(3.7)

wobei v, w ∈ R skalare Gröÿen sind. Hier bezeichnen 1m bzw. 1n wieder die Vektoren1m = (1, . . . , 1)T ∈ Rm bzw. 1n = (1, . . . , 1)T ∈ Rn. Einige wichtige Eigenschaften desquadratischen Programms (3.7) sind in dem folgenden Resultat zusammengefasst.Satz 3.14 Sei q(x, y, v, w) := xT Ay + xT By − v − w die Zielfunktion des quadratischenProgramms (3.7). Dann gelten:

(a) Es ist q(x, y, v, w) ≥ 0 für alle Vektoren (x, y, v, w), die zulässig für das quadratischeProgramm (3.7) sind.

(b) Ist (x∗, y∗) ein Nash�Gleichgewicht in gemischten Strategien, so ist der zugehörigeVektor (x∗, y∗, v∗, w∗) mit v∗ := (x∗)T Ay∗, w∗ := (x∗)T By∗ ein globales Minimum desquadratischen Programms (3.7) mit q(x∗, y∗, v∗, w∗) = 0.

(c) Das quadratische Programm (3.7) besitzt stets eine Lösung (globales Minimum), undfür jede solche Lösung (x, y, v, w) ist q(x, y, v, w) = 0.

Beweis: (a) Sei (x, y, v, w) ein beliebiger zulässiger Punkt. Dann gelten wegen x ≥ 0, y ≥ 0sowie Ay ≥ v1m, BT x ≥ w1n o�enbar

xT Ay ≥ v xT 1m︸ ︷︷ ︸=1

= v und xT By = yT BT x ≥ w yT 1n︸︷︷︸=1

= w.

Also ist q(x, y, v, w) ≥ 0.

(b) Sei (x∗, y∗) ein Nash�Gleichgewicht in gemischten Strategien. Wir zeigen zunächst, dass(x∗, y∗, v∗, w∗) mit v∗ := (x∗)T Ay∗, w∗ := (x∗)T By∗ zulässig ist für das quadratische Pro-gramm (3.7). Zunächst gilt o�ensichtlich x∗ ≥ 0, y∗ ≥ 0 sowie (x∗)T 1m = 1, (y∗)T 1n = 1.Ferner ist v∗ = (x∗)T Ay∗ ≤ xT Ay∗ für alle x ≥ 0 mit xT 1m = 1. Speziell für den i-tenEinheitsvektor x = ei ergibt dies v∗ ≤ [Ay∗]i und somit Ay∗ ≥ v∗1m. Entsprechend be-weist man die Gültigkeit von BT x∗ ≥ w∗1n. Also ist (x∗, y∗, v∗, w∗) in der Tat zulässig für(3.7). Aus der De�nition von v∗, w∗ folgt auÿerdem q(x∗, y∗, v∗, w∗) = 0, so dass der Vektor(x∗, y∗, v∗, w∗) wegen Teil (a) ein globales Minimum des quadratischen Programms (3.7) ist.

Page 61: EINFÜHRUNG IN DIE SPIELTHEORIE

3.3. BI�MATRIXSPIELE UND QUADRATISCHE PROGRAMME 55

(c) Wegen Satz 3.13 besitzt ein Bi�Matrixspiel eine Lösung in gemischten Strategien. NachTeil (b) liefert jede Lösung aber schon eine Lösung des zugehörigen quadratischen Pro-gramms (3.7), wobei der zugehörige Funktionswert Null ist. Dies beweist die Behauptung(c). 2

Wir zeigen als Nächstes die vollständige Äquivalenz zwischen Nash�Gleichgewichten ingemischten Strategien auf der einen Seite sowie Lösungen des quadratischen Programms(3.7) auf der anderen Seite.Satz 3.15 Genau dann ist (x∗, y∗) ein Nash�Gleichgewicht in gemischten Strategien fürdas gegebene Bi�Matrixspiel mit den Auszahlungsmatrizen A, B ∈ Rm×n, wenn der Vektor(x∗, y∗, v∗, w∗) eine Lösung des quadratischen Programms (3.7) mit q(x∗, y∗, v∗, w∗) = 0 ist.

Beweis: Jeder Nash�Gleichgewichtspunkt liefert wegen Satz 3.14 (b) bereits ein globalesMinimum des quadratischen Programms (3.7), so dass wir nur noch die Rückrichtungbeweisen müssen. Sei dazu (x∗, y∗, v∗, w∗) eine Lösung von (3.7). Wegen Satz 3.14 ist derzugehörige Funktionswert dann Null, woraus wir

(x∗)T Ay∗ + (x∗)T By∗ = v∗ + w∗ (3.8)erhalten. Andererseits genügt (x∗, y∗, v∗, w∗) allen Nebenbedingungen des quadratischenProgramms (3.7), so dass wir

(x∗)T Ay∗ ≥ v∗(x∗)T 1m = v∗

und(x∗)T By∗ = (y∗)T BT x∗ ≥ w∗(y∗)T 1n = w∗

haben. Zusammen mit (3.8) liefert dies(x∗)T Ay∗ = v∗ und (x∗)T By∗ = w∗. (3.9)

Seien nun x, y ≥ 0 mit xT 1m = 1, yT 1n = 1 beliebig gegeben. Wiederum aus den Restrik-tionen in (3.7) folgt dann

xT Ay∗ ≥ v∗xT 1m = v∗

und(x∗)T By = yT BT x∗ ≥ w∗yT 1n = w∗.

Gemeinsam mit (3.9) bekommen wir nun die UngleichungenxT Ay∗ ≥ v∗ = (x∗)T Ay∗ und (x∗)T By ≥ w∗ = (x∗)T By∗.

Da x, y beliebig gewählte gemischte Strategien waren, folgt somit, dass (x∗, y∗) ein Nash�Gleichgewicht in gemischten Strategien ist. 2

Page 62: EINFÜHRUNG IN DIE SPIELTHEORIE

56 KAPITEL 3. ZWEI�PERSONEN�SPIELE

Damit ist gezeigt, dass man einen Nash�Gleichgewichtspunkt mittels der Lösung einesquadratischen Programms bestimmen kann. Dieses quadratische Programm lässt sich imPrinzip mit den üblichen Methoden der Optimierung lösen. Es sei allerdings erwähnt, dasswir hier nur an einem globalen Minimum interessiert sind und das Programm (3.7) imAllgemeinen durchaus lokale Minima haben kann.

Anders verhält es sich in dem Spezialfall eines Nullsummenspiels mit B = −A. Dannreduziert sich das quadratische Programm (3.7) auf ein lineares Programm. Tatsächlichlässt sich zeigen, dass (3.7) in zwei voneinander unabhängige lineare Programme zerfällt,die gerade denen aus dem Satz 3.9 entsprechen.

Zur Lösung von quadratischen Programmen der Gestaltmin 1

2zT Qz + cT z

u.d.N. Ainz ≤ bin,Aeqz = beq,l ≤ z ≤ u

steht in der MATLABr Optimization Toolbox das Programm quadprog zur Verfügung.Das Optimierungsproblem (3.7) lässt sich o�enbar in diese Gestalt bringen, indem manbeispielsweise z := (v, x, w, y) als Variablenvektor de�niert und dann mit den folgendenSetzungen arbeitet:

Q :=

0 01×m 0 01×n

0m×1 0m×m 0m A + B0 01×m 0 01×n

0n AT + BT 0n 0n×n

,

c :=(− 1, 0T

m,−1, 0Tn

)T,

Ain :=

(1m 0m×m 0m −A0n −BT 1n 0n×n

),

bin :=

(0m

0n

),

Aeq :=

(0 1T

m 0 0Tn

0 0Tm 0 1T

n

),

beq := (1, 1)T ,

l :=(−∞, 0T

m,−∞, 0Tn

)T,

u :=(

+∞, +∞, +∞, +∞)T

.

Die Lösung des zugehörigen quadratischen Programmes erhält man dann durch Aufruf vonquadprog. Wegen Satz 3.14 sollte man hierbei allerdings den optimalen Zielfunktionswertkontrollieren. Liegt dieser bei Null, so haben wir einen Nash�Gleichgewichtspunkt berech-net. Anderenfalls war quadprog lediglich in der Lage, ein lokales Minimum zu �nden, dasdann keinem Nash�Gleichgewichtspunkt entspricht. Dieser Fall kann durchaus auftreten,da unser quadratischen Programm aus (3.7) im Allgemeinen nicht konvex ist.

Page 63: EINFÜHRUNG IN DIE SPIELTHEORIE

3.3. BI�MATRIXSPIELE UND QUADRATISCHE PROGRAMME 57

Beispiel 3.16 Wir betrachten ein Bi�Matrixspiel, dessen Auszahlungsmatrizen in Maxi-mierungsform gegeben sind durch

A :=

(1 12 0

)und B :=

(1 01 4

).

Man bestätigt leicht, dass hier kein Nash�Gleichgewicht in reinen Strategien existiert. Wirsuchen daher ein Nash�Gleichgewicht in gemischten Strategien mit Hilfe des quadratischenProgrammes aus (3.7). In MATLABr könnte die zuvor angedeutete Implementation wiefolgt aussehen:

n=2;

m=2;

A=-[1 1; 2 0];

B=-[1 0; 1 4];

Q=[0 zeros(1,m) 0 zeros(1,n)

zeros(m,1) zeros(m,m) zeros(m,1) A+B

0 zeros(1,m) 0 zeros(1,n)

zeros(n,1) A'+B' zeros(n,1) zeros(n,n)];

c=[-1 zeros(1,m) -1 zeros(1,n)]';

Ain=[ones(m,1) zeros(m,m) zeros(m,1) -A

zeros(n,1) -B' ones(n,1) zeros(n,n)];

bin=[zeros(m,1)

zeros(n,1)];

Aeq=[0 ones(1,m) 0 zeros(1,n)

0 zeros(1,m) 0 ones(1,n)];

beq=[1 1]';

lb=[-inf, zeros(1,m), -inf, zeros(1,n)]';

[z,qval]=quadprog(Q,c,Ain,bin,Aeq,beq,lb,[])

Als Ausgabe erhält man dannOptimization terminated.

z =

-1.0000

0.7500

0.2500

-1.0000

0.5000

Page 64: EINFÜHRUNG IN DIE SPIELTHEORIE

58 KAPITEL 3. ZWEI�PERSONEN�SPIELE

0.5000

qval =

-4.4409e-16

Wir haben also x∗ =(

34, 1

4

)T sowie y∗ =(

12, 1

2

)T als vermeintlich optimales Nash�Gleichge-wicht in gemischten Strategien. Da als optimaler Funktionswert der quadratischen Ziel-funktion −4.4409e− 16 ≈ 0 herausgegeben wird, kann man die obige gemischte Strategiegetrost als Lösung akzeptieren.

3.4 Bi�Matrixspiele und lineare Komplementaritätspro-bleme

Wir betrachten weiterhin ein Bi�Matrixspiel mit gemischten Strategien. Die Mengen Xund Y seien dazu wie im vorigen Abschnitt de�niert. Ferner bezeichnen wir die zugehörigenAuszahlungsmatrizen wieder mit A und B, wobei beide Matrizen im Rm×n liegen.

Wir geben in diesem Abschnitt eine weitere Charakterisierung des Nash�Gleichgewichtsin gemischten Strategien an, und zwar unter Verwendung eines linearen Komplementari-tätsproblems, vergleiche die De�nition 2.24. Wir erinnern hier nur kurz daran, dass einlineares Komplementaritätsproblem LCP(q, M) de�niert ist durch eine Matrix M ∈ Rn×n

und einen Vektor q ∈ Rn. Gesucht ist dann eine Lösung des Systemsz ≥ 0, Mz + q ≥ 0, zT (Mz + q) = 0.

Derartige Komplementaritätsprobleme spielen bei vielen ökonomischen Gleichgewichtsmo-dellen eine groÿe Rolle. Das Standardverfahren zur Lösung solcher Probleme ist der Lemke�Algorithmus , der in [26, 25] (für Bi�Matrixspiele) eingeführt wurde und beispielsweise in[29, 5] ausführlich besprochen wird. Wir gehen an dieser Stelle nicht weiter auf diesesVerfahren ein, stellen im Internet aber eine MATLABr�Implementation zur Verfügung,so dass jeder selbst mit diesem Verfahren herumexperimentieren kann (insbesondere imZusammenhang mit der numerischen Lösung von Bi�Matrixspielen).

Zunächst beweisen wir das folgende Resultat, wonach wir ohne Einschränkung davonausgehen können, dass die Elemente der Matrizen A und B alle positiv sind.

Lemma 3.17 Seien γ ∈ R beliebig gegeben und E ∈ Rm×n diejenige Matrix, deren Ein-träge allesamt gleich Eins sind. Dann ist (x∗, y∗) genau dann ein Nash�Gleichgewicht ingemischten Strategien zum Bi�Matrixspiel (A, B), wenn (x∗, y∗) ein Nash�Gleichgewicht ingemischten Strategien zum Bi�Matrixspiel (A + γE,B + γE) ist.

Page 65: EINFÜHRUNG IN DIE SPIELTHEORIE

3.4. BI�MATRIXSPIELE UND LINEARE KOMPLEMENTARITÄTSPROBLEME 59

Beweis: Sei (x∗, y∗) zunächst ein Nash�Gleichgewicht zum Spiel mit den Auszahlungs-matrizen (A, B). Dann ist

x∗ ≥ 0, y∗ ≥ 0,m∑

i=1

x∗i = 1,n∑

j=1

y∗j = 1

sowie(x∗)T Ay∗ ≤ xT Ay∗ für alle x ∈ X,

(x∗)T By∗ ≤ (x∗)T By für alle y ∈ Y .

Für alle gemischten Strategien x ∈ X folgt dann(x∗)T (A + γE)y∗ = (x∗)T Ay∗ + γ(x∗)T Ey∗︸︷︷︸

1m

= (x∗)T Ay∗ + γ (x∗)T 1m︸ ︷︷ ︸=1

= (x∗)T Ay∗ + γ

≤ xT Ay∗ + γ

= xT Ay∗ + γ xT 1m︸ ︷︷ ︸=1

= xT Ay∗ + γxT Ey∗︸︷︷︸=1m

= xT (A + γE)y∗.

Analog folgt für alle gemischten Strategien y auch(x∗)T (A + γE)y∗ ≤ (x∗)T (A + γE)y.

Also ist (x∗, y∗) ein Nash�Gleichgewicht in gemischten Strategien zum Bi�Matrixspiel mitden Auszahlungsmatrizen (A + γE,B + γE). Der Beweis der Umkehrung erfolgt analogbzw. durch Addition von −γE zu den beiden Matrizen A + γE und B + γE. 2

Durch Wahl eines hinreichend groÿen γ kann man stets erreichen, dass die beiden MatrizenA+ γE und B + γE lauter positive Einträge haben. Wegen Lemma 3.17 können wir daherohne Einschränkung annehmen, dass A und B selbst bereits ausschlieÿlich positive Einträgebesitzen.

Als weiteres Hilfsresultat benötigen wir noch die nachstehende Charakterisierung vonNash�Gleichgewichtspunkten.Lemma 3.18 Seien x∗ ≥ 0, y∗ ≥ 0 mit (x∗)T 1m = 1 und (y∗)T 1n = 1 gegeben. Dann ist(x∗, y∗) genau dann ein Nash�Gleichgewicht in gemischten Strategien, wenn

(x∗)T Ay∗1m ≤ Ay∗ und (x∗)T By∗1n ≤ BT x∗ (3.10)gelten.

Page 66: EINFÜHRUNG IN DIE SPIELTHEORIE

60 KAPITEL 3. ZWEI�PERSONEN�SPIELE

Beweis: Sei (x∗, y∗) zunächst ein Nash�Gleichgewicht in gemischten Strategien. Speziellfür x = ei bzw. y = ej folgt dann

(x∗)T Ay∗ ≤ eTi Ay∗ = [Ay∗]i ∀i = 1, . . . ,m

bzw.(x∗)T By∗ ≤ (x∗)T Bej = [(x∗)T B]j = [BT x∗]j ∀j = 1, . . . , n

und somit die Gültigkeit von (3.10).Sei umgekehrt (x∗, y∗) ein Paar von gemischten Strategie�Vektoren mit der Eigenschaft

(3.10). Für alle gemischten Strategien x bzw. y gilt dannxT Ay∗ ≥ (x∗)T Ay∗ xT 1m︸ ︷︷ ︸

=1

= (x∗)T Ay∗

bzw.yT BT x∗ = (x∗)T By ≥ (x∗)T By∗ yT 1n︸︷︷︸

=1

= (x∗)T By∗,

so dass (x∗, y∗) ein Nash�Gleichgewichtspunkt ist. 2

Nach diesen Vorbereitungen kommen wir nun zum Hauptresultat dieses Abschnitts, derUmformulierung, des Bi�Matrixspieles als ein lineares Komplementaritätsproblem.Satz 3.19 Betrachte ein Bi�Matrixspiel mit den Auszahlungsmatrizen A, B ∈ Rm×n, derenEinträge ohne Einschränkung allesamt positiv seien. De�niere auÿerdem

M :=

(0m×m ABT 0n×n

)und q :=

(−1m

−1n

).

Dann gelten:

(a) Ist (x∗, y∗) ein Nash�Gleichgewicht in gemischten Strategien, so ist

(x, y) :=

(x∗

(x∗)T By∗,

y∗

(x∗)T Ay∗

)eine Lösung von LCP(q, M).

(b) Ist (x, y) eine Lösung von LCP(q, M), so ist

(x∗, y∗) :=

(x

xT 1m

,y

yT 1n

)ein Nash�Gleichgewicht in gemischten Strategien.

Page 67: EINFÜHRUNG IN DIE SPIELTHEORIE

3.4. BI�MATRIXSPIELE UND LINEARE KOMPLEMENTARITÄTSPROBLEME 61

Beweis: (a) Sei (x∗, y∗) ein Nash�Gleichgewicht in gemischten Strategien. Dann ist α∗ :=(x∗)T Ay∗ > 0 (wegen A > 0) und β∗ := (x∗)T By∗ > 0 (wegen B > 0). Folglich ist

(x, y) :=

(x∗

β∗,y∗

α∗

)wohlde�niert mit x ≥ 0, y ≥ 0. Da (x∗, y∗) ein Nash�Gleichgewicht ist, gilt auÿerdem

(x∗)T Ay∗1m ≤ Ay∗ und (x∗)T By∗1n ≤ BT x∗

wegen Lemma 3.18. Dies lässt sich schreiben alsα∗1m ≤ Ay∗ und β∗1n ≤ BT x∗.

Gemäÿ De�nition von x und y ist dies äquivalent zu1m ≤ Ay und 1n ≤ BT x. (3.11)

Ferner geltenxT (Ay − 1m) = xT Ay − xT 1m

= 1α∗β∗

(x∗)T Ay∗︸ ︷︷ ︸=α∗

− 1β∗

(x∗)T 1m︸ ︷︷ ︸=1

= 1β∗− 1

β∗

= 0

(3.12)

undyT (BT x− 1n) = xT By − yT 1n

= 1α∗β∗

(x∗)T By∗︸ ︷︷ ︸=β∗

− 1α∗ (y

∗)T 1n

= 1α∗ − 1

α∗

= 0.

(3.13)

Aus x, y ≥ 0 sowie (3.11), (3.12) und (3.13) sowie der De�nition von M und q folgt daher,dass z := (x, y) eine Lösung des linearen Komplementaritätsproblems LCP(q, M) ist.

(b) Sei z = (x, y) eine Lösung von LCP(q, M), alsox ≥ 0, Ay − 1m ≥ 0, xT (Ay − 1m) = 0, (3.14)y ≥ 0, BT x− 1n ≥ 0, yT (BT x− 1n) = 0. (3.15)

Dann sind x 6= 0, y 6= 0, also xT 1m > 0, yT 1n > 0 und deshalb(x∗, y∗) :=

(x

xT 1m

,y

yT 1n

)zumindest wohlde�niert. Auÿerdem folgt aus der De�nition sofort

x∗ ≥ 0, y∗ ≥ 0, (x∗)T 1m = 1 und (y∗)T 1n = 1. (3.16)

Page 68: EINFÜHRUNG IN DIE SPIELTHEORIE

62 KAPITEL 3. ZWEI�PERSONEN�SPIELE

Aus (3.14) bzw. (3.15) ergibt sich ferner1m ≤ Ay und xT 1m = xT Ay

bzw.1n ≤ BT x und yT 1n = xT By.

Die De�nition von (x∗, y∗) impliziert daher

(x∗)T Ay∗1m =1

xT 1m

1

yT 1n

xT Ay1m =1

yT 1n

1m ≤1

yT 1n

Ay = Ay∗

bzw.(x∗)T By∗1n =

1

xT 1m

1

yT 1n

xT By1n =1

xT 1m

1n ≤1

xT 1m

BT x = BT x∗.

Wegen (3.16) und Lemma 3.18 ist (x∗, y∗) somit ein Nash�Gleichgewicht in gemischtenStrategien. 2

Page 69: EINFÜHRUNG IN DIE SPIELTHEORIE

Kapitel 4

VerallgemeinerteNash�Gleichgewichtsprobleme

4.1 Problemstellung und Beispiele4.2 Normalisierte Nash�Gleichgewichte4.3 Charakterisierung normalisierter Nash�Gleichgewichte4.4 Existenz normalisierter Nash�Gleichgewichte

4.1 Problemstellung und BeispieleFür ein N�Personenspiel mit Auszahlungsfunktionen θν und Strategiemengen Xν ⊆ Rnν

hieÿ ein Vektor x∗ = (x∗,1, . . . , x∗,N) ∈ X1 × . . . ×XN ein Nash�Gleichgewicht, wenn x∗,ν

für jedes ν = 1, . . . , N der Bedingungθν(x

∗,ν , x∗,−ν) ≤ θν(xν , x∗,−ν) ∀xν ∈ Xν

genügte. Jeder Spieler ν hatte dabei seine eigene Strategiemenge Xν , die nicht von denEntscheidungsvariablen der anderen Spieler abhing.

Das verallgemeinerte Nash�Gleichgewichtsproblem (engl.: Generalized Nash Equilibri-um Problem, kurz: GNEP) sieht etwas anders aus: Zunächst sind auch hier N Spielerν = 1, . . . , N beteiligt, θν seien wieder die Auszahlungsfunktionen. Statt einzelner Stra-tegiemengen Xν für jeden Spieler ν ist nun allerdings eine gemeinsame Menge X ⊆ Rn

vorgegeben, d.h. die zulässigen Strategien eines jeden Spielers hängen auÿerdem von dengewählten Strategien aller Gegenspieler ab. Die Spieler haben also gemeinsame Restriktio-nen. In den Anwendungen mögen dies gemeinsame Leitungen in einem Stromnetz oder imInternet sein, die über ihre maximale Kapazität hinaus nicht beansprucht werden können,oder es sind politisch�ökologische Vorgaben an alle Unternehmen (= Spieler) einer Region,die zusammen eine gemeinsame Obergrenze für einen Schadsto�ausstoÿ nicht überschreitendürfen.

63

Page 70: EINFÜHRUNG IN DIE SPIELTHEORIE

64 KAPITEL 4. VERALLGEMEINERTE NASH�GLEICHGEWICHTSPROBLEME

De�nition 4.1 Ein Vektor x∗ = (x∗,1, . . . , x∗,N) ∈ X heiÿt ein Nash�Gleichgewicht fürdas GNEP, wenn x∗,ν für jedes ν = 1, . . . , N der Bedingung

θν(x∗,ν , x∗,−ν) ≤ θν(x

ν , x∗,−ν) ∀xν mit (xν , x∗,−ν) ∈ X

genügt.

De�nieren wirXν(x

∗,−ν) :={xν ∈ Rnν

∣∣ (xν , x∗,−ν) ∈ X}

als die (von x∗,−ν abhängige) Strategiemenge des Spielers ν in einem GNEP, so ist x∗ =(x∗,1, . . . , x∗,N) ∈ X genau dann ein Nash�Gleichgewicht des GNEP, wenn x∗,ν für jedesν = 1, . . . , N die Bedingung

θν(x∗,ν , x∗,−ν) ≤ θν(x

ν , x∗,−ν) ∀xν ∈ Xν(x∗,−ν)

erfüllt. Die Problematik der von den Entscheidungsvariablen der anderen Spieler abhängi-gen Strategiemengen wird kurz an dem folgenden Beispiel illustriert.Beispiel 4.2 Wir betrachten ein GNEP mit den beiden Spielern 1 und 2, wobei x1 bzw.x2 die jeweils einzige Entscheidungsvariable von Spieler 1 bzw. 2 sei. Die Optimierungspro-bleme der beiden Spieler seien gegeben durch

minx1 θ1(x1, x2) minx2 θ2(x1, x2)u.d.N. x2

1 + x22 ≤ 1 u.d.N. x2

1 + x22 ≤ 1

mit Auszahlungsfunktionen θ1, θ2, die hier nicht weiter spezi�ziert werden, da es nur aufdie zulässige Menge ankommt. In der obigen Notation ist der Einheitskreis

X :={(x1, x2)

T ∈ R2∣∣ x2

1 + x22 ≤ 1

}die gemeinsame Strategiemenge beider Spieler. Bezeichnet x := (x1, x2)

T ∈ X einen belie-bigen Punkt aus diesem Einheitskreis, so sind

X1(x2) ={x1

∣∣ x21 ≤ 1− x2

2

} und X2(x1) ={x2

∣∣ x22 ≤ 1− x2

1

}die von x2 bzw. x1 abhängigen Strategiemengen von Spieler 1 bzw. 2. Die Problematikwird in der Abbildung 4.1 für zwei verschiedene Werte x2 und x2 illustriert. 3

In vielen Fällen wird ein GNEP vorliegen, wo jeder Spieler zum einen Restriktionen be-sitzt, die nur von seinen eigenen Entscheidungsvariablen abhängen, und zum anderen Ne-benbedingungen hat, die auch von den Variablen der Gegenspieler abhängen. In diesemZusammenhang ist die folgende Bemerkung manchmal hilfreich.Bemerkung 4.3 Betrachte ein GNEP mit N Spielern, bei dem der Spieler ν ∈ {1, . . . , N}ein Optimierungsproblem der Gestalt

minxν θν(xν , x−ν)

u.d.N. hν(xν) ≤ 0,g(xν , x−ν) ≤ 0

Page 71: EINFÜHRUNG IN DIE SPIELTHEORIE

4.1. PROBLEMSTELLUNG UND BEISPIELE 65

x2

x2

X1(x2)X1(x2)

Abbildung 4.1: Die Mengen X1(x2) in Abhängigkeit von x2

zu lösen hat. Hierbei bezeichnet hν : Rnν → Rpν eine Funktion, in der alle nur von xν

abhängigen Restriktionen zusammengefasst sind, während g : Rn → Rm diejenigen Ne-benbedingungen repräsentiert, die allen Spielern gemein sind und gegebenenfalls von denEntscheidungsvariablen aller Spieler abhängen (entsprechend können auch Gleichheitsre-striktionen zugelassen werden). Dann ist x∗ = (x∗,1, . . . , x∗,N) o�enbar genau dann eineLösung dieses GNEP, wenn derselbe Vektor dasjenige GNEP löst, bei dem

minxν θν(xν , x−ν)

u.d.N. h(x) ≤ 0,g(xν , x−ν) ≤ 0

mith(x) :=

h1(x1)...hN(xN)

das Problem des ν-ten Spielers darstellt. Ohne Einschränkung der Allgemeinheit kann manalso diejenigen Restriktionen als Nebenbedingungen in das Optimierungsproblem des ν-tenSpielers mit aufnehmen, die nur von den Variablen aller Gegenspieler abhängen. Auf dieseWeise erhält man als gemeinsame zulässige Menge dann X := {x ∈ RN | g(x) ≤ 0, h(x) =0}.Das Oligopol�Modell aus dem Beispiel 1.5, bei dem es sich zunächst um ein reines Nash�Gleichgewichtsmodell handelte, wird in etlichen Fällen tatsächlich ein GNEP sein. Dieswird durch das folgende Beispiel angedeutet.

Page 72: EINFÜHRUNG IN DIE SPIELTHEORIE

66 KAPITEL 4. VERALLGEMEINERTE NASH�GLEICHGEWICHTSPROBLEME

Beispiel 4.4 Wir betrachten zunächst das Oligopol�Modell aus dem Beispiel 1.5, bei demdas Unternehmen ν ∈ {1, . . . , N} das Optimierungsproblem

maxxν

θν(x) u.d.N. xν ≥ 0

zu lösen hatte, wobei die Auszahlungsfunktion θν de�niert war durchθν(x) := xνp

(xν +

∑µ 6=ν

)− cν(xν)

mit der inversen Nachfragefunktion p und der Kostenfunktion cν . Aufgrund von gemeinsamverwendeten Ressourcen (dies können Rohsto�e sein oder auch Zulieferbetriebe) kann diegesamte Produktionsmenge x1 + . . . + xN aller Unternehmen eine gewisse obere SchrankeK > 0 nicht überschreiten. Als Modi�kation des Oligopol�Modells ergibt sich für dasUnternehmen ν damit die Aufgabe, das Optimierungsproblem

maxxν

θν(x) u.d.N. xν ≥ 0,N∑

µ=1

xµ ≤ K

zu lösen. Im Hinblick auf die Bemerkung 4.3 handelt es sich hierbei um ein GNEP mit dergemeinsamen Strategiemenge X :=

{x ∈ RN

∣∣ xν ≥ 0 für alle ν = 1, . . . , N,∑N

µ=1 xµ ≤K

}. 3

Das nächste Beispiel stammt aus der Umweltpolitik und wurde der Arbeit [24] entnommen.Beispiel 4.5 Drei Unternehmen ν = 1, 2, 3 mögen ein gewisses Produkt herstellen. Sei xν

dabei die Produktionsmenge vom Unternehmen ν. Alle Unternehmen mögen an demsel-ben Fluss liegen. In begrenztem Umfang dürfen sie ihre bei der Produktion entstehendenSchadsto�e in den Fluss leiten. Allerdings darf der Fluss insgesamt nicht zu stark bela-stet werden. Zur Überprüfung der Schadsto�belastung sind entlang des Flusses dazu zweiKontrollstellen ` = 1, 2 eingerichtet worden.

Seiθν(x) := xν

[d1 − d2(x1 + x2 + x3)

]−

(c1νxν + c2νx

), ν = 1, 2, 3,

die (zu maximierende) Auszahlungsfunktion des Unternehmens ν mit gewissen Konstantend1, d2, c1ν , c2ν . Die Produktionsmengen xν seien alle nichtnegativ. An den beiden Kontroll-stellen soll auÿerdem

3∑ν=1

uν`eνxν ≤ K`, ` = 1, 2,

gelten. Dabei sind K` die maximalen Schadsto�belastungen, eν die Emissionskoe�zientendes Unternehmens ν und uν` gewisse Konstanten, die den Abbau des Schadsto�es in Abhän-gigkeit der Entfernung des Unternehmens ν zur nächsten Kontrollstelle ` berücksichtigen.Wegen Bemerkung 4.3 liegt somit ein GNEP mit der gemeinsamen Strategiemenge

X :={x ∈ R3

∣∣ x1 ≥ 0, x2 ≥ 0, x3 ≥ 0,3∑

ν=1

uν`eνxν ≤ K` für ` = 1, 2}

Page 73: EINFÜHRUNG IN DIE SPIELTHEORIE

4.2. NORMALISIERTE NASH�GLEICHGEWICHTE 67

vor. 3

Da wir das Beispiel 4.5 später für numerische Zwecke verwenden wollen, sollen hier kurzdie in [24] vorgeschlagenen Konstanten

d1 = 3, d2 = 0.01, K1 = 100, K2 = 100

undUnternehmen ν c1ν c2ν eν uν1 uν2

1 0.10 0.01 0.50 6.5 4.5832 0.12 0.05 0.25 5.0 6.2503 0.15 0.01 0.75 5.5 3.750

angegeben werden.

4.2 Normalisierte Nash�GleichgewichteIm Zusammenhang mit GNEPs spielt insbesondere die nachfolgende Klasse von Nash�Gleichgewichten ein Rolle, die (in etwas anderer Formulierung) schon von Rosen [37] ein-geführt wurden, vergleiche hierzu auch die Bemerkung 4.9.De�nition 4.6 Ein Vektor x∗ = (x∗,1, . . . , x∗,N) ∈ X heiÿt normalisiertes Nash�Gleichge-wicht (engl.: normalized Nash equilibrium) des GNEP, wenn

supy∈X

Ψ(x∗, y) = 0

gilt, wobei

Ψ(x, y) :=N∑

ν=1

[θν(x

ν , x−ν)− θν(yν , x−ν)

]die so genannte Nikaido�Isoda�Funktion (oder auch Ky�Fan�Funktion) bezeichnet.Wir zeigen in dem folgenden Resultat, dass ein normalisiertes Nash�Gleichgewicht stetsauch ein Nash�Gleichgewicht ist, und dass beide Begri�e übereinstimmen, wenn sich dasGNEP auf ein gewöhnliches Nash�Gleichgewichtsproblem reduziert, also X die Struktureines kartesischen Produktes X = X1 × . . .×XN aufweist.Lemma 4.7 Betrachte GNEP. Dann gelten:

(a) Ist x∗ ein normalisiertes Nash�Gleichgewicht, so ist x∗ auch ein Nash�Gleichgewicht.

(b) Ist X = X1×. . .×XN (also GNEP ein NEP), so ist x∗ genau dann ein normalisiertesNash�Gleichgewicht, wenn x∗ ein Nash�Gleichgewicht ist.

Page 74: EINFÜHRUNG IN DIE SPIELTHEORIE

68 KAPITEL 4. VERALLGEMEINERTE NASH�GLEICHGEWICHTSPROBLEME

Beweis: (a) Sei x∗ ein normalisiertes Nash�Gleichgewicht. Dann ist x∗ ∈ X undΨ(x∗, y) ≤ 0 ∀y ∈ X,

per De�nition der Nikaido�Isoda�Funktion alsoN∑

ν=1

[θν(x

∗,ν , x∗,−ν)− θν(yν , x∗,−ν)

]≤ 0 ∀y ∈ X.

Speziell für einen Vektor der Gestalty :=

(x∗,1, . . . , x∗,ν−1, yν , x∗,ν+1, . . . , x∗,N

)=

(yν , x∗,−ν

)∈ X

folgt somitθν(x

∗,ν , x∗,−ν) ≤ θν(yν , x∗,−ν) ∀yν : (yν , x∗,−ν) ∈ X.

Da dies für alle ν = 1, . . . , N gilt, handelt es sich bei x∗ somit um einen Nash�Gleichge-wichtspunkt von GNEP.

(b) Seien X = X1× . . .×XN und x∗ ∈ X ein Nash�Gleichgewicht von GNEP=NEP. Dannist für alle ν = 1, . . . , N

θν(x∗,ν , x∗,−ν) ≤ θν(y

ν , x∗,−ν) ∀yν ∈ Xν .

Hieraus ergibt sich unmittelbar

Ψ(x∗, y) =N∑

ν=1

[θν(x

∗,ν , x∗,−ν)−θν(yν , x∗,−ν)

]≤ 0 ∀y = (y1, . . . , yN) ∈ X1×. . .×XN = X.

Speziell für y = x∗ ∈ X gilt o�enbar Ψ(x∗, x∗) = 0, so dass wir insgesamt supy∈X Ψ(x∗, y) =0 erhalten. Folglich ist x∗ ein normalisierter Nash�Gleichgewichtspunkt. 2

Wir zeigen durch das folgende Beispiel aus [8], dass die Umkehrung der Aussage (a) imLemma 4.7 im Falle von GNEPs im Allgemeinen nicht gilt, sondern hier die Menge derNash�Gleichgewichtspunkte tatsächlich echt gröÿer sein kann als die Menge der normali-sierten Nash�Gleichgewichte.Beispiel 4.8 Wir betrachten ein GNEP mit zwei Spielern. Spieler 1 hat als Entscheidungs-variable x1, Spieler 2 die Entscheidungsvariable x2. Man beachte hier, dass wir untere (stattobere) Indizes in diesem Beispiel verwenden, damit keine Verwechslungen mit auftretendenQuadraten vorkommen können. Die Optimierungsprobleme der beiden Spieler lauten wiefolgt:

minx1 (x1 − 1)2 minx2 (x2 − 12)2

u.d.N. x1 + x2 ≤ 1 u.d.N. x1 + x2 ≤ 1.

Page 75: EINFÜHRUNG IN DIE SPIELTHEORIE

4.2. NORMALISIERTE NASH�GLEICHGEWICHTE 69

Zu gegebenem x = (x1, x2) lauten die zugehörigen Lösungsmengen o�enbar

S1(x2) =

{1, falls x2 ≤ 0,1− x2, falls x2 ≥ 0

S2(x1) =

{12, falls x1 ≤ 1

2,

1− x1, falls x1 ≥ 12.

Nun ist x∗ = (x∗1, x∗2) genau dann ein Nash�Gleichgewicht, wenn x∗1 ∈ S1(x

∗2) und x∗2 ∈

S2(x∗1) gelten. Im Hinblick auf die obigen Darstellungen der beiden Lösungsmengen ist dies

äquivalent zu

x∗1 =

{1, falls x∗2 ≤ 0,1− x∗2, falls x∗2 ≥ 0,

x∗2 =

{12, falls x∗1 ≤ 1

2,

1− x∗1, falls x∗1 ≥ 12.

Hieraus ergibt sich mittels einer einfachen geometrischen Überlegung, vergleiche die Ab-bildung 4.2, dass x∗ genau dann ein Nash�Gleichgewicht des gegebenen GNEPs ist, wennx∗ in der Menge S :=

{(α, 1 − α)

∣∣ α ∈ [12, 1]

} liegt. Insbesondere gibt es also ein ganzesKontinuum von Lösungen.

Auf der anderen Seite ist x∗ ∈ X genau dann ein normalisierter Nash�Gleichgewichts-punkt, wenn

Ψ(x∗, y) ≤ 0 ∀y ∈ X

gilt. Gemäÿ De�nition der Nikaido�Isoda�Funktion Ψ ist dies äquivalent zuN∑

ν=1

[θν(x

∗,ν , x∗,−ν)− θν(yν , x∗,−ν)

]≤ 0 ∀y ∈ X.

Speziell für das gegebene GNEP lässt sich dies schreiben alsθ1(x

∗1, x

∗2)− θ1(y1, x

∗2) + θ2(x

∗1, x

∗2)− θ2(x

∗1, y2) ≤ 0 ∀y : y1 + y2 ≤ 1.

Dies ist wiederum äquivalent zu(x∗1 − 1)2 + (x∗2 −

1

2)2 ≤ (y1 − 1)2 + (y2 −

1

2)2 ∀y : y1 + y2 ≤ 1.

Aus dieser Darstellung sowie einer einfachen geometrischen Überlegung, vergleiche dazudie Abbildung 4.3, folgt relativ schnell, dass unser gegebenenes GNEP genau einen norma-lisierten Nash�Gleichgewichtspunkt besitzt, nämlich x∗ := (3

4, 1

4). 3

Wir beschlieÿen diesen Abschnitt mit einer nicht ganz unwichtigen Bemerkung.Bemerkung 4.9 Betrachte ein GNEP mit Auszahlungsfunktionen θν für ν = 1, . . . , Nsowie einer gemeinsamen Strategiemenge X ⊆ Rn. Der Satz 1.12 gilt dann auch in dieserSitatuation, d.h. die Menge der Nash�Gleichgewichte unseres GNEPs ändert sich nicht,wenn wir die Abbildungen θν ersetzen durch θν(x) := rνθν(x) + ην(x

−ν) mit gewissenKonstanten rν > 0 sowie gewissen Funktionen ην . Der Beweis des Satzes 1.12 überträgtsich nämlich fast wörtlich.

Page 76: EINFÜHRUNG IN DIE SPIELTHEORIE

70 KAPITEL 4. VERALLGEMEINERTE NASH�GLEICHGEWICHTSPROBLEME

1

1

12

12

x1

x2

x∗2 = S2(x∗1)

x∗1 = S1(x∗2)

S

Abbildung 4.2: Die Menge aller Nash�Gleichgewichte im Beispiel 4.8

Ganz anders sieht dies bei den normalisierten Nash�Gleichgewichten aus. Betrachtenwir hierzu noch einmal das Beispiel 4.8 mit den beiden Auszahlungsfunktionen θ1(x) :=(x1 − 1)2 und θ2(x) := (x2 − 1

2)2 und dem eindeutig bestimmten normalisierten Nash�

Gleichgewichtspunkt x∗ := (34, 1

4)T . Multiplizieren wir θ1 mit r1 := 1 (lassen θ1 also un-

verändert) und θ2 mit r2 := 2, so kann man nachrechnen, dass dieses leicht modi�zierteGNEP den eindeutig bestimmten normalisierten Nash�Gleichgewichtspunkt x∗ := (2

3, 1

3)T

besitzt, der sich somit von x∗ unterscheidet.Diese Beobachtung führt letztlich auf die Originalde�nition von Rosen [37], wonach

x∗ ∈ X ein normalisierter (Nash�) Gleichgewichtspunkt des GNEPs mit Auszahlungsfunk-tionen θν ist, wenn es Faktoren rν > 0 gibt derart, dass x∗ im Sinne der De�nition 4.6ein normalisierter Nash�Gleichgewichtspunkt des GNEPs mit den Auszahlungsfunktionenθν := rνθν ist.

4.3 Charakterisierung normalisierter Nash�GleichgewichteIn diesem Abschnitt wollen wir eine Charakterisierung der gerade eingeführten Klasse vonnormalisierten Nash�Gleichgewichten angeben. Insbesondere wird sich herausstellen, dassdiese wiederum äquivalent zu einer geeignet de�nierten Variationsungleichung sind.

Zu diesem Zweck sei wieder

Ψ(x, y) :=N∑

ν=1

[θν(x

ν , x−ν)− θν(yν , x−ν)

]die Nikaido�Isoda�Funktion. Wegen Ψ(x∗, x∗) = 0 für jeden Vektor x∗ ∈ X erhalten wir

Page 77: EINFÜHRUNG IN DIE SPIELTHEORIE

4.3. CHARAKTERISIERUNG NORMALISIERTER NASH�GLEICHGEWICHTE 71

y1

y2

112

34

1

12

14

x∗ =(

34, 1

4

)T

y1 + y2 ≤ 1

Abbildung 4.3: Der normalisierte Nash�Gleichgewichtspunkt im Beispiel 4.8

dann die folgenden Äquivalenzen:x∗ ist ein normalisiertes Nash�Gleichgewicht von GNEP⇐⇒ sup

y∈XΨ(x∗, y) = 0

⇐⇒ Ψ(x∗, y) ≤ 0 für alle y ∈ X

⇐⇒ x∗ löst das Problemmax Ψ(x∗, y) u.d.N. y ∈ X

⇐⇒ x∗ löst das Problemmax

N∑ν=1

[θν(x

∗,ν , x∗,−ν)︸ ︷︷ ︸konstant bzgl. y

−θν(yν , x∗,−ν)

] u.d.N. y ∈ X

⇐⇒ x∗ löst das Problemmax

N∑ν=1

[−θν(y

ν , x∗,−ν)] u.d.N. y ∈ X

⇐⇒ x∗ löst das Problemmin

N∑ν=1

θν(yν , x∗,−ν) u.d.N. y ∈ X.

Damit ist ein Teil des folgenden Resultates bewiesen, das mehrere Charakterisierungen fürdas Vorliegen von normalisierten Nash�Gleichgewichten angibt.Satz 4.10 Seien die Strategiemenge X ⊆ Rn nichtleer, abgeschlossen und konvex sowiedie Auszahlungsfunktionen θν(x) = θν(x

ν , x−ν) konvex in xν. Dann sind die folgendenAussagen äquivalent:

Page 78: EINFÜHRUNG IN DIE SPIELTHEORIE

72 KAPITEL 4. VERALLGEMEINERTE NASH�GLEICHGEWICHTSPROBLEME

(a) x∗ ist ein normalisiertes Nash�Gleichgewicht von GNEP.

(b) Es ist supy∈X Ψ(x∗, y) = 0.

(c) x∗ löst das Problem

minN∑

ν=1

θν(yν , x∗,−ν) u.d.N. y ∈ X. (4.1)

Sind die Auszahlungsfunktionen θν auÿerdem stetig di�erenzierbar und de�nieren wir

F (x) :=

∇x1θ1(x1, x−1)...

∇xN θN(xN , x−N)

,

so sind (a), (b) und (c) auÿerdem zu jeder der folgenden Aussagen äquivalent:

(d) x∗ löst die Variationsungleichung VIP(X, F ).

(e) x∗ ist ein Fixpunkt der Abbildung G(x) := PX

(x∗ − γF (x∗)

)(mit einem beliebigen

γ > 0).

Beweis: Die Äquivalenz von (a) und (b) ergibt sich gerade aus der De�nition eines nor-malisierten Nash�Gleichgewichts. Die Übereinstimmung von (b) und (c) dagegen folgt ausdem Vorspann zu diesem Resultat.

Sei nun θν stetig di�erenzierbar. Dann ist auch

f(y) :=N∑

ν=1

θν(yν , x∗,−ν)

stetig di�erenzierbar. Ferner bestätigt man leicht, dass f auÿerdem eine konvexe Funktionist. Wegen des Minimumprinzips aus dem Lemma 2.26 gilt daher:

x∗ löst das Optimierungsproblem (4.1)⇐⇒ x∗ löst das Optimierungsproblem

min f(y) u.d.N. y ∈ X

⇐⇒ x∗ löst die Variationsungleichung VIP(∇f, X).Wegen ∇f(y) = F (y) folgt daher die Äquivalenz von (c) und (d). Teil (e) wiederum istwegen Satz 2.31 nur eine Umformulierung von (d). 2

Wir betrachten als Nächstes eine konkrete Darstellung der bislang abstrakten Menge Xdurch

X :={x ∈ Rn

∣∣ g(x) ≤ 0} (4.2)

Page 79: EINFÜHRUNG IN DIE SPIELTHEORIE

4.3. CHARAKTERISIERUNG NORMALISIERTER NASH�GLEICHGEWICHTE 73

mit einer stetig di�erenzierbaren Funktion g : Rn → Rm derart, dass alle Komponenten gi :Rn → R konvex sind. Prinzipiell könnten auch (lineare) Gleichheitsrestriktionen zugelassenwerden, um aber den schreibtechnischen Aufwand in Grenzen zu halten, verzichten wir andieser Stelle auf die explizite Betrachtung von Gleichheitsbedingungen.

Sei nun x∗ ∈ X eine Lösung von GNEP. Per De�nition ist x∗,ν für jedes ν = 1, . . . , Ndann ein Minimum des Problems

min θν(xν , x∗,−ν) u.d.N. xν ∈ Xν(x

∗,−ν) ={xν

∣∣ g(xν , x∗,−ν) ≤ 0}.

Sofern eine geeignete Regularitätsbedingung erfüllt ist, genügt der Vektor x∗,ν für jedesν = 1, . . . , N somit den zugehörigen KKT�Bedingungen

∇xνθν(x∗,ν , x∗,−ν) +∇xνg(x∗,ν , x∗,−ν)λν = 0,

λν ≥ 0, g(x∗,ν , x∗,−ν) ≤ 0, g(x∗,ν , x∗,−ν)T λν = 0(4.3)

für einen gewissen Multiplikator λν ∈ Rmν .Auf der anderen Seite können wir auch die KKT�Bedingungen der zum GNEP zugehö-

rigen Variationsungleichung VIP(X, F ) aus dem Satz 4.10 betrachten. Sofern wieder einegeeignete Regularitätsbedingung erfüllt ist, so lauten diese KKT�Bedingungen

F (x) +∇xg(x)λ = 0,λ ≥ 0, g(x) ≤ 0, g(x)T λ = 0

(4.4)mit einem geeigneten Multiplikator λ ∈ Rm. Hierbei ist

∇xg(x) =

| |∇xg1(x) . . . ∇xgm(x)| |

=

| |∇x1g1(x) . . . ∇x1gm(x)| |... . . .

...| |

∇xN g1(x) . . . ∇xN gm(x)| |

=:

∇x1g(x)...∇xN g(x)

mit den partiellen Jacobi�Matrizen ∇xνg(x) ∈ Rnν×m. Durch Vergleich der beiden KKT�Bedingungen erhalten wir das folgende Resultat.Satz 4.11 Seien X wie in (4.2) mit g : Rn → Rm stetig di�erenzierbar und (komponen-tenweise) konvex gegeben sowie θν(x

ν , x−ν) stetig di�erenzierbar und konvex in xν für alleν = 1, . . . , N . Dann gelten:

Page 80: EINFÜHRUNG IN DIE SPIELTHEORIE

74 KAPITEL 4. VERALLGEMEINERTE NASH�GLEICHGEWICHTSPROBLEME

(a) Sei x∗ eine Lösung von VIP(X, F ) derart, dass die KKT�Bedingungen (4.4) gelten.Dann ist x∗ eine Lösung von GNEP, und die zugehörigen KKT�Bedingungen (4.3)sind mit λ1 := . . . := λN := λ erfüllt.

(b) Sei umgekehrt x∗ eine Lösung von GNEP derart, dass die KKT�Bedingungen (4.3)mit λ1 = . . . = λN gelten. Dann ist (x∗, λ1) auch ein KKT�Punkt von VIP(X,F )und x∗ somit eine Lösung von VIP(X, F ).

Beweis: (a) Aus der Gültigkeit von (4.4) folgt durch unmittelbaren Vergleich mit denKKT�Bedingungen aus (4.3), dass diese mit λ1 := . . . := λN := λ ebenfalls gelten. Ins-besondere ist x∗ dann eine Lösung von GNEP, denn aus Konvexitätsgründen sind dieKKT�Bedingungen (4.3) stets hinreichend für das Vorliegen eines Minimums. Alterna-tiv folgt auch aus dem Satz 4.10, dass x∗ zwangsläu�g ein (sogar normalisiertes) Nash�Gleichgewicht von GNEP ist.

(b) Sei umgekehrt x∗ eine Lösung von GNEP derart, dass die zugehörigen KKT�Bedingun-gen (4.3) mit λ1 = . . . = λN gelten. Dann folgt sofort, dass (x∗, λ1) auch den KKT�Bedingungen (4.4) genügt. Diese Bedingungen sind aber wieder hinreichend dafür, dass x∗

Lösung von VIP(X, F ) ist (alternativ lässt sich dieser letzte Teil auch wieder aus dem Satz4.10 herleiten). 2

Wir illustrieren das vorige Resultat noch durch ein einfaches Beispiel.Beispiel 4.12 Betrachte erneut das GNEP aus dem Beispiel 4.8. Die Menge der Nash�Gleichgewichte war gegeben durch

S ={(α, 1− α)

∣∣ α ∈ [1

2, 1]

}.

In jeder Lösung genügen die Nebenbedingungen von beiden Spielern zum Beispiel derLICQ (linear independence constraint quali�cation). Also existieren zugehörige Lagrange�Multiplikatoren λ1(α) und λ2(α) derart, dass die entsprechenden KKT�Bedingungen erfülltsind. Mittels elementarer Rechnung erkennt man, dass diese (von α abhängigen) Lagrange�Multiplikatoren gegeben sind durch

λ1(α) = 2− 2α und λ2(α) = 2α− 1.

Also existiert genau ein α mit λ1(α) = λ2(α), nämlich α = 34. Die zugehörige Lösung von

GNEP ist gerade das normalisierte Nash�Gleichgewicht x∗ = (34, 1

4) mit dem Multiplikator

λ = 12.

Betrachte nun die zugehörige Variationsungleichung VIP(X, F ) mit

X ={(x1, x2) ∈ R2

∣∣ x1 + x2 ≤ 1}, F (x) :=

(2x1 − 2

2x2 − 1

).

Page 81: EINFÜHRUNG IN DIE SPIELTHEORIE

4.4. EXISTENZ NORMALISIERTER NASH�GLEICHGEWICHTE 75

Die Abbildung F ist o�enbar gleichmäÿig monoton, so dass VIP(X, F ) wegen Korollar 2.39genau eine Lösung besitzt. Mittels elementarer Rechnung bestätigt man leicht, dass diesedurch x∗ = (3

4, 1

4) gegeben ist. Als zugehörigen Lagrange�Multiplikator erhält man auch

hier λ = 12. 3

4.4 Existenz normalisierter Nash�GleichgewichteAus der äquivalenten Formulierung eines GNEP in Form einer Variationsungleichung imSatz 4.10 erhalten wir in Analogie zum Korollar 2.40 sofort das nachstehende Existenz�und Eindeutigkeitsresultat.Korollar 4.13 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex, θν stetig di�erenzierbarund

F (x) :=

∇x1θ1(x1, x−1)...

∇xN θN(xN , x−N)

.

Dann gelten die folgenden Aussagen:

(a) Ist F pseudomonoton, so ist die Menge aller normalisierten Nash�Gleichgewichts-punkte konvex (eventuell leer).

(b) Ist F strikt monoton, so existiert höchstens ein normalisierter Nash�Gleichgewichts-punkt.

(c) Ist F gleichmäÿig monoton, so gibt es genau einen normalisierten Nash�Gleichge-wichtspunkt.

(d) Ist X kompakt (und F ansonsten beliebig), so gibt es mindestens einen normalisiertenNash�Gleichgewichtspunkt.

Wir wollen jetzt noch die Aussage (d) des Korollars 4.13 auf nicht notwendig di�erenzier-bare Auszahlungsfunktionen θν erweitern. Dies geschieht in dem folgenden Resultat, dasals Analogon des Satzes 2.45 von Nikaido�Isoda aufgefasst werden kann. Man beachte indiesem Zusammenhang, dass wir hier einen vollständig anderen Beweis geben als für denSatz 2.45.Satz 4.14 Betrachte ein GNEP mit folgenden Eigenschaften:

(a) Die gemeinsame Strategiemenge X ⊆ Rn ist nichtleer, konvex und kompakt.

(b) Die Auszahlungsfunktionen θν : X → R sind stetig für alle ν = 1, . . . , N .

(c) Die Auszahlungsfunktionen θν(xν , x−ν) sind konvex als Abbildung in xν (für alle x−ν).

Dann besitzt das GNEP (mindestens) einen normalisierten Nash�Gleichgewichtspunkt.

Page 82: EINFÜHRUNG IN DIE SPIELTHEORIE

76 KAPITEL 4. VERALLGEMEINERTE NASH�GLEICHGEWICHTSPROBLEME

Beweis: SeiΨ(x, y) :=

N∑ν=1

[θν(x

ν , x−ν)− θν(yν , x−ν)

]die zugehörige Nikaido�Isoda�Funktion. Gemäÿ De�nition 4.6 gilt für ein x∗ ∈ X dann diefolgende Aussage:

x∗ ist ein normalisiertes Nash�Gleichgewicht⇐⇒ sup

y∈XΨ(x∗, y) = 0 (4.5)

⇐⇒ maxy∈X

Ψ(x∗, y) = 0,

denn speziell für den Vektor y := x∗ wird das Supremum natürlich angenommen. Wirnehmen nun an, dass es kein normalisiertes Nash�Gleichgewicht für unser GNEP gibt.Wegen (4.5) existiert zu jedem x ∈ X daher ein y ∈ X mit Ψ(x, y) > 0. Die Familie dernach Voraussetzung (b) o�enen Mengen

U(y) :={x ∈ X

∣∣ Ψ(x, y) > 0}, y ∈ X,

bildet somit eine Überdeckung von X, d.h.X =

⋃y∈X

U(y).

Wegen Voraussetzung (a) ist X aber kompakt, so dass bereits

X =r⋃

j=1

U(yj) (4.6)

für endlich viele Punkte y1, . . . , yr ∈ X gilt. Zur Anwendung des Fixpunktsatzes vonBrouwer konstruieren wir nun eine Abbildung f : X → X auf die folgende Weise: Setze

dj(x) := max{0, Ψ(x, yj)

}∀j = 1, . . . , r,

λj(x) :=dj(x)∑ri=1 di(x)

∀j = 1, . . . , r

und damit schlieÿlichf(x) :=

r∑j=1

λj(x)yj

für x ∈ X. Gemäÿ De�nition ist dj(x) ≥ 0 für alle j = 1, . . . , r und alle x ∈ X. Wegen(4.6) kann auÿerdem kein x ∈ X existieren mit dj(x) = 0 für alle j = 1, . . . , r. Folglichsind die Abbildungen λj(x) allesamt wohlde�niert. Wegen

λj(x) ≥ 0 ∀j = 1, . . . , r undr∑

j=1

λj(x) = 1 (4.7)

Page 83: EINFÜHRUNG IN DIE SPIELTHEORIE

4.4. EXISTENZ NORMALISIERTER NASH�GLEICHGEWICHTE 77

für alle x ∈ X ist f(x) stets ein Element der konvexen Hülle von y1, . . . , yr ∈ X unddamit selbst in X. Somit gilt f : X → X. Per Konstruktion bzw. Voraussetzung (b) ist fauÿerdem stetig und besitzt daher nach dem Fixpunktsatz von Brouwer einen Fixpunkt inX. Es existiert also ein x∗ ∈ X mit

x∗ = f(x∗) =r∑

j=1

λj(x∗)yj. (4.8)

Nach Voraussetzung (c) sind alle θν konvex in ihrem Argument xν . Daher ist

θν

( r∑j=1

λj(x∗)yj,ν , x∗,−ν

)= θν

(x∗,1, . . . , x∗,ν−1,

r∑j=1

λj(x∗)yj,ν , x∗,ν+1, . . . , x∗,N

)≤

N∑j=1

λj(x∗)θν

(x∗,1, . . . , x∗,ν−1, yj,ν , x∗,ν+1, . . . , x∗,N

)=

r∑j=1

λj(x∗)θν

(yj,ν , x∗,−ν

)für alle ν = 1, . . . , N . Wegen

x∗,ν =r∑

j=1

λj(x∗)yj,ν ∀ν = 1, . . . , N

nach (4.8) impliziert dies0 = Ψ(x∗, x∗)

=N∑

ν=1

[θν(x

∗,ν , x∗,−ν)− θν(x∗,ν , x∗,−ν)

]=

N∑ν=1

[θν(x

∗,ν , x∗,−ν)− θν

( r∑j=1

λj(x∗)yj,ν , x∗,−ν

)]≥

r∑j=1

λj(x∗)

N∑ν=1

[θν(x

∗,ν , x∗,−ν)− θν(yj,ν , x∗,−ν)

]=

r∑j=1

λj(x∗)Ψ(x∗, yj)

=∑

j:λj(x∗)>0

λj(x∗)Ψ(x∗, yj)

Page 84: EINFÜHRUNG IN DIE SPIELTHEORIE

78 KAPITEL 4. VERALLGEMEINERTE NASH�GLEICHGEWICHTSPROBLEME

> 0,

wobei einerseits (4.7) und andererseits λj(x∗) > 0 für mindestens einen Index j ∈ {1, . . . , r}

ausgenutzt wurde. Ferner ergibt sich die letzte Ungleichung aus der Tatsache, dassλj(x

∗) > 0 ⇐⇒ dj(x∗) > 0 ⇐⇒ Ψ(x∗, yj) > 0

gemäÿ De�nition von λj(x∗) ist. Insgesamt folgt aus dem obigen Widerspruch die Aussage,

dass unser GNEP doch mindestens einen normalisierten Nash�Gleichgewichtspunkt habenmuss. 2

Page 85: EINFÜHRUNG IN DIE SPIELTHEORIE

Kapitel 5

Numerische Verfahren für(verallgemeinerte)Nash�Gleichgewichtsprobleme

5.1 Diagonalisierungsverfahren5.2 Die Nikaido�Isoda�Funktion und ein Relaxationsverfahren5.3 Regularisierte Nikaido�Isoda�Funktion5.4 Die Di�erenz zweier regularisierter Nikaido�Isoda�Funktionen

5.1 DiagonalisierungsverfahrenWir betrachten in diesem Abschnitt ein Nash�Gleichgewichtsproblem mit N Personen, beidem der ν-te Spieler das Problem

minxν

θν(xν , x−ν) u.d.N. xν ∈ Xν

zu lösen hat, wobei θν die Auszahlungsfunktion und Xν die Strategiemenge des Spielersν ∈ {1, . . . , N} bezeichnet. Im Gegensatz zu den folgenden Abschnittes dieses Kapitelsuntersuchen wir hier also kein GNEP, sondern ein reines Nash�Gleichgewichtsproblem.

Wir beschreiben in diesem Abschnitt zwei sehr einfache Zugänge zur Lösung diesesSpiels, die eine gewisse Ähnlichkeit mit dem Jacobi� bzw. Gauÿ�Seidel�Verfahren zur Lö-sung von linearen Gleichungssystemen besitzen und daher auch deren Namen tragen (inder Literatur ist die Namensgebung allerdings nicht einheitlich).Algorithmus 5.1 ( Diagonalisierungsverfahren nach Jacobi )

(S.0) Wähle Startpunkte x0,ν ∈ Xν für alle ν = 1, . . . , N , setze x0 := (x0,1, . . . , x0,N) undk := 0.

(S.1) Falls xk Nash�Gleichgewicht: STOP.

79

Page 86: EINFÜHRUNG IN DIE SPIELTHEORIE

80 KAPITEL 5. NUMERISCHE VERFAHREN FÜR GNEPS

(S.2) FOR ν = 1, . . . , NBestimme eine Lösung xk+1,ν von

minxν

θν(xν , xk,−ν) u.d.N. xν ∈ Xν

END

(S.3) Setze xk+1 :=(xk+1,1, . . . , xk+1,N

), k ← k + 1, und gehe zu (S.1).

In jedem Iterationsschritt k hat man im Schritt (S.2) somit N Optimierungsprobleme zulösen: Für jedes ν ∈ {1, . . . , N} ist die Zielfunktion

θν

(xk,1, . . . , xk,ν−1, xν , xk,ν+1, . . . , xk,N

) (5.1)über alle xν ∈ Xν zu minimieren, während alle anderen Block�Variablen xk,µ für Spielerµ 6= ν fest bleiben. An der ausgeschriebenen Form (5.1) der Zielfunktion θν erkennt manallerdings, dass im Allgemeinen nicht die neueste Information benutzt wird. Bei der Mini-mierung nach xν kennen wir nämlich schon xk+1,1, . . . , xk+1,ν−1 und können diese neuerenWerte an Stelle von xk,1, . . . , xk,ν−1 verwenden. Dies ergibt das nachstehende Verfahren.Algorithmus 5.2 ( Diagonalisierungsverfahren nach Gauÿ�Seidel )

(S.0) Wähle Startpunkte x0,ν ∈ Xν für alle ν = 1, . . . , N , setze x0 := (x0,1, . . . , x0,N) undk := 0.

(S.1) Falls xk Nash�Gleichgewicht: STOP.

(S.2) FOR ν = 1, . . . , NBestimme eine Lösung xk+1,ν von

minxν

θν

(xk+1,1, . . . , xk+1,ν−1, xν , xk,ν+1, . . . , xk,N

)u.d.N. xν ∈ Xν (5.2)

END

(S.3) Setze xk+1 :=(xk+1,1, . . . , xk+1,N

), k ← k + 1, und gehe zu (S.1).

Das Diagonalisierungsverfahren nach Gauÿ�Seidel ist meist beliebter als jenes nach Jacobi,weshalb wir im Folgenden auch nur einen Konvergenzsatz für den Algorithmus 5.2 angeben.Entsprechend lässt sich allerdings auch die Konvergenz des Algorithmus 5.1 nachweisen.Satz 5.3 Seien θν stetig di�erenzierbar und konvex in xν für alle ν = 1, . . . , N , Xν ⊆ Rnν

nichtleer, konvex und abgeschlossen sowie {xk} eine durch den Algorithmus 5.2 erzeugteFolge. Konvergiert diese gegen ein x∗, so ist x∗ = (x∗,1, . . . , x∗,N) ein Nash�Gleichgewichts-punkt.

Page 87: EINFÜHRUNG IN DIE SPIELTHEORIE

5.1. DIAGONALISIERUNGSVERFAHREN 81

Beweis: Als Lösung des stetig di�erenzierbaren Optimierungsproblems (5.2) genügt xk+1,ν

der notwendigen Optimalitätsbedingung∇xνθν

(xk+1,1, . . . , xk+1,ν−1, xk+1,ν , xk,ν+1, . . . , xk,N

)T (xν − xk+1,ν

)≥ 0 ∀xν ∈ Xν

für ν = 1, . . . , N , vergleiche das Minimumprinzip aus dem Lemma 2.26. Grenzübergangk → ∞ liefert wegen der vorausgesetzten Konvergenz der gesamten Folge {xk} gegen x∗

daher∇xνθν(x

∗)T (xν − x∗,ν) ≥ 0 ∀xν ∈ Xν .

Wegen der Konvexität von θν als Funktion in xν sind dies aber gerade die notwendigenund hinreichenden Optimalitätsbedingungen dafür, dass x∗,ν das Problem

minxν

θν(xν , x∗,−ν) u.d.N. xν ∈ Xν

lässt. Also ist x∗ = (x∗,1, . . . , x∗,N) ein Nash�Gleichgewichtspunkt. 2

Es sei an dieser Stelle ausdrücklich darauf hingewiesen, dass im Satz 5.3 die Konvergenzder gesamten Folge {xk} vorausgesetzt wird. Ist x∗ nur ein Häufungspunkt der Folge {xk},so handelt es sich bei x∗ im Allgemeinen nicht um einen Nash�Gleichgewichtspunkt. Fernersei erwähnt, dass wir hier implizit die Existenz der Folge {xk} annehmen, was ohne weitereVoraussetzungen (etwa der Kompaktheit aller Mengen Xν) auch nicht der Fall sein muss.

Zur Illustration der Diagonalisierungsverfahren betrachten wir das folgende konkreteBeispiel eines Oligopols aus [28] (vergleiche auch [34]).Beispiel 5.4 Betrachte das Oligopol�Modell aus dem Beispiel 1.5 mit N Unternehmen,wobei Unternehmen ν das Optimierungsproblem (hier als Minimierungsproblem formuliert)

min θν(x) u.d.N. xν ≥ 0

mit der Funktionθν(x) := cν(xν)− xνp

(xν +

∑µ 6=ν

)zu lösen hat. Die Kostenfunktion sei hierbei de�niert durch

cν(xν) := cνxν +βν

1 + βν

L− 1

βνν x

1+βνβν

ν ,

während die inverse Nachfragefunktion gegeben ist durchp(ξ) :=

ξ

) 1γ .

Dabei wird speziell N = 5 gewählt sowie α := 5000, γ := 1.1 und die Parameter cν , βν , Lν

sind in der nachstehenden Tabelle angegeben. 3

Page 88: EINFÜHRUNG IN DIE SPIELTHEORIE

82 KAPITEL 5. NUMERISCHE VERFAHREN FÜR GNEPS

ν 1 2 3 4 5cν 10 8 6 4 2βν 1.2 1.1 1.0 0.9 0.8Lν 5 5 5 5 5

Wendet man den Algorithmus 5.1 auf das Beispiel 5.4 mit dem Startvektor x0 := (10, . . . , 10)T

an und benutzt man das (sicherlich verbesserbare) Abbruchkriterium ‖xk+1− xk‖ ≤ ε mitder nicht zu hohen Genauigkeit ε := 10−5 (da der Algorithmus 5.1 im Allgemeinen nur sehrlangsam konvergiert, sollte man hier keine zu groÿen Forderungen stellen), so erhält manden Iterationsverlauf aus der Tabelle 5.1. Das Verfahren bricht also nach 32 Iterationenmit dem Näherungsvektor x∗ ≈ (36.933, 41.818, 43.707, 42.659, 39.179)T ab, der in etwadem in [28] angegebenen Lösungsvektor entspricht. Der Aufwand des Jacobi�Verfahrensist dabei nicht ganz unerheblich, da in jeder Iteration k insgesamt N (im Beispiel alsoN = 5) nichtlineare Optimierungsprobleme gelöst werden müssen.

Wendet man andererseits den Algorithmus 5.2 auf das Beispiel 5.4 an und benutzt dabeidenselben Startvektor und dasselbe Abbruchkriterium, so bekommt man den in der Tabel-le 5.2 angegebenen Iterationsverlauf. Dabei benötigt das Diagonalisierungsverfahren vonGauÿ�Seidel lediglich 20 Iterationen, was eine nicht unerhebliche Verbesserung gegenüberdem Diagonalisierungsverfahren von Jacobi darstellt. Allerdings ist auch das Diagonalisie-rungsverfahren von Gauÿ�Seidel mit jeweils N = 5 zu lösenden Optimierungsproblemenpro äuÿerer Iteration k nicht gerade günstig.

5.2 Die Nikaido�Isoda�Funktion und ein Relaxations-verfahrenWir betrachten von nun an wieder verallgemeinerte Nash�Gleichgewichtsprobleme undwollen geeignete Verfahren zu deren Lösung untersuchen. Natürlich sind diese Verfahrendann auch auf das gewöhnliche Nash�Gleichgewichtsproblem anwendbar.

Gegeben seien eine gemeinsame Strategiemenge X ⊆ Rn aller Spieler ν = 1, . . . , N ,die als nichtleer, kompakt1 und konvex vorausgesetzt werde. Die Auszahlungsfunktion vonSpieler ν sei wieder mit θν bezeichnet und zumindest stetig. Das von jedem Spieler ν zulösende Optimierungsproblem lautet dann

minxν

θν(xν , x−ν) u.d.N. (xν , x−ν) ∈ X.

MitΨ(x, y) :=

N∑ν=1

[θν(x

ν , x−ν)− θν(yν , x−ν)

]1Es wird gleich klar werden, warum wir in diesem Abschnitt die Menge X sogar als kompakt (und

nicht nur als abgeschlossen) voraussetzen. Die folgenden Abschnitte werden dann wieder mit lediglichabgeschlossenen Mengen X arbeiten.

Page 89: EINFÜHRUNG IN DIE SPIELTHEORIE

5.2 DIE NI�FUNKTION UND EIN RELAXATIONSVERFAHREN 83

k xk1 xk

2 xk3 xk

4 xk5 ‖xk+1 − xk‖

0 10.000000 10.000000 10.000000 10.000000 10.000000 −1 55.028742 56.193386 55.760247 53.413636 49.142403 98.34779222 27.188458 32.990974 36.158443 36.505054 34.381887 46.91947393 42.618130 46.760040 48.008237 46.372087 42.300027 26.98397424 33.564983 38.853472 41.169596 40.544735 37.474561 15.76335835 38.885837 43.533256 45.191890 43.922211 40.220339 9.23782236 35.777709 40.804271 42.834970 41.926665 38.582877 5.41538337 37.606628 42.410477 44.218036 43.092011 39.533779 3.17804348 36.535699 41.469695 43.406501 42.406331 38.972521 1.86432729 37.164926 42.022313 43.882680 42.808003 39.300694 1.094119410 36.795977 41.698229 43.603247 42.572068 39.107735 0.641977311 37.012577 41.888471 43.767164 42.710418 39.220826 0.376704512 36.885466 41.776835 43.670980 42.629213 39.154416 0.221078013 36.960070 41.842361 43.727459 42.676870 39.193372 0.129761014 36.916312 41.803922 43.694326 42.648901 39.170500 0.076128115 36.942003 41.826478 43.713768 42.665310 39.183915 0.044676916 36.926936 41.813248 43.702361 42.655679 39.176041 0.026209217 36.935782 41.821014 43.709053 42.661329 39.180661 0.015381718 36.934463 41.819733 43.707759 42.659961 39.179166 0.003026319 36.933769 41.819084 43.707154 42.659422 39.178767 0.001311120 36.933368 41.818729 43.706858 42.659220 39.178717 0.000646321 36.933118 41.818520 43.706709 42.659155 39.178759 0.000366622 36.932952 41.818391 43.706631 42.659144 39.178812 0.000231123 36.932836 41.818308 43.706592 42.659154 39.178856 0.000154224 36.932753 41.818253 43.706573 42.659169 39.178887 0.000107025 36.932693 41.818217 43.706564 42.659184 39.178909 0.000075326 36.932649 41.818192 43.706561 42.659197 39.178923 0.000054227 36.932616 41.818175 43.706561 42.659208 39.178932 0.000039928 36.932591 41.818164 43.706562 42.659216 39.178938 0.000029229 36.932572 41.818156 43.706565 42.659222 39.178942 0.000021630 36.932558 41.818151 43.706567 42.659227 39.178946 0.000016431 36.932547 41.818148 43.706569 42.659230 39.178948 0.000012432 36.932539 41.818145 43.706571 42.659233 39.178949 0.0000094

Tabelle 5.1: Numerische Resultate für das Beispiel 5.4 mit dem Diagonalisierungsverfahrenvon Jacobi

Page 90: EINFÜHRUNG IN DIE SPIELTHEORIE

84 KAPITEL 5. NUMERISCHE VERFAHREN FÜR GNEPS

k xk1 xk

2 xk3 xk

4 xk5 ‖xk+1 − xk‖

0 10.000000 10.000000 10.000000 10.000000 10.000000 −1 55.028742 54.275360 48.261008 41.957991 36.101019 84.58354552 34.159256 42.170964 44.613701 43.205955 39.269555 24.63639033 36.534286 41.615726 43.701220 42.720462 39.229993 2.64932954 36.952547 41.795724 43.690519 42.655365 39.181042 0.46269805 36.940962 41.819797 43.705361 42.656425 39.179576 0.03061516 36.932877 41.819483 43.705785 42.657510 39.179274 0.00817987 36.932830 41.819200 43.706048 42.658166 39.179108 0.00078078 36.932769 41.818962 43.706215 42.658566 39.179020 0.00050599 36.932711 41.818769 43.706324 42.658812 39.178975 0.000338810 36.932662 41.818618 43.706397 42.658966 39.178954 0.000233611 36.932623 41.818501 43.706447 42.659062 39.178945 0.000165112 36.932592 41.818411 43.706482 42.659123 39.178941 0.000117913 36.932569 41.818344 43.706507 42.659162 39.178941 0.000085214 36.932552 41.818293 43.706526 42.659188 39.178943 0.000062315 36.932539 41.818255 43.706539 42.659205 39.178945 0.000045616 36.932531 41.818226 43.706549 42.659216 39.178946 0.000033417 36.932524 41.818205 43.706557 42.659223 39.178947 0.000024718 36.932520 41.818189 43.706562 42.659228 39.178949 0.000018119 36.932517 41.818177 43.706566 42.659232 39.178949 0.000013620 36.932515 41.818168 43.706569 42.659234 39.178950 0.0000100

Tabelle 5.2: Numerische Resultate für das Beispiel 5.4 mit dem Diagonalisierungsverfahrenvon Gauÿ�Seidel

Page 91: EINFÜHRUNG IN DIE SPIELTHEORIE

5.2 DIE NI�FUNKTION UND EIN RELAXATIONSVERFAHREN 85

bezeichnen wir wieder die zugehörige Nikaido�Isoda�Funktion, vergleiche De�nition 4.6.Mittels der Nikaido�Isoda�Funktion de�nieren wir nun

V (x) := maxy∈X

Ψ(x, y), x ∈ X.

Wegen der vorausgesetzten Stetigkeit aller θν ist auch die Nikaido�Isoda�Funktion stetig(insbesondere stetig als Funktion in y), so dass die Kompaktheit von X garantiert, dass eszu jedem x ∈ X stets mindestens ein yx ∈ X gibt mit V (x) = Ψ

(x, yx

). Mity(x) :=

{yx ∈ X

∣∣ V (x) = Ψ(x, yx)} (5.3)

bezeichnen wir für jedes x ∈ X die Menge aller Punkte in X, in denen das Maximumin der De�nition von V (x) angenommen wird. Man beachte hierbei, dass diese Menge imAllgemeinen nicht einelementig sein wird.

Die wesentlichen Eigenschaften von V sind in dem folgenden Resultat enthalten.Satz 5.5 Betrachte das GNEP mit X ⊆ Rn nichtleer, kompakt und konvex sowie θν stetigund, als Funktion von xν, konvex. Dann gelten die folgenden Aussagen:

(a) V (x) ≥ 0 für alle x ∈ X.

(b) x∗ ist genau dann ein normalisiertes Nash�Gleichgewicht, wenn x∗ ∈ X ein globalesMinimum von V auf X ist mit V (x∗) = 0.

Beweis: (a) Für alle x ∈ X giltV (x) = max

y∈XΨ(x, y) ≥ Ψ(x, x) = 0,

womit (a) auch schon bewiesen ist.

(b) Sei x∗ zunächst ein normalisierter Nash�Gleichgewichtspunkt. Per De�nition ist dannx∗ ∈ X und maxy∈X Ψ(x∗, y) = 0. Dies impliziert unmittelbar V (x∗) = maxy∈x Ψ(x∗, y) =0.

Sei umgekehrt x∗ ∈ X mit V (x∗) = 0 gegeben. Dann istΨ(x∗, y) ≤ 0 ∀y ∈ X.

Andererseits ist Ψ(x∗, x∗) = 0, also maxy∈X Ψ(x∗, y) = 0. Gemäÿ De�nition 4.6 handelt essich bei x∗ daher um einen normalisierten Nash�Gleichgewichtspunkt. 2

Wegen des Satzes 5.5 kann man ein Nash�Gleichgewicht x∗ also als globales Minimum desrestringierten Optimierungsproblems

min V (x) u.d.N. x ∈ X

Page 92: EINFÜHRUNG IN DIE SPIELTHEORIE

86 KAPITEL 5. NUMERISCHE VERFAHREN FÜR GNEPS

berechnen. Einfache Beispiele zeigen jedoch, dass die Zielfunktion V im Allgemeinen nichtdi�erenzierbar ist, was letztlich an der Nicht�Einelementigkeit der Menge y(x) liegt. Imnächsten Abschnitt wird gezeigt, wie man dieses Problem umgehen kann.

Wir wollen aber noch eine Weile in diesem Abschnitt bleiben und geben mittels dermengenwertigen Abbildung x 7→ y(x) noch eine Fixpunktcharakterisierung von normali-sierten Nash�Gleichgewichtspunkten an.Lemma 5.6 Betrachte ein GNEP mit einer nichtleeren, kompakten und konvexen Stra-tegiemenge X ⊆ Rn sowie stetigen Auszahlungsfunktionen θν, die bzgl. xν konvex seien.Dann ist x∗ genau dann ein normalisierten Nash�Gleichgewichtspunkt, wenn x∗ ∈ y(x∗)gilt, wobei die Menge y(x∗) wie in (5.3) de�niert sei.Beweis: Sei x∗ zunächst ein normalisierter Nash�Gleichgewichtspunkt. Per De�nition istdann maxy∈X Ψ(x∗, y) = 0. Andererseits gilt o�enbar Ψ(x∗, x∗) = 0. Also ist x∗ ∈ y(x∗).Der Beweis der Umkehrung geschieht auf analoge Weise. 2

Nehmen wir im Folgenden an, dass die Menge y(x) für jedes x ∈ X einelementig ist.Wegen Lemma 5.6 ist x∗ genau dann ein normalisierter Nash�Gleichgewichtspunkt, wennx∗ = y(x∗) gilt (eigentlich müssten wir hier {x∗} = y(x∗) schreiben, was wir aus notati-onstechnischen Gründen aber nicht tun wollen). Dies motiviert das einfache Fixpunktver-fahren xk+1 := y(xk) als Iterationsvorschrift zur Bestimmung eines normalisierten Nash�Gleichgewichtes. In [39] (siehe auch [24] für eine Modi�kation) wird die relaxierte Variante

xk+1 := (1− tk)xk + tky

k mit yk ∈ y(xk) (5.4)betrachtet, bei der mittels einer Schrittweite tk ∈ (0, 1] die neue Iteratierte xk+1 als Konvex-kombination aus der alten Iterierten xk mit dem Element yk ∈ y(xk) entsteht. Der Spezial-fall tk = 1 liefert gerade die obige Fixpunktiteration. Die Vorschrift (5.4) wird in der Litera-tur als das Relaxationsverfahren zur Lösung von GNEPs bezeichnet. Unter einer Reihe vonzum Teil recht technischen Bedingungen wird in [39] gezeigt, dass jede durch das Relaxa-tionsverfahren erzeugte Folge {xk} gegen einen normalisierten Nash�Gleichgewichtspunktkonvergiert, sofern die Schrittweiten tk so geählt werden, dass

tk ∈ (0, 1], tk ↓ 0 ∀k ∈ N,

∞∑k=0

tk =∞

gilt. Diese motiviert die Wahl von der harmonischen Folge tk := 1k+1

für alle k ∈ N. In derPraxis erweist es sich meist aber als vorteilhaft, zu Beginn relative groÿe Schrittweiten tkzu wählen, etwa

tk :=

{t, falls k ≤ k0,t 1

k−k0, falls k > k0

für eine Konstante t ∈ (0, 1] und ein k0 ∈ N. Relativ gut bewährt hat sich beispielsweiset = 0.5 und k0 = 40, so dass in den ersten 40 Iterationen die konstante Schrittweite tk = 0.5gewählt wird, bevor diese Schrittweite allmählich verkleinert wird.

Page 93: EINFÜHRUNG IN DIE SPIELTHEORIE

5.3. DIE REGULARISIERTE NIKAIDO�ISODA�FUNKTION 87

Beispiel 5.7 Betrachte das GNEP aus dem Beispiel 4.5 mit den dort spezi�zierten Daten.Anwendung des Relaxationsverfahrens mit dem Startvektor x0 := (0, 0, 0)T und dem durchden Satz 5.5 motivierten Abbruchkriterium V (xk) ≤ ε mit ε := 10−8 liefert dann denIterationsverlauf aus der Tabelle 5.3. Die nach 34 Iterationen gefundene Näherungslösungx∗ ≈ (21.144, 16.028, 2.726)T entspricht ziemlich exakt jener Lösung, die auch in der Arbeit[24] angegeben wird. 3

Vergleicht man das Relaxationsverfahren mit den beiden Diagonalisierungsverfahren ausdem vorigen Abschnitt, so muss zunächst festgehalten werden, dass es nicht nur auf dasübliche Nash�Gleichgewichtsproblem, sondern sogar auf ein GNEP anwendbar ist. Auÿer-dem wird pro Iteration nur ein einziges Optimierungsproblem gelöst. Allerdings ist auchdas Relaxationsverfahren im Allgemeinen nur relativ langsam konvergent. Zudem hängtdie Konvergenz relativ stark von der (letztlich weitgehend heuristischen) Wahl der Schritt-weite tk ab. In [24] wird zwar eine optimale Schrittweite untersucht, deren Berechnung inder Praxis allerdings dafür sorgt, dass pro Iteration wieder mehrere nichtlineare Optimie-rungsprobleme gelöst werden müssen.

5.3 Die regularisierte Nikaido�Isoda�FunktionWir betrachten weiterhin das verallgemeinerte Nash�Gleichgewichtsproblem mit N Spie-lern, einer gemeinsamen Strategiemenge X ⊆ Rn, die jetzt wieder als nichtleer, abge-schlossen (statt kompakt) und konvex angenommen wird, sowie Auszahlungsfunktionenθν : Rn → R für ν = 1, . . . , N . Das Optimierungsproblem des ν-ten Spielers lautet also:

minxν

θν(xν , x−ν) u.d.N. (xν , x−ν) ∈ X.

Hierbei seien die Auszahlungsfunktionen θν wieder stetig und, als Funktion in xν , konvex.Wir folgen in diesem Abschnitt einer Idee aus [15, 18] und betrachten für einen festen

Parameter α > 0 die so genannte regularisierte Nikaido�Isoda�Funktion

Ψα(x, y) :=N∑

ν=1

[θν(x

ν , x−ν)− θν(yν , x−ν)− α

2‖xν − yν‖2

].

Analog zur Konstruktion im vorigen Abschnitt de�nieren wir mittels dieser regularisiertenNikaido�Isoda�Funktion die Abbildung

Vα(x) := maxy∈X

Ψα(x, y)

= maxy∈X

N∑ν=1

[θν(x

ν , x−ν)− θν(yν , x−ν)− α

2‖xν − yν‖2

]= max

y∈X

[Ψ(x, y)− α

2‖x− y‖2

],

Page 94: EINFÜHRUNG IN DIE SPIELTHEORIE

88 KAPITEL 5. NUMERISCHE VERFAHREN FÜR GNEPS

k xk1 xk

2 xk3 V (xk)

0 0.000000 0.000000 0.000000 −1 9.674778 8.592896 1.894752 90.912479152 14.853104 12.619079 2.655409 36.756813823 17.653583 14.488509 2.912780 16.310649694 19.184984 15.346724 2.961309 7.662005545 20.031902 15.734935 2.933976 3.712394956 20.505714 15.907133 2.887276 1.827299057 20.774132 15.981607 2.842621 0.906455408 20.927816 16.012485 2.806877 0.451374139 21.015116 16.028337 2.780640 0.2251847610 21.067047 16.027166 2.763754 0.1124508711 21.098164 16.027796 2.750883 0.0561888212 21.116616 16.027892 2.742235 0.0280805713 21.118754 16.028412 2.743352 0.0140253514 21.120234 16.028627 2.743601 0.0070133815 21.121505 16.028680 2.743323 0.0035077716 21.123080 16.028619 2.742470 0.0017557217 21.131304 16.028011 2.736360 0.0008849218 21.133373 16.028020 2.734820 0.0004403419 21.136154 16.027997 2.732682 0.0002211920 21.138755 16.027956 2.730668 0.0001108721 21.140803 16.027922 2.729076 0.0000554422 21.142151 16.027898 2.728027 0.0000276823 21.143129 16.027882 2.727264 0.0000138224 21.143718 16.027871 2.726805 0.0000069025 21.144087 16.027865 2.726517 0.0000034426 21.144098 16.027865 2.726509 0.0000017127 21.144109 16.027865 2.726500 0.0000008628 21.144119 16.027865 2.726492 0.0000004329 21.144130 16.027864 2.726484 0.0000002130 21.144140 16.027864 2.726476 0.0000001131 21.144150 16.027864 2.726469 0.0000000532 21.144159 16.027864 2.726461 0.0000000333 21.144169 16.027864 2.726454 0.0000000134 21.144179 16.027864 2.726446 0.00000001

Tabelle 5.3: Numerische Resultate für das Beispiel 5.7 mit dem Relaxationsverfahren

Page 95: EINFÜHRUNG IN DIE SPIELTHEORIE

5.3. DIE REGULARISIERTE NIKAIDO�ISODA�FUNKTION 89

wobei Ψ(x, y) die übliche Nikaido�Isoda�Funktion bezeichnet. Wegen der Konvexität vonθν als Funktion in xν ist die Abbildung y 7→ Ψ(x, y) für jedes feste x o�enbar konkav, alsodie Abbildung

y 7→ Ψ(x, y)− α

2‖x− y‖2

gleichmäÿig konkav. Wegen Korollar 2.41 existiert zu jedem festen x daher genau ein Ma-ximum yα(x). Daher ist die Abbildung Vα(x) (auch bei nicht notwendig kompaktem X)stets wohlde�niert, und wer haben

Vα(x) = maxy∈X

Ψα(x, y) = Ψα

(x, yα(x)

)mit dem gerade eingeführten Maximum yα(x). Das folgende Resultat ist nun das Analogenzum Satz 5.5 für die regularisierte Nikaido�Isoda�Funktion.Satz 5.8 Betrachte ein GNEP mit einer nichtleeren, abgeschlossenen und konvexen Stra-tegiemenge X ⊆ Rn sowie stetigen Auszahlungsfunktionen θν, die bzgl. xν konvex seien.Dann gelten die folgenden Aussagen:

(a) Es ist Vα(x) ≥ 0 für alle x ∈ X.

(b) x∗ ist genau dann ein normalisiertes Nash�Gleichgewicht, wenn x∗ ein globales Mi-nimum von Vα auf X ist mit Vα(x∗) = 0.

Beweis: (a) Für alle x ∈ X giltVα(x) = max

y∈XΨα(x, y) ≥ Ψα(x, x) = 0,

womit Teil (a) bereits bewiesen ist.

(b) Sei x∗ ∈ X zunächst ein normalisierter Nash�Gleichgewichtspunkt. Dann ist x∗ ∈ Xund supy∈X Ψ(x∗, y) = 0. Also gilt Ψ(x∗, y) ≤ 0 für alle y ∈ X, woraus sich

Ψα(x∗, y) = Ψ(x∗, y)− α

2‖x∗ − y‖2 ≤ Ψ(x∗, y) ≤ 0 ∀y ∈ X

ergibt. Hieraus folgt Vα(x∗) = maxy∈x Ψα(x∗, y) ≤ 0. Zusammen mit Teil (a) erhalten wirsomit Vα(x∗) = 0.

Sei umgekehrt x∗ ∈ X mit Vα(x∗) = 0 gegeben. Dann istΨα(x∗, y) ≤ 0 ∀y ∈ X. (5.5)

Angenommen, es existiert ein Vektor y ∈ X mit Ψ(x∗, y) > 0. Dann ist λx∗+(1−λ)y ∈ Xfür alle λ ∈ (0, 1). Aus der o�ensichtlichen Konkavität der Abbildung y 7→ Ψα(x∗, y) ergibtsich daherΨ

(x∗, λx∗ + (1− λ)y

)≥ λΨ(x∗, x∗) + (1− λ)Ψ(x∗, y) = (1− λ)Ψ(x∗, y) > 0 ∀λ ∈ (0, 1).

Page 96: EINFÜHRUNG IN DIE SPIELTHEORIE

90 KAPITEL 5. NUMERISCHE VERFAHREN FÜR GNEPS

Dies impliziertΨα(x∗, λx∗ + (1− λ)y) = Ψ(x∗, λx∗ + (1− λ)y)− α

2‖x∗ − λx∗ − (1− λ)y‖2

= Ψ(x∗, λx∗ + (1− λ)y)− α

2(1− λ)2‖x∗ − y‖2

≥ (1− λ)Ψ(x∗, y)− α

2(1− λ)2‖x∗ − y‖2

> 0

für alle λ ∈ (0, 1) hinreichend nahe bei 1, im Widerspruch zu (5.5). 2

Wegen des Satzes 5.8 können wir das Nash�Gleichgewichtsproblem wiederum äquivalentschreiben als ein globales restringiertes Minimierungsproblem

min Vα(x) u.d.N. x ∈ X. (5.6)Dabei handelt es sich sogar um ein stetig di�erenzierbares Problem, wie wir im Folgendennoch andeuten wollen. Als wichtiges Hilfsmittel benötigen wir hierzu das nachstehendeResultat, dessen Beweis man beispielsweise in [12, Sätze 6.37 und 7.46] �ndet.Satz 5.9 ( Satz von Danskin )Seien X ⊆ Rn nichtleer, abgeschlossen und konvex, f : X ×X → R stetig di�erenzierbarund f(x, · ) als Funktion in der zweiten Variablen gleichmäÿig konkav. Dann existiert zujedem x ∈ X ein eindeutig bestimmtes Element H(x) ∈ X mit

f(x, H(x)

)= max

y∈Xf(x, y).

Ferner ist die durchg(x) := max

y∈Xf(x, y) = f

(x, H(x)

)de�nierte Funktion g : X → R di�erenzierbar mit

∇g(x) = ∇xf(x, yx),

wobei yx = H(x) gesetzt wurde.

Mittels des Satzes 5.9 sind wir nun in der Lage, die angekündigte (stetige) Di�erenzierbar-keit von Vα zu beweisen.Satz 5.10 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex sowie θν stetig di�erenzier-bar und, als Funktion in xν, konvex. Dann ist Vα stetig di�erenzierbar mit

∇Vα(x) = ∇xΨα(x, y)∣∣y=yα(x)

=N∑

ν=1

[∇θν(x

ν , x−ν)−∇θν(yν , x−ν)

]+

∇x1θ1(y1, x−1)...

∇xN θN(yN , x−N)

− γ(x− y).

Page 97: EINFÜHRUNG IN DIE SPIELTHEORIE

5.3. DIE REGULARISIERTE NIKAIDO�ISODA�FUNKTION 91

Beweis: Wir haben schon vorher bemerkt, dass die Abbildung y 7→ Ψα(x, y) für jedesfeste x gleichmäÿig konkav ist. Die Di�erenzierbarkeit von Vα ist daher eine unmittelba-re Konsequenz des Satzes 5.9 von Danskin. Die Stetigkeit der Ableitung ergibt sich ausallgemeinen Resultaten der Sensitivitätsanalysis, auf die an dieser Stelle nicht näher ein-gegangen werden soll, siehe etwa [19, Corollaries 8.1 und 9.1]. Die explizite Formel für dieAbleitung folgt schlieÿlich aus dem Satz 5.9 von Danskin und elementaren Ableitungsre-geln. 2

Für spätere Zwecke erwähnen wir noch eine weitere Charakterisierung von Nash�Gleich-gewichten, die mit den bei der regularisierten Gap�Funktion Vα auftretenden Vektoren(Maxima) yα(x) zu tun haben.Satz 5.11 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex sowie θν stetig di�erenzier-bar und, als Funktion in xν, konvex. Dann ist x∗ genau dann ein normalisierter Nash�Gleichgewichtspunkt, wenn x∗ ein Fixpunkt der Abbildung x 7→ yα(x) ist, also x∗ = yα(x∗)gilt.

Beweis: Sei x∗ zunächst ein normalisierter Nash�Gleichgewichtspunkt. Dann ist einerseitsVα(x∗) = 0 nach Satz 5.8, also

0 = Vα(x∗) = maxy∈X

Ψα(x∗, y) = Ψα

(x∗, yα(x∗)

)gemäÿ De�nition von yα(x∗), und andererseits gilt auch Ψα(x∗, x∗) = 0. Da das Maximumyα(x∗) aber eindeutig bestimmt ist, erhalten wir auf diese Weise unmittelbar x∗ = yα(x∗).

Sei umgekehrt x∗ ein Fixpunkt von yα. Dann ist0 = Ψα(x∗, x∗) = Ψα

(x∗, yα(x∗)

)= Vα(x∗),

und die Behauptung folgt daher aus dem Satz 5.8. 2

Es sei an dieser Stelle ausdrücklich erwähnt, dass der Satz 5.11 keinerlei Glattheitsvor-aussetzungen (wie Di�erenzierbarkeit) an θν stellt. Ansonsten motiviert der Satz 5.11 dieAnwendung des Fixpunktverfahrens xk+1 := yα(xk) oder einer geeigneten Modi�kation,um einen normalisierten Nash�Gleichgewichtspunkt zu �nden. So lässt sich insbesondereauch das im vorigen Abschnitt angedeutete Relaxationsverfahren benutzen, indem mandort überall y(x) durch yα(x) ersetzt. Der in [39] angegebene Konvergenzbeweise für dasRelaxationsverfahren überträgt sich unmittelbar auf die jetzige Situation.

Wir kehren an dieser Stelle noch einmal zu der Formulierung (5.6) des GNEPs als glat-tes, restringiertes Optimierungsproblem zurück. Um eine Lösung des GNEPs zu erhalten,müssen wir ein globales Minimum von (5.6) berechnen. Da die meisten Algorithmen nurstationäre Punkte �nden, stellt sich die Frage, unter welchen Bedingungen ein derartigerstationärer Punkt bereits ein globales Minimum ist. Diese Bedingung wird in der folgendenVoraussetzung eingeführt.

Page 98: EINFÜHRUNG IN DIE SPIELTHEORIE

92 KAPITEL 5. NUMERISCHE VERFAHREN FÜR GNEPS

Voraussetzung 5.12 Für gegebenes x ∈ X mit x 6= yα(x) gelte die Ungleichung

N∑ν=1

[∇θν(x

ν , x−ν)−∇θν(yνα(x), x−ν)

]T (x− yα(x)

)> 0

Wir verschieben zunächst eine Diskussion dieser Voraussetzung an das Ende dieses Ab-schnitts. Das folgende Resultat zeigt, dass die Voraussetzung 5.12 eine hinreichende Be-dingung dafür liefert, dass der stationäre Punkt bereits ein globales Minimum und deshalbein normalisiertes Nash�Gleichgewicht des GNEPs ist.Satz 5.13 Sei x∗ ∈ X ein stationärer Punkt von (5.6), also

∇Vα(x∗)T (x− x∗) ≥ 0 ∀x ∈ X. (5.7)Falls die Voraussetzung 5.12 in x = x∗ erfüllt ist, dann ist x∗ ein Nash�Gleichgewicht vonGNEP.

Beweis: Unter Verwendung von (5.7) und der Darstellung des Gradienten ∇Vα(x∗) ausSatz 5.10 erhalten wir

0 ≤ ∇Vα(x∗)T (x− x∗)

=N∑

ν=1

[∇θν(x

∗,ν , x∗,−ν)−∇θν(yνα(x∗), x∗,−ν)

]T(x− x∗)

+N∑

ν=1

∇xνθν(yνα(x∗), x∗,−ν)T (xν − x∗,ν)− α

(x∗ − yα(x∗)

)T(x− x∗)

=N∑

ν=1

[∇θν(x

∗,ν , x∗,−ν)−∇θν(yνα(x∗), x∗,−ν)

]T(x− x∗)

+N∑

ν=1

[∇xνθν(y

να(x∗), x∗,−ν)− α

(x∗,ν − yν

α(x∗))]T (

xν − x∗,ν)

für alle x ∈ X. Speziell für x = yα(x∗) ergibt sich daher0 ≤

∑Nν=1

[∇θν(x

∗,ν , x∗,−ν)−∇θν(yνα(x∗), x∗,−ν)

]T (yα(x∗)− x∗

)+

∑Nν=1

[∇xνθν(y

να(x∗), x∗,−ν)− α(x∗,ν − yν

α(x∗))]T (

yνα(x∗)− x∗,ν

).

(5.8)

Per De�nition ist yα(x∗) die einzige Lösung des Optimierungsproblems

maxN∑

ν=1

[θν(x

∗,ν , x∗,−ν)− θν(yν , x∗,−ν)− α

2‖x∗,ν − yν‖2

] u.d.N. y ∈ X.

Page 99: EINFÜHRUNG IN DIE SPIELTHEORIE

5.3. DIE REGULARISIERTE NIKAIDO�ISODA�FUNKTION 93

Daher genügt yα(x∗) den zugehörigen Optimalitätsbedingungen ∇x1θ1(y1α(x∗), x∗,−1)− α(x∗,1 − y1

α(x∗))...∇xN θN(yN

α (x∗), x∗,−N)− α(x∗,N − yNα (x∗))

T (

z − yα(x∗))≥ 0 ∀z ∈ X.

Mit z = x∗ erhalten wir daherN∑

ν=1

[∇xνθν(y

να(x∗), x∗,−ν)− α(x∗,ν − yν

α(x∗))]T (

x∗,ν − yνα(x∗)

)≥ 0.

Insgesamt ergibt sich somit

0 ≤N∑

ν=1

[∇θν(x

∗,ν , x∗,−ν)−∇θν(yνα(x∗), x∗,−ν)

]T (yα(x∗)− x∗

) (5.9)

aus (5.8). Aus der Annahme x∗ 6= yα(x∗) ergäbe sich mit (5.9) und Voraussetzung 5.12unmittelbar der Widerspruch 0 < 0. Also ist x∗ = yα(x∗) und der Punkt x∗ somit wegenSatz 5.11 ein normalisierter Nash�Gleichgewichtspunkt von GNEP. 2

Die Voraussetzung 5.12 kann als eine Art strikte Monotonie oder positive De�nitheit an-gesehen werden. Um diesen Punkt zu illustrieren, betrachten wir im Folgenden den Fall,in dem alle Auszahlungsfunktionen θν quadratisch sind, etwa

θν(x) = (xν)T Aννxν +

N∑µ=1µ6=ν

(xν)T Aνµxµ (5.10)

für gewisse Matrizen Aνµ ∈ Rnν×nµ mit Aνν symmetrisch (ohne Beschränkung der All-gemeinheit). Zusätzliche lineare Terme sind erlaubt, aber sie verändern nicht die nach-folgende Diskussion. Sei A ∈ Rn×n die Matrix mit den Block�Komponenten Aνµ, alsoA = (Aνµ)N

ν,µ=1. Dann gilt folgendes Resultat.Satz 5.14 Die Auszahlungsfunktionen θν seien für alle ν = 1, . . . , N durch (5.10) gege-ben. Ferner sei die hiermit de�nierte Matrix A = (Aνµ)N

ν,µ=1 positiv de�nit. Dann ist dieVoraussetzung 5.12 in jedem beliebigen Punkt x ∈ Rn erfüllt.

Beweis: Sei x ∈ Rn beliebig gegeben. Dann ist∇xµθν(x

ν , x−ν) = ATνµx

ν ∀ν 6= µ

und∇xνθν(x

ν , x−ν) = 2Aννxν +

N∑µ=1µ6=ν

Aνµxµ = Aννx

ν +N∑

µ=1

Aνµxµ.

Page 100: EINFÜHRUNG IN DIE SPIELTHEORIE

94 KAPITEL 5. NUMERISCHE VERFAHREN FÜR GNEPS

Mittels einer elementaren Rechnung erhalten wir daherN∑

ν=1

[∇θν(x

ν , x−ν)−∇θν(yνα(x), x−ν

]T (x− yα(x)

)=

N∑ν=1

N∑µ=1

[∇xµθν(x

ν , x−ν)−∇xµθν(yνα(x), x−ν)

]T (xµ − yµ

α(x))

= 2N∑

ν,µ=1

(xν − yν

α(x))T

Aνµ

(xµ − yµ

α(x))

= 2(x− yα(x)

)TA

(x− yα(x)

)> 0,

falls x 6= yα(x). Also ist die Voraussetzung 5.12 erfüllt. 2

Numerische Resultate zu dem hier beschriebenen Zugang zur numerischen Lösung vonGNEPs mittels eines restringierten Optimierungsproblems liegen im Moment noch nichtvor. Wir werden diesen Zugang im nächsten Abschnitt allerdings aufgreifen, um sogar eineunrestringierte Umformulierung des GNEPs zu erhalten.

5.4 Die Di�erenz zweier regularisierter Nikaido�Isoda�FunktionenWir betrachten weiterhin unser GNEP mit einer gemeinsamen Strategiemenge X ⊆ Rn,die als nichtleer, abgeschlossen und konvex vorausgesetzt werde, sowie mindestens stetigenAuszahlungsfunktionen θν : Rn → R, die konvex in xν seien. Das Optimierungsproblemdes ν-ten Spielers ist somit gegeben durch

minxν

θν(xν , x−ν) u.d.N. (xν , x−ν) ∈ X.

Ferner seien im gesamten Abschnitt zwei Parameter0 < α < β

fest vorgegeben. Die zugehörigen regularisierten Nikaido�Isoda�Funktionen lauten dann

Ψα(x, y) :=N∑

ν=1

[θν(x

ν , x−ν)− θν(yν , x−ν)− α

2‖xν − yν‖2

]und

Ψβ(x, y) :=N∑

ν=1

[θν(x

ν , x−ν)− θν(yν , x−ν)− β

2‖xν − yν‖2

].

Page 101: EINFÜHRUNG IN DIE SPIELTHEORIE

5.4 DIE DIFFERENZ ZWEIER REGULARISIERTER NI�FUNKTIONEN 95

Hiermit de�nieren wirVα(x) = max

y∈XΨα(x, y) = Ψα

(x, yα(x)

) undVβ(x) = max

y∈XΨβ(x, y) = Ψβ

(x, yβ(x)

)für gewisse (eindeutig bestimmte) Vektoren yα(x), yβ(x) ∈ X, in denen die jeweils auf-tretenden Maxima angenommen werden. Im Mittelpunkt dieses Abschnittes steht nun dieFunktion

Vαβ(x) := Vα(x)− Vβ(x),

die sich gerade als Di�erenz zweier regularisierter Nikaido�Isoda�Funktionen ergibt. Zu-nächst benötigen wir das nachstehende Hilfsresultat.Lemma 5.15 Für alle x ∈ Rn gelten die Abschätzungen

β − α

2‖x− yβ(x)‖2 ≤ Vαβ(x) ≤ β − α

2‖x− yα(x)‖2. (5.11)

Beweis: Per De�nition gilt für alle x ∈ Rn

Vβ(x) = Ψβ

(x, yβ(x)

)= max

y∈XΨβ(x, y)

und daherVβ(x) ≥ Ψβ

(x, yα(x)

).

Hieraus folgtVαβ(x) = Vα(x)− Vβ(x)

≤ Ψα

(x, yα(x)

)−Ψβ

(x, yα(x)

)=

β − α

2

N∑ν=1

‖xν − yνα(x)‖2

=β − α

2‖x− yα(x)‖2

für alle x ∈ Rn. Damit ist die rechte Ungleichung in (5.11) bewiesen. Die linke Ungleichunglässt sich analog zeigen: Zunächst ist

Vα(x) = Ψα

(x, yα(x)

)= max

y∈XΨα(x, y) ≥ Ψα

(x, yβ(x)

).

Dies liefertVαβ(x) = Vα(x)− Vβ(x)

≥ Ψα

(x, yβ(x)

)−Ψβ

(x, yβ(x)

)

Page 102: EINFÜHRUNG IN DIE SPIELTHEORIE

96 KAPITEL 5. NUMERISCHE VERFAHREN FÜR GNEPS

=β − α

2

N∑ν=1

‖xν − yνβ(x)‖2

=β − α

2‖x− yβ(x)‖2

für alle x ∈ Rn, womit die Behauptung vollständig bewiesen ist. 2

Als Konsequenz des Lemmas 5.15 erhalten wir jetzt das folgende zentrale Resultat überdie Funktion Vαβ.Satz 5.16 Unter den zu Beginn des Abschnittes genannten Voraussetzungen gelten diefolgenden Aussagen:

(a) Es ist Vαβ(x) ≥ 0 für alle x ∈ Rn.

(b) Genau dann ist x∗ ein Nash�Gleichgewichtspunkt, wenn x∗ ein globales Minimumvon Vαβ auf dem Rn ist mit Vαβ(x∗) = 0.

Beweis: (a) Wegen Lemma 5.15 gilt

Vαβ(x) ≥ β − α

2‖x− yβ(x)‖2 ≥ 0

für alle x ∈ Rn.

(b) Sei x∗ zunächst ein Nash�Gleichgewichtspunkt. Wegen Satz 5.11 ist dann sowohl x∗ =yα(x∗) als auch x∗ = yβ(x∗). Aus (5.11) folgt dann unmittelbar Vαβ(x∗) = 0.

Sei umgekehrt Vαβ(x∗) = 0. Wegen (5.11) ist dann x∗ = yβ(x∗). Wegen Satz 5.11 istx∗ ∈ X somit ein Nash�Gleichgewichtspunkt. 2

Wegen Satz 5.16 können wir einen Nash�Gleichgewichtspunkt somit berechnen, indem wirein globales Minimum des unrestringierten Optimierungsproblems

min Vαβ(x), x ∈ Rn, (5.12)bestimmen. Unter gewissen Glattheitsvoraussetzungen handelt es sich hierbei sogar um einstetig di�erenzierbares Optimierungsproblem, denn es gilt das folgende Resultat, das sichals unmittelbare Konsequenz aus dem Satz 5.10 ergibt.Satz 5.17 Seien zusätzlich zu den üblichen Voraussetzungen die Funktionen θν stetig dif-ferenzierbar. Dann ist die Abbildung Vαβ ebenfalls stetig di�erenzierbar auf dem gesamtenRn mit

∇Vαβ(x) = ∇xΨα(x, y)|y=yα(x) −∇xΨβ(x, y)|y=yβ(x).

Page 103: EINFÜHRUNG IN DIE SPIELTHEORIE

5.4 DIE DIFFERENZ ZWEIER REGULARISIERTER NI�FUNKTIONEN 97

Damit wissen wir, dass (5.12) ein Umformulierung von GNEP als ein glattes, unrestringier-tes Optimierungsproblem liefert. Allerdings benötigen wir ein globales Minimum von Vαβ.Da praktisch alle Standard�Verfahren der unrestringierten Optimierung im Allgemeinennur einen stationären Punkt von Vαβ �nden, wollen wir als Nächstes ein Resultat angeben,das unter gewissen Voraussetzungen zeigt, wann ein solcher stationärer Punkt bereits einglobales Minimum von Vαβ darstellt. Zu diesem Zweck benötigen wir das nachstehendeHilfsresultat.Lemma 5.18 Die Ungleichung

N∑ν=1

[∇xνθν(y

να(x), x−ν)−∇xνθν(y

νβ(x), x−ν)−α(xν−yν

α(x))+β(xν−yνβ(x))

]T (yν

β(x)−yνα(x)

)≥ 0

gilt für alle x ∈ Rn.

Beweis: Wie in Beweis des Satzes 5.13 bereits erwähnt wurde, genügt yνα(x) der Optima-

litätsbedingungN∑

ν=1

[∇xνθν(y

να(x), x−ν)− α(xν − yν

α(x))]T (

zν − yνα(x)

)≥ 0 ∀z ∈ X.

Auf ähnliche Weise ergibt sich für yνβ(x) auch die Gültigkeit von

N∑ν=1

[∇xνθν(y

νβ(x), x−ν)− β(xν − yν

β(x))]T (

zν − yνβ(x)

)≥ 0 ∀z ∈ X.

Wählt man speziell z = yβ(x) in der ersten Ungleichung und z = yα(x) in der zweitenUngleichung, so erhält man

N∑ν=1

[∇xνθν(y

να(x), x−ν)− α(xν − yν

α(x))]T (

yνβ(x)− yν

α(x))≥ 0

undN∑

ν=1

[∇xνθν(y

νβ(x), x−ν)− β(xν − yν

β(x))]T (

yνα(x)− yν

β(x))≥ 0,

Addition dieser beiden Ungleichungen ergibt das gewünschte Resultat. 2

Damit ein stationärer Punkt bereits ein globales Minimum von Vαβ ist, benötigen wireine bestimmte Bedingung, die im Folgenden eingeführt wird und sehr ähnlich zu derentsprechenden Voraussetzung 5.12 ist.Voraussetzung 5.19 Für ein gegebenes x ∈ Rn mit yα(x) 6= yβ(x) gelte die Ungleichung

N∑ν=1

[∇θν(y

νβ(x), x−ν)−∇θν(y

να(x), x−ν)

]T (yβ(x)− yα(x)

)> 0.

Page 104: EINFÜHRUNG IN DIE SPIELTHEORIE

98 KAPITEL 5. NUMERISCHE VERFAHREN FÜR GNEPS

Aus dem Beweis des Satzes 5.14 kann man leicht sehen, dass die dortigen Voraussetzungenauch eine hinreichende Bedingung für die Gültigkeit der Voraussetzung 5.19 darstellen.

Unter Verwendung der Voraussetzung 5.19 können wir nun das folgende Resultat be-weisen.Satz 5.20 Sei x∗ ein stationärer Punkt von Vαβ. Falls die Voraussetzung 5.19 in x = x∗

gilt, dann ist x∗ ein normalisiertes Nash�Gleichgewicht des GNEP.

Beweis: Da x∗ ein stationärer Punkt von Vαβ ist, erhalten wir aus Satz 5.170 = ∇Vαβ(x∗)

=N∑

ν=1

[∇θν(y

νβ(x∗), x∗,−ν)−∇θν(y

να(x∗), x∗,−ν)

]

+

∇x1θ1(y1α(x∗), x∗,−1)−∇x1θ1(y

1β(x∗), x∗,−1)...

∇xN θN(yNα (x∗), x∗,−N)−∇xN θN(yN

β (x∗), x∗,−N)

(5.13)

−α(x∗ − yα(x∗)

)+ β

(x∗ − yβ(x∗)

).

Durch Multiplikation mit (yβ(x∗)− yα(x∗)

)T und Verwendung von Lemma 5.18 ergibt sichhieraus

0 =N∑

ν=1

[∇θν(y

νβ(x∗), x∗,−ν)−∇θν(y

να(x∗), x∗,−ν)

]T (yβ(x∗)− yα(x∗)

)+

N∑ν=1

[∇xνθν(y

να(x∗), x∗,−ν)−∇xνθν(y

νβ(x∗), x∗,−ν)

−α(x∗,ν − yνα(x∗)) + β(x∗,ν − yν

β(x∗))]T (

yνβ(x∗)− yν

α(x∗))

≥N∑

ν=1

[∇θν(y

νβ(x∗), x∗,−ν)−∇θν(y

να(x∗), x∗,−ν)

](yβ(x∗)− yα(x∗)).

Aus der Annahme yβ(x∗)− yα(x∗) 6= 0 erhielten wir mit der vorigen Ungleichungskette so-wie der Voraussetzung 5.19 unmittelbar den Widerspruch 0 > 0. Daher ist yα(x∗) = yβ(x∗).Damit vereinfacht sich (5.13) zu (β − α)

(x∗ − yα(x∗)

)= 0. Wegen α < β impliziert dies

x∗ = yα(x∗). Folglich ist x∗ ein normalisiertes Nash�Gleichgewicht wegen Satz 5.11. 2

Wir illustrieren die Ergebnisse dieses Abschnitts kurz an einem numerischen Beispiel.Beispiel 5.21 Zur unrestringierten Minimierung der Funktion Vαβ verwenden wir dasBarzilai�Borwein�Gradientenverfahren in seiner Ursprungsversion aus [1]. Dieses benutztdie Iterationsvorschrift

xk+1 := xk − tk∇Vαβ(xk), k = 0, 1, 2, . . .

Page 105: EINFÜHRUNG IN DIE SPIELTHEORIE

5.4 DIE DIFFERENZ ZWEIER REGULARISIERTER NI�FUNKTIONEN 99

k xk1 xk

2 xk3 Vαβ(xk)

0 0.000000 0.000000 0.000000 7.451139221 0.049284 0.045258 0.0443943119 7.400351532 13.392986 12.304685 12.05246278 0.537435743 13.951317 14.340640 9.36040156 0.274388194 16.455911 16.661533 6.36400553 0.091591325 19.255484 15.686024 4.24737809 0.016322146 21.147618 16.895162 3.13832110 0.009447727 20.335776 15.109764 1.97067973 0.029361778 21.226752 15.916221 2.99907356 0.000999729 21.091765 15.943096 2.80239809 0.0000769310 21.096580 15.994629 2.78077878 0.0000190111 21.107790 16.033262 2.75394038 0.0000050912 21.121802 16.026917 2.74329592 0.0000001813 21.128316 16.028374 2.74081510 0.0000000814 21.128848 16.026765 2.73270789 0.0000003515 21.134817 16.028893 2.73764021 0.0000001716 21.133555 16.027993 2.73461457 0.0000002717 21.135827 16.028053 2.73308098 0.0000002118 21.146710 16.027821 2.72424473 0.00000000

Tabelle 5.4: Numerische Resultate für das Beispiel 5.21 mittels des Barzilai�Borwein�Gradientenverfahrens

mit der Schrittweitetk :=

sT y

sT s,

wobei wir zur Abkürzungs := xk − xk−1 und y := ∇Vαβ(xk)−∇Vαβ(xk−1)

gesetzt haben. Dieses Verfahren hat also den Vorteil, eine explizite Formel für die Schritt-weite zu verwenden, so dass diese nicht erst durch eine in unserem Zusammenhang sehrteure Schrittweitenstrategie berechnet werden muss (die Auswertung von Vαβ an einem Zwi-schenpunkt würde der Lösung zweier restringierter Optimierungsprobleme entsprechen).Verwenden wir dieses Verfahren zur Lösung des Beispiels 4.5 mit den Parametern α := 0.02und β := 0.05 sowie dem Abbruchkriterium Vαβ(xk) ≤ ε mit ε := 10−8, so erhalten wir dieErgebnisse aus der Tabelle 5.4. 3

Das im vorigen Beispiel 5.21 verwendete Barzilai�Borwein�Gradientenverfahren hat zwarden Vorteil, keine Schrittweitenstrategie verwenden zu müssen, allerdings ist es im Allge-meinen auch nur sehr langsam konvergent. Zur Zeit wird untersucht, ob man zur unre-stringierten Minimierung von Vαβ auch lokal quadratisch konvergente Verfahren benutzen

Page 106: EINFÜHRUNG IN DIE SPIELTHEORIE

100 KAPITEL 5. NUMERISCHE VERFAHREN FÜR GNEPS

kann. In diesem Zusammenhang sei allerdings betont, dass die Abbildung Vαβ zwar stetigdi�erenzierbar ist, die zweite Ableitung jedoch nicht überall existieren muss.

Page 107: EINFÜHRUNG IN DIE SPIELTHEORIE

Kapitel 6

Numerische Verfahren fürVariationsungleichungen

6.1 Projektionsverfahren6.2 Josephy�Newton�Verfahren6.3 Die (regularisierte) Gap�Funktion6.4 Die D�Gap�Funktion6.5 Verallgemeinerte KKT�Bedingungen

6.1 ProjektionsverfahrenIn diesem und den folgenden Abschnitten dieses Kapitels beschreiben wir verschiedeneVerfahren zur Lösung von Variationsungleichungen. Im Hinblick auf die Sätze 2.27 und4.10 können diese Verfahren daher insbesondere auch zur Lösung von (verallgemeinerten)Nash�Gleichgewichtsproblemen benutzt werden. Dies ist in der Tat ein gängiger Weg zurnumerischen Lösung von (normalisierten) Nash�Gleichgewichtsproblemen, denn die Ver-fahren für Variationsungleichungen sind mittlerweile sehr ausgereift, während es nur re-lativ wenige Methoden gibt, die speziell zur Behandlung von (kontinuierlichen) Spielenentwickelt wurden. Das mag etwas überraschend klingen, ist aber nach bestem Wissen desAutors der Stand der Dinge.

Betrachte also die Variationsungleichung VIP(X, F ). Aufgrund des Satzes 2.31 ist x∗ ∈X genau dann eine Lösung von VIP(X, F ), wenn x∗ ein Fixpunkt der Abbildung

x 7→ PX

(x− γF (x)

)ist, wobei γ > 0 ein beliebiger Parameter sein darf. Dies motiviert das nachstehende Ver-fahren.Algorithmus 6.1 ( Fixpunkt�/Projektionsverfahren )

(S.0) Seien x0 ∈ X, γ > 0, und setze k := 0.

101

Page 108: EINFÜHRUNG IN DIE SPIELTHEORIE

102 KAPITEL 6. NUMERISCHE VERFAHREN FÜR VIPS

(S.1) Ist xk Lösung von VIP(X, F ): STOP.

(S.2) Setze xk+1 := PX

(xk − γF (xk)

).

(S.3) Setze k ← k + 1, und gehe zu (S.1).

Um einen Konvergenzsatz für den Algorithmus 6.1 beweisen zu können, erinnern wir zu-nächst an den fundamentalen Fixpunktsatz von Banach, der hier nur in etwas vereinfachterForm wiedergegeben wird.Satz 6.2 ( Fixpunktsatz von Banach )Seien X ⊆ Rn eine nichtleere und abgeschlossene Menge sowie H : X → X eine kontra-hierende Selbstabbildung, d.h.,

‖H(x)−H(y)‖ ≤ κ‖x− y‖

für alle x, y ∈ X und eine Konstante κ ∈ (0, 1). Dann besitzt H genau einen Fixpunkt x∗

in X. Ferner konvergiert jede durch die Vorschrift xk+1 := H(xk), k = 0, 1, 2, . . . , x0 ∈ Xbeliebig, erzeugte Folge {xk} gegen diesen Fixpunkt x∗.

Wir kommen nun zu dem bereits angekündigten Konvergenzsatz für den Algorithmus 6.1,wobei wir implizit davon ausgehen, dass der Algorithmus nicht nach endlich vielen Schrittenmit einer Lösung von VIP(X, F ) abbricht.Satz 6.3 Sei X ⊆ Rn nichtleer, abgeschlossen und konvex. Sei ferner F : X → Rn gleich-mäÿig monoton mit Modulus µ > 0 sowie Lipschitz�stetig auf X mit Konstanter L > 0.Sei γ < 2µ/L2. Dann konvergiert die durch den Algorithmus 6.1 erzeugte Folge {xk} gegendie eindeutige Lösung von VIP(X, F ).

Beweis: O�enbar genügt die Menge X den Voraussetzungen des Fixpunktsatzes 6.2 vonBanach. Ferner ist die Abbildung H(x) := PX

(x − γF (x)

) eine Selbstabbildung von X.Wegen

‖H(x)−H(y)‖2 =∥∥PX

(x− γF (x)

)− PX

(y − γF (y)

)∥∥2

≤∥∥x− y + γ

(F (y)− F (x)

)∥∥2

= ‖x− y‖2 − 2γ(x− y)T(F (x)− F (y)

)+ γ2‖F (x)− F (y)‖2

≤ (1 + γ2L2 − 2γµ)‖x− y‖2,

wobei die erste Ungleichung aus dem Lemma 2.30 folgt, gilt‖H(x)−H(y)‖ ≤ κ‖x− y‖

für alle x, y ∈ X mitκ :=

√1 + γ2L2 − 2γµ.

Wegen γ < 2µ/L2 ist κ ∈ (0, 1), d.h., die Abbildung H ist kontrahierend. Aufgrund desSatzes 6.2 konvergiert die durch den Algorithmus 6.1 erzeugte Folge {xk} daher gegen den

Page 109: EINFÜHRUNG IN DIE SPIELTHEORIE

6.1. PROJEKTIONSVERFAHREN 103

eindeutig bestimmten Fixpunkt x∗ ∈ X von H, der aufgrund der einleitenden Bemerkun-gen dieses Abschnittes auch die eindeutige Lösung von VIP(X, F ) ist. (Dass VIP(X, F )unter den Voraussetzungen dieses Satzes eine eindeutige Lösung besitzt, folgt natürlichauch unmittelbar aus dem Korollar 2.39.) 2

Die Voraussetzungen des Satzes 6.3 sind relativ stark. Weder die gleichmäÿige Monotonienoch die (globale) Lipschitz�Stetigkeit von F sind im Allgemeinen erfüllt. Ferner sind dieKonstanten µ > 0 und L > 0 oft nicht bekannt, so dass auch eine geeignete Wahl vonγ > 0 Schwierigkeiten bereitet. Ein wichtiger Spezialfall, bei dem die Voraussetzungen desSatzes 6.3 auch praktisch erfüllbar sind, wird in der folgenden Bemerkung diskutiert.Bemerkung 6.4 Seien M ∈ Rn×n positiv de�nit (nicht notwendig symmetrisch), q ∈ Rn

und F (x) := Mx+q. Aufgrund der Bemerkung 2.15 ist F dann eine gleichmäÿig monotoneFunktion. Genauer gilt für alle x, y ∈ Rn:

(x− y)T(F (x)− F (y)

)= (x− y)T M(x− y)

=1

2(x− y)T

(M + MT

)(x− y)

≥ 1

2λmin

(M + MT

)‖x− y‖2,

wobei λmin(A) den kleinsten Eigenwert der symmetrischen Matrix A ∈ Rn×n bezeichnet.Die positive De�nitheit von M garantiert, dass

µ :=1

2λmin

(M + MT

) (6.1)positiv ist und daher als Modulus für die gleichmäÿige Monotonie benutzt werden kann.Ferner ist

‖F (x)− F (y)‖ ≤ ‖M‖ ‖x− y‖

für alle x, y ∈ Rn, so dassL := ‖M‖ (6.2)

eine geeignete Lipschitz�Konstante ist. Da sowohl µ als auch L aus (6.1) bzw. (6.2) (zumin-dest approximativ) berechenbar sind, lässt sich für a�n�lineares F ein geeignetes γ > 0bestimmen, so dass der Algorithmus 6.1 konvergiert.Man beachte, dass der Algorithmus 6.1 keinerlei Informationen über die Jacobi�MatrixF ′(x) verwendet, sondern lediglich Funktionswerte F (x) benötigt. Das Fixpunktverfahren6.1 konvergiert daher im Allgemeinen auch nur sehr langsam.

Dafür müssen auch keine linearen Gleichungssysteme gelöst werden. Der Hauptaufwandim Algorithmus 6.1 besteht dagegen in der Berechnung der Projektionen eines Vektors aufdie Menge X. Diese kann sehr teuer sein, für speziell strukturierte Mengen X, wie sie beiVariationsungleichungen häu�g auftreten, gibt es zum Teil sehr e�ziente Verfahren.

Page 110: EINFÜHRUNG IN DIE SPIELTHEORIE

104 KAPITEL 6. NUMERISCHE VERFAHREN FÜR VIPS

Bemerkung 6.5 Es gibt eine Reihe von Modi�kationen des einfachen Projektionsverfah-rens aus dem Algorithmus 6.1, von denen unter deutlich schwächeren Voraussetzungen dieKonvergenz gegen eine Lösung von VIP(X, F ) gezeigt werden kann. Hierzu gehört bei-spielsweise das so genannte Extragradientenverfahren

xk+1 := PX

[xk − γF

(PX(xk − γF (xk))

)]∀k = 0, 1, 2, . . .

mit einem Startvektor x0 ∈ X und einem festen Parameter γ > 0. Diese Extragradi-entenverfahren konvergiert für die Klasse der monotonen und (global) Lipschitz�stetigenFunktionen F , sofern γ > 0 hinreichend klein gewählt wird, vergleiche [12]. Wird statt desfesten Parameters γ ein geeigneter und vom Iterationsindex k abhängiger Wert γk im Ex-tragradientenverfahren genommen, so kann die relativ starke Voraussetzung der globalenLipschitz�Stetigkeit noch durch die wesentlich schwächere Bedingung der Stetigkeit von Fersetzt werden, vergleiche [12] für ein derartiges Verfahren.Wenden wir das Projektionsverfahren auf das Beispiel 5.4 (formuliert als Variationsunglei-chung im Sinne des Satzes 2.27) mit dem Startvektor x0 := (0, . . . , 0)T , dem Parameterγ := 0.1 und dem Abbruchkriterium ‖xk − PX(xk − γF (xk))‖ ≤ ε := 10−5 an, so brichtdas Verfahren nach 485 Iterationen und dem Lösungsvektor

x∗ ≈ (36.933, 41.818, 43.707, 42.659, 39.179)T

ab. Im Vergleich zu den Methoden aus dem vorigen Kapitel ist die Iterationszahl natürlichsehr hoch, wegen der sehr einfachen Gestalt der zulässigen Menge im Beispiel 5.4 ist jedeeinzelne Iteration beim Projektionsverfahren aber auÿerordentlich günstig, was man beieinem fairen Vergleich der Verfahren zu berücksichtigen hat.

6.2 Josephy�Newton�VerfahrenBetrachte weiterhin die Variationsungleichung VIP(X, F ). Die zentrale Idee des Josephy�Newton�Verfahrens besteht darin, eine Folge {xk} zu erzeugen, wobei xk+1 Lösung einer imAllgemeinen einfacher zu lösenden Variationsungleichung VIP(X, Fk) ist; hier bezeichnetFk : X → Rn eine noch näher zu spezi�zierende Funktion, wobei man beim Josephy�Newton�Verfahren die Linearisierung

Fk(x) := F (xk) + F ′(xk)(x− xk) (6.3)wählt. Andere Verfahren unterscheiden sich hiervon durch eine andere Wahl von Fk. Ins-besondere wird die Jacobi�Matrix F ′(xk) in (6.3) nicht ungerne durch eine geeignete Ap-proximation ersetzt.

Hier beschränken wir uns aber auf das klassische Josephy�Newton�Verfahren mit derWahl (6.3) für Fk. Das Verfahren wird im nachfolgenden Algorithmus formal beschrieben.Algorithmus 6.6 ( Josephy�Newton�Verfahren )

Page 111: EINFÜHRUNG IN DIE SPIELTHEORIE

6.2. JOSEPHY�NEWTON�VERFAHREN 105

(S.0) Wähle x0 ∈ X, und setze k := 0.

(S.1) Ist xk eine Lösung von VIP(X, F ): STOP.

(S.2) Sei Fk gemäÿ (6.3) de�niert, und bestimme xk+1 als Lösung von VIP(X,Fk), d.h.:(F (xk) + F ′(xk)(xk+1 − xk)

)T(x− xk+1) ≥ 0 ∀x ∈ X.

(S.3) Setze k ← k + 1, und gehe zu (S.1).

Man beachte, dass das im Schritt (S.2) zu lösende Hilfsproblem VIP(X, Fk) im Allgemeinentatsächlich einfacher zu lösen sein wird als das Ausgangsproblem VIP(X, F ) selbst, da dieFunktion Fk nur linear ist. Insbesondere kann man zur Lösung dieser Hilfsprobleme diebereits vorher behandelten Projektionsverfahren heranziehen. Im Falle einer polyhedrischenMenge X eignet sich das Lemke�Verfahren meist besser, vergleiche hierzu die Bemerkung6.11.

Wir wollen im Folgenden zeigen, dass das Josephy�Newton�Verfahren aus dem Algo-rithmus 6.6 unter gewissen Voraussetzungen lokal wohlde�niert ist und Q�superlinear bzw.sogar Q�quadratisch konvergiert im Sinne der folgenden De�nition.De�nition 6.7 Sei {xk} ⊆ Rn eine gegen ein x∗ ∈ Rn konvergente Folge. Dann konver-giert {xk} gegen x∗

(a) Q�superlinear, falls ‖xk+1 − x∗‖ = o(‖xk − x∗‖) gilt;

(b) Q�quadratisch, falls ‖xk+1 − x∗‖ = O(‖xk − x∗‖2) gilt.

Zum Nachweis der lokal schnellen Konvergenz des Josephy�Newton�Verfahrens benötigenwir noch zwei einfache Lemmata. Das erste Lemma ist eine unmittelbare Konsequenz desSatzes von Taylor, so dass wir hier auf einen genauen Beweis verzichten, vergleiche [12].Lemma 6.8 Seien X ⊆ Rn nichtleer, F : X → Rn und {xk} ⊆ X eine gegen ein x∗ ∈ Xkonvergente Folge. Dann gelten:

(a) Ist F stetig di�erenzierbar, so ist

‖F (xk)− F (x∗)− F ′(xk)(xk − x∗)‖ = o(‖xk − x∗‖).

(b) Ist F stetig di�erenzierbar mit lokal Lipschitz�stetiger Ableitung, so ist

‖F (xk)− F (x∗)− F ′(xk)(xk − x∗)‖ = O(‖xk − x∗‖2).

Das zweite Lemma besagt, dass sich die positive De�nitheit der Jacobi�Matrix F ′(x) aufeine Umgebung von x überträgt, und zwar sogar gleichmäÿig.

Page 112: EINFÜHRUNG IN DIE SPIELTHEORIE

106 KAPITEL 6. NUMERISCHE VERFAHREN FÜR VIPS

Lemma 6.9 Seien X ⊆ Rn nichtleer, x∗ ∈ X und F : X → Rn stetig di�erenzierbar mitF ′(x∗) positiv de�nit. Dann existieren Konstanten δ > 0 und α > 0 mit

dT F ′(x)d ≥ α‖d‖2

für alle x ∈ Rn mit ‖x − x∗‖ ≤ δ und alle d ∈ Rn, d.h., die Jacobi�Matrizen F ′(x) sindlokal gleichmäÿig positiv de�nit.

Beweis: Angenommen, die Behauptung ist falsch. Dann existiert eine Folge {xk} mitxk → x∗ sowie Vektoren dk ∈ Rn mit

(dk)T F ′(xk)dk <1

k‖dk‖2. (6.4)

O.B.d.A. kann dabei angenommen werden, dass ‖dk‖ = 1 für alle k gilt. Dann besitzt dieFolge {dk} eine gegen ein d∗ 6= 0 konvergente Teilfolge {dk}K . Wegen F ′(xk) → F ′(x∗)ergibt sich aus (6.4) durch Grenzübergang auf dieser Teilfolge dann

(d∗)T F ′(x∗)d∗ ≤ 0.

Wegen d∗ 6= 0 widerspricht dies jedoch der vorausgesetzten positiven De�nitheit von F ′(x∗).2

Wir kommen nun zu dem schon angekündigten lokalen Konvergenzsatz für das Josephy�Newton�Verfahren.Satz 6.10 Seien X ⊆ Rn eine nichtleere, abgeschlossene und konvexe Menge sowie F :X → Rn stetig di�erenzierbar. Sei ferner x∗ ∈ X eine Lösung der VariationsungleichungVIP(X, F ), so dass die Jacobi�Matrix F ′(x∗) positiv de�nit ist. Dann existiert ein δ > 0,so dass für jeden Startwert x0 ∈ Rn mit ‖x0 − x∗‖ ≤ δ die folgenden Aussagen gelten:

(a) Das Josephy�Newton�Verfahren 6.6 ist wohlde�niert.

(b) Die Folge {xk} konvergiert Q�superlinear gegen x∗.

(c) Die Folge {xk} konvergiert Q�quadratisch gegen x∗, falls F sogar eine lokal Lipschitz�stetige Ableitung besitzt.

Beweis: Wegen Lemma 6.9 existieren ein δ1 > 0 und ein α > 0 mitdT F ′(x)d ≥ α‖d‖2 (6.5)

für alle d ∈ Rn und alle x ∈ Rn mit ‖x − x∗‖ ≤ δ1. Sei r ∈ (0, 1) fest gewählt. Aufgrunddes Lemmas 6.8 (a) existiert dann ein δ2 > 0 mit

‖F (x)− F (x∗)− F ′(x)(x− x∗)‖ ≤ rα

2‖x− x∗‖ (6.6)

Page 113: EINFÜHRUNG IN DIE SPIELTHEORIE

6.2. JOSEPHY�NEWTON�VERFAHREN 107

für alle x ∈ Rn mit ‖x − x∗‖ ≤ δ2. Setze nun δ := min{δ1, δ2}, und wähle x0 ∈ Rn mit‖x0−x∗‖ ≤ δ. Dann ist F ′(x0) positiv de�nit wegen (6.5). Also besitzt die im Schritt (S.2)des Josephy�Newton�Verfahrens auftretende Variationsungleichung VIP(X, F0) wegen Ko-rollar 2.39 eine eindeutige Lösung x1, denn die Funktion F0 ist aufgrund der Bemerkung2.15 gleichmäÿig monoton.

Als Lösung von VIP(X, F0) genügt x1 ∈ X der Ungleichung(F (x0) + F ′(x0)(x1 − x0)

)T(x− x1) ≥ 0 ∀x ∈ X. (6.7)

Ferner ist x∗ ∈ X Lösung von VIP(X, F ), so dassF (x∗)T (x− x∗) ≥ 0 ∀x ∈ X (6.8)

gilt. Einsetzen von x = x∗ in (6.7) und x = x1 in (6.8) und anschlieÿende Addition dieserbeiden Ungleichungen ergibt:

(x∗ − x1)T(F (x0)− F (x∗)− F ′(x0)(x0 − x∗ + x∗ − x1)

)≥ 0. (6.9)

Aus (6.5)�(6.9) erhält man unter Verwendung der Cauchy�Schwarzschen Ungleichung:α‖x1 − x∗‖2 ≤ (x∗ − x1)T F ′(x0)(x∗ − x1)

≤ (x∗ − x1)T(F (x0)− F (x∗)− F ′(x0)(x0 − x∗)

)≤ ‖x∗ − x1‖ ‖F (x0)− F (x∗)− F ′(x0)(x0 − x∗)‖≤ rα

2‖x∗ − x1‖ ‖x0 − x∗‖.

(6.10)

Hieraus ergibt sich‖x1 − x∗‖ ≤ r

2‖x0 − x∗‖ < ‖x0 − x∗‖, (6.11)

d.h., auch x1 liegt in der δ�Umgebung von x∗. Durch Induktion ergibt sich daher die Wohl-de�niertheit des Josephy�Newton�Verfahrens. Auÿerdem liefert (6.11) mittels Induktionunmittelbar

‖xk − x∗‖ ≤(r

2

)k

‖x0 − x∗‖

und damit wegen r ∈ (0, 1) die Konvergenz von {xk} gegen x∗.Ebenfalls durch Induktion ergibt sich aus (6.10) die Ungleichung

α‖xk+1 − x∗‖2 ≤ ‖x∗ − xk+1‖ ‖F (xk)− F (x∗)− F ′(xk)(xk − x∗)‖,

alsoα‖xk+1 − x∗‖ ≤ ‖F (xk)− F (x∗)− F ′(xk)(xk − x∗)‖.

Die beiden Aussagen über die lokale Konvergenzgeschwindigkeit folgen daher unmittelbaraus dem Lemma 6.8. 2

Die im Konvergenzsatz 6.10 geforderte Bedingung der positiven De�nitheit von F ′(x∗)lässt sich noch erheblich abschwächen, wenn man etwas mehr über die lokale Struktur der

Page 114: EINFÜHRUNG IN DIE SPIELTHEORIE

108 KAPITEL 6. NUMERISCHE VERFAHREN FÜR VIPS

zulässigen Menge X in einer Umgebung von x∗ weiÿ. Wir gehen hierauf aber nicht weiterein und verweisen nur auf die entsprechende Literatur [21, 9, 10]. Auf der anderen Seite istdie Bedingung der positiven De�nitheit von F ′(x∗) sicherlich für gleichmäÿig monotones Ferfüllt, vergleiche den Satz 2.17, der Satz 6.10 also insbesondere für gleichmäÿige monotoneFunktionen F richtig.Bemerkung 6.11 Numerisch besteht bei der Durchführung des Josephy�Newton�Ver-fahrens das Hauptproblem darin, in jeder Iteration die linearisierte Variationsungleichungaus dem Schritt (S.2) im Algorithmus 6.6 lösen zu können. Sofern es sich bei X um ei-ne polyedrische Menge handelt, etwa in der Gestalt X = {x ∈ Rn |Ax ≤ b, x ≥ 0}, sokann man diese linearisierte Variationsungleichung unter Verwendung der Ergebnisse ausdem späteren Abschnitt 6.5 relativ leicht in ein lineares Komplementaritätsproblem um-formulieren und dieses dann mit dem schon im Abschnitt 3.4 genannten Lemke�Verfahrenlösen. Schreiben wir die linearisierte Funktion aus dem Schritt (S.2) nämlich in der Ge-stalt F (x) = Qx + c, so ist die linearisierte Variationsungleichung äquivalent zu ihrenKKT�Bedingungen, die o�enbar wie folgt lauten:

x ≥ 0, Qx + c + AT λ ≥ 0, xT(Qx + c + AT λ

)= 0,

λ ≥ 0, b− Ax ≥ 0, λT(b− Ax

)= 0.

Dies ist aber ein lineares Komplementaritätsproblem LCP(q, M) mitq :=

(cb

)und M :=

(Q AT

−A 0

).

Wir illustrieren das numerische Verhalten des Josephy�Newton�Verfahrens an dem kon-kreten Oligopol�Modell aus Beispiel 5.4. Die Tabelle 6.1 enthält den Iterationsverlauf desJosephy�Newton�Verfahrens, wobei wir abbrechen, sobald ‖xk+1 − xk‖ ≤ ε mit ε := 10−6

gilt. Dabei werden die linearisierten Variationsungleichungen in jedem Schritt mit demzuvor angesprochenen Lemke�Verfahren gelöst. Man beachte in der Tabelle 6.1 die in derNähe der Lösung (ab etwa der Iteration 5) sehr schnelle Verkleinerung von ‖xk+1 − xk‖,die sich letztlich aus der lokal quadratischen Konvergenz des Verfahrens ergibt.

6.3 Die (regularisierte) Gap�FunktionIn diesem gesamten Abschnitt seien X ⊆ Rn eine nichtleere, abgeschlossene und konvexeMenge sowie F : X → Rn eine zumindest stetige Funktion. Wir betrachten wieder dieVariationsungleichung VIP(X, F ): Finde ein x∗ ∈ X mit

F (x∗)T (x− x∗) ≥ 0 für alle x ∈ X.

Dieses Problem ist o�enbar äquivalent dazu, einen Vektor x∗ ∈ X zu �nden mitF (x∗)T (x∗ − x) ≤ 0 für alle x ∈ X.

Diese Formulierung der Variationsungleichung VIP(X, F ) ist für die Zwecke dieses und desfolgenden Abschnittes manchmal angemessener.

Page 115: EINFÜHRUNG IN DIE SPIELTHEORIE

6.3. DIE (REGULARISIERTE) GAP�FUNKTION 109k xk

1 xk2 xk

3 xk4 xk

5 ‖xk+1 − xk‖0 10.000000 10.000000 10.000000 10.000000 10.000000 −1 6.648000 17.932707 19.111264 20.138455 20.942508 20.31417272 25.191217 29.206530 32.240695 33.943395 33.919521 27.04527423 33.967238 39.191361 41.836919 41.639206 38.780222 18.75246204 36.814563 41.736143 43.663868 42.643386 39.174448 4.36860445 36.932375 41.818071 43.706553 42.659235 39.178952 0.15061726 36.932511 41.818142 43.706579 42.659240 39.178953 0.00015517 36.932511 41.818142 43.706579 42.659240 39.178952 0.0000000

Tabelle 6.1: Numerische Resultate für das Beispiel 5.4 mit dem lokalen Josephy�Newton�VerfahrenDe�nition 6.12 Die durch

g(x) := supy∈X{F (x)T (x− y)}

de�nierte Funktion g : Rn → R ∪ {+∞} heiÿt die der Variationsungleichung VIP(X,F )zugeordnete Gap�Funktion.Das folgende Lemma fasst die beiden wohl wichtigsten Eigenschaften der Gap�Funktionzusammen.Lemma 6.13 Sei g die Gap�Funktion von VIP(X, F ). Dann gelten:

(a) g(x) ≥ 0 für alle x ∈ X.

(b) g(x) = 0, x ∈ X ⇐⇒ x löst VIP(X, F ).

Beweis: (a) Sei x ∈ X beliebig. Dann gilt:g(x) = sup

y∈X{F (x)T (x− y)} ≥ F (x)T (x− x) = 0.

Damit ist Teil (a) bereits bewiesen.

(b) Sei zunächst x ∈ Rn eine Lösung von VIP(X, F ). Dann ist x ∈ X, und es giltF (x)T (x− y) ≤ 0 für alle y ∈ X,

also g(x) = 0 wegen Teil (a). Sei umgekehrt x ∈ X gegeben mit g(x) = 0, alsosupy∈X{F (x)T (x− y)} = 0.

Daraus folgtF (x)T (x− y) ≤ 0 für alle y ∈ X,

Page 116: EINFÜHRUNG IN DIE SPIELTHEORIE

110 KAPITEL 6. NUMERISCHE VERFAHREN FÜR VIPS

d.h., x ∈ X ist Lösung von VIP(X, F ). 2

Das Lemma 6.13 legt es nahe, die Variationsungleichung VIP(X, F ) umzuformulieren alsein restringiertes Optimierungsproblem der Gestalt

min g(x) u.d.N. x ∈ X.

Dieses Optimierungsproblem hat jedoch einige Nachteile, da es der Gap�Funktion an eini-gen wünschenswerten Eigenschaften mangelt: Zum einen ist g im Allgemeinen nicht überallstetig di�erenzierbar, und zum anderen ist der Wertebereich der Gap�Funktion nicht not-wendig endlich. Obgleich das letztgenannte Problem im Fall einer beschränkten und damitkompakten Menge X nicht zutri�t (in diesem Fall lässt sich das Supremum in der De�niti-on der Gap�Funktion durch ein Maximum ersetzen), wollen wir auf die Gap�Funktion imRahmen dieses Skriptes nicht weiter eingehen.

Eine Modi�kation der Gap�Funktion wird uns im Folgenden aber auf die so genannteregularisierte Gap�Funktion führen, die in diesem Abschnitt von zentraler Bedeutung ist.De�nition 6.14 Seien G ∈ Rn×n symmetrisch und positiv de�nit sowie α > 0. Die durch

gα(x) := maxy∈X

{F (x)T (x− y)− α

2‖x− y‖2G

}de�nierte Funktion gα : Rn → R heiÿt die der Variationsungleichung VIP(X, F ) zugeord-nete regularisierte Gap�Funktion.Wir wollen im Folgenden zeigen, dass die regularisierte Gap�Funktion nicht mehr die weiteroben erwähnten Nachteile der Gap�Funktion besitzt.Bemerkung 6.15 Setze

fα(x, y) := F (x)T (x− y)− α

2‖x− y‖2G.

Dann istgα(x) = max

y∈Xfα(x, y).

Da die Funktion fα(x, .) gleichmäÿig konkav bzgl. der y�Variablen ist, besitzt das Maxi-mierungsproblem

maxy∈X

{F (x)T (x− y)− α

2‖x− y‖2G

}(6.12)

bzw. das hierzu äquivalente gleichmäÿig konvexe Minimierungsproblemminy∈X

{F (x)T (y − x) +

α

2‖x− y‖2G

}(6.13)

aufgrund des Korollars 2.41 eine eindeutige Lösung für jedes feste x, d.h. gα(x) ist stetswohlde�niert und endlich. Man beachte, dass der �Regularisierungsterm� −α

2‖x − y‖2G in

der De�nition von gα hierbei von entscheidender Bedeutung ist.

Page 117: EINFÜHRUNG IN DIE SPIELTHEORIE

6.3. DIE (REGULARISIERTE) GAP�FUNKTION 111

Im folgenden Resultat gehen wir auf eine explizite Darstellung der eindeutigen Lösung von(6.12) ein.Lemma 6.16 Seien G ∈ Rn×n symmetrisch und positiv de�nit sowie α > 0 beliebig. Dannist

Hα(x) := PX,G

(x− 1

αG−1F (x)

)die eindeutig bestimmte Lösung des Problems (6.12).Beweis: Wie bereits erwähnt, ist das Maximierungsproblem (6.12) äquivalent zu dem Mi-nimierungsproblem (6.13). Da sich die Lösung eines Minimierungsproblems durch Additioneiner Konstanten und durch Multiplikation der Zielfunktion mit einer positiven Zahl nichtändert, ist (6.13) wiederum äquivalent zu

miny∈X

{2

αF (x)T (y − x) + ‖x− y‖2G +

1

α2F (x)T G−1F (x)

}; (6.14)

hierzu beachte man, dass nur bezüglich y minimiert wird und x daher konstant ist. Durcheinfache Umformulierung der Zielfunktion in (6.14) erhält man die folgende äquivalenteFormulierung von (6.14):

miny∈X

∥∥∥y −(x− 1

αG−1F (x)

)∥∥∥2

G. (6.15)

Per De�nition istHα(x) := PX,G

(x− 1

αG−1F (x)

)aber gerade die eindeutige Lösung von (6.15) und damit auch von (6.12). 2

Wir beweisen nun das Analogon des Lemmas 6.13 für die regularisierte Gap�Funktion.Lemma 6.17 Seien G ∈ Rn×n symmetrisch und positiv de�nit sowie α > 0 beliebig. Seiferner gα die regularisierte Gap�Funktion von VIP(X,F ). Dann gelten:

(a) gα(x) ≥ 0 für alle x ∈ X.

(b) gα(x) = 0, x ∈ X ⇐⇒ x löst VIP(X, F ).

Beweis: Es bezeichne Hα(x) wieder die im Lemma 6.16 de�nierte Lösung von (6.12), sodass sich die regularisierte Gap�Funktion gα schreiben lässt in der Form

gα(x) = F (x)T(x−Hα(x)

)− α

2‖x−Hα(x)‖2G. (6.16)

Eine einfache algebraische Manipulation zeigt, dass sich gα auch wie folgt schreiben lässt:

gα(x) =α

2

(∥∥∥ 1

αG−1F (x)

∥∥∥2

G−

∥∥∥Hα(x)−(x− 1

αG−1F (x)

)∥∥∥2

G

).

Page 118: EINFÜHRUNG IN DIE SPIELTHEORIE

112 KAPITEL 6. NUMERISCHE VERFAHREN FÜR VIPS

Da der erste Term ‖ 1αG−1F (x)‖G gerade den Abstand (in der ‖.‖G�Norm) zwischen x −

1αG−1F (x) und x ∈ X angibt und der zweite Term ‖Hα(x) − (x − 1

αG−1F (x)‖G gerade

der Abstand von x− 1αG−1F (x) und seiner Projektion Hα(x) auf X ist, vergleiche Lemma

6.16, ergibt sich unmittelbar die Behauptung (a).Auf der anderen Seite ist gα(x) = 0 genau dann, wenn diese beiden Abstände gleich

sind, was notwendigerweise Hα(x) = x impliziert. Letzteres ist aufgrund des Lemmas 6.16und des Satzes 2.31 aber äquivalent dazu, dass x die Variationsungleichung VIP(X, F ) löst.

2

Lemma 6.17 motiviert wieder, die Variationsungleichung VIP(X, F ) als ein restringiertesOptimierungsproblem

min gα(x) u.d.N. x ∈ X (6.17)aufzufassen. Wir wollen im Folgenden zeigen, dass es sich hierbei um ein stetig di�eren-zierbares Optimierungsproblem handelt. Der Beweis dieser Aussage beruht wiederum aufdem Satz 5.9 von Danskin.Lemma 6.18 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex, G ∈ Rn×n symmetrischund positiv de�nit, α > 0 sowie F : X → Rn stetig di�erenzierbar. Dann ist auch dieregularisierte Gap�Funktion gα : X → R stetig di�erenzierbar mit

∇gα(x) = F (x) +(F ′(x)T − αG

)(x−Hα(x)

).

Beweis: Die Behauptung ergibt sich durch einfache Anwendung des Satzes 5.9 von Dan-skin. Hierzu sei nur daran erinnert, dass das Maximierungsproblem (6.12) die eindeutigeLösung Hα(x) besitzt, siehe Lemma 6.16. 2

Wir untersuchen als Nächstes die Frage, unter welchen Bedingungen an die Variationsun-gleichung VIP(X, F ) ein stationärer Punkt des Optimierungsproblems (6.17) bereits einglobales Minimum und damit eine Lösung von VIP(X, F ) ist. Diese Frage ist von zentralerpraktischer Bedeutung, da die üblichen Optimierungsverfahren zur Lösung von (6.17) imAllgemeinen nur einen solchen stationären Punkt von (6.17) �nden werden.Satz 6.19 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex, G ∈ Rn×n symmetrischund positiv de�nit, α > 0 sowie F : X → Rn stetig di�erenzierbar. Sei x∗ ein stationärerPunkt des Optimierungsproblems (6.17), d.h.

∇gα(x∗)T (x− x∗) ≥ 0 (6.18)für alle x ∈ X (vgl. Lemma 2.26), so dass die Jacobi�Matrix F ′(x∗) positiv de�nit ist.Dann löst x∗ die Variationsungleichung VIP(X,F ).

Beweis: Aus (6.18) und Lemma 6.18 folgt[F (x∗) + (F ′(x∗)T − αG)(x∗ −Hα(x∗))

]T(x− x∗) ≥ 0

Page 119: EINFÜHRUNG IN DIE SPIELTHEORIE

6.3. DIE (REGULARISIERTE) GAP�FUNKTION 113

für alle x ∈ X. Speziell für x = Hα(x∗) ist daher[F (x∗)− αG

(x∗ −Hα(x∗)

)]T(Hα(x∗)− x∗) ≥(

Hα(x∗)− x∗)T

F ′(x∗)(Hα(x∗)− x∗

).

(6.19)

Wegen Lemma 6.16 ist aber

Hα(x∗) = PX,G

(x∗ − 1

αG−1F (x∗)

),

so dass sich aus dem Projektionssatz 2.29 ergibt:(x∗ − 1

αG−1F (x∗)−Hα(x∗)

)T

G(x−Hα(x∗)

)≤ 0

für alle x ∈ X. Insbesondere für x = x∗ ist damit(x∗ − 1

αG−1F (x∗)−Hα(x∗)

)T

G(x∗ −Hα(x∗)

)≤ 0.

Multiplikation mit α > 0 liefert somit(F (x∗)− αG(x∗ −Hα(x∗))

)T (Hα(x∗)− x∗

)≤ 0.

Also folgt aus (6.19) sofort(Hα(x∗)− x∗

)TF ′(x∗)

(Hα(x∗)− x∗

)≤ 0.

Die positive De�nitheit von F ′(x∗) impliziert daherHα(x∗) = x∗,

so dass x∗ in der Tat eine Lösung der Variationsungleichung VIP(X, F ) ist aufgrund desLemmas 6.16 und des Satzes 2.31. 2

Im Folgenden wollen wir noch andeuten, wie die regularisierte Gap�Funktion dazu benutztwerden kann, um das nur lokal konvergente Josephy�Newton�Verfahren aus dem vorigenAbschnitt zu globalisieren.

Zu diesem Zweck betrachte wieder das im k�ten Schritt auftretende Teilproblem VIP(X, Fk),wobei erneut Fk : Rn → Rn die Linearisierung

Fk(x) := F (xk) + F ′(xk)(x− xk)

sei, vergleiche (6.3).

Page 120: EINFÜHRUNG IN DIE SPIELTHEORIE

114 KAPITEL 6. NUMERISCHE VERFAHREN FÜR VIPS

Lemma 6.20 Seien X ⊆ Rn nichtleer, abgeschlossen und konvex, G ∈ Rn×n symmetrischund positiv de�nit, α > 0 sowie F : X → Rn stetig di�erenzierbar und gleichmäÿig monotonmit Modulus µ > 0. Ist xk ∈ X noch keine Lösung von VIP(X, F ) und ist xk die eindeutigeLösung des Teilproblems VIP(X, Fk), so genügt der Vektor dk := xk − xk der Ungleichung

∇gα(xk)T dk < −(µ− α

2‖G‖

)‖dk‖2.

Insbesondere ist dk daher eine (zulässige) Abstiegsrichtung für gα, falls α‖G‖ < 2µ gilt.

Beweis: Aus Lemma 6.18 und dk = xk − xk ergibt sich durch Einfügen einer geeignetenNull:

∇gα(xk)T dk = F (xk)T (xk − xk) + (xk − xk)T(F ′(xk)T − αG

)(xk −Hα(xk)

)=

(F (xk) + F ′(xk)(xk − xk)

)T(xk − xk)

−(xk − xk)T F ′(xk)T (xk − xk)

+(F (xk) + F ′(xk)(xk − xk)

)T(xk −Hα(xk))

−F (xk)T (xk −Hα(xk))− α(xk − xk)T G(xk −Hα(xk))

= −(F (xk) + F ′(xk)(xk − xk)

)T(Hα(xk)− xk)

+F (xk)T (Hα(xk)− xk) +α

2‖Hα(xk)− xk)‖2G

−(dk)T F ′(xk)T dk +α

2(dk)T Gdk − α

2‖xk −Hα(xk)‖2G.

Im Folgenden wollen wir die letzten drei Terme dieser Gleichungskette näher untersuchen.Da xk das linearisierte Problem VIP(X, Fk) löst, gilt

−(F (xk) + F ′(xk)(xk − xk)

)T(Hα(xk)− xk) ≤ 0.

Auf der anderen Seite ist der zweite Term gleich −gα(xk), vergleiche (6.16); da xk nachVoraussetzung noch keine Lösung von VIP(X, F ) ist, folgt somit

F (xk)T (Hα(xk)− xk) +α

2‖Hα(xk)− xk‖2G < 0

wegen Lemma 6.17. Aus der gleichmäÿigen Monotonie von F und Satz 2.17 ergibt sichferner

(dk)T F ′(xk)Tdk = (dk)T F ′(xk)dk ≥ µ‖dk‖2.

Daher gilt aufgrund der Cauchy�Schwarzschen Ungleichung die folgende Abschätzung fürden dritten Term:

−(dk)T F ′(xk)T dk +α

2(dk)T Gdk − α

2‖xk −Hα(xk)‖2G

≤ −(dk)T F ′(xk)T dk +α

2(dk)T Gdk

Page 121: EINFÜHRUNG IN DIE SPIELTHEORIE

6.4. DIE D�GAP�FUNKTION 115

≤(α

2‖G‖ − µ

)‖dk‖2.

Insgesamt folgt also∇gα(xk)T dk < −

(µ− α

2‖G‖

)‖dk‖2.

Hieraus ergeben sich alle Behauptungen. 2

Das vorstehende Lemma motiviert zumindest das folgende Verfahren.Algorithmus 6.21 ( Globalisiertes Josephy�Newton�Verfahren )

(S.0) Wähle x0 ∈ X, β ∈ (0, 1), σ ∈ (0, 1), γ ∈ (0, 1), ε ≥ 0, α > 0, G ∈ Rn×n symmetrischund positiv de�nit, und setze k := 0.

(S.1) Ist gα(xk) ≤ ε : STOP.

(S.2) Bestimme eine Lösung xk der linearisierten Variationsungleichung VIP(X, Fk), undsetze dk := xk − xk.

(S.3) (a) Falls

gα(xk + dk) ≤ γgα(xk),

so setze tk := 1, und gehe zu (S.4). Anderenfalls gehe zu (b).

(b) Bestimme eine Schrittweite tk := max{β`| ` = 0, 1, 2, . . .} mit

gα(xk + tkdk) ≤ gα(xk) + σtk∇gα(xk)Tdk.

(S.4) Setze xk+1 := xk + tkdk, k ← k + 1, und gehe zu (S.1).

Ist F : X → Rn stetig di�erenzierbar und gleichmäÿig monoton und gilt α‖G‖ < 2µ, solässt sich zeigen, dass der Algorithmus 6.21 wohlde�niert ist und die durch ihn erzeugteFolge {xk} gegen die eindeutig bestimmte Lösung x∗ konvergiert, und zwar bei beliebigerWahl des Startwertes x0 ∈ X. Auÿerdem erbt der Algorithmus 6.21 die lokal quadrati-sche Konvergenz des lokalen Josephy�Newton�Verfahrens, was wir hier aber nicht weiterbeweisen wollen.

6.4 Die D�Gap�FunktionSei weiterhin X ⊆ Rn eine nichtleere, abgeschlossene und konvexe Menge. Sei fernerF : Rn → Rn. In diesem Abschnitt untersuchen wir eine Umformulierung der Variati-onsungleichung VIP(X, F ) als ein unrestringiertes Minimierungsproblem. Von zentralerBedeutung ist dabei die nachstehende Modi�kation der regularisierten Gap�Funktion.

Page 122: EINFÜHRUNG IN DIE SPIELTHEORIE

116 KAPITEL 6. NUMERISCHE VERFAHREN FÜR VIPS

De�nition 6.22 Seien 0 < α < β zwei beliebig vorgegebene Parameter, G ∈ Rn×n sym-metrisch und positiv de�nit sowie F : Rn → Rn. Dann heiÿt die durch

gαβ(x) := gα(x)− gβ(x)

de�nierte Funktion gαβ : Rn → R die der Variationsungleichung VIP(X, F ) zugeordneteD�Gap�Funktion; dabei bezeichnet gγ für γ ∈ {α, β} die regularisierte Gap�Funktion zumParameter γ.

Die D�Gap�Funktion wird aus gα(x) also auf ähnliche Weise konstruiert wie die AbbildungVαβ im Abschnitt 5.3 aus der regularisierten Nikaido�Isoda�Funktion. Der Name �D�Gap�Funktion� soll dabei andeuten, dass gαβ gerade die Di�erenz zweier regularisierter Gap�Funktionen ist. Aus den uns bereits bekannten Eigenschaften der regularisierten Gap�Funktion können wir unmittelbar die folgende Bemerkung herleiten.Bemerkung 6.23 (a) Die D�Gap�Funktion gαβ ist stets wohlde�niert und endlich.(b) Ist F : Rn → Rn stetig di�erenzierbar, so ist auch die D�Gap�Funktion gαβ wegen

Lemma 6.18 stetig di�erenzierbar mit∇gαβ(x) = F ′(x)T

(Hβ(x)−Hα(x)

)+ βG

(x−Hβ(x)

)− αG

(x−Hα(x)

),

wobei Hγ(x), γ ∈ {α, β}, die im Lemma 6.16 de�nierte Gröÿe bezeichnet.Das folgende Lemma wird zum Beweis des nachfolgenden Satzes 6.25 benötigt.Lemma 6.24 Es ist

β − α

2‖x−Hβ(x)‖2G ≤ gαβ(x) ≤ β − α

2‖x−Hα(x)‖2G

für alle x ∈ Rn.

Beweis: Aus den De�nitionen der D�Gap�Funktion und der regularisierten Gap�Funktionergibt sich unmittelbar unter Verwendung des Lemmas 6.16:

gαβ(x) = maxy∈X

{F (x)T (x− y)− α

2‖x− y‖2G

}−max

y∈X

{F (x)T (x− y)− β

2‖x− y‖2G

}≥ F (x)T

(x−Hβ(x)

)− α

2‖x−Hβ(x)‖2G −

F (x)T(x−Hβ(x)

)+

β

2‖x−Hβ(x)‖2G

=β − α

2‖x−Hβ(x)‖2G

für alle x ∈ Rn. Völlig analog lässt sich die rechte Ungleichung veri�zieren, so dass wir hierauf die Details verzichten. 2

Als unmittelbare Konsequenz des Lemmas 6.24 erhalten wir den nachstehenden und sehrwichtigen Satz.

Page 123: EINFÜHRUNG IN DIE SPIELTHEORIE

6.4. DIE D�GAP�FUNKTION 117

Satz 6.25 Seien 0 < α < β und G ∈ Rn×n symmetrisch und positiv de�nit. Sei ferner gαβ

die D�Gap�Funktion von VIP(X, F ). Dann gelten:

(a) gαβ(x) ≥ 0 für alle x ∈ Rn.

(b) gαβ(x) = 0⇐⇒ x löst VIP(X, F ).

Beweis: Teil (a) ergibt sich unmittelbar aus der linken Ungleichung des Lemmas 6.24.Betrachte daher Teil (b). Gilt gαβ(x) = 0, so ist x = Hβ(x) wiederum aufgrund des Lem-mas 6.24. Folglich ist x eine Lösung von VIP(X,F ) aufgrund des Satzes 2.31 sowie desLemmas 6.16. Ist umgekehrt x eine Lösung von VIP(X, F ), so ist aus denselben Gründenauch x = Hα(x). Daher ist gαβ(x) = 0 aufgrund der rechten Ungleichung im Lemma 6.24. 2

Der Satz 6.25 besagt, dass man die Variationsungleichung VIP(X, F ) als ein unrestringier-tes Minimierungsproblem

min gαβ(x), x ∈ Rn,

au�assen kann, das aufgrund der Bemerkung 6.23 (b) sogar stetig di�erenzierbar ist.Im Folgenden wollen wir ein hinreichendes Kriterium dafür angeben, dass ein stationärer

Punkt der D�Gap�Funktion gαβ bereits ein globales Minimum dieses Minimierungsproble-mes und damit eine Lösung der Variationsungleichung VIP(X, F ) ist. Dazu benötigen wirzunächst das nachstehende Resultat.Lemma 6.26 Seien 0 < α < β, G ∈ Rn×n symmetrisch und positiv de�nit sowie gαβ dieD�Gap�Funktion von VIP(X, F ). Dann gilt(

Hβ(x)−Hα(x))T

G(β(x−Hβ(x)

)− α

(x−Hα(x)

))≥ 0

für alle x ∈ Rn.

Beweis: Sei x ∈ Rn beliebig. In Analogie zur Bezeichnungsweise in der Bemerkung 6.15setze

fγ(x, y) := F (x)T (x− y)− γ

2‖x− y‖2G

für γ ∈ {α, β}. Dann ist Hγ(x) die Lösung des Problemsmaxy∈X

fγ(x, y)

oder, äquivalent, des Problemsminy∈X−fγ(x, y),

vergleiche das Lemma 6.16. Aufgrund des Lemmas 2.26 (a) ist daher Hγ(x) Lösung derVariationsungleichung VIP(X,−∇yfγ(x, y)). Wegen

−∇yfγ(x, y) = F (x)− γG(x− y)

Page 124: EINFÜHRUNG IN DIE SPIELTHEORIE

118 KAPITEL 6. NUMERISCHE VERFAHREN FÜR VIPS

ist daher (F (x)− γG

(x−Hγ(x)

))T (z −Hγ(x)

)≥ 0

für alle z ∈ X. Insbesondere sind daher(F (x)− αG

(x−Hα(x)

))T (Hβ(x)−Hα(x)

)≥ 0 (6.20)

und (F (x)− βG

(x−Hβ(x)

))T (Hα(x)−Hβ(x)

)≥ 0. (6.21)

Nun ist (Hβ(x)−Hα(x)

)TG

(β(x−Hβ(x)

)− α

(x−Hα(x)

))=

(Hβ(x)−Hα(x)

)T (βG

(x−Hβ(x)

)− F (x)

)+

(Hβ(x)−Hα(x)

)T (F (x)− αG

(x−Hα(x)

))≥ 0

wegen (6.20) und (6.21), womit die Behauptung auch schon bewiesen ist. 2

Damit kommen wir zu dem angekündigten hinreichenden Kriterium dafür, dass ein statio-närer Punkt der D�Gap�Funktion bereits eine Lösung der Variationsungleichung ist.Satz 6.27 Seien 0 < α < β, G ∈ Rn×n symmetrisch und positiv de�nit, F : Rn → Rn stetigdi�erenzierbar, gαβ die D�Gap�Funktion von VIP(X, F ) und x∗ ein stationärer Punkt vongαβ, so dass die Jacobi�Matrix F ′(x∗) positiv de�nit ist. Dann ist x∗ bereits eine Lösungvon VIP(X, F ).

Beweis: Sei x∗ ∈ Rn ein stationärer Punkt von gαβ. Wegen der Bemerkung 6.23 (b) istdann

0 = ∇gαβ(x∗)

= F ′(x∗)T(Hβ(x∗)−Hα(x∗)

)+ βG

(x∗ −Hβ(x∗)

)− αG

(x∗ −Hα(x∗)

).

(6.22)

Multiplikation von links mit (Hβ(x∗)−Hα(x∗))T liefert daher0 =

(Hβ(x∗)−Hα(x∗)

)TF ′(x∗)T

(Hβ(x∗)−Hα(x∗)

)+

(Hβ(x∗)−Hα(x∗)

)T (βG

(x∗ −Hβ(x∗)

)− αG

(x∗ −Hα(x∗)

)).

Der erste Summand ist nichtnegativ aufgrund der positiven De�nitheit von F ′(x∗)T , undder zweite Summand ist nichtnegativ wegen Lemma 6.26. Daher ist insbesondere(

Hβ(x∗)−Hα(x∗))T

F ′(x∗)(Hβ(x∗)−Hα(x∗)

)= 0

und somitHβ(x∗) = Hα(x∗),

Page 125: EINFÜHRUNG IN DIE SPIELTHEORIE

6.5. VERALLGEMEINERTE KKT�BEDINGUNGEN 119

da F ′(x∗) nach Voraussetzung positiv de�nit ist. Aus (6.22) ergibt sich daher0 = (β − α)G

(x∗ −Hα(x∗)

).

Dies impliziert wegen α 6= β und G positiv de�nit unmittelbarx∗ = Hα(x∗).

Wegen Lemma 6.16 und Satz 2.31 ist x∗ dann bereits eine Lösung von VIP(X, F ). 2

6.5 Verallgemeinerte KKT�BedingungenBetrachte wieder die Variationsungleichung VIP(X,F ). In diesem Abschnitt werden ausden KKT�Bedingungen eines zugeordneten Optimierungsproblems die (verallgemeinerten)KKT�Bedingungen von VIP(X, F ) hergeleitet. Das folgende Lemma ist dabei von zentralerBedeutung.Lemma 6.28 Sei x∗ ∈ X eine Lösung von VIP(X, F ). Dann ist x∗ ∈ X auch eine Lösungdes Optimierungsproblems

min f(x) u.d.N. x ∈ X, (6.23)wobei

f(x) := F (x∗)T (x− x∗)

gesetzt wurde.

Beweis: Da x∗ ∈ X die Variationsungleichung VIP(X,F ) löst, giltF (x∗)T (x− x∗) ≥ 0 für alle x ∈ X.

Folglich ist0 = f(x∗) ≤ f(x) für alle x ∈ X,

d.h. x∗ ∈ X ist ein globales Minimum von (6.23). 2

Man beachte, dass das Lemma 6.28 im Folgenden zwar von groÿem theoretischen Interesseist, dass die praktische Bedeutung insbesondere des zugeordneten Optimierungsproblems(6.23) allerdings nur sehr gering ist, da man die Zielfunktion f nicht kennt.

Für den Rest dieses Abschnittes nehmen wir nun an, dass die zulässige Menge X derVariationsungleichung VIP(X, F ) in der folgenden Gestalt geschrieben werden kann:

X = {x ∈ Rn |h(x) = 0, g(x) ≥ 0}, (6.24)

Page 126: EINFÜHRUNG IN DIE SPIELTHEORIE

120 KAPITEL 6. NUMERISCHE VERFAHREN FÜR VIPS

wobei h : Rn → Rp und g : Rn → Rm stetig di�erenzierbare Funktionen sind. Ferner seiF : X → Rn stetig.

Die bislang stets geforderte Konvexität der Menge X wird in diesem Abschnitt nurindirekt und auch nicht immer eine Rolle spielen. Sie ergibt sich bei einigen (aber ebennicht allen) der nachfolgenden Resultate aus den Voraussetzungen an die Funktionen hund g.

Wir beginnen zunächst mit einer De�nition.De�nition 6.29 Ein Tripel (x∗, y∗, z∗) ∈ Rn × Rp × Rm heiÿt ein (verallgemeinerter)KKT�Punkt von VIP(X, F ), wenn er den folgenden so genannten (verallgemeinerten)KKT�Bedingungen von VIP(X, F ) genügt:

F (x) +∑p

j=1 yj∇hj(x)−∑m

i=1 zi∇gi(x) = 0,

h(x) = 0,g(x) ≥ 0,

z ≥ 0,g(x)T z = 0.

(6.25)

Die Vektoren y∗ und z∗ werden dann auch als (verallgemeinerte) Lagrange�Multiplikatorenvon VIP(X, F ) bezeichnet.

Gilt F (x) = ∇f(x) für alle x ∈ X mit einer stetig di�erenzierbaren Funktion f : X → Rn,so stimmen die (verallgemeinerten) KKT�Bedingungen (6.25) o�enbar überein mit denKKT�Bedingungen des Optimierungsproblems

min f(x) u.d.N. x ∈ X;

im Allgemeinen existiert eine solche Funktion f jedoch nicht.Wir werden die (verallgemeinerten) KKT�Bedingungen im Folgenden einfach als KKT�

Bedingungen bezeichnen.Durch einfache Anwendung des Lemmas 6.28 auf die bekannten Ergebnisse aus der

restringierten Optimierung ergeben sich die nachstehenden Sätze, vergleiche hierzu [12].Satz 6.30 Sei x∗ ∈ X eine Lösung von VIP(X, F ), so dass die Mangasarian�Fromovitz�Bedingung MFCQ in x∗ erfüllt ist. Dann existieren Lagrange�Multiplikatoren y∗ ∈ Rp undz∗ ∈ Rm, so dass das Tripel (x∗, y∗, z∗) ein KKT�Punkt von VIP(X, F ) ist.

Beweis: Wegen Lemma 6.28 ist die Lösung x∗ ∈ X der Variationsungleichung VIP(X, F )ein globales Minimum des Optimierungsproblems (6.23). Da MFCQ in x∗ erfüllt ist und Xvon der Gestalt (6.24) ist, existieren bekanntlich Lagrange�Multiplikatoren y∗ ∈ Rp undz∗ ∈ Rm mit

∇f(x∗) +∇h(x∗)y∗ −∇g(x∗)z∗ = 0,

h(x∗) = 0,

g(x∗) ≥ 0, z∗ ≥ 0, g(x∗)T z∗ = 0.

Page 127: EINFÜHRUNG IN DIE SPIELTHEORIE

6.5. VERALLGEMEINERTE KKT�BEDINGUNGEN 121

Wegen ∇f(x∗) = F (x∗) folgt die Behauptung. 2

Man beachte wieder, dass der Satz 6.30 insbesondere auch dann gilt, wenn die MFCQ�Bedingung durch die LICQ�Bedingung ersetzt wird, wobei in diesem Fall die Lagrange�Multiplikatoren y∗ und z∗ auÿerdem eindeutig bestimmt sind.

Analog zum Beweis des Satzes 6.30 erhält man das folgende Resultat unter Verwendungbekannter Resultate aus der Optimierungstheorie.Satz 6.31 Sei x∗ ∈ X eine Lösung von VIP(X, F ). Seien h : Rn → Rp und g : Rn →Rm a�n�lineare Funktionen. Dann existieren Vektoren y∗ ∈ Rp und z∗ ∈ Rm, so dass(x∗, y∗, z∗) ein KKT�Punkt von VIP(X, F ) ist.

Ebenfalls analog zum Beweis des Satzes 6.30 lässt sich das folgende Resultat herleiten.Satz 6.32 Sei x∗ ∈ X eine Lösung von VIP(X, F ). Seien h : Rn → Rp a�n�linear undjede Komponentenfunktion von g : Rn → Rm konkav. Die Menge X genüge der Slater�Bedingung. Dann existieren Vektoren y∗ ∈ Rp und z∗ ∈ Rm, so dass (x∗, y∗, z∗) ein KKT�Punkt von VIP(X, F ) ist.

Beweis: Zum Beweis sei nur erwähnt, dass die im zugeordneten Optimierungsproblem(6.23) auftretende Zielfunktion

f(x) = F (x∗)T (x− x∗)

stets linear und somit insbesondere konvex ist. Also lässt sich ein bekanntes Optimalitäts-kriterium der konvexen Optimierung anwenden. 2

Nachdem wir in den Sätzen 6.30, 6.31 und 6.32 gezeigt haben, dass die KKT�Bedingungenunter geeigneten Voraussetzungen notwendige Bedingungen für eine Lösung x∗ von VIP(X, F )darstellen, wollen wir als Nächstes auch ein hinreichendes Kriterium angeben.Satz 6.33 Sei (x∗, y∗, z∗) ∈ Rn × Rp × Rm ein KKT�Punkt von VIP(X, F ). Seien h :Rn → Rp a�n�linear und alle Komponentenfunktionen von g : Rn → Rm konkav. Dannist x∗ eine Lösung von VIP(X, F ).

Beweis: Unter den genannten Voraussetzungen ist das der Variationsungleichung VIP(X, F )zugeordnete Optimierungsproblem (6.23) konvex (beachte erneut: die Zielfunktion f(x) =F (x∗)T (x− x∗) ist stets konvex). Somit sind die KKT�Bedingungen für (6.23), welche mitden KKT�Bedingungen von VIP(X, F ) übereinstimmen, bereits hinreichende Optimali-tätsbedingungen für das Vorliegen eines (globalen) Minimums. Also folgt

0 = f(x∗) ≤ f(x) = F (x∗)T (x− x∗)

für alle x ∈ X, d.h. x∗ löst VIP(X,F ). 2

Page 128: EINFÜHRUNG IN DIE SPIELTHEORIE

122 KAPITEL 6. NUMERISCHE VERFAHREN FÜR VIPS

Es sei ausdrücklich darauf hingewiesen, dass der Satz 6.33 ohne irgendwelche (Monotonie�)Voraussetzungen an die Funktion F gilt. Der Zusammenhang zwischen einer Variations-ungleichung und ihren KKT�Bedingungen ist also stärker als bei Optimierungsproblemen.Insbesondere erhalten wir aus den Sätzen 6.31 und 6.33 die folgende Charakterisierungeiner Lösung von VIP(X, F ) im Falle von a�n�linearen Restriktionen:Korollar 6.34 Seien h : Rn → Rp und g : Rn → Rm a�n�linear. Genau dann ist einVektor x∗ ∈ X eine Lösung von VIP(X, F ), wenn es Vektoren y∗ ∈ Rp und z∗ ∈ Rm gibt,so dass (x∗, y∗, z∗) ein KKT�Punkt von VIP(X, F ) ist.

Die wohl erfolgreichsten Verfahren zur Lösung von Variationsungleichungen nutzen den en-gen Zusammenhang zwischen Variationsungleichungen und ihren KKT�Bedingungen ausund lösen tatsächlich die KKT�Bedingungen. Hierzu gehören insbesondere eine Reihe vonNewton�ähnlichen Methoden. Die globale Konvergenz zweier Ansätze wird in [12] bewie-sen, zum Nachweis der lokal schnellen Konvergenz bedarf es allerdings gewisser Hilfsmittelaus der nichtglatten Analysis. Man vergleiche hierzu insbesondere die entsprechenden Aus-führungen in dem Vorlesungsskript [22].

Page 129: EINFÜHRUNG IN DIE SPIELTHEORIE

Literaturverzeichnis

[1] J. Barzilai und J.M. Borwein: Two point step size gradient method. IMA Journalon Numerical Analysis 8, 1988, 141�148.

[2] T. Basar und G.J. Olsder: Dynamic Noncooperative Game Theory. AcademicPress, London, 1982.

[3] S.C. Billups: Algorithms for complementarity problems and generalized equations.Ph.D. Thesis, Computer Sciences Department, University of Wisconsin, Madison, WI,August 1995.

[4] S.K. Berninghaus, K.-M. Ehrhart und W. Güth: Strategische Spiele. Springer�Verlag, Berlin, Heidelberg, 2. Au�age 2006.

[5] R.W. Cottle, J.-S. Pang and R.E. Stone: The Linear Complementarity Problem.Academic Press, Boston, 1992.

[6] P.K. Dutta: Strategies and Games. MIT Press, Cambridge, MA, 1999.[7] M. Ehrgott: Multicriteria Optimization. Springer, Berlin, Heidelberg, New York, 2.

Au�age 2005.[8] F. Facchinei, A. Fischer und V. Piccialli: On generalized Nash games and VIs.

Erscheint in: Operations Research Letters.[9] F. Facchinei und J.-S. Pang: Finite-Dimensional Variational Inequalities and

Complementarity Problems, Volume I. Springer�Verlag, New York, NY, 2003.[10] F. Facchinei und J.-S. Pang: Finite-Dimensional Variational Inequalities and

Complementarity Problems, Volume II. Springer�Verlag, New York, NY, 2003.[11] D. Fudenberg und J. Tirole: Game Theory. MIT Press, Cambridge, MA, 1991.[12] C. Geiger und C. Kanzow: Theorie und Numerik restringierter Optimierungsauf-

gaben. Springer�Verlag, Berlin, Heidelberg, 2002.[13] R. Gibbons: A Primer in Game Theory. Prentice Hall (???), ???, 1992.[14] H. Gintis: Game Theory Evolving. Princeton University Press, Princeton, NJ, 2000.

123

Page 130: EINFÜHRUNG IN DIE SPIELTHEORIE

124 LITERATURVERZEICHNIS

[15] G. Gürkan and J.-S. Pang: Approximations of Nash equilibria. Technical Report,Department of Mathematical Sciences, Rensselaer Polytechnic Institute, Troy, NY,January 2006.

[16] A. Haurie und J.B. Krawczyk: An Introduction to Dynamic Games. LectureNotes, 2005 (?).

[17] H. Heuser: Lehrbuch der Analysis 2. Teubner�Verlag, Stuttgart, 3. Au�age 1986.[18] A. von Heusinger und C. Kanzow: Optimization reformulations of the generalized

Nash equilibrium problem using Nikaido-Isoda-type functions. Preprint 269, Institutfür Mathematik, Universität Würzburg, Juli 2006.

[19] W.W. Hogan: Point-to-set maps in mathematical programming. SIAM Review 15,1973, 591�603.

[20] J. Jerger: Spieltheorie. Skript zur Vorlesung im Sommersemester 2006, Wirtschafts-wissenschaftliche Fakultät, Universität Regensburg, 2006.

[21] N.H. Josephy: Newton's method for generalized equations. Technical Summary Re-port 1965, Mathematical Research Center, University of Wisconsin, Madison, WI,1979.

[22] C. Kanzow: Optimierungsmethoden II. Vorlesungsskript, Institut für AngewandteMathematik und Statistik, Universität Würzburg, Sommersemester 2005.

[23] W. Krabs: Spieltheorie. Dynamische Behandlung von Spielen. Teubner�Verlag, Wies-baden, 2005.

[24] J.B. Krawczyk und S. Uryasev: Relaxation algorithms to �nd Nash equilibria witheconomic applications. Environmental Modelling and Assessment 5, 2000, 63�73.

[25] C.E. Lemke: Bimatrix equilibrium points and mathematical programming. Manage-ment Science 11, 1965, pp. 681�689.

[26] C.E. Lemke und J.T. Howson, Jr.: Equilibrium points of bimatrix games. SIAMJournal on Applied Mathematics 12, 1964, pp. 413�423.

[27] O.L. Mangasarian und H. Stone: Two-person nonzero-sum games and quadraticprogramming. Journal of Mathematical Analysis and Applications 9, 1964, pp. 348�355.

[28] F.H. Murphy, H.D. Sherali und A.L. Soyster: A mathematical programmingapproach for determining oligopolistic market equilibrium. Mathematical Program-ming 24, 1982, 92�106.

[29] K.G. Murty: Linear Complementarity, Linear and Nonlinear Programming. Helder-mann Verlag, Berlin, 1988.

Page 131: EINFÜHRUNG IN DIE SPIELTHEORIE

LITERATURVERZEICHNIS 125

[30] R.B. Myerson: Game Theory. Analysis of Con�ict. Harvard University Press, Cam-bridge, MA, 1991.

[31] J.F. Nash: Non-cooperative games. Annals of Mathematics 54, 1951, 286�295.[32] J. von Neumann und O. Morgenstern: Theory of Games and Economic Beha-

vior. Princeton, 1944.[33] H. Nikaido und K. Isoda: Note on noncooperative convex games. Paci�c Journal

of Mathematics 5, 1955, 807�815.[34] J.V. Outrata, M. Ko£vara und J. Zowe: Nonsmooth Approach to Optimizati-

on Problems with Equilibrium Constraints. Kluwer Academic Publishers, Dordrecht,Niederlande, 1998.

[35] G. Owen: Spieltheorie. Springer�Verlag, Berlin, Heidelberg, New York, 1971.[36] B. Rauhut, N. Schmitz und E.-W. Zachow: Spieltheorie. Teubner�Verlag, Stutt-

gart, 1979.[37] J.B. Rosen: Existence and uniqueness of equilibrium points for concave N-person

games. Econometrica 33, 1965, 520�534.[38] W. Schlee: Einführung in die Spieltheorie. Vieweg�Verlag, Wiesbaden, 2004.[39] S. Uryasev und R.Y. Rubinstein: On relaxation algorithms in computation of

noncooperative equilibria. IEEE Transactions on Automatic Control 39, 1994, 1263�1267.