klausur und unterlagen - wiwi.uni- · pdf filedas entscheidungsfeld zustandsraum: z =...
TRANSCRIPT
Entscheidungstheorie
Wintersemester 2004/2005
Christian Klein
Institut für Statistik und Mathematische Wirtschaftstheorie
Universität Augsburg
Klausur und Unterlagen
Klausur: ABWL, 60-minütig, erlaubte Hilfsmittel: Buch Bamberg/Coenenberg
Vorlesungsbegleitende Unterlagen:
Foliensatz
Aufgabenskript
fallweise „Zusatzfolien“ mit Beispielen und Aufgaben
Download auf der Homepage des Institutes:
http://www.wiwi.uni-augsburg.de/ibo/ → „Downloads“
Literatur:
Bamberg, G. / Coenenberg, A. G.:
Betriebswirtschaftliche Entscheidungslehre, Vahlen, 12. Auflage 2004
Bamberg, G. et al.:
Arbeitsbuch zur betriebswirtschaftlichen Entscheidungslehre, Vahlen, 2002
Entscheidungstheorie 1
Gliederung
➀ Grundlagen
➁ Das Grundmodell
➂ Entscheidungen bei Sicherheit
➃ Entscheidungen bei Risiko
➄ Entscheidungen bei Ungewissheit
➅ Entscheidungen bei variabler Informationsstruktur
➆ Entscheidungen bei bewusst handelnden Gegenspielern
➇ (Entscheidungen durch Entscheidungsgremien)
➈ (Mehrstufige Entscheidungen)
Entscheidungstheorie 2
Grundlagen
Entscheidungstheorie: Analyse (intendiert) rationalen Entsch.verhaltens.
Ziel: Gewinnung
• vorschreibender oder Präskriptive E-Theorie
• beschreibender Aussagen Deskriptive E-Theorie
Welche Sichtweise ist wichtiger?
BWL: Angewandte Wissenschaft, die in betriebswirtschaftlichen Organisa-
tionen Tätige bei Entscheidungen unterstützen soll.
Aufgabe: Ableitung zielentsprechender Handlungen, nicht Zielbeurteilung.
Aber Voraussetzung: erfahrungswissenschaftliche Aussagen über verfolgte
Ziele, mögliche Handlungen, Konsequenzen etc.
E-Theorie muss auf präskriptiver und deskriptiver E-Forschung beruhen.
Hier im Vordergrund: Präskriptive Entscheidungstheorie
1. Grundlagen 3
Systematik des Entscheidungsprozesses
. . . ist in allen BWL-Disziplinen gleich:
➀ Problemformulierung
➁ Präzisierung des Zielsystems
➂ Erforschung von Handlungsalternativen
➍ Auswahl einer Handlungsalternative
➄ Umsetzung in der Realisationsphase
➅ Soll-/Ist-Vergleich
1. Grundlagen 4
Zwei wichtige Axiome der Entscheidungstheorie
Ordnungsaxiom:
Entscheider kann für jedes Paar (ei, ej) von Ergebnissen angeben:
• ei ≺ ej, d.h. Entscheider präferiert ej gegenüber ei
• ei ∼ ej, d.h. Entscheider ist indifferent
• ei ≻ ej, d.h. Entscheider präferiert ei gegenüber ej
Zielvorstellung vorhanden (sonst: Entscheidungshilfe unmöglich)
Transitivitätsaxiom: zwingende Konsistenzforderung
• (ei ∼ ej) ∧ (ej ∼ ek) ⇒ (ei ∼ ek)
• (ei ≺ ej) ∧ (ej ≺ ek) ⇒ (ei ≺ ek)
• (ei ≻ ej) ∧ (ej ≻ ek) ⇒ (ei ≻ ek)
Verletzung des Transitivitätsaxioms führt präskriptive ET ad absurdum!
1. Grundlagen 5
Unterscheidung von Modellen nach Einsatzzweck
Modell: Vereinfachende Abbildung realer Tatbestände.
Es werden nur die jeweiligs Fragestellung relevanten Aspekte erfasst.
Beschreibungsmodelle:
• Liefern protokollarische Informationen über die Ausgangssituation.
• z.B. Rechnungswesen
Erklärungsmodelle:
• Erläutern die Konsequenzen geplanter Handlungen.
• z.B. Umsatzplanung auf Basis einer Preisreaktionsfunktion
Entscheidungsmodelle:
• Enthalten Daten über Entscheidungsfeld und Ziele.
• Dienen der Festlegung durchzuführender Aktionen.
2. Grundmodell der betriebswirtschaftlichen Entscheidungslehre 6
Das Entscheidungsfeld
Wird charakterisiert durch Aktionenraum, Zustandsraum, Ergebnisfunktion.
Aktionenraum: A = a1, . . . , am
Menge der zu einem bestimmten Zeitpunkt möglichen Aktionen.
Vollkommene Alternativenstellung:
• Ausschöpfungsprinzip: Eine Aktion muss ergriffen werden.
(ggf. a0 =„nichts tun“ mit aufnehmen)
• Exklusionsprinzip: Nur eine einzige Aktion kann ergriffen werden.
Beispiel: Guthaben 9 000 €; Angebote: Aktienkauf (5 000 €), Urlaub (3 000 €)
Mögliche Aktionen (Sparbuch, Aktien, Urlaub):
a1 : (9 000,0,0) a2 : (4 000,5 000,0)
a3 : (6 000,0,3 000) a4 : (1 000,5 000,3 000)
2. Grundmodell der betriebswirtschaftlichen Entscheidungslehre 7
Das Entscheidungsfeld
Zustandsraum: Z = z1, . . . , zn
Menge der relevanten Umweltzustände; diese sind von den Aktionen un-
abhängig, beeinflussen aber das Handlungsergebnis.
Beispiel: Warensendung mit 1 000 Stück
A = Annahme, Ablehnung
Z = 0, 1, 2, . . . , 1 000 (Anzahl defekter Stücke) oder
Z = mehr als 5 % defekt; weniger als 5 % defekt
2. Grundmodell der betriebswirtschaftlichen Entscheidungslehre 8
Das Entscheidungsfeld
Je nach Kenntnisstand bzgl. zi ∈ Z unterscheidet man drei Fälle:
• Sicherheit: Das wahre zi ist bekannt. (→ Kap. 3)
• Risiko: Vorliegen von Wahrscheinlichkeiten. (→ Kap. 4)
• Ungewissheit: Nur Kenntnis, dass ein zi eintritt. (→ Kap. 5)
Ggf. Kenntnisstand durch Informationssystem verbessern. (→ Kap. 6)
Informationssystem: Y = y1, . . . , yk
Menge potenzieller Nachrichten yj über zi sowie eine Struktur, die durch
bedingte Wahrscheinlichkeiten pij = P(yj | zi) beschrieben ist.
Zweckmäßig:
• yj schließen sich gegenseitig aus.
• Es tritt genau ein yj ein.⇒
k∑
j=1
pij = 1 ∀ i
2. Grundmodell der betriebswirtschaftlichen Entscheidungslehre 9
Das Entscheidungsfeld
Informationssystem entspricht damit der Matrix P = (pij)nk bzw.
y1 · · · yj · · · yk
z1 p11 · · · p1j · · · p1k
... ... . . . ... . . . ...
zi pi1 · · · pij · · · pik
... ... . . . ... . . . ...
zn pn1 · · · pnj · · · pnk
typische Situation:
• geg.: pij, P(zi) („a-priori W’keiten“ für Zustände)
• yj wird empfangen: Liegen nun verbesserte Informationen über zi vor?
• ges.: P(zi | yj) („a-posteriori W’keiten“ für Zustände)
2. Grundmodell der betriebswirtschaftlichen Entscheidungslehre 10
Sonderfälle von Informationssystemen
Vollkommenes Informationssystem:
• Zu jedem yj existiert ein zi mit pij = 1 (evtl. nach Zusammenfassen).
• Vollkommenes IS erzeugt Sicherheit.
• P = I bei geeigneter Nummerierung.
• Beispiele:
k = n k > n k < n
y1 y2 y3 y1 y2 y3 (nicht möglich)
z1 0 1 0 z112
12 0
z2 1 0 0 z2 0 0 1
z3 0 0 1 (zusammenfassen)
2. Grundmodell der betriebswirtschaftlichen Entscheidungslehre 11
Sonderfälle von Informationssystemen
Unvollkommenes Informationssystem:
• Erzeugt keine Sicherheit.
• 2 Fälle denkbar:
➀ pij ∈ 0; 1, aber k < n → Einschränkung von Z möglich
➁ pij ∈ [0; 1], wobei k T n → mangelnde Treffgenauigkeit der yj
• Beispiele:
Fall ➀ Fall ➁
y1 y2 y1 y2
z1 1 0 z1 0,5 0,5
z2 1 0 z2 0,2 0,8
z3 0 1 z3 0,9 0,1
2. Grundmodell der betriebswirtschaftlichen Entscheidungslehre 12
Handlungskonsequenzen
Ergebnisfunktion: (ai, zj) 7→ xij = g(ai, zj)
Zusammenfassung in der Ergebnismatrix X = (xij)mn
Je nach Kenntnisstand bzgl. xij unterscheidet man:
• Sicherheit (xij ist deterministisch)
• Risiko (xij ist Zufallsvariable)
• Ungewissheit (xij ist Menge)
Geringster Informationsstand „schlägt durch“
Konsequenzen
Zu
stä
nd
e
sicher
sicher
sicher riskant
riskantriskant
riskant
riskant
ungewiss
ungewiss
ungewiss ungewiss
ungewiss
ungewissungewiss
Annahme, dass xij sicher, unproblematisch.
2. Grundmodell der betriebswirtschaftlichen Entscheidungslehre 13
Das Zielsystem
Bestandteile des Zielsystems:
• Zielgrößen: Welche Handlungskonsequenzen interessieren?
• Präferenzrelationen: Welche Ergebnisse sind vorzuziehen?
a) Höhenpräferenz: Ausmaß der Zielgröße
b) Artenpräferenz: Rangfolge der Zielgrößen
c) Zeitpräferenz: Bewertung der Zeitdimension
d) Risikopräferenz: Bewertung von Risiko / Ungewissheit
Bewertungsfunktion: Φ : A → IR wobei für ai, ak ∈ A gilt:
ak ≻ ai ⇔ Φ(ak) > Φ(ai) und ak ∼ ai ⇔ Φ(ak) = Φ(ai)
Lösung dann a∗ ∈ A mit Φ(a∗) = maxai∈A
Φ(ai)
Aber: Direkte Bewertung der ai oft zu komplex.
Einfacher: Bewertung der xij ( indirekte Bewertung der ai)2. Grundmodell der betriebswirtschaftlichen Entscheidungslehre 14
Das Zielsystem
Nutzenfunktion: u : x 7→ u(x) ∈ IR wobei für Ergebnisse x, y gilt:
x < y ⇐⇒ u(x) ≧ u(y)
x ≻ y ⇐⇒ u(x) > u(y)
x ∼ y ⇐⇒ u(x) = u(y)
Vss.: „<“ vollständig und transitiv (vgl. Folie 6)
Unterscheide:
➀ Ordinale Nutzenfunktion:
• u(x) > u(y)
beschreibt nur Reihenfolge
• eindeutig bis auf streng
monoton wachsende TraFo
➁ Kardinale Nutzenfunktion:
• u(x) − u(y)
ist aussagekräftig
• eindeutig bis auf monoton
wachsende lineare TraFo2. Grundmodell der betriebswirtschaftlichen Entscheidungslehre 15
Entscheidungsmatrizen
Nutzenmatrix: bezeichne uij = u(xij). Dann
U =
u11 · · · u1n
... . . . ...
um1 · · · umn
Dann: Φ(ai) = Bewertung von (ui1, . . . , uin)
Schadensmatrix: sij = s(xij) ist der durch xij verursachte Schaden
S =
s11 · · · s1n
... . . . ...
sm1 · · · smn
2. Grundmodell der betriebswirtschaftlichen Entscheidungslehre 16
Entscheidungsmatrizen
Speziell Opportunitätskostenmatrix:
sij = maxk
ukj − uij
Beispiel 1
uij z1 z2 z3
a1 3 1 6
a2 5 5 9
a3 3 7 3
maxk
ukj 5 7 9
⇒ S =
2 6 3
0 2 0
2 0 6
In jeder Spalte (mind.) eine Null.
2. Grundmodell der betriebswirtschaftlichen Entscheidungslehre 17
Dominanzprinzip
Dominanzprinzip: Setze ausschließlich undominierte Aktionen ein!
Dabei:
ai dominiert aq ⇐⇒ (∀ j : uij ≧ uqj) ∧ (∃ j : uij > uqj)
Synonima: undominiert, effizient, Pareto-optimal
Beispiel 2
U =
3 1 6
6 5 6
3 6 3
a2 dominiert a1 ⇒ a2, a3 effizient
2. Grundmodell der betriebswirtschaftlichen Entscheidungslehre 18
Sicherheitssituation
Sicherheit:
Für jede Aktion steht der Realisationsgrad aller Ziele eindeutig fest.
Formal: Z = z ⇒ Ergebnismatrix
k1 k2 · · · kr
a1 x11 x2
1 · · · xr1
a2 x12 x2
2 · · · xr2
... ... ... . . . ...
am x1m x2
m · · · xrm
wobei:
• a1, . . . , am: Aktionen
• k1, . . . , kr: Ziele
3. Entscheidungen bei Sicherheit 19
Entscheidungen bei einer Zielsetzung
r = 1, d.h. Ergebnismatrix ist Spaltenvektor
Beispiele: Gewinnmaximierung, Kostenminimierung, . . .
Mit Wahl ai ∈ A ist Ergebnis xi eindeutig festgelegt (gem. xi = g(ai, z)).
Ordne Aktionen gem. Ergebnis und wähle „beste“.
Formal: ui = u(xi) = u(g(ai, z)) → optai
Manchmal genügt Erreichen eines Schwellenwerts („Satisfikationsprinzip“).
u(x) =
1, falls x ≧ x∗
0, sonst
Problem: i.A. keine oder keine eindeutige Lösung
3. Entscheidungen bei Sicherheit 20
Entscheidungen bei mehreren Zielsetzungen
auch: multikriterielle Entscheidungsmodelle, Vektoroptimierungsmodelle
Beispiel: Investitionsplanung mit (konkurrierenden) ZielsetzungenKapitalwertmaximierung und Entnahmemaximierung
Formal: g(ai, z) = (x1i , . . . , xr
i); mit Nutzenfunktion uij = u(xji)
⇒ U =
u11 · · · u1r
... . . . ...
um1 · · · umr
Voraussetzung: Präferenzunabhängigkeit,
d.h. Präferenzen bei einem Ziel dürfen nicht von den Ergebnissen bei an-
deren Zielen abhängen.
3. Entscheidungen bei Sicherheit 21
Entscheidungen bei mehreren Zielsetzungen
Beispiel 3 (Präferenzabhängigkeit)
Essen mit . . .• Zielsetzungen „Getränk“ und „Hauptgang“
• Ergebnismengen Rotwein, Weißwein und Fisch, Steak
Mehrheitsmeinung:
(Rotwein, Steak) ≻ (Weißwein, Steak) u. (Rotwein, Fisch) ≺ (Weißwein, Fisch)
und damit:
(Rotwein, Steak) ≻ (Weißwein, Steak) 6⇒ (Rotwein, Fisch) < (Weißwein, Fisch)
Auswege:• Kriterien zusammenfassen: einziges Ziel „Gesamtmenü“
• Aktionen streichen: A = (Rotwein, Steak), (Weißwein, Fisch)
3. Entscheidungen bei Sicherheit 22
Zielanalyse
Unterscheide:
• Indifferente Ziele: beeinflussen sich nicht gegenseitig
• Komplementäre Ziele: begünstigen sich gegenseitig
• Konkurrierende Ziele: beeinträchtigen sich gegenseitig
Problematisch nur sind konkurrierende Ziele.
(indifferente Ziele separat verfolgen, komplementäre zusammenfassen)
Vorgehensweise dann:
➀ Ineffiziente Aktionen streichen (Dominanzprinzip, vgl. Folie 19)
➁ Auswahl einer effizienten Aktion mithilfe Entscheidungsregel Φ
Φ verknüpft Nutzenwerte der Ergebnisse zu Gesamtnutzen
3. Entscheidungen bei Sicherheit 23
Entscheidungsregeln bei mehreren Zielsetzungen
1. Zielgewichtung
Voraussetzung: kardinale Nutzenmessung
Substitutionale Gesamtnutzenfunktion
Φ(ai) =
r∑
p=1
gp uip → maxi
mit g1, . . . , gr ≧ 0,r∑
p=1
gp = 1
Beispiel 4
U =
5 1
4 6
4 5
➀ a3 streichen, da ineffizient
➁ Zielgewichtung:
g1 = 0,9 g2 = 0,1
Φ(a1) = 0,9 · 5 + 0,1 · 1 = 4,6
Φ(a2) = 0,9 · 4 + 0,1 · 6 = 4,2
⇒ wähle a1
3. Entscheidungen bei Sicherheit 24
Entscheidungsregeln bei mehreren Zielsetzungen
2. Lexikographische Ordnung
Voraussetzung: ordinale Nutzenmessung
Reihung der Ziele nach Wichtigkeit
Wichtigstes Ziel entscheidet über Reihung der Aktionen.
Nur bei Indifferenz wird zweitwichtigstes Ziel betrachtet usw.
Beispiel 5
U k1 k2 k3
a1 3 0 7
a2 4 2 4
a3 4 1 3
mitk1 ≻ k2 ≻ k3
folgta2 ≻ a3 ≻ a1
Beispiel 6
U k1 k2 k3
a1 1 001 1 1
a2 1 000 1 000 1 000
mitk1 ≻ k2 ≻ k3
folgta1 ≻ a2
Keine Erfassung von Nutzenunterschieden!
3. Entscheidungen bei Sicherheit 25
Entscheidungsregeln bei mehreren Zielsetzungen
3. Körth-Regel
Voraussetzung: kardinale Nutzenmessung
Wähle Aktion, bei der kleinster (relativer) Zielerreichungsgrad maximal, d.h.
Φ(ai) = minp
(uip
maxh
uhp
︸ ︷︷ ︸= uip
)→ max
i
Beispiel 7
uip k1 k2 k3 uip k1 k2 k3 minp uip
a1 3 0 8 a112 0 1 0
a2 4 2 4 ⇒ a223 1 1
212 ⇒ wähle a2
a3 6 1 2 a3 1 12
14
14
maxh uhp 6 2 8 maxi minp uip12
3. Entscheidungen bei Sicherheit 26
Kritikpunkte an Körth-Regel
➀ Nullpunktverschiebung kann Entscheidung beinflussen
Beispiel 8
uip k1 k2 uip k1 k2 minp uip
a1 2 10 a12
15 1 215
a2 15 1⇒
a2 1 110
110
⇒ wähle a1
maxh uhp 15 10 maxi minp uip2
15
Wenn uip → uip + 10:
uip k1 k2 uip k1 k2 minp uip
a1 12 20 a11225 1 12
25
a2 25 11⇒
a2 1 1120
1120
⇒ wähle a2
maxh uhp 25 20 maxi minp uip1120
3. Entscheidungen bei Sicherheit 27
Kritikpunkte an Körth-Regel
➁ Liefert u.U. unplausible Entscheidungen
Beispiel 9
uip k1 k2 k3 uip k1 k2 k3 minp uip
a1 1 1 000 1 000 a11
1 001 1 1 11 001
a2 1 001 1 1⇒
a2 1 11 000
11 000
11 000
⇒ wähle a2
maxh uhp 1 001 1 000 1 000 maxi minp uip1
1 000
3. Entscheidungen bei Sicherheit 28
Entscheidungsregeln bei mehreren Zielsetzungen
4. Goal-Programming
Voraussetzung: kardinale Nutzenmessung
Vorgabe von „Planzahlen“ up
Wähle Aktion, die den Vorgaben insgesamt am nächsten kommt.
Φ(ai) =
r∑
p=1
|uip − up| → mini
Beispiel 10
Seien u1 = 5, u2 = 3, u3 = 1
uip k1 k2 k3 |uip − up| k1 k2 k3∑
a1 3 0 8 a1 2 3 7 12
a2 4 2 4 ⇒ a2 1 1 3 5 ⇒ wähle a3
a3 6 1 2 a3 1 2 1 4
3. Entscheidungen bei Sicherheit 29
Risikosituation
Gegeben: A, Z, g (wie bei Sicherheit) und pj = P(zj) ∀ zj ∈ Z
Zu jedem ai ∈ A existiert ZV Xaimit Werten xi1, . . . , xin und P(xij) = pj
Also: Entscheidung zwischen ZV
denkbare Fälle:
• Objektive Wahrscheinlichkeiten bekannt
(auf Grund kombinatorischer Überlegungen, z.B. Lotto, Würfeln, . . . )
• Objektive Wahrscheinlichkeiten geschätzt
(auf Grund empirischer Daten, z.B. Versicherungsstatistik)
• Subjektive „Wahrscheinlichkeiten“
(keine objektiven Anhaltspunkte, sondern subjektive Überzeugungen)
Unterscheidung wird hier nicht weiter problematisiert.
4. Entscheidungen bei Risiko 30
Bernoulli-Prinzip
Wichtigster Ansatz zur Analyse der Risikosituation
auch: Erwartungsnutzentheorie, Expected Utility Theory
Beispiel 11
p1 = 12 p2 = 1
2z1 z2
a1 100 −100a2 −100 100a3 100 100a4 200 200a5 100 300a6 0 500
Rangfolge von Xa1, . . . , Xa6?
klar: a1 ∼ a2 ≺ a3 ≺ a4
und: a1 ∼ a2 ≺ a3 ≺ a5
sowie: a1 ∼ a2 ≺ a6
aber: Vergleich a4, a5, a6?
Abstimmung:
a4 ≺ a5 : a5 ≺ a4 :
a5 ∼ a4 : k. Entsch.
4. Entscheidungen bei Risiko 31
Bernoulli-Prinzip
Beispiel 12
p1 = 11000 p2 = 999
1000
z1 z2
a1 −P −P
a2 −40 ′′ 0
z1: Brand mit Totalschaden 40” €
z2: kein Brand
a1: Brandversicherung, Prämie P
a2: keine Versicherung
Versicherungsgesellschaft: orientiert sich am Erwartungswert
40 · 106 · 10−3 = 40 000 € ⇒ P > 40 000 z.B. P = 50 000
Versicherungsnehmer: orientiert sich nicht am Erwartungswert, denn
E(Xa1) = −50 000 < −40 000 = E(Xa2) ⇒ a1 ≺ a2
Trotzdem werden Versicherungen abgeschlossen.
Risikoeinstellung berücksichtigen!
4. Entscheidungen bei Risiko 32
Bernoulli-Prinzip
Bernoulli-Prinzip: Für den Entscheidungsträger existiert eine
• auf der Menge aller Ergebnisse definierte und
• bis auf eine wachsende lineare Transformation eindeutige
Nutzenfunktion u mit der Eigenschaft, dass die verschiedenen Aktionen
auf Grund des zugehörigen Nutzenerwartungswertes beurteilt werden.
u heißt auch Bernoulli-NF, Risiko-NF, vNM-NF oder Risikopräferenzfunktion
Formal: Für alle ai, aj ∈ A gilt
ai < aj ⇐⇒ Eu(Xai) ≧ Eu(Xaj
) und damit Φ(ai) = Eu(Xai) → max
i
Zur Erinnerung:
E(X) =∑
i
xif(xi) (diskret) bzw. E(X) =∞∫
−∞
xf(x)dx (stetig)
4. Entscheidungen bei Risiko 33
Bemerkungen zum Bernoulli-Prinzip
u ist kardinal eindeutig bis auf monoton wachsende lineare TraFo, d.h.
u = αu + β mit α ∈ IR++, β ∈ IR
repräsentiert gleiche Präferenzordnung wie u:
Eu(Xai) ≧ Eu(Xaj
) ⇔ αEu(Xai)+β ≧ αEu(Xaj
)+β ⇔ Eu(Xai) ≧ Eu(Xaj
)
oft: Normierung u(0) = 0, u(1) = 1 (dann: u eindeutig)
Sicherheitsäquivalent zu Xai: si ∈ IR so, dass si ∼ Xai
Berechnung (falls u invertierbar):
si ∼ Xai⇐⇒ u(si) = Eu(Xai
) ⇐⇒ si = u−1(Eu(Xai))
4. Entscheidungen bei Risiko 34
Bemerkungen zum Bernoulli-Prinzip
Beispiel 13
Zu u(x) = ln(x + 1) = y ist u−1(y) = ey − 1 und damit
si = eEu(Xai) − 1
Nun seien p1 = 12 p2 = 1
4 p3 = 14
z1 z2 z3 E(Xai) Eu(Xai
) si
a1 0 6 10 4 1,086 1,962
a2 2 8 12 6 1,740 4,697
a3 4 3 5 4 1,599 3,948
a4 0 3 17 5 1,069 1,912
⇒ a2 ≻ a3 ≻ a1 ≻ a4 auf Basis Eu(Xai) bzw. si
a2 ≻ a4 ≻ a1 ∼ a3 auf Basis E(Xai)
4. Entscheidungen bei Risiko 35
Empirische Ermittlung des Bernoulli–Nutzens
Vorgehensweise:
➀ Hypothetische Entscheidungssituation vorlegen:
x
y
v
a1
a2
1
p
1- p
mit y 4 x 4 v
➁ p variieren, bis a1 ∼ a2 (p = 0 → a2; p = 1 → a1)
➂ Aus x = s2 kann u bestimmt werden: u(x) = u(y) · p + u(v) · (1 − p)
Normierung u(y) = 0, u(v) = 1 ⇒ u(x) = 1 − p (aus ➁ bekannt!)
➃ Schritte ➀–➂ für alle x wiederholen u
4. Entscheidungen bei Risiko 36
Diskussion einiger Nutzenfunktionen
Annahme: u(0) = 0, u(1) = 1
a) u linear, d.h. u(x) = x (Normierung!)
Eu(Xai) = E(Xai
) = si
Risikoneutralität
b) u konkav; jensensche Ungleichung:
u(E(Xai)) ≧ Eu(Xai
) ⇐⇒ E(Xai) ≧ si
Risikoaversion
u(x)
1
1
x
u(x)
1
1
x
4. Entscheidungen bei Risiko 37
Diskussion einiger Nutzenfunktionen
c) u konvex; jensensche Ungleichung:
u(E(Xai)) ≦ Eu(Xai
) ⇐⇒ E(Xai) ≦ si
Risikosympathie
d) u abschnittsweise konkav / konvex
realistischer
(auch Versicherungsnehmer spielen Lotto)
u(x)
1
1
x
u(x)
x
4. Entscheidungen bei Risiko 38
Risikoprämien
bei (echter) Risikoaversion: si < E(Xai) bzw.
πi = E(Xai) − si
πi heißt Risikoprämie
Beispiel 14
X =
1, mit Wahrscheinlichkeit 0,5
4, mit Wahrscheinlichkeit 0,5
mit u(x) =√
x
E(X) = 12 · 1 + 1
2 · 4 = 2,5
Eu(X) = 12 ·
√1 + 1
2 ·√
4 = 1,5
s = 1,52 = 2,25
π = 2,5 − 2,25 = 0,25
4. Entscheidungen bei Risiko 39
Arrow-Pratt-Maß
bisher: kein Vergleich von Präferenzordnungen möglich
(Wer ist „risikoaverser“?)
Lösung: Arrow-Pratt-Maß der Risikoaversion:
r(x) = −u ′′(x)
u ′(x)
Beispiel 15
u(x) = 1 − e−αx ⇒ r(x) = −−α2e−αx
αe−αx= α
Satz:
Sind ri und πi Risikoaversion und -prämie des Entscheidungsträgers i
(i = 1, 2), so gilt für beliebiges X:
r1 ≧ r2 ⇐⇒ π1 ≧ π2
4. Entscheidungen bei Risiko 40
Zusammenfassung
Risikoeinstellung Verlauf von u(x) SÄ Prämie APM
risikoneutral linear si = E(Xai) πi = 0 r(x) = 0
risikoavers streng konkav si < E(Xai) πi > 0 r(x) > 0
risikofreudig streng konvex si > E(Xai) πi < 0 r(x) < 0
4. Entscheidungen bei Risiko 41
Klassische Entscheidungsprinzipien
Klassische Entscheidungsprinzipien . . .
• sind im Vergleich zum Bernoulli-Prinzip einfacher
• berücksichtigen Risikoeinstellung nicht bzw. mit Einschränkungen
• stellen „Faustregeln“ dar
1. µµµ-Regel
auch: Bayes-Regel, Erwartungswertprinzip
Bewertungsfunktion:
Φ(ai) = E(Xai) = µi → max
i
ignoriert Risikoeinstellung für Einzelentscheidungen ungeeignet
bei Mehrfachentscheidungen u.U. sinnvoll:
P(|Xi − µi| < ǫ) → 1 (Gesetz der großen Zahlen)
4. Entscheidungen bei Risiko 42
Klassische Entscheidungsprinzipien
Beispiel 16
p1 = 12 p2 = 1
2
z1 z2 µi
a1 −1 1 0
a2 −1 000 000 1 000 000 0
d.h. Φ(a1) = Φ(a2),
obwohl u.U. a1 ≁ a2
2. (µµµ,σσσ)-Regel
bezeichne µi = E(Xai), σi =
√Var(Xai
)
Bewertungsfunktion:
Φ(ai) = ϕ(µi, σi) → maxi
Zur Erinnerung: Var(Xai) = E([Xai
− µi]2) = E(X2
ai) − µ2
i
4. Entscheidungen bei Risiko 43
Klassische Entscheidungsprinzipien
Veranschaulichung: Indifferenzkurven (µ, σ) : ϕ(µ, σ) = const.
Pfeil: Richtung aufsteigender Präferenz
Risikoaversion Risikosympathie Risikoneutralität
µi = µj, σi > σj µi = µj, σi > σj
⇒ aj ≻ ai ⇒ ai ≻ aj
ϕ(µi, σi) = µi
σ
µ
σ
µ
σ
µ
4. Entscheidungen bei Risiko 44
Klassische Entscheidungsprinzipien
Beispiel 17
p1 = 1 000 0001 000 001 p2 = 1
1 000 001
z1 z2 µi σi
a1 −1 1 000 000 0 1 000
p1 = 12 p2 = 1
2
z1 z2 µi σi
a2 −1 000 1 000 0 1 000
⇒ Φ(a1) = Φ(a2), für jede Spezifikation von ϕ(µi, σi)
Beispiel 18
p1 = 25 p2 = 3
5 ϕ(µi, σi) = µi − 2σi
z1 z2 µi σi Φ(ai)
a1 0 100 60 48,99 −37,98
a2 100 900 580 391,92 −203,84
d.h. Φ(a2) < Φ(a1),
aber: a2 dominiert a1
4. Entscheidungen bei Risiko 45
Zusammenhang Bernoulli- / klassische Prinzipien
Spezialfall:
• X verteilt gemäß N(µ, σ)
• konstante Risikoeinstellung α ⇐⇒ u exponentiell (vgl. Folie 41)
Dann ist die (µ, σ)-Regel
ϕ(µ, σ) = µ − 12ασ2
mit dem Bernoulli-Prinzip verträglich.
Grund: Sicherheitsäquivalent zu X:
s = u−1(Eu(X)) = µ − 12ασ2,
wenn man u = 1−e−αx und die Dichte der N(µ, σ)-Verteilung verwendet.
4. Entscheidungen bei Risiko 46
Ungewissheitssituationen
Gegeben: A, Z, g (wie bei Risiko) aber nicht pj
Ausgangspunkt: Nutzenmatrix U (nicht unbedingt Bernoulli-NF)
Vorgehensweise:
➀ Domianzprinzip (Folie 19); ggf. gleichmäßig beste Aktion wählen; sonst:
➁ spezielle Entscheidungsregeln:
• Maximin-Regel
• Maximax-Regel
• Hurwicz-Regel
• Laplace-Regel
• Savage-Niehans-Regel
• Krelle-Regel
5. Entscheidungen bei Ungewissheit 47
Spezielle Entscheidungsregeln
1. Maximin-Regel / Wald-Regel
Φ(ai) = minj
uij → maxi
bzw. maxj
sij → mini
Beispiel 19
U z1 z2 z3 z4 minj uij
a1 4 3 7 1 1
a2 2 3 6 2 2
a3 3 3 5 4 3
⇒ a3 ≻ a2 ≻ a1
Wählt Aktion, bei der schlechtester Wert am besten ist (extrem pessimistisch!):
U =
(0,999 1000 1000 . . .
1 1 1 . . .
)⇒ a2 ≻ a1
5. Entscheidungen bei Ungewissheit 48
Spezielle Entscheidungsregeln
2. Maximax-Regel
Φ(ai) = maxj
uij → maxi
bzw. minj
sij → mini
Beispiel 20
U z1 z2 z3 z4 maxj uij
a1 4 3 7 1 7
a2 2 3 6 2 6
a3 3 3 5 4 5
⇒ a1 ≻ a2 ≻ a3
Wählt Aktion, bei der bester Wert am besten ist (extrem optimistisch!):
U =
(1000 0 0 . . .
999 999 999 . . .
)⇒ a1 ≻ a2
5. Entscheidungen bei Ungewissheit 49
Spezielle Entscheidungsregeln
3. Hurwicz-Regel
Kompromiss zwischen Maximin und Maximax
Optimismusparameter λ ∈ [0; 1]
Φ(ai) = λ · maxj
uij + (1 − λ) · minj
uij → maxi
Beispiel 21
Sei λ = 13
U z1 z2 z3 z4 minj uij maxj uij Φ(ai)
a1 4 3 7 1 1 7 93
a2 2 3 6 2 2 6 103
a3 3 3 5 4 3 5 113
⇒ a3 ≻ a2 ≻ a1
5. Entscheidungen bei Ungewissheit 50
Spezielle Entscheidungsregeln
Voraussetzung: kardinale Nutzenmessung (falls λ ∈ (0; 1))
Beispiel 22
Sei λ = 12
U z1 z2 min max Φ
a1 1 0 0 1 12
a2 −2 2 −2 2 0
⇒ a1 ≻ a2
mon. wachsende
TraFo
U z1 z2 min max Φ
a1 1 0 0 1 12
a2 −4 10 −4 10 3
⇒ a2 ≻ a1
weiterer Problemfall (auch bei Maximin / Maximax):
U =
(1 0 0 . . .
0 1 1 . . .
)⇒ a1 ∼ a2
5. Entscheidungen bei Ungewissheit 51
Spezielle Entscheidungsregeln
4. Laplace-Regel
Hilfsannahme: Alle Zustände „gleich wahrscheinlich“
Nutzensumme (= Nutzenerwartungswert · n) verwenden
Φ(ai) =
n∑
j=1
uij → maxi
Voraussetzung: kardinale Nutzenmessung
Beispiel 23U z1 z2 z3 z4 Φ(ai)
a1 4 3 7 1 15
a2 2 3 6 2 13
a3 3 3 5 4 15
⇒ a1 ∼ a3 ≻ a2
5. Entscheidungen bei Ungewissheit 52
Spezielle Entscheidungsregeln
Beispiel 24
Hinzufügen einer identischen Spalte kann Rangfolge ändern:
U z1 z2 Φ
a1 3 1 4
a2 −1 4 3
⇒ a1 ≻ a2
z3 = z2
U z1 z2 z3 Φ
a1 3 1 1 5
a2 −1 4 4 7
⇒ a2 ≻ a1
5. Savage-Niehans-Regel / Minimax-Regret-Prinzip
Übergang zu Opportunitätskosten sij; dann wie Wald-Regel
Φ(ai) = maxj
(maxk
ukj − uij
︸ ︷︷ ︸= sij
) → mini
Voraussetzung: kardinale Nutzenmessung
5. Entscheidungen bei Ungewissheit 53
Spezielle Entscheidungsregeln
Beispiel 25
U z1 z2 z3 z4
a1 4 3 7 1
a2 2 3 6 2
a3 3 3 5 4
maxk ukj 4 3 7 4
⇒
S z1 z2 z3 z4 Φ(ai)
a1 0 0 0 3 3
a2 2 0 1 2 2
a3 1 0 2 0 2
⇒ a2 ∼ a3 ≻ a1
Beispiel 26
U z1 z2 z3 · · ·a1 1 0 0 · · ·a2 0 1 1 · · ·
⇒
S z1 z2 z3 · · · Φ(ai)
a1 0 1 1 · · · 1
a2 1 0 0 · · · 1
⇒ a1 ∼ a2
5. Entscheidungen bei Ungewissheit 54
Spezielle Entscheidungsregeln
6. Krelle-Regel
Unsicherheitspräferenzfunktion ωij = ω(uij)
Φ(ai) =
n∑
j=1
ωij → maxi
Voraussetzung: kardinale Nutzenmessung; oft ω(0) = 0, ω(1) = 1
Empirische Ermittlung von ω: wie bei Bernoulli-NF (vgl. Folie 37)
Beispiel 27
U z1 z2 z3 z4
a1 4 3 7 1
a2 2 3 6 2
a3 3 3 5 4
ωij = ln(100 uij + 1)) a3 a1 a2
ΩΩΩ z1 z2 z3 z4 Φ(ai)
a1 5,99 5,71 6,55 4,62 22,87
a2 5,30 5,71 6,40 5,30 22,71
a3 5,71 5,71 6,22 5,99 23,63
5. Entscheidungen bei Ungewissheit 55
Situationen ohne zusätzliche Informationsbeschaffung
Mischformen zwischen Risiko und Ungewissheit:
• Wahrscheinkeitsverteilung selbst unsicher oder parziell
(z.B. Wahrscheinlichkeiten nur für Klassen von Zuständen)
• Vorhandensein von Informationsbeschaffungsmöglichkeiten
(z.B. Stichproben, Anreizsysteme, . . . )
zuerst: Verzicht auf Informationsbeschaffung, d.h. geg.
• Nutzenmatrix U
• eingeschränkt vertrauenswürdige Wahrscheinlichkeitsverteilung auf Z
• aber: pj für jedes zj ∈ Z
Hodges-Lehman-Regeln
6. Entscheidungen bei variabler Informationsstruktur 56
Hodges-Lehman-Regeln
1. Hodges-Lehman-Regel
Kompromiss zwischen Bayes- und Maximin-Regel
Vertrauensparameter λ ∈ [0; 1]
Φ(ai) = λ ·∑
j
uijpj + (1 − λ) · minj
uij → maxi
Kompromisse mit anderen Regeln ebenso möglich.
2. Hodges-Lehman-Regel
Vorgabe u0 ≦ maxi
minj
uij (geforderter garantierter Mindestnutzen)
wähle aus M = ai ∈ A : minj
uij ≧ u0 ⊆ A
Φ(ai) =∑
j
uijpj → maxi
6. Entscheidungen bei variabler Informationsstruktur 57
Hodges-Lehman-Regeln
Beispiel 28
Es seien λ = 12 bzw. u0 = 2
0,3 0,3 0,4U z1 z2 z3
∑
j
uijpj minj
uij1. HL 2. HL
a1 6 4 1 3,4 1 2,2 —
a2 3 5 2 3,2 2 2,6 3,2
a3 4 2 3 3,0 2 2,5 3,0
Reihenfolge a1 ≻ a2 ≻ a3 a2 ∼ a3 ≻ a1 a2 ≻ a3 ≻ a1 a2 ≻ a3 (≻ a1)
Anmerkung:u0 = max
imin
juij ⇒Maximin-Aktion optimal
u0 ≦ mini
minj
uij ⇒Bayes-Aktion optimal
6. Entscheidungen bei variabler Informationsstruktur 58
LPI-Modelle
nun: parzielle Information über Wahrscheinlichkeitsverteilung, d.h.
• pj nicht bekannt, aber
• Informationen, die Einschränkung der infrage kommenden pj erlauben
konstruiere Entscheidungsproblem bei Ungewissheit:
• A beibehalten
• Z ersetzen durch P = p = (p1, . . . , pn) : p mit Info verträglich
• für jeden „Zustand“ p ∈ P Konsequenz
g(ai, p) =n∑
j=1uijpj
berechnen und darauf
• Entscheidungsregeln aus Kapitel 5 anwenden
6. Entscheidungen bei variabler Informationsstruktur 59
LPI-Modelle
lineare parzielle Information:
Infos über Verteilung liegen als lineares (Un-)Gleichungssystem vor
LPI-Modelle: lineare parzielle Information i.V.m. Maximin-Regel, d.h.
Φ(ai) = minp∈P
g(ai, p) = minp∈P
n∑
j=1uijpj → max
i
involviert m lineare Optimierungsprobleme
Lösung i.A. mit Simplex-Algorithmus (Operations Research)
In Spezialfällen Lösung auch ohne Simplex möglich
6. Entscheidungen bei variabler Informationsstruktur 60
LPI-Modelle
Beispiel 29
U z1 z2 z3
a1 3 3 2,5
a2 1 3 8
a3 2 1 9
LPI:
p1 + p2 = 0,8
p1 ≧ p2 ≧ p3
⇒p3 = 0,2
0,2 ≦ p2 ≦ 0,4
0,8 − 0,4 ≦ p1 ≦ 0,8 − 0,2
also:P = (p1; 0,8 − p1; 0,2) : 0,4 ≦ p1 ≦ 0,6
g(a1, p) = 3p1 + 3 · (0,8 − p1)+ 2,5 · 0,2 = 2,9
g(a2, p) = p1 + 3 · (0,8 − p1)+ 8 · 0,2 = 4,0 − 2p1
g(a3, p) = 2p1 + 1 · (0,8 − p1)+ 9 · 0,2 = 2,6 + p1
⇒
Φ(a1)= 2,9
Φ(a2)= 2,8
Φ(a3)= 3,0
⇒ a3 ≻ a1 ≻ a2
6. Entscheidungen bei variabler Informationsstruktur 61
LPI-Modelle
weiterer Spezialfall: P ist Ungleichungssystem vom Typ pj ≧ pk
Vorgehensweise dann:
➀ Gerichteten Graphen zeichnen, wobei
• Knoten z1, . . . , zn
• Pfeil (j, k) ⇐⇒ pj ≧ pk
Beispiel 30
Seien p1 ≧ p3, p2 ≧ p3, p5 ≧ p4. Dann:
z3
z1 z2
z4 z5
6. Entscheidungen bei variabler Informationsstruktur 62
LPI-Modelle
➁ Alle zulässigen zusammenhängenden Träger T(p) bestimmen, wobei
• T(p) = zj ∈ Z : pj > 0
• zulässig, falls p ∈ P
• zusammenhängend, falls ungerichteter Teilgraph zusammenhängend
Beispiel 30
Zulässige zusammenhängende Träger: z1, z2, z5, z4, z5, z1, z2, z3
➂ Gleichverteilung für jeden zulässigen zusammenhängenden Träger:
p = (p1, . . . , pn) mit pj =
0, falls zj /∈ T(p)
1|T(p)|
, falls zj ∈ T(p)
➃ Φ(ai) maximieren, wobei nur die Verteilungen aus ➂ beachtet werden
6. Entscheidungen bei variabler Informationsstruktur 63
LPI-Modelle
Beispiel 30
Bereits bekannt:
P =
(10000
),
(01000
),
(00001
),
( 000
1/21/2
),
1/31/31/300
Ferner sei
U =
(9 3 6 2 4
7 4 4 8 2
)
Damit istg(ai, pj) p1 p2 p3 p4 p5 min
a1 9 3 4 3 6 3
a2 7 4 2 5 5 2
⇒ a1 ≻ a2
6. Entscheidungen bei variabler Informationsstruktur 64
Situationen mit zusätzlicher Informationsbeschaffung
vollkommenes Informationssystem:
Aus Nachricht y ∈ Y sicherer Rückschluss auf z ∈ Z möglich (Folie 12).
nun zusätzlich: Kosten der Informationsbeschaffung i.H.v. c
Lohnt sich Informationsbeschaffung?
Aktion a0 (Informationsbeschaffung) mit u0j = maxi=1,...,m
uij − c
trivialerweise: c = 0 ⇒ a0 optimal
2 relevante Fragestellungen:
➀ Soll Information beschafft werden bei gegebenem c?
a0 einführen und Entscheidungsregel für Risiko / Ungewissheit
➁ Wie hoch darf c maximal sein, dass Informationsbeschaffung lohnt?
Erwartungswert der vollkommenen Information (EWVI) berechnen
6. Entscheidungen bei variabler Informationsstruktur 65
Soll Information beschafft werden?
Beispiel 31
U =
10 20 40
20 25 20
5 40 10
a0
c = 5
U z1 z2 z3
a0 15 35 35
a1 10 20 40
a2 20 25 20
a3 5 40 10
Fall a) Ungewissheit, Maximin-Regel Fall b) Risiko, p = ( 110, 4
10, 12), Bayes-Regel
Φ(ai)
a0 15
a1 10
a2 20
a3 5
⇒ a2 optimalkeine Info-Beschaffung
Φ(ai)
a0 33
a1 29
a2 22
a3 21,5
⇒ a0 optimalInfo-Beschaffung lohnt sich!
6. Entscheidungen bei variabler Informationsstruktur 66
Erwartungswert der vollkommenen Information
Wie hoch dürfen Informationsbeschaffungskosten maximal sein?
Antwort abhängig von Entscheidungssituation und -kriterium!
Im Folgenden: Risiko i.V.m. Bayes-Regel
EWVI: Differenz Erwartungswert bei a0 und bei Bayes-Aktion
EWVI =n∑
j=1pj max
iuij − max
i
n∑
j=1pjuij
Alternative Berechnungsmöglichkeit:
EWVI = mini
n∑
j=1pjsij
Grund:
EWVI = mini
(n∑
j=1pj max
kukj −
n∑
j=1pjuij
)
= mini
n∑
j=1pj
(max
kukj − uij
︸ ︷︷ ︸= sij
)
6. Entscheidungen bei variabler Informationsstruktur 67
Erwartungswert der vollkommenen Information
Beispiel 31
Bereits bekannt (vgl. Folie 67): p = ( 110, 4
10, 12), max
i
n∑
j=1pjuij = 29 (a1)
U z1 z2 z3
a1 10 20 40
a2 20 25 20
a3 5 40 10
∑
j
pj maxi
uij
maxi
uij 20 40 40 38
S z1 z2 z3 Φ(ai)
a1 10 20 0 9
a2 0 15 20 16
a3 15 0 30 16,5
⇒ EWVI = 38 − 29 = 9 ⇒ EWVI = Φ(a1) = 9
EWVI = 9 > 5 = c ⇒ Info-Beschaffung lohnt sich!
Allgemein: EWVI < Kosten der (un)vollkommenen Info-Beschaffung⇒ keine Info-Beschaffung!
6. Entscheidungen bei variabler Informationsstruktur 68
Grundlagen der Spieltheorie
Spiel: Entscheidungssituation, deren Ergebnis abhängt von . . .
• den Entscheidungen des Entscheidungsträgers („Spieler“)
• den Entscheidungen anderer rationaler Entscheider („Gegenspieler“)
Beispiele:
• Gesellschaftsspiele (Knobeln, Schach, Skat . . . )
• wirtschaftliche Interessenskonflikte (Tarifkonflikte, Preisverhandlungen . . . )
Spieltheorie ist Entscheidungstheorie bei bewusst handelnden Gegnern
• „Umwelt“ wird ersetzt durch Gegenspieler
• Zustände werden ersetzt durch Aktionen des Gegenspielers, d.h.
Spieler 1 wählt Aktion a ∈ A (wie bisher),
Spieler 2 wählt Aktion b ∈ B
7. Entscheidungen bei bewusst handelnden Gegenspielern 69
Grundlagen der Spieltheorie
Man unterscheidet Spiele bezüglich . . .
Informationsstand in
• Spiele mit vollständiger Information
• Spiele mit unvollständiger Information
Anzahl der Spielzüge in
• Spiele in Normalform
• Spiele in extensiver Form
Verhaltensprämisse in
• Kooperative Spiele
• Nicht-kooperative Spiele
Im Folgenden: Nicht-kooperative Zweipersonenspiele in Normalform
7. Entscheidungen bei bewusst handelnden Gegenspielern 70
Nicht-kooperative Zweipersonenspiele in Normalform
Ein Nicht-kooperatives Zweipersonenspiel in Normalform liegt vor, wenn
• zwei Spieler 1, 2 beteiligt sind, die
• voneinander unabhängig („nicht-kooperativ“)
• genau eine Strategie a, b („Normalform“) wählen und danach
• je eine Auszahlung u1, u2 erhalten, die von a und b abhängt.
ui heißt Auszahlungsfunktion von Spieler i (i = 1, 2)
Eine Durchführung (d.h. Strategiewahl und Auszahlungen) heißt Partie.
Durch Angabe aller möglichen Partien a, b, u1(a, b), u2(a, b) wird das Spiel
vollständig beschrieben.
Formal:
Γ = (A, B, u1, u2)
7. Entscheidungen bei bewusst handelnden Gegenspielern 71
Nicht-kooperative Zweipersonenspiele in Normalform
Beispiel 32
Knobeln („Stein – Schere – Papier“), d.h.
A = B = Stein, Schere, Papier
u1 b1 b2 b3
a1 0 1 −1
a2 −1 0 1
a3 1 −1 0
Ferner gilt:
u2(a, b) = −u1(a, b) ∀a ∈ A, b ∈ B
Solche Spiele heißen Nullsummenspiele Γ = (A, B, u) (u1 = u, u2 = −u).
7. Entscheidungen bei bewusst handelnden Gegenspielern 72
Konstant-, Nullsummen- und Matrixspiele
Ein Spiel mit u1(a, b) + u2(a, b) = 0 heißt Nullsummenspiel.
Ein Spiel mit u1(a, b) + u2(a, b) = c heißt Konstantsummenspiel.
Jedes Konstantsummenspiel lässt sich in ein Nullsummenspiel überführen:
Ist Γ = (A, B, u1, u2) mit u1 + u2 = c ein Konstantsummenspiel, so ist
Γ = (A, B, u1 − c2, u2 − c
2) ein Nullsummenspiel.
Ein Nullsummenspiel mit endlichen A, B heißt Matrixspiel.
Lösungskonzepte für Matrixspiele:
➀ Maximinstrategien
➁ Gleichgewichtspunkte
7. Entscheidungen bei bewusst handelnden Gegenspielern 73
Maximinstrategien
Spiel = Ungewissheitssituation (aus Sicht beider Spieler)
Konzepte aus Kapitel 5 anwendbar.
Maximinstrategie = Wald-Regel (vgl. Folie 49)
Formal:
a) u∗ = maxa
minb
u(a, b) heißt unterer Spielwert von Γ .
b) a∗ ∈ A, die Spieler 1 u∗ sichert, heißt Maximinstrategie von Spieler 1.
c) u∗ = minb
maxa
u(a, b) heißt oberer Spielwert von Γ .
d) b∗ ∈ B, die Spieler 2 u∗ sichert, heißt Maximinstrategie von Spieler 2.
7. Entscheidungen bei bewusst handelnden Gegenspielern 74
Maximinstrategien
Beispiel 33
u b1 b2 b3 minb u(ai, b)
a1 0 −2 4 −2
a2 0 1 3 0
a3 −1 5 −4 −4
maxa u(a, bj) 0 5 4
⇒a∗ = a2
b∗ = b1
u∗ = u∗ = 0
Allgemein:a) u∗ ≦ u∗
b) u(a∗, b∗) ∈ [u∗, u∗]; [u∗, u∗] heißt Indeterminiertheitsintervall
c) Ist u∗ = u∗ = v, so heißt Γ determiniert und v Spielwert.
d) Ist v = 0, so heißt Γ fair.
7. Entscheidungen bei bewusst handelnden Gegenspielern 75
Maximinstrategien
Beispiel 34
u b1 b2 b3 b4 minb u(ai, b)
a1 0 −2 4 −1 −2
a2 0 1 3 −3 −3
a3 −1 5 −4 0 −4
maxa u(a, bj) 0 5 4 0
⇒a∗ = a1
b∗ = b1, b4
[u∗, u∗] = [−2, 0]
7. Entscheidungen bei bewusst handelnden Gegenspielern 76
Gleichgewichtspunkte
Idee: Eine Art „Stabilität“ liegt vor, wenn sich in einer Partie kein Spieler
durch einseitiges Abweichen einen Vorteil verschaffen kann.
Formal: (a∗, b∗) mit a∗ ∈ A, b∗ ∈ B heißt Gleichgewichtspunkt, wenn gilt:
u(a, b∗) ≦ u(a∗, b∗) ∀a ∈ A und
u(a∗, b) ≧ u(a∗, b∗) ∀b ∈ B
a∗, b∗ heißen Gleichgewichtsstrategien.
Ermittlung der Gleichgewichtspunkte:
• Spieler 1 markiert alle Spaltenmaxima: u
• Spieler 2 markiert alle Zeilenminima: u
Doppelt markierte Felder sind Gleichgewichtspunkte: u
7. Entscheidungen bei bewusst handelnden Gegenspielern 77
Gleichgewichtspunkte
Im Beispiel 33:
u b1 b2 b3
a1 0 −2 4
a2 0 1 3
a3 −1 5 −4
⇒a∗ = a2
b∗ = b1
GP eindeutig
Im Beispiel 34:
u b1 b2 b3 b4
a1 0 −2 4 −1
a2 0 1 3 −3
a3 −1 5 −4 0
⇒ kein GP!
Satz: (a∗, b∗) ist GP ⇐⇒ u∗ = u∗
a∗, b∗ sind dann optimale (d.h. Maximin- und Gleichgewichts-) Strategien.
7. Entscheidungen bei bewusst handelnden Gegenspielern 78
Gemischte Erweiterung
Idee: Strategiewahl per Zufallsentscheidung
Spieler legen dann statt a, b Wahrscheinlichkeitsverteilungen auf A, B fest
Formal:
a) Der Vektor p = (p1, . . . , pm)T ∈ P (mit pi ≧ 0; p1 + · · ·+ pm = 1) heißt
gemischte Strategie von Spieler 1.
b) Der Vektor q = (q1, . . . , qn)T ∈ Q (mit qj ≧ 0; q1 + · · · + qn = 1) heißt
gemischte Strategie von Spieler 2.
c) Das Spiel Γ E = (P, Q, E) mit E = pTUq =m∑
i=1
n∑
j=1piuijqj heißt
gemischte Erweiterung von Γ .
Im Beispiel 33: p = (0,2; 0,3; 0,5)T , q = (0,1; 0,8; 0,1)T ⇒E = 0,2 · 0,1 · 0 + 0,2 · 0,8 · (−2) + · · · + 0,5 · 0,1 · (−4) = 1,84
Satz: Γ E ist stets determiniert und es gilt v = p∗TUq∗ ∈ [u∗, u∗].
7. Entscheidungen bei bewusst handelnden Gegenspielern 79
Optimale Strategien und Spielwert von ΓE
Im Allgemeinen lineare Optimierung nötig (machen wir aber nicht . . . )
U.U. auch graphische Lösung möglich.
Voraussetzung: |A| ≦ 2 oder |B| ≦ 2.
Eventuell durch sukzessive Streichung dominierter Strategien erreichbar:
➀ Streiche alle dominierten / doppelten Strategien von Spieler 1.
➁ Streiche alle dominierten / doppelten Strategien von Spieler 2.
➂ Wiederhole ➀, ➁ solange, bis keine weitere Reduktion möglich.
Beispiel 35
3 −2 0 3 3
−1 2 1 0 1
2 −3 −1 4−4
→
3 −2 0 3
−1 2 1 1
2 −3 −1 −4
→(
3 −2 0 3
−1 2 1 1
)
→(
3 −2 0
−1 2 1
)
7. Entscheidungen bei bewusst handelnden Gegenspielern 80
Graphische Lösungsmöglichkeit
Für nicht weiter reduzierbare Matrixspiele Γ = (A, B, u) mit |A| = 2.
(Falls |A| > 2, |B| = 2 ⇒ vertausche Spielernummern, d.h. U 7→ −UT .)
Vorgehensweise in vier Schritten:
➊ Schritt: Zeichne für jedes bj ∈ B die Gerade
gj(p) = pu1j + (1 − p)u2j mit p ∈ [0, 1]
Im Beispiel 35:
g1(p)= 3 p − (1 − p)= 4 p − 1
g2(p)= −2 p + 2 (1 − p)= −4 p + 2
g3(p)= 1 − p
p
0 1
−1
1
2
−2
3
7. Entscheidungen bei bewusst handelnden Gegenspielern 81
Graphische Lösungsmöglichkeit
➋ Schritt: Bestimme minj
gj(p) für alle p ∈ [0, 1]
Im Beispiel 35:
p
0 1
−1
1
2
−2
3
•
p∗
➌ Schritt: Bestimme p∗ so, dass minj
gj(p) maximal wird.
Dann: p∗ = (p∗, 1 − p∗)T , v = minj
gj(p∗)
Im Beispiel 35:
g1(p) = g2(p) ⇔ 4 p−1 = −4 p+2 ⇔ p∗ = 38 ⇒ p∗ = (3
8, 58)
T , v = g1(38) = 1
2
7. Entscheidungen bei bewusst handelnden Gegenspielern 82
Graphische Lösungsmöglichkeit
➍ Schritt: Wähle die Geraden gju, gjo, die sich in p∗ schneiden•
gjogju
p∗und bestimme q∗ so, dass q∗ uiju + (1 − q∗) uijo = v.Dann: q∗ = (0, . . . , 0, q∗ , 0, . . . , 0, 1 − q∗ , 0, . . . , 0)T
↑ ↑ju-te Stelle jo-te Stelle
Im Beispiel 35: ju = 1, jo = 2, i = 1
q∗ u11 + (1 − q∗)u12 = 3 q∗ − 2 (1 − q∗) = 5 q∗ − 2!= 1
2 ⇔ q∗ = 12 ⇒ q∗ = (1
2, 12, 0)T
Damit ist die Lösung des ursprünglichen Spiels (Folie 81):
p∗ =(38, 5
8, 0)T
q∗ =(12, 1
2, 0, 0, 0)T
⇒ E = (38, 5
8, 0)
3 −2 0 3 3
−1 2 1 0 1
2 −3 −1 4 −4
1212
000
= 1
2 = v
7. Entscheidungen bei bewusst handelnden Gegenspielern 83
Bimatrixspiele
Matrixspiele: u1(a, b) = −u2(a, b)
Bimatrixspiele: u1(a, b) 6= −u2(a, b) für mindestens ein (a, b) ∈ A × B
Bimatrixspiele besitzen vielen Eigenschaften von Matrixspielen nicht, u.a.:
• Maximin- und Gleichgewichtsstrategien müssen nicht übereinstimmen.
• Gleichgewichtspunkte sind i.A. nicht Pareto-optimal (vgl. Beispiel 36).
Übertragung der Konzepte für Matrixspiele:
a) (a∗, b∗) mit a∗ ∈ A, b∗ ∈ B heißt Gleichgewichtspunkt, wenn gilt:
u1(a, b∗) ≦ u1(a∗, b∗) ∀a ∈ A und
u2(a∗, b) ≦ u2(a
∗, b∗) ∀b ∈ B
7. Entscheidungen bei bewusst handelnden Gegenspielern 84
Bimatrixspiele
b) u1∗ = maxa
minb
u1(a, b) heißt unterer Spielwert von Spieler 1.
c) u2∗ = maxb
mina
u2(a, b) heißt unterer Spielwert von Spieler 2.
d) (u1∗, u2∗) heißt Garantiepunkt von Γ .
e) a∗∈A, die Spieler 1 u1∗ sichert, heißt Maximinstrategie von Spieler 1.
f ) b∗∈B, die Spieler 2 u2∗ sichert, heißt Maximinstrategie von Spieler 2.
Darstellungsformen für Bimatrixspiele:
• Bimatrix:
U = ((u1(ai, bj), u2(ai, bj))mn
• (nicht-kooperatives) Auszahlungsdiagramm:
N(Γ) = (u1(a, b), u2(a, b)) : a ∈ A, b ∈ B
7. Entscheidungen bei bewusst handelnden Gegenspielern 85
Gefangenendilemma
Beispiel 36
A = B = leugnen, gestehen
(u1, u2) b1 b2 minb u1
a1 (6, 6) (0, 10) 0
a2 (10, 0) (2, 2) 2
mina u2 0 2
⇒Garantiepunkt: (2, 2)
Gleichgewichtspunkt: (a2, b2)u1
u2
•
•
•
•
2 6 10
10
6
2
Man beachte: (6, 6) > (2, 2) ⇒ Der GP ist ineffizient!
7. Entscheidungen bei bewusst handelnden Gegenspielern 86
Kampf der Geschlechter
Beispiel 37
A = B = Theater, Boxkampf
(u1, u2) b1 b2 minb u1
a1 (2, 1) (−1, −1) −1
a2 (−1, −1) (1, 2) −1
mina u2 −1 −1
⇒Garantiepunkt: (−1, −1)
2 Gleichgewichtspunkte: (a1, b1)
(a2, b2)
u1
u2
•
•
•
−1 1 2
−1
1
2
Garantiepunkt für beide unbefriedigend! Möglicher Ausweg: Absprachen.
7. Entscheidungen bei bewusst handelnden Gegenspielern 87
Kooperative Zweipersonenspiele
Idee: Partien (a1, b2), (a2, b1) per Absprache ausschließen;Entscheidung zwischen (a1, b1), (a2, b2) per Münzwurf.
Erwartete Auszahlung jeweils: 12 · 1 + 1
2 · 2 = 32; Beachte: (3
2, 32) /∈ N(Γ)
Zusätzliche Auszahlungspunkte erreichbar!
Formal: K(Γ) = co(N(Γ)) heißt
kooperatives Auszahlungsdiagramm.
(co(·) : kleinste konvexe Obermenge)
Welcher Punkt (u1, u2) ∈ K(Γ) kann
als Lösung angesehen werden?
Im Beispiel 37:
K(Γ)
u1
u2
•
•
•
−1 1 2
−1
1
2
7. Entscheidungen bei bewusst handelnden Gegenspielern 88
Nash-Lösung
Ausgangspunkt:
• Kooperatives Auszahlungsdiagramm: K(Γ)
• Konfliktpunkt: (u1, u2) ∈ K(Γ) (meist: (u1, u2) = (u1∗, u2∗))
Gesucht: (u1, u2) ∈ K(Γ)
Idee von Nash (1950): (u1, u2) sollte „fair“ sein, d.h.
➀ Unabängigkeit von linearen Transformationen
➁ Individuelle Rationaliät: u1 ≧ u1, u2 ≧ u2
➂ Pareto-Optimaliät
➃ Symmetrie: uneu1 = ualt
2 , uneu2 = ualt
1 ⇒ uneu1 = ualt
2 , uneu2 = ualt
1
➄ Unabhängigkeit von irrelevanten Alternativen(Streichung von Punkten 6= (u1, u2) ändert Lösung nicht.)
Satz: Die Forderungen ➀ – ➄ charakterisieren eine eindeutige Lösung.
7. Entscheidungen bei bewusst handelnden Gegenspielern 89
Nash-Lösung
Die Nash-Lösung ist derjenige Punkt auf dem Pareto-Rand up2(u1), der
[u1 − u1] · [up2(u1) − u2]
maximiert.
Im Beispiel 37:
Sei (u1, u2) = (u1∗, u2∗) = (−1, −1).Pareto-Rand: Gerade zwischen (1, 2), (2, 1)
⇒ up2 = a + b · u1 mit b = 1−2
2−1 = −1mit (u1, u2) = (1, 2) ⇒ 2 = a − 1 ⇔ a = 3⇒ u
p2 = 3 − u1, wobei 1 ≦ u1 ≦ 2
[u1 − u1] · [up2(u1) − u2] = (u1 + 1)(3 − u1 + 1)
=−u21 + 3 u1 + 4
1. Abl.: −2 u1 + 3 = 0 ⇔ u1 = 32 (2. Abl. o.k.).
In up2 : u2 = 3 − u1 = 3
2 ⇒ (u1, u2) = (32, 3
2)
K(Γ)
u1
u2
•
•
••
−1 1 32
2
−1
1
32
2
7. Entscheidungen bei bewusst handelnden Gegenspielern 90
Arbeitsbuch, Aufgabe 7.10
Ein PKW soll per Leasing finanziert werden. Der Kapitalwert k1 des Leasing-
nehmers (Spieler 1) hängt wie folgt von der noch zu bestimmenden Leasin-
grate ℓ > 0 ab: k1(ℓ) = 1 000 − 4 ℓ.
Die Hausbank des PKW-Herstellers tritt als Leasinggeberin (Spieler 2) auf. Ihr
aus dem Leasingvertrag resultierender Kapitalwert k2 hängt ebenfalls von ℓ
ab, und es gilt: k2(ℓ) = −600 + 3 ℓ.
Leasingraten, die zu k1 < 0 führen, sind für den Leasingnehmer inakzeptabel.
In diesen Fällen verzichtet er auf die Anschaffung des PKW, so dass beide
Spieler Kapitalwerte in Höhe von 0 erzielen. Die Leasinggeberin ist dagegen
bereit, gegebenenfalls auch einen negativen Kapitalwert hinzunehmen, wenn
dadurch der Absatz des PKW sichergestellt wird, das heißt, wenn k1 ≧ 0 ist.
Bestimmen Sie Nash-Lösung dieser Verhandlungssituation. Welche Leasingra-
te müssten die beiden Spieler vereinbaren, um diese Lösung zu realisieren?
7. Entscheidungen bei bewusst handelnden Gegenspielern 91