gabriele kern-isberner ls 1 { information engineering fileprobabilistische folgerungsmodelle und...
TRANSCRIPT
![Page 1: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/1.jpg)
Commonsense Reasoning
Gabriele Kern-IsbernerLS 1 – Information Engineering
TU DortmundSommersemester 2016
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232
![Page 2: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/2.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Kapitel 4
4. ProbabilistischeFolgerungsmodelle und -strategien
4.6 Probabilistische Inferenz auf der Basisoptimaler Entropie
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 169 / 232
![Page 3: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/3.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Verteilung – Beispiel
Nehmen wir an, unser Wissen besteht nur aus einer Regel:
R = (B|A)[0.8]
uber der Signatur Σ = A,B;
wir berechnen – mit Hilfe von SPIRIT – die Verteilung ME (R) = P :
ω P (ω) ω P (ω)
AB 0.361 AB 0.274
AB 0.091 AB 0.274
Fur A,B ergeben sich die Wahrscheinlichkeiten:
P (A) = 0.452, P (B) = 0.636
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 202 / 232
![Page 4: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/4.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Inferenz
Praktisches Arbeiten mit der ME -Methodik ist also einfach moglich, aberdas Verfahren wirkt intransparent.
Logische und formale Ansatze ermoglichen einen klareren Blick auf dieME -Methodik.
Logisch gestattet die ME -Methodik eine probabilistische Auswahl-Inferenz:
CME(R) = φ ∈ (L | L)prob | ME (R) |= φ
d.h. aus einer probabilistischen Regelbasis werden alle (bedingten)probabilistischen Formeln abgeleitet, die in der zugehorigen ME -Verteilungerfullt sind.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 203 / 232
![Page 5: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/5.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Beispiel – Grippe (Forts.)
R = (k|g) [1], (s|g) [0.9], (k|s) [0.8]
K G S P ∗ = ME (R)
0 0 0 0.18910 0 1 0.11850 1 0 00 1 1 01 0 0 0.18911 0 1 0.21251 1 0 0.02911 1 1 0.2617
P ∗(k|g) ≈ 0.57, P ∗(k|gs) ≈ 0.64⇒
CME(R) 3 (k|g)[0.57], (k|gs)[0.64], (s|g) [0.9], (kgs)[0.2125], . . .
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 204 / 232
![Page 6: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/6.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Eigenschaften der ME-Inferenz
Der ME -Inferenzoperator CME erfullt die folgenden Eigenschaften:
• Inklusion/Reflexivitat: R ⊆ CME(R).
• Kumulativitat, d.h. Schnitt und vorsichtige Monotonie:
R ⊆ S ⊆ CME(R) impliziert CME(R) = CME(S)
• Supraklassizitat, d.h. es gilt: Cnprob(R) ⊆ CME(R)
• Loop: Sind R1, . . . ,Rm ⊆ (L | L)prob mit Ri+1 ⊆ CME(Ri),i modulo m, dann gilt
CME(Ri) = CME(Rj) fur alle i, j = 1, . . . ,m
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232
![Page 7: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/7.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Eigenschaften der ME-Inferenz
Der ME -Inferenzoperator CME erfullt die folgenden Eigenschaften:
• Inklusion/Reflexivitat: R ⊆ CME(R).
• Kumulativitat, d.h. Schnitt und vorsichtige Monotonie:
R ⊆ S ⊆ CME(R) impliziert CME(R) = CME(S)
• Supraklassizitat, d.h. es gilt: Cnprob(R) ⊆ CME(R)
• Loop: Sind R1, . . . ,Rm ⊆ (L | L)prob mit Ri+1 ⊆ CME(Ri),i modulo m, dann gilt
CME(Ri) = CME(Rj) fur alle i, j = 1, . . . ,m
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232
![Page 8: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/8.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Eigenschaften der ME-Inferenz
Der ME -Inferenzoperator CME erfullt die folgenden Eigenschaften:
• Inklusion/Reflexivitat: R ⊆ CME(R).
• Kumulativitat, d.h. Schnitt und vorsichtige Monotonie:
R ⊆ S ⊆ CME(R) impliziert CME(R) = CME(S)
• Supraklassizitat, d.h. es gilt: Cnprob(R) ⊆ CME(R)
• Loop: Sind R1, . . . ,Rm ⊆ (L | L)prob mit Ri+1 ⊆ CME(Ri),i modulo m, dann gilt
CME(Ri) = CME(Rj) fur alle i, j = 1, . . . ,m
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232
![Page 9: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/9.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232
![Page 10: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/10.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232
![Page 11: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/11.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Verteilung unter der Lupe
Fur R = (B1|A1) [x1], . . . , (Bn|An) [xn] erhalten wir
ME (R)(ω) = α0
∏
1≤i≤nω|=AiBi
α1−xii
∏
1≤i≤n
ω|=AiBi
α−xii
mit αi =xi
1− xi
∑ω|=AiBi
∏j 6=i
ω|=AjBj
α1−xj
j
∏j 6=i
ω|=AjBj
α−xj
j
∑ω|=AiBi
∏j 6=i
ω|=AjBj
α1−xj
j
∏j 6=i
ω|=AjBj
α−xj
j
,
und αi
> 0 : xi ∈ (0, 1)=∞ : xi = 1= 0 : xi = 0
, 1 ≤ i ≤ n.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232
![Page 12: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/12.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232
![Page 13: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/13.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232
![Page 14: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/14.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln
Wir wollen im Folgenden fur (wichtige) Spezialfalle ME -Inferenzen“berechnen” und Ableitungsregeln aufstellen;
dabei benutzen wir diefolgende Notation
R : (B1|A1) [x1], . . . , (Bn|An) [xn]
(B∗1 |A∗1) [x∗1], . . . , (B∗m|A∗m) [x∗m]
genau dann, wenn
R = (B1|A1) [x1], . . . , (Bn|An) [xn]und ME (R) |= (B∗1 |A∗1) [x∗1], . . . (B∗m|A∗m) [x∗m]
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 207 / 232
![Page 15: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/15.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln
Wir wollen im Folgenden fur (wichtige) Spezialfalle ME -Inferenzen“berechnen” und Ableitungsregeln aufstellen; dabei benutzen wir diefolgende Notation
R : (B1|A1) [x1], . . . , (Bn|An) [xn]
(B∗1 |A∗1) [x∗1], . . . , (B∗m|A∗m) [x∗m]
genau dann, wenn
R = (B1|A1) [x1], . . . , (Bn|An) [xn]und ME (R) |= (B∗1 |A∗1) [x∗1], . . . (B∗m|A∗m) [x∗m]
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 207 / 232
![Page 16: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/16.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Mit Hilfe der obigen Formel lassen sich z.B. folgende Ableitungsregelnbeweisen:
Transitive Verkettung
R : (B|A)[x1], (C|B)[x2]
(C|A)[1
2(2x1x2 + 1− x1)]
Beispiel: A jung sein, B Single sein, C Kinder haben
R = (B|A)[0.9], (C|B)[0.85].Mit der Transitiven Verkettung errechnet man als ME -Folgerung
(C|A)[0.815] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232
![Page 17: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/17.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Mit Hilfe der obigen Formel lassen sich z.B. folgende Ableitungsregelnbeweisen:
Transitive Verkettung
R : (B|A)[x1], (C|B)[x2]
(C|A)[1
2(2x1x2 + 1− x1)]
Beispiel: A jung sein, B Single sein, C Kinder haben
R = (B|A)[0.9], (C|B)[0.85].
Mit der Transitiven Verkettung errechnet man als ME -Folgerung
(C|A)[0.815] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232
![Page 18: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/18.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Mit Hilfe der obigen Formel lassen sich z.B. folgende Ableitungsregelnbeweisen:
Transitive Verkettung
R : (B|A)[x1], (C|B)[x2]
(C|A)[1
2(2x1x2 + 1− x1)]
Beispiel: A jung sein, B Single sein, C Kinder haben
R = (B|A)[0.9], (C|B)[0.85].Mit der Transitiven Verkettung errechnet man als ME -Folgerung
(C|A)[0.815] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232
![Page 19: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/19.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis
R : (B|A)[x1], (C|B)[x2]
(C|A)[1
2(2x1x2 + 1− x1)]
Die ME-Verteilung P ∗ = ME (R),R = (B|A)[x1], (C|B)[x2], kann wiefolgt berechnet werden:
ω P ∗ ω P ∗
ABC α0α1−x11 α1−x2
2 ABC α0α1−x22
ABC α0α1−x11 α−x22 ABC α0α
−x22
ABC α0α−x11 ABC α0
ABC α0α−x11 ABC α0
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 209 / 232
![Page 20: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/20.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis
R : (B|A)[x1], (C|B)[x2]
(C|A)[1
2(2x1x2 + 1− x1)]
Die ME-Verteilung P ∗ = ME (R),R = (B|A)[x1], (C|B)[x2], kann wiefolgt berechnet werden:
ω P ∗ ω P ∗
ABC α0α1−x11 α1−x2
2 ABC α0α1−x22
ABC α0α1−x11 α−x22 ABC α0α
−x22
ABC α0α−x11 ABC α0
ABC α0α−x11 ABC α0
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 209 / 232
![Page 21: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/21.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis (Forts.)
mit
α1 =x1
1− x1
2
α1−x22 + α−x22
=x1
1− x1αx22
2
α2 + 1
α2 =x2
1− x2
Damit berechnet man
P ∗(C|A) =P ∗(AC)
P ∗(A)
=P ∗(ABC) + P ∗(ABC)
P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)
=α1α
1−x22 + 1
α1α−x22 (α2 + 1) + 2
=1
2(2x1x2 + 1− x1)
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
![Page 22: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/22.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis (Forts.)
mit
α1 =x1
1− x1
2
α1−x22 + α−x22
=x1
1− x1αx22
2
α2 + 1
α2 =x2
1− x2
Damit berechnet man
P ∗(C|A) =P ∗(AC)
P ∗(A)
=P ∗(ABC) + P ∗(ABC)
P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)
=α1α
1−x22 + 1
α1α−x22 (α2 + 1) + 2
=1
2(2x1x2 + 1− x1)
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
![Page 23: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/23.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis (Forts.)
mit
α1 =x1
1− x1
2
α1−x22 + α−x22
=x1
1− x1αx22
2
α2 + 1
α2 =x2
1− x2
Damit berechnet man
P ∗(C|A) =P ∗(AC)
P ∗(A)
=P ∗(ABC) + P ∗(ABC)
P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)
=α1α
1−x22 + 1
α1α−x22 (α2 + 1) + 2
=1
2(2x1x2 + 1− x1)
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
![Page 24: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/24.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis (Forts.)
mit
α1 =x1
1− x1
2
α1−x22 + α−x22
=x1
1− x1αx22
2
α2 + 1
α2 =x2
1− x2
Damit berechnet man
P ∗(C|A) =P ∗(AC)
P ∗(A)
=P ∗(ABC) + P ∗(ABC)
P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)
=α1α
1−x22 + 1
α1α−x22 (α2 + 1) + 2
=1
2(2x1x2 + 1− x1)
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
![Page 25: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/25.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis (Forts.)
mit
α1 =x1
1− x1
2
α1−x22 + α−x22
=x1
1− x1αx22
2
α2 + 1
α2 =x2
1− x2
Damit berechnet man
P ∗(C|A) =P ∗(AC)
P ∗(A)
=P ∗(ABC) + P ∗(ABC)
P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)
=α1α
1−x22 + 1
α1α−x22 (α2 + 1) + 2
=1
2(2x1x2 + 1− x1)
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
![Page 26: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/26.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
![Page 27: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/27.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
![Page 28: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/28.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Vorsichtige Monotonie
R : (B|A)[x1], (C|A)[x2]
(C|AB)[x2]
Beispiel: A Student sein, B jung sein, C Single sein
R = (B|A)[0.9], (C|A)[0.8]
Mit der vorsichtigen Monotonie folgt dann
(C|AB)[0.8] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232
![Page 29: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/29.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Vorsichtige Monotonie
R : (B|A)[x1], (C|A)[x2]
(C|AB)[x2]
Beispiel: A Student sein, B jung sein, C Single sein
R = (B|A)[0.9], (C|A)[0.8]
Mit der vorsichtigen Monotonie folgt dann
(C|AB)[0.8] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232
![Page 30: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/30.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232
![Page 31: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/31.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232
![Page 32: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/32.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Schnitt
R : (C|AB)[x1], (B|A)[x2]
(C|A)[1
2(2x1x2 + 1− x2)]
Beispiel: A Student sein, B jung sein, C Single sein
R = (C|AB)[0.8], (B|A)[0.9]
Mit der Schnittregel folgt dann
(C|A)[0.77] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
![Page 33: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/33.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Schnitt
R : (C|AB)[x1], (B|A)[x2]
(C|A)[1
2(2x1x2 + 1− x2)]
Beispiel: A Student sein, B jung sein, C Single sein
R = (C|AB)[0.8], (B|A)[0.9]
Mit der Schnittregel folgt dann
(C|A)[0.77] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
![Page 34: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/34.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
![Page 35: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/35.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
![Page 36: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/36.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
![Page 37: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/37.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
![Page 38: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/38.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
![Page 39: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/39.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
![Page 40: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/40.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME und Commonsense Reasoning
Was hat ME mit Commonsense Reasoning zu tun?
Jeff Paris:Common sense and maximum entropy.Synthese 117, 75-93, 1999, Kluwer Academic Publishers
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 213 / 232
![Page 41: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/41.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME und Commonsense Reasoning
Was hat ME mit Commonsense Reasoning zu tun?
Jeff Paris:Common sense and maximum entropy.Synthese 117, 75-93, 1999, Kluwer Academic Publishers
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 213 / 232
![Page 42: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/42.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Symmetrie-Prinzip
Eines der grundlegendsten und einfachsten Prinzipien des CommonsenseReasoning ist das
Symmetrie-Prinzip
(Wesentlich) Ahnliche Probleme haben (im Wesentlichen) ahnlicheLosungen. (B. van Fraassen, 1989)
• Welche Ahnlichkeit ist hier gemeint?
• Was ist denn uberhaupt das Problem?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232
![Page 43: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/43.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Symmetrie-Prinzip
Eines der grundlegendsten und einfachsten Prinzipien des CommonsenseReasoning ist das
Symmetrie-Prinzip
(Wesentlich) Ahnliche Probleme haben (im Wesentlichen) ahnlicheLosungen. (B. van Fraassen, 1989)
• Welche Ahnlichkeit ist hier gemeint?
• Was ist denn uberhaupt das Problem?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232
![Page 44: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/44.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Symmetrie-Prinzip
Eines der grundlegendsten und einfachsten Prinzipien des CommonsenseReasoning ist das
Symmetrie-Prinzip
(Wesentlich) Ahnliche Probleme haben (im Wesentlichen) ahnlicheLosungen. (B. van Fraassen, 1989)
• Welche Ahnlichkeit ist hier gemeint?
• Was ist denn uberhaupt das Problem?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232
![Page 45: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/45.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Intelligente Agenten in probabilistischer Umgebung
Nehmen wir an,
• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken,
und
• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,
dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.
Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232
![Page 46: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/46.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Intelligente Agenten in probabilistischer Umgebung
Nehmen wir an,
• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken, und
• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,
dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.
Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232
![Page 47: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/47.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Intelligente Agenten in probabilistischer Umgebung
Nehmen wir an,
• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken, und
• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,
dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.
Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232
![Page 48: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/48.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Intelligente Agenten in probabilistischer Umgebung
Nehmen wir an,
• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken, und
• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,
dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.
Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232
![Page 49: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/49.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 1/2
Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen
Form(Σ) Menge der Formeln uber Σ
P(Σ) Menge aller Wahrscheinlichkeitsverteilungenuber Σ, d.h.
P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑
i=1
pi = 1
KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ
Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232
![Page 50: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/50.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 1/2
Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen
Form(Σ) Menge der Formeln uber ΣP(Σ) Menge aller Wahrscheinlichkeitsverteilungen
uber Σ, d.h.
P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑
i=1
pi = 1
KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ
Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232
![Page 51: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/51.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 1/2
Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen
Form(Σ) Menge der Formeln uber ΣP(Σ) Menge aller Wahrscheinlichkeitsverteilungen
uber Σ, d.h.
P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑
i=1
pi = 1
KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ
Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232
![Page 52: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/52.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 1/2
Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen
Form(Σ) Menge der Formeln uber ΣP(Σ) Menge aller Wahrscheinlichkeitsverteilungen
uber Σ, d.h.
P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑
i=1
pi = 1
KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ
Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232
![Page 53: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/53.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 2/2
Definition 3 (Probabilistischer Inferenzprozess)
Ein probabilistischer Inferenzprozess NΣ ist eine Abbildung
NΣ : KB(Σ) → P(Σ),
R 7→ P,
die jeder konsistenten Regelbasis uber Σ eine Verteilung P uber Σzuordnet mit P |= R.
NΣ spezifiziert also einen induktiven Inferenzprozess.Welche CR-Prinzipien zeichnen einen “guten” Inferenzprozess aus?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232
![Page 54: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/54.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 2/2
Definition 3 (Probabilistischer Inferenzprozess)
Ein probabilistischer Inferenzprozess NΣ ist eine Abbildung
NΣ : KB(Σ) → P(Σ),
R 7→ P,
die jeder konsistenten Regelbasis uber Σ eine Verteilung P uber Σzuordnet mit P |= R.
NΣ spezifiziert also einen induktiven Inferenzprozess.
Welche CR-Prinzipien zeichnen einen “guten” Inferenzprozess aus?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232
![Page 55: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/55.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 2/2
Definition 3 (Probabilistischer Inferenzprozess)
Ein probabilistischer Inferenzprozess NΣ ist eine Abbildung
NΣ : KB(Σ) → P(Σ),
R 7→ P,
die jeder konsistenten Regelbasis uber Σ eine Verteilung P uber Σzuordnet mit P |= R.
NΣ spezifiziert also einen induktiven Inferenzprozess.Welche CR-Prinzipien zeichnen einen “guten” Inferenzprozess aus?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232
![Page 56: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/56.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 1: Irrelevante Information
Irrelevante-Information-Prinzip
Information uber ganz andere Themenbereiche soll das Ergebnis desInferenzprozesses nicht beeinflussen.
Seien Σ1,Σ2 zwei disjunkte Signaturen, Σ1 ∩ Σ2 = ∅, und seienR1 ∈ KB(Σ1),R2 ∈ KB(Σ2). Fur alle φ ∈ Form(Σ1) soll dann gelten:
NΣ1(R1)(φ) = NΣ1∪Σ2(R1 ∪R2)(φ).
Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signaturabhangen. Wir schreiben daher im Folgenden haufig N statt NΣ.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232
![Page 57: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/57.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 1: Irrelevante Information
Irrelevante-Information-Prinzip
Information uber ganz andere Themenbereiche soll das Ergebnis desInferenzprozesses nicht beeinflussen.
Seien Σ1,Σ2 zwei disjunkte Signaturen, Σ1 ∩ Σ2 = ∅, und seienR1 ∈ KB(Σ1),R2 ∈ KB(Σ2). Fur alle φ ∈ Form(Σ1) soll dann gelten:
NΣ1(R1)(φ) = NΣ1∪Σ2(R1 ∪R2)(φ).
Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signaturabhangen. Wir schreiben daher im Folgenden haufig N statt NΣ.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232
![Page 58: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/58.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 1: Irrelevante Information
Irrelevante-Information-Prinzip
Information uber ganz andere Themenbereiche soll das Ergebnis desInferenzprozesses nicht beeinflussen.
Seien Σ1,Σ2 zwei disjunkte Signaturen, Σ1 ∩ Σ2 = ∅, und seienR1 ∈ KB(Σ1),R2 ∈ KB(Σ2). Fur alle φ ∈ Form(Σ1) soll dann gelten:
NΣ1(R1)(φ) = NΣ1∪Σ2(R1 ∪R2)(φ).
Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signaturabhangen. Wir schreiben daher im Folgenden haufig N statt NΣ.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232
![Page 59: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/59.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232
![Page 60: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/60.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 2: Semantische Aquivalenz
Aquivalenz-Prinzip
Haben zwei Wissensbasen exakt die gleiche (semantische) Bedeutung, sosoll auch exakt das Gleiche gefolgert werden.
Beschreiben R1,R2 ∈ KB(Σ) denselben Losungsraum in P(Σ), so sollgelten N(R1) = N(R2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 219 / 232
![Page 61: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/61.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 2: Semantische Aquivalenz
Aquivalenz-Prinzip
Haben zwei Wissensbasen exakt die gleiche (semantische) Bedeutung, sosoll auch exakt das Gleiche gefolgert werden.
Beschreiben R1,R2 ∈ KB(Σ) denselben Losungsraum in P(Σ), so sollgelten N(R1) = N(R2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 219 / 232
![Page 62: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/62.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 3: Umbenennung
Umbenennungs-Prinzip
Eine isomorphe Umbennung der Variablen in der Wissensbasis soll keinenEffekt auf das Ergebnis der Inferenz haben.
Formalisierung: . . .
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 220 / 232
![Page 63: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/63.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 4: Kontext-Relativierung
Relativierungs-Prinzip
Information, die sich auf die Nichterfullung eines Kontextes bezieht, istirrelevant fur die kontextbezogene Inferenz.
Sei A ∈ Form(Σ), seien R1,R2 ∈ KB(Σ) die folgenden Wissensbasen:
R1 = A[x], (Bi ∧A)[xi], (Cj ∧ ¬A)[yj ]i,j ,R2 = A[x], (Bi ∧A)[xi]i.
Fur φ ∈ Form(Σ) soll dann gelten:
N(R1)(φ ∧A) = N(R2)(φ ∧A).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232
![Page 64: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/64.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 4: Kontext-Relativierung
Relativierungs-Prinzip
Information, die sich auf die Nichterfullung eines Kontextes bezieht, istirrelevant fur die kontextbezogene Inferenz.
Sei A ∈ Form(Σ), seien R1,R2 ∈ KB(Σ) die folgenden Wissensbasen:
R1 = A[x], (Bi ∧A)[xi], (Cj ∧ ¬A)[yj ]i,j ,R2 = A[x], (Bi ∧A)[xi]i.
Fur φ ∈ Form(Σ) soll dann gelten:
N(R1)(φ ∧A) = N(R2)(φ ∧A).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232
![Page 65: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/65.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232
![Page 66: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/66.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232
![Page 67: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/67.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 5: Hartnackigkeit
Hartnackigkeits-Prinzip
Information, die das bestatigt, was der Agent bereits glaubt, soll dasErgebnis der Inferenz nicht beeinflussen.
Sind R1,R2 ∈ KB(Σ), und erfullt N(R1) bereits R2, so soll gelten:
N(R1) = N(R1 ∪R2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232
![Page 68: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/68.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 5: Hartnackigkeit
Hartnackigkeits-Prinzip
Information, die das bestatigt, was der Agent bereits glaubt, soll dasErgebnis der Inferenz nicht beeinflussen.
Sind R1,R2 ∈ KB(Σ), und erfullt N(R1) bereits R2, so soll gelten:
N(R1) = N(R1 ∪R2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232
![Page 69: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/69.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232
![Page 70: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/70.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 6: Schwache Unabhangigkeit
Schwaches Unabhangigkeits-Prinzip
Information uber eine echte Alternative soll das Ergebnis der Inferenz nichtbeeinflussen.
Sei Σ = A,B,C, und seien R1,R2 ∈ KB(Σ) die folgendenWissensbasen:
R1 = A[x], B[y],R2 = A[x], B[y], C[z], AC[0].
Dann soll gelten N(R1)(A ∧B) = N(R2)(A ∧B).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232
![Page 71: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/71.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 6: Schwache Unabhangigkeit
Schwaches Unabhangigkeits-Prinzip
Information uber eine echte Alternative soll das Ergebnis der Inferenz nichtbeeinflussen.
Sei Σ = A,B,C, und seien R1,R2 ∈ KB(Σ) die folgendenWissensbasen:
R1 = A[x], B[y],R2 = A[x], B[y], C[z], AC[0].
Dann soll gelten N(R1)(A ∧B) = N(R2)(A ∧B).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232
![Page 72: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/72.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232
![Page 73: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/73.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 7: Stetigkeit
Stetigkeits-Prinzip
Mikroskopisch kleine Anderungen in der Weltbeschreibung sollen keinemakroskopisch großen Anderungen in den Wahrscheinlichkeitenverursachen.
Fur jedes φ ∈ Form(Σ) hangt N(R)(φ) stetig von denWahrscheinlichkeiten des Faktenwissens in R ab.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232
![Page 74: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/74.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 7: Stetigkeit
Stetigkeits-Prinzip
Mikroskopisch kleine Anderungen in der Weltbeschreibung sollen keinemakroskopisch großen Anderungen in den Wahrscheinlichkeitenverursachen.
Fur jedes φ ∈ Form(Σ) hangt N(R)(φ) stetig von denWahrscheinlichkeiten des Faktenwissens in R ab.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232
![Page 75: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/75.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232
![Page 76: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/76.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Haupttheorem
Theorem 4
Jeder Inferenzprozess N , der alle CR-Prinzipien 1-7 erfullt, stimmt mit derME-Inferenz uberein.
Die ME -Methodik erlaubt also optimales Commonsense Reasoning improbabilistischen Bereich und wird durch die CR-Prinzipien 1-7 eindeutigbestimmt.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 225 / 232
![Page 77: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/77.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Fazit ME-Methodik 1/2
ME -Rehabilitation
Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahrenohne Sinn und Logik!
• Die ME -Methodik ermoglicht induktive Inferenz in ihrer allgemeinstenForm: Komplexe Wissenszustande (Wahrscheinlichkeitsverteilungen)konnen aus Information in komplexer Form (Mengen probabilistischerKonditionale) erzeugt werden.
• ME -Inferenz erfullt zahlreiche der Eigenschaften, die man annichtmonotone Inferenzrelationen i.Allg. stellt, z.B. die Kumulativitatund Loop.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232
![Page 78: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/78.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Fazit ME-Methodik 1/2
ME -Rehabilitation
Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahrenohne Sinn und Logik!
• Die ME -Methodik ermoglicht induktive Inferenz in ihrer allgemeinstenForm: Komplexe Wissenszustande (Wahrscheinlichkeitsverteilungen)konnen aus Information in komplexer Form (Mengen probabilistischerKonditionale) erzeugt werden.
• ME -Inferenz erfullt zahlreiche der Eigenschaften, die man annichtmonotone Inferenzrelationen i.Allg. stellt, z.B. die Kumulativitatund Loop.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232
![Page 79: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/79.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Fazit ME-Methodik 1/2
ME -Rehabilitation
Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahrenohne Sinn und Logik!
• Die ME -Methodik ermoglicht induktive Inferenz in ihrer allgemeinstenForm: Komplexe Wissenszustande (Wahrscheinlichkeitsverteilungen)konnen aus Information in komplexer Form (Mengen probabilistischerKonditionale) erzeugt werden.
• ME -Inferenz erfullt zahlreiche der Eigenschaften, die man annichtmonotone Inferenzrelationen i.Allg. stellt, z.B. die Kumulativitatund Loop.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232
![Page 80: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/80.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Fazit ME-Methodik 2/2
• Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige derInferenzregeln simulieren (z.B. Vorsichtige Monotonie, Schnitt).
• Die ME -Methodik lasst sich als optimale Umsetzung desCommonsense Reasoning in einer probabilistischen Umgebungauffassen.
• Fur die Wissensrevision gibt es einen ebenso hochwertigen “großenBruder”, das Prinzip der minimalen Relativ-Entropie.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232
![Page 81: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/81.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Fazit ME-Methodik 2/2
• Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige derInferenzregeln simulieren (z.B. Vorsichtige Monotonie, Schnitt).
• Die ME -Methodik lasst sich als optimale Umsetzung desCommonsense Reasoning in einer probabilistischen Umgebungauffassen.
• Fur die Wissensrevision gibt es einen ebenso hochwertigen “großenBruder”, das Prinzip der minimalen Relativ-Entropie.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232
![Page 82: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/82.jpg)
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Fazit ME-Methodik 2/2
• Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige derInferenzregeln simulieren (z.B. Vorsichtige Monotonie, Schnitt).
• Die ME -Methodik lasst sich als optimale Umsetzung desCommonsense Reasoning in einer probabilistischen Umgebungauffassen.
• Fur die Wissensrevision gibt es einen ebenso hochwertigen “großenBruder”, das Prinzip der minimalen Relativ-Entropie.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232
![Page 83: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/83.jpg)
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Ubersicht Kapitel 4 – Probabilistik
4.1 Einfuhrung und Ubersicht
4.2 Wahrscheinlichkeitstheorie und Commonsense Reasoning
4.3 Grundideen probabilistischen Schlussfolgerns
4.4 Schlussfolgern uber Unabhangigkeiten
4.5 Propagation in baumartigen Netzen
4.6 Probabilistische Inferenz auf der Basis optimaler Entropie
4.7 Schlussworte und Zusammenfassung
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 228 / 232
![Page 84: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/84.jpg)
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Kapitel 4
4. ProbabilistischeFolgerungsmodelle und -strategien
4.7 Schlussworte und Zusammenfassung
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 229 / 232
![Page 85: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/85.jpg)
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4
• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.
• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.
• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.
• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232
![Page 86: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/86.jpg)
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4
• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.
• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.
• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.
• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232
![Page 87: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/87.jpg)
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4
• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.
• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.
• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.
• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232
![Page 88: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/88.jpg)
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4
• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.
• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.
• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.
• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232
![Page 89: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/89.jpg)
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4 (Forts.)
• Das Problem unvollstandiger probabilistischer Informationen wird inBayes-Netzen durch klare Spezifikationsvorgaben und die Annahmebedingter Unabhangigkeiten gelost.
• Mit Hilfe der ME-Methodik kann aus einer Menge probabilistischerRegeln (unvollstandige Information!) ohne weitere Annahmen einevollstandige Verteilung aufgebaut werden. Bedingte Unabhangigkeitenentstehen hier aus dem Kontext heraus, werden aber nichtvorausgesetzt.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 231 / 232
![Page 90: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/90.jpg)
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4 (Forts.)
• Das Problem unvollstandiger probabilistischer Informationen wird inBayes-Netzen durch klare Spezifikationsvorgaben und die Annahmebedingter Unabhangigkeiten gelost.
• Mit Hilfe der ME-Methodik kann aus einer Menge probabilistischerRegeln (unvollstandige Information!) ohne weitere Annahmen einevollstandige Verteilung aufgebaut werden. Bedingte Unabhangigkeitenentstehen hier aus dem Kontext heraus, werden aber nichtvorausgesetzt.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 231 / 232
![Page 91: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/91.jpg)
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4 (Forts.)
• Bayessche Netze modellieren bedingte Unabhangigkeiten, wahrend dieME -Methodik sich auf die konsequente Ausnutzung bedingterAbhangigkeiten konzentriert.
• Die ME -Inferenz ist ein machtige Methode fur die probabilistischeWissensreprasentation mit hervorragenden Eigenschaften.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 232 / 232
![Page 92: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/92.jpg)
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4 (Forts.)
• Bayessche Netze modellieren bedingte Unabhangigkeiten, wahrend dieME -Methodik sich auf die konsequente Ausnutzung bedingterAbhangigkeiten konzentriert.
• Die ME -Inferenz ist ein machtige Methode fur die probabilistischeWissensreprasentation mit hervorragenden Eigenschaften.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 232 / 232
![Page 93: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/93.jpg)
Commonsense Reasoning – Ubersicht
• Ubersicht, Organisatorisches und Einfuhrung
• Nichtklassisches Schlussfolgern
• Rangfunktionen – ein einfaches epistemisches Modell
• Probabilistische Folgerungsmodelle und -strategien
• Qualitative und quantitative Wissensreprasentation
• Argumentation
• (Commonsense Reasoning in Multi-Agentensystemen)
• Schlussteil und Prufungsvorbereitung
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 2 / 51
![Page 94: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/94.jpg)
Kapitel 5
5. Qualitative und quantitativeWissensreprasentation
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 3 / 51
![Page 95: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/95.jpg)
Ubersicht Kapitel 5 – Qualitativ und Quantitativ
5.1 Qualitative Wahrscheinlichkeiten
5.2 Nichtmonotonie in der Probabilistik
5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten
5.4 Konditionale Ereignisse
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51
![Page 96: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/96.jpg)
Ubersicht Kapitel 5 – Qualitativ und Quantitativ
5.1 Qualitative Wahrscheinlichkeiten
5.2 Nichtmonotonie in der Probabilistik
5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten
5.4 Konditionale Ereignisse
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51
![Page 97: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/97.jpg)
Ubersicht Kapitel 5 – Qualitativ und Quantitativ
5.1 Qualitative Wahrscheinlichkeiten
5.2 Nichtmonotonie in der Probabilistik
5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten
5.4 Konditionale Ereignisse
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51
![Page 98: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/98.jpg)
Ubersicht Kapitel 5 – Qualitativ und Quantitativ
5.1 Qualitative Wahrscheinlichkeiten
5.2 Nichtmonotonie in der Probabilistik
5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten
5.4 Konditionale Ereignisse
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51
![Page 99: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/99.jpg)
Ubersicht Kapitel 5 – Qualitativ und Quantitativ
5.1 Qualitative Wahrscheinlichkeiten
5.2 Nichtmonotonie in der Probabilistik
5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten
5.4 Konditionale Ereignisse
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 5 / 51
![Page 100: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/100.jpg)
Kapitel 5
5. Qualitative und quantitativeWissensreprasentation
5.1 Qualitative Wahrscheinlichkeiten
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 6 / 51
![Page 101: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/101.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Punktgenaue Wahrscheinlichkeiten . . .
Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.
Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77].
♣
Warum nicht 0.78, 0.80 oder 0.75?
Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?
Welche Fehlerquellen stellen Rundungen dar?
. . . oder darf’s auch ruhig ein bisschen mehr sein?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
![Page 102: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/102.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Punktgenaue Wahrscheinlichkeiten . . .
Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.
Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣
Warum nicht 0.78, 0.80 oder 0.75?
Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?
Welche Fehlerquellen stellen Rundungen dar?
. . . oder darf’s auch ruhig ein bisschen mehr sein?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
![Page 103: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/103.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Punktgenaue Wahrscheinlichkeiten . . .
Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.
Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣
Warum nicht 0.78, 0.80 oder 0.75?
Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?
Welche Fehlerquellen stellen Rundungen dar?
. . . oder darf’s auch ruhig ein bisschen mehr sein?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
![Page 104: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/104.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Punktgenaue Wahrscheinlichkeiten . . .
Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.
Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣
Warum nicht 0.78, 0.80 oder 0.75?
Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?
Welche Fehlerquellen stellen Rundungen dar?
. . . oder darf’s auch ruhig ein bisschen mehr sein?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
![Page 105: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/105.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Punktgenaue Wahrscheinlichkeiten . . .
Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.
Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣
Warum nicht 0.78, 0.80 oder 0.75?
Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?
Welche Fehlerquellen stellen Rundungen dar?
. . . oder darf’s auch ruhig ein bisschen mehr sein?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
![Page 106: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/106.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Infinitesimale Wahrscheinlichkeiten
Ziel:Man interessiert sich nicht fur die (konkrete) Wahrscheinlichkeit, sondernnur fur die Großenordnung der Wahrscheinlichkeit.
Idee:
• Drucke P (ω) als Polynom in ε aus, wobei ε eine “kleine”, positiveZahl bzw. ein Infinitesimal ist (d.h. P wird durch ε parametrisiert);
• Infinitesimale sind stetige Funktionen ε : (0, 1)→ (0, 1) mitlimx→0 ε(x) = 0, z.B. ε(x) = x2.
• betrachte dann den Grenzwert ε→ 0, um eine qualitative Abstraktionvon P (ω) zu bekommen.
Beispiel: Man mochte nicht zwischen den Wahrscheinlichkeiten 0.856 und0.858 unterscheiden, sie sind (offensichtlich) von der gleichenGroßenordnung. ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
![Page 107: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/107.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Infinitesimale Wahrscheinlichkeiten
Ziel:Man interessiert sich nicht fur die (konkrete) Wahrscheinlichkeit, sondernnur fur die Großenordnung der Wahrscheinlichkeit.
Idee:
• Drucke P (ω) als Polynom in ε aus, wobei ε eine “kleine”, positiveZahl bzw. ein Infinitesimal ist (d.h. P wird durch ε parametrisiert);
• Infinitesimale sind stetige Funktionen ε : (0, 1)→ (0, 1) mitlimx→0 ε(x) = 0, z.B. ε(x) = x2.
• betrachte dann den Grenzwert ε→ 0, um eine qualitative Abstraktionvon P (ω) zu bekommen.
Beispiel: Man mochte nicht zwischen den Wahrscheinlichkeiten 0.856 und0.858 unterscheiden, sie sind (offensichtlich) von der gleichenGroßenordnung. ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
![Page 108: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/108.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Infinitesimale Wahrscheinlichkeiten
Ziel:Man interessiert sich nicht fur die (konkrete) Wahrscheinlichkeit, sondernnur fur die Großenordnung der Wahrscheinlichkeit.
Idee:
• Drucke P (ω) als Polynom in ε aus, wobei ε eine “kleine”, positiveZahl bzw. ein Infinitesimal ist (d.h. P wird durch ε parametrisiert);
• Infinitesimale sind stetige Funktionen ε : (0, 1)→ (0, 1) mitlimx→0 ε(x) = 0, z.B. ε(x) = x2.
• betrachte dann den Grenzwert ε→ 0, um eine qualitative Abstraktionvon P (ω) zu bekommen.
Beispiel: Man mochte nicht zwischen den Wahrscheinlichkeiten 0.856 und0.858 unterscheiden, sie sind (offensichtlich) von der gleichenGroßenordnung. ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
![Page 109: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/109.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
![Page 110: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/110.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
![Page 111: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/111.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 1/5
Die Großenordnung κP einer parametrisierten (infinitesimalen)Wahrscheinlichkeit
P (ω) = (1−)a0ε0 + a1ε
1 + a2ε2 + . . .
wird definiert als
κP (ω) =
minn ∈ N | lim
ε→0
P (ω)εn 6= 0, P (ω) > 0
∞, P (ω) = 0
D.h. fur P (ω) = a0ε0 + a1ε
1 + a2ε2 + . . .
ist κP (ω) = mini|ai 6= 0
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51
![Page 112: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/112.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 1/5
Die Großenordnung κP einer parametrisierten (infinitesimalen)Wahrscheinlichkeit
P (ω) = (1−)a0ε0 + a1ε
1 + a2ε2 + . . .
wird definiert als
κP (ω) =
minn ∈ N | lim
ε→0
P (ω)εn 6= 0, P (ω) > 0
∞, P (ω) = 0
D.h. fur P (ω) = a0ε0 + a1ε
1 + a2ε2 + . . .
ist κP (ω) = mini|ai 6= 0
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51
![Page 113: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/113.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51
![Page 114: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/114.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 2/5
Fur infinitesimale parametrisierte Wahrscheinlichkeiten P hatP (ω1) + P (ω2) die Großenordnung
minκP (ω1), κP (ω2);
die Großenordnung von Formeln A kann also definiert werden durch
κP (A) = minκP (ω) | ω |= A
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 10 / 51
![Page 115: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/115.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 2/5
Fur infinitesimale parametrisierte Wahrscheinlichkeiten P hatP (ω1) + P (ω2) die Großenordnung
minκP (ω1), κP (ω2);
die Großenordnung von Formeln A kann also definiert werden durch
κP (A) = minκP (ω) | ω |= A
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 10 / 51
![Page 116: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/116.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 3/5
Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so druckt κPWahrscheinlichkeiten qualitativ aus:
P (A) ≈ ε0 A und ¬A sind moglich κP (A) = 0
P (A) ≈ ε1 ¬A wird geglaubt κP (A) = 1
P (A) ≈ ε2 ¬A wird fest geglaubt κP (A) = 2
P (A) ≈ ε3 ¬A ist fast sicher κP (A) = 3...
......
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51
![Page 117: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/117.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 3/5
Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so druckt κPWahrscheinlichkeiten qualitativ aus:
P (A) ≈ ε0 A und ¬A sind moglich κP (A) = 0
P (A) ≈ ε1 ¬A wird geglaubt κP (A) = 1
P (A) ≈ ε2 ¬A wird fest geglaubt κP (A) = 2
P (A) ≈ ε3 ¬A ist fast sicher κP (A) = 3...
......
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51
![Page 118: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/118.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 3/5
Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so druckt κPWahrscheinlichkeiten qualitativ aus:
P (A) ≈ ε0 A und ¬A sind moglich κP (A) = 0
P (A) ≈ ε1 ¬A wird geglaubt κP (A) = 1
P (A) ≈ ε2 ¬A wird fest geglaubt κP (A) = 2
P (A) ≈ ε3 ¬A ist fast sicher κP (A) = 3...
......
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51
![Page 119: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/119.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 4/5
Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben;
sie haben die folgenden Eigenschaften:
• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )
• κ(A ∨B) = minκ(A), κ(B).
Qualitative Wahrscheinlichkeiten sind OCF!
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
![Page 120: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/120.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 4/5
Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:
• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )
• κ(A ∨B) = minκ(A), κ(B).
Qualitative Wahrscheinlichkeiten sind OCF!
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
![Page 121: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/121.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 4/5
Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:
• sie sind Funktionen κ : Ω→ N ∪ ∞;
• ( minκ(ω) : ω ∈ Ω = 0; )
• κ(A ∨B) = minκ(A), κ(B).
Qualitative Wahrscheinlichkeiten sind OCF!
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
![Page 122: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/122.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 4/5
Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:
• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )
• κ(A ∨B) = minκ(A), κ(B).
Qualitative Wahrscheinlichkeiten sind OCF!
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
![Page 123: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/123.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 4/5
Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:
• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )
• κ(A ∨B) = minκ(A), κ(B).
Qualitative Wahrscheinlichkeiten sind OCF!
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
![Page 124: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/124.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 4/5
Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:
• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )
• κ(A ∨B) = minκ(A), κ(B).
Qualitative Wahrscheinlichkeiten sind OCF!
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
![Page 125: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/125.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 5/5
Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:
κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1
κ(A) = minω|=A κ(ω) P (A) =∑
ω|=A P (ω)
κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)
Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.
Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
![Page 126: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/126.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 5/5
Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:
κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1
κ(A) = minω|=A κ(ω) P (A) =∑
ω|=A P (ω)
κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)
Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.
Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
![Page 127: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/127.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 5/5
Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:
κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1
κ(A) = minω|=A κ(ω) P (A) =∑
ω|=A P (ω)
κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)
Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.
Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
![Page 128: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/128.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 5/5
Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:
κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1
κ(A) = minω|=A κ(ω) P (A) =∑
ω|=A P (ω)
κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)
Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.
Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
![Page 129: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/129.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 5/5
Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:
κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1
κ(A) = minω|=A κ(ω) P (A) =∑
ω|=A P (ω)
κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)
Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.
Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
![Page 130: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/130.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
OCF’s und Wahrscheinlichkeiten – Beispiel
Folgende qualitative Umsetzung von Wahrscheinlichkeiten in Rangzahlensind beispielsweise denkbar:
W’keit Rangzahl Bedeutung
P (ω) ≈ 0.1 κ(ω) = 0 normalP (ω) ≈ 0.01 κ(ω) = 1 seltenP (ω) ≈ 0.001 κ(ω) = 2 unwahrscheinlichP (ω) ≈ 0.0001 κ(ω) = 3 fast unmoglich...
......
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 14 / 51
![Page 131: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/131.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
Ubersicht Kapitel 5 – Qualitativ und Quantitativ
5.1 Qualitative Wahrscheinlichkeiten
5.2 Nichtmonotonie in der Probabilistik
5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten
5.4 Konditionale Ereignisse
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 15 / 51
![Page 132: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/132.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
Kapitel 5
5. Qualitative und quantitativeWissensreprasentation
5.2 Nichtmonotonie in der Probabilistik
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 16 / 51
![Page 133: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/133.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 1/2
Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:
A |∼P B gdw. “Wenn A, dann meistens B”
gdw. P (B|A) > 0.5
NMR-Inferenzkriterien erfullt?
• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,
Studenten |∼P Schach,
aber Studenten ∧ Schach 6|∼P Fussball
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
![Page 134: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/134.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 1/2
Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:
A |∼P B gdw. “Wenn A, dann meistens B”
gdw. P (B|A) > 0.5
NMR-Inferenzkriterien erfullt?
• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,
Studenten |∼P Schach,
aber Studenten ∧ Schach 6|∼P Fussball
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
![Page 135: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/135.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 1/2
Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:
A |∼P B gdw. “Wenn A, dann meistens B”
gdw. P (B|A) > 0.5
NMR-Inferenzkriterien erfullt?
• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!
Beispiel: Studenten |∼P Fussball,Studenten |∼P Schach,
aber Studenten ∧ Schach 6|∼P Fussball
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
![Page 136: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/136.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 1/2
Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:
A |∼P B gdw. “Wenn A, dann meistens B”
gdw. P (B|A) > 0.5
NMR-Inferenzkriterien erfullt?
• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,
Studenten |∼P Schach,
aber Studenten ∧ Schach 6|∼P Fussball
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
![Page 137: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/137.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 1/2
Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:
A |∼P B gdw. “Wenn A, dann meistens B”
gdw. P (B|A) > 0.5
NMR-Inferenzkriterien erfullt?
• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,
Studenten |∼P Schach,
aber Studenten ∧ Schach 6|∼P Fussball
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
![Page 138: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/138.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 2/2
• Schnitt ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|AB) > 0.5, aber P (C|A) < 0.5moglich!
Beispiel:st Bauchschmerzen |∼P Appendicitis,
st Bauchschmerzen ∧ Appendicitis |∼P bald wieder gesund,
aber st Bauchschmerzen 6|∼P bald wieder gesund
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51
![Page 139: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/139.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 2/2
• Schnitt ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|AB) > 0.5, aber P (C|A) < 0.5moglich!Beispiel:
st Bauchschmerzen |∼P Appendicitis,st Bauchschmerzen ∧ Appendicitis |∼P bald wieder gesund,
aber st Bauchschmerzen 6|∼P bald wieder gesund
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51
![Page 140: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4](https://reader034.vdocuments.net/reader034/viewer/2022050715/5e030642d9e2ea2f20416787/html5/thumbnails/140.jpg)
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 2/2
• Schnitt ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|AB) > 0.5, aber P (C|A) < 0.5moglich!Beispiel:
st Bauchschmerzen |∼P Appendicitis,st Bauchschmerzen ∧ Appendicitis |∼P bald wieder gesund,
aber st Bauchschmerzen 6|∼P bald wieder gesund
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51