+ All Categories
Home > Documents > Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X...

Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X...

Date post: 12-Aug-2019
Category:
Upload: ngoanh
View: 215 times
Download: 0 times
Share this document with a friend
33
Informatik—Künstliche Intelligenz Computergestützte Statistik Technische Universität Dortmund Graphische Modelle Wissensentdeckung in Datenbanken Probabilistische Graphische Modelle II Nico Piatkowski und Uwe Ligges Informatik—Künstliche Intelligenz Computergestützte Statistik Technische Universität Dortmund 27.06.2017 1 von 16
Transcript
Page 1: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Wissensentdeckung in DatenbankenProbabilistische Graphische Modelle II

Nico Piatkowski und Uwe Ligges

Informatik—Künstliche IntelligenzComputergestützte Statistik

Technische Universität Dortmund

27.06.2017

1 von 16

Page 2: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Überblick

Was bisher geschah...ModellklassenVerlustfunktionenNumerische OptimierungRegularisierungÜberanpassungSQL, Häufige MengenSVM, xDA, Bäume, . . .Graphische Modelle

HeuteGraphische Modelle—Theorie und Algorithmen

2 von 16

Page 3: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Überblick

Was bisher geschah...ModellklassenVerlustfunktionenNumerische OptimierungRegularisierungÜberanpassungSQL, Häufige MengenSVM, xDA, Bäume, . . .Graphische Modelle

HeuteGraphische Modelle—Theorie und Algorithmen

2 von 16

Page 4: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Überblick

Suffiziente StatistikenMaximum-EntropieGradientRandverteilungBelief PropagationGibbs Sampling

3 von 16

Page 5: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Graph

G = (V,E) mit Knotenmenge V und Kantenmenge EHier: V = {1,2,3,4}, E = {{1,2},{1,3},{1,4},{2,3},{3,4}}Cliquen: C(G) = V ∪E ∪ {{1,2,3},{1,3,4}}

4 von 16

Page 6: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Graph

G = (V,E) mit Knotenmenge V und Kantenmenge EHier: V = {1,2,3,4}, E = {{1,2},{1,3},{1,4},{2,3},{3,4}}Cliquen: C(G) = V ∪E ∪ {{1,2,3},{1,3,4}}

4 von 16

Page 7: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Suffiziente Statistik

Daten D, Modell mit Parameter β

Funktion φ ist eine suffiziente Statistik ⇔ β ⊥⊥ D ∣ φ(D)

mit φ(D) = ∑x∈D φ(x)

Für diskrete X :

φ ist immer gegeben durch φC=yC(xC) =∏v∈C 1xv=yv

mit C ∈ C(G), xC ∈ XC , x ∈ XφC(xC) = (φC=y1C(xC), φC=y2C(xC), . . . ) = (φC=yC(xC))yC∈XC

5 von 16

Page 8: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Suffiziente Statistik

Daten D, Modell mit Parameter β

Funktion φ ist eine suffiziente Statistik ⇔ β ⊥⊥ D ∣ φ(D)

mit φ(D) = ∑x∈D φ(x)

Für diskrete X :

φ ist immer gegeben durch φC=yC(xC) =∏v∈C 1xv=yv

mit C ∈ C(G), xC ∈ XC , x ∈ XφC(xC) = (φC=y1C(xC), φC=y2C(xC), . . . ) = (φC=yC(xC))yC∈XC

5 von 16

Page 9: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

6 von 16

Page 10: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

6 von 16

Page 11: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

6 von 16

Page 12: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

6 von 16

Page 13: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

6 von 16

Page 14: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

V = {1,2,3,4}, E = {{1,2},{1,3},{1,4},{2,3},{3,4}},C(G) = V ∪E ∪ {{1,2,3},{1,3,4}}

φC(xC) = (φC=y1C(xC), φC=y2C(xC), . . . ) = (φC=yC(xC))yC∈XC

X1 = {1,2,3,4,5}, X2 = {−,�},X3 = {−,Punk,Pop, . . .},X4 = {∎,∎,∎}

x = (2,−,−,∎)x′ = (1,−,Pop,∎)x′′ = (1,�,Punk,∎). . .

7 von 16

Page 15: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

V = {1,2,3,4}, E = {{1,2},{1,3},{1,4},{2,3},{3,4}},C(G) = V ∪E ∪ {{1,2,3},{1,3,4}}

φC(xC) = (φC=y1C(xC), φC=y2C(xC), . . . ) = (φC=yC(xC))yC∈XC

X1 = {1,2,3,4,5}, X2 = {−,�},X3 = {−,Punk,Pop, . . .},X4 = {∎,∎,∎}

x = (2,−,−,∎)x′ = (1,−,Pop,∎)x′′ = (1,�,Punk,∎). . .

7 von 16

Page 16: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

V = {1,2,3,4}, E = {{1,2},{1,3},{1,4},{2,3},{3,4}},C(G) = V ∪E ∪ {{1,2,3},{1,3,4}}

φC(xC) = (φC=y1C(xC), φC=y2C(xC), . . . ) = (φC=yC(xC))yC∈XC

X1 = {1,2,3,4,5}, X2 = {−,�},X3 = {−,Punk,Pop, . . .},X4 = {∎,∎,∎}

x = (2,−,−,∎)x′ = (1,−,Pop,∎)x′′ = (1,�,Punk,∎). . .

7 von 16

Page 17: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik II

C = {1,2,3}, XC = X1 ×X2 ×X3

X1 = {1,2,3,4,5}, X2 = {−,�},X3 = {−,Punk,Pop,Rock,Schlager}XC = {(1,−,−), (2,−,−), . . . , (5,−,−), (1,�,−), . . . ,(5,�,−), (1,�,Punk), . . . , (5,�,Schlager)}

φ{1,2,3}(5,�,Schlager) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

00⋮0⋮01

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

φ{1,2,3}(2,�,−) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

00⋮1⋮00

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

8 von 16

Page 18: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik II

C = {1,2,3}, XC = X1 ×X2 ×X3

X1 = {1,2,3,4,5}, X2 = {−,�},X3 = {−,Punk,Pop,Rock,Schlager}XC = {(1,−,−), (2,−,−), . . . , (5,−,−), (1,�,−), . . . ,(5,�,−), (1,�,Punk), . . . , (5,�,Schlager)}

φ{1,2,3}(5,�,Schlager) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

00⋮0⋮01

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

φ{1,2,3}(2,�,−) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

00⋮1⋮00

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

8 von 16

Page 19: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Exponentialfamilie

Pβ(x) =1

Z(β) exp( ⟨β{1,2,3}, φ{1,2,3}(x{1,2,3})⟩)

exp(⟨β{1,3,4}, φ{1,3,4}(x{1,3,4})⟩ )= exp(⟨β, φ(x)⟩ −A(β))

A(β) = logZ(β) = log ∑x∈X

exp(⟨β, φ(x)⟩)

9 von 16

Page 20: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Maximum Entropie Prinzip: Aufgabe

Gegeben: Daten X (Realisierungen einer ZV X)und beliebige Funktion f ∶ X → Rd

Gesucht: P mit EP[f(X)] = ED[f(X)] = 1∣D∣ ∑x∈D f(x)

Problem: Viele P haben die gesuchte Eigenschaft!!

10 von 16

Page 21: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

0

0.2

0.4

0.6

0.8

1

0 0.2 0.4 0.6 0.8 1

Entr

opy(p

)

p(x=1)

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Maximum Entropie Prinzip: Intuition

Entropie H einer Zufallsvariable X mit P

H(X) = − ∑x∈X

P(x) logP(x)

11 von 16

Page 22: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

0

0.2

0.4

0.6

0.8

1

0 0.2 0.4 0.6 0.8 1

Entr

opy(p

)

p(x=1)

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Maximum Entropie Prinzip: Intuition

Sei P der Raum aller Wahrscheinlichkeitsfunktionen

maxP∈PH(P)

s.t. EP[f(X)] = ED[f(X)]← d Nebenbedingungen

12 von 16

Page 23: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

0

0.2

0.4

0.6

0.8

1

0 0.2 0.4 0.6 0.8 1

Entr

opy(p

)

p(x=1)

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Maximum Entropie Prinzip: Lösung

Umformulieren in Lagrange Funktion

maxP∈PH(P) +

d

∑i=1λiEP[f(X)]i − ED[f(X)]i

ableiten (nach P!) und = 0 setzen liefert

P(x) = exp(⟨λ, f(x)⟩ −A(λ))

Also: Parameter von Exponentialfamilien sindLagrange-Multiplikatoren der Nebenbedingung(en)EP[f(X)] = ED[f(X)]

13 von 16

Page 24: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

0

0.2

0.4

0.6

0.8

1

0 0.2 0.4 0.6 0.8 1

Entr

opy(p

)

p(x=1)

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Maximum Entropie Prinzip: Lösung

Umformulieren in Lagrange Funktion

maxP∈PH(P) +

d

∑i=1λiEP[f(X)]i − ED[f(X)]i

ableiten (nach P!) und = 0 setzen liefert

P(x) = exp(⟨λ, f(x)⟩ −A(λ))

Also: Parameter von Exponentialfamilien sindLagrange-Multiplikatoren der Nebenbedingung(en)EP[f(X)] = ED[f(X)]

13 von 16

Page 25: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Parameterlernen durch Gradientenabstieg

Gegeben Datensatz D, Funktion φ (binär) Verlustfunktion:Negative mittlere log-Likelihood

`(β,D) = − 1

∣D∣ ∑x∈DlogPβ(x)

= − 1

∣D∣ ∑x∈D⟨β, φ(x)⟩ +A(β)

= − ⟨β, µ⟩ +A(β)

Partielle Ableitung:

∂`(β,D)∂βi

= −µi +∂

∂βi

A(β) = µi − µi

14 von 16

Page 26: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Parameterlernen durch Gradientenabstieg

Gegeben Datensatz D, Funktion φ (binär) Verlustfunktion:Negative mittlere log-Likelihood

`(β,D) = − 1

∣D∣ ∑x∈DlogPβ(x)

= − 1

∣D∣ ∑x∈D⟨β, φ(x)⟩ +A(β)

= − ⟨β, µ⟩ +A(β)

Partielle Ableitung:

∂`(β,D)∂βi

= −µi +∂

∂βi

A(β) = µi − µi

14 von 16

Page 27: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Parameterlernen durch Gradientenabstieg

Gegeben Datensatz D, Funktion φ (binär) Verlustfunktion:Negative mittlere log-Likelihood

`(β,D) = − 1

∣D∣ ∑x∈DlogPβ(x)

= − 1

∣D∣ ∑x∈D⟨β, φ(x)⟩ +A(β)

= − ⟨β, µ⟩ +A(β)

Partielle Ableitung:

∂`(β,D)∂βi

= −µi +∂

∂βi

A(β) = µi − µi

14 von 16

Page 28: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Parameterlernen durch Gradientenabstieg

Gegeben Datensatz D, Funktion φ (binär) Verlustfunktion:Negative mittlere log-Likelihood

`(β,D) = − 1

∣D∣ ∑x∈DlogPβ(x)

= − 1

∣D∣ ∑x∈D⟨β, φ(x)⟩ +A(β)

= − ⟨β, µ⟩ +A(β)

Partielle Ableitung:

∂`(β,D)∂βi

= −µi +∂

∂βi

A(β) = µi − µi

14 von 16

Page 29: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Marginalisierung

Wenn φ binär, dann ist µi = E[φi(X)] die Wahrscheinlichkeitfür φi(X) = 1

Annahme: Paarweises Modell ≡ Nur die Kantengewichte sindrelevant

P(Xv = x) = ∑y∈XV ∖{v}

P(y, x)

Ausnutzen der Faktorisierung sowie der Distributivität:

P(Xv = x) =1

Z∑

y∈XV ∖{v}∏

C∈C(G)exp(⟨βC , φC(xC)⟩)

wobei x = (y, x)

15 von 16

Page 30: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Marginalisierung

Wenn φ binär, dann ist µi = E[φi(X)] die Wahrscheinlichkeitfür φi(X) = 1

Annahme: Paarweises Modell ≡ Nur die Kantengewichte sindrelevant

P(Xv = x) = ∑y∈XV ∖{v}

P(y, x)

Ausnutzen der Faktorisierung sowie der Distributivität:

P(Xv = x) =1

Z∑

y∈XV ∖{v}∏

C∈C(G)exp(⟨βC , φC(xC)⟩)

wobei x = (y, x)

15 von 16

Page 31: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Marginalisierung

Wenn φ binär, dann ist µi = E[φi(X)] die Wahrscheinlichkeitfür φi(X) = 1

Annahme: Paarweises Modell ≡ Nur die Kantengewichte sindrelevant

P(Xv = x) = ∑y∈XV ∖{v}

P(y, x)

Ausnutzen der Faktorisierung sowie der Distributivität:

P(Xv = x) =1

Z∑

y∈XV ∖{v}∏

C∈C(G)exp(⟨βC , φC(xC)⟩)

wobei x = (y, x)

15 von 16

Page 32: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Gibbs Sampling

Idee: Erzeuge neue Stichprobe gemäß Pβ und berechneµi durch “abzählen”Aber: Wie erzeugt man neue Samples aus Pβ(X)?

⇒ Ausnutzung bedingter Unabhängigkeiten!

16 von 16

Page 33: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Gibbs Sampling

Idee: Erzeuge neue Stichprobe gemäß Pβ und berechneµi durch “abzählen”Aber: Wie erzeugt man neue Samples aus Pβ(X)?

⇒ Ausnutzung bedingter Unabhängigkeiten!

16 von 16


Recommended