Folien - Übersicht

Transcrição

Folien - Übersicht
Reasoning and Decision-Making
under Uncertainty
13. Session:
Markov Logic (Networks) & Summary
Prof. Dr.-Ing. Stefan Kopp
Center of Excellence „Cognitive Interaction Technology“
AG Sociable Agents
Sociable gents
Markov Logic!
[Richardson & Domingos, 2006]
Originated from Natural Language Processing
Natural language is characterized by
‣ Complex relational structure
‣ High uncertainty (ambiguity, imperfect knowledge)
First-order logic handles relational structure, probability handles
uncertainty
‣ Let’s combine the two
‣ more powerful than PRMs
2
Sociable gents
First-Order Logic
Constants, variables, functions, predicates
‣ E.g.: Anna, X, mother_of(X), friends(X,Y)
Grounding: Replace all variables by constants
‣ E.g.: friends (Anna, Bob)
World (model, interpretation)
‣ Assignment of truth values to all ground predicates
Sociable gents
Markov Logic
Syntax:
‣ First-order logic + Weights
Semantics:
‣ Templates for Markov/Bayesian networks
Inference:
‣ Weighted satisfiability + MCMC
[ Learning: ]
‣ Inductive Logic Programming (IPL)
4
Sociable gents
Markov Networks
Undirected graphical models
B
A
with a different form of
factorization


C
D
Potential functions defined over all cliques C
Markov Network = product of potentials on variables

Z: Partition function
Sociable gents
Markov Logic Networks

Alternative factorization for a set of weighted binary features
(simplified version of Boltzmann machine):
Weight of Feature i Feature i
Sociable gents
Markov Logic Networks
A logical KB is a set of hard constraints on the set of possible worlds
Let’s make them soft constraints:
‣ When a world violates a formula, it becomes less probable, not
impossible!
‣ Give each formula a weight
(Higher weight ⇒ Stronger constraint)
Sociable gents
Definition
A Markov Logic Network (MLN) is a set of pairs (F, w) where
‣ F is a formula in first-order logic
‣ w is a real number
Together with a set of constants, it defines a Markov network with
‣ one node for each grounding of each predicate in the MLN
‣ one feature for each grounding of each formula F in the MLN,
with the corresponding weight w
Sociable gents
Markov Logic Networks
MLN is template for ground Markov nets
Probability of a world
x:
Weight of formula i
No. of true groundings of formula i in x
Sociable gents
Example: Friends & Smokers
Suppose we have two constants: Anna (A) and Bob (B)
Smokes(A)
Cancer(A)
Smokes(B)
Cancer(B)
Sociable gents
Example: Friends & Smokers
Suppose we have two constants: Anna (A) and Bob (B)
Friends(A,B)
Friends(A,A)
Smokes(A)
Cancer(A)
Smokes(B)
Friends(B,A)
Friends(B,B)
Cancer(B)
Sociable gents
Example: Friends & Smokers
Suppose we have two constants: Anna (A) and Bob (B)
Friends(A,B)
Friends(A,A)
Smokes(A)
Cancer(A)
Smokes(B)
Friends(B,A)
Friends(B,B)
Cancer(B)
Sociable gents
Example: Friends & Smokers
Suppose we have two constants: Anna (A) and Bob (B)
Friends(A,B)
Friends(A,A)
Smokes(A)
Cancer(A)
Smokes(B)
Friends(B,A)
Friends(B,B)
Cancer(B)
Sociable gents
More on MLNs
Markov Logic Network
‣ is template for ground Markov nets
‣ Typed variables and constants greatly reduce size of ground
Markov net
‣ Functions, existential quantifiers, etc.
‣ MLN without variables = Markov network
(subsumes graphical models)
Relation to First-order logic:
‣ Infinite weights ➔ First-order logic
‣ Satisfiable KB, positive weights ➔ Satisfying assignments = Modes of
distribution
‣ MLNs allow contradictions between formulas
Sociable gents
Inference: MPE/MAP
Goal: Find most likely truth values of non-evidence ground atoms given
evidence
Idea: Apply weighted satisfiability solver (max‘es sum of weights of
satisfied clauses)
MaxWalkSat algorithm [Kautz et al., 1997]
‣ Start with random truth assignment
‣ With prob p, flip atom that max‘es weight sum;
else flip random atom in unsatisfied clause
‣ Repeat n times
‣ Restart m times
Sociable gents
Conditional Inference
P(Formula|MLN,C) = ?
‣ MCMC: Sample worlds, check formula holds
P(Formula1|Formula2,MLN,C) = ?
If Formula2 = Conjunction of ground atoms
‣ First construct min subset of network necessary to answer query
-
-
Initialize Markov net to contain all query preconditions
For each node in network
‣ Add node’s Markov blanket to network
‣ Remove any evidence nodes
Repeat until done
‣ Then apply MCMC, Gibbs sampling, or other
Sociable gents
Relation to Other Approaches
Representation
Logical language
Probabilistic
language
Markov logic
First-order logic
Markov nets
RMNs (relational
markov network)
Conjunctive queries Markov nets
PRMs (prob. relational
model)
Frame systems
Bayes nets
KBMC (know.-based
model construction)
Horn clauses
Bayes nets
SLPs (stochastic logic
programs)
Horn clauses
Bayes nets
Sociable gents
Available tools
‣ ProbCog (TU München)
-
http://ias.cs.tum.edu/research/probcog
‣ Tuffy (U Wisconsin-Madison)
-
http://research.cs.wisc.edu/hazy/tuffy/
‣ Alchemy (U Washington)
-
http://alchemy.cs.washington.edu/
See also: http://en.wikipedia.org/wiki/Markov_logic_network
18
Sociable gents
Example: tuffy
19
Sociable gents
Example: tuffy
MAP inference: produce a most likely world
‣ suppose you want to find the most likely set of people with
cancer
Marginal inference
‣ estimate the probability that each person has cancer
20
Sociable gents
Example: ProbCog (M. Beetz)
21
Sociable gents
Work with us!
Research in the CITEC Sociable
Agents Group applies advanced A.I.
methods and cognitive models to
increase interaction abilities of
technical systems
Many sources of uncertainty:
‣ complex communication system (language, nonverbal behavior)
‣ vague and underspecified meanings, implicit communication, etc.
‣ user-based inferences: intentions, beliefs, skills, mood, etc.
‣ predictability problems, learning problems
‣ architectural complexity of complete systems
22
Sociable gents
http://www.techfak.uni-bielefeld.de/ags/soa/theses/open-topics.html
23
Sociable gents
Summary of this lecture
Ein idealer rationaler Agent ...
1.
2.
3.
4.
Überlegt nicht bevor er handelt
Maximiert seine Kosten
Verwendet eine externe Repräsentation
Handelt um seine Ziele möglichst schnell zu erreichen
24
Sociable gents
Summary of this lecture
Klassisches logisches Schließen ist
1.
2.
3.
4.
Nicht-monoton, modular und global
Abduktiv, lokal und inferenziell
Modular, lokal und monoton
Super
25
Sociable gents
Summary of this lecture
In klassischen logik-basierten KI-Systemen entsteht Unsicherheit durch
1.
2.
3.
4.
Unvollständiges Wissen und exaktes Schließen
Zweiwertige Semantik und Nicht-Monotonie
das Frame-Problem
Default-Annahmen und Zurücknahme von Schlüssen
26
Sociable gents
Summary of this lecture
Welches Entscheidungsproblem ist das schwerste weil unsicherste?
1.
2.
3.
4.
Single-state problem
Sensorless, conformant problem
Exploration problem
Contingency problem
27
Sociable gents
Summary of this lecture
Der Bayesianische Ansatz, Unsicherheit zu modellieren, interpretiert
Wahrscheinlichkeit als ...
1.
2.
3.
4.
die Häufigkeit, eine Aussage in der Welt erfüllt zu finden
Sicherheit einer möglichen Welt
Subjektiver Grad des Glaubens/Sicherheit bzgl. einer Aussage
Vagheit bzgl. der Erfülltheit einer Aussage
28
Sociable gents
Summary of this lecture
Als „Conditioning“ bezeichnet man
1. das Tuppieren der Haare
2. das Einschränken möglicher Welten
3. das Anpassen einer Wahrscheinlichkeitsverteilung anhand von
Evidenz
4. eine bedingte Wahrscheinlichkeit nach Anwenden der Bayes-Regel
29
Sociable gents
Summary of this lecture
Marginalisierung entsteht aus der Anwendung von
1.
2.
3.
4.
5.
Bayes-Regel
Gesetz der totalen Wahrscheinlichkeit
Kettenregel
Produktregel
Keines von allem
30
Sociable gents
Summary of this lecture
Ein Bayes-Netz repräsentiert formal
1.
2.
3.
4.
kausale Einflüsse zwischen Variablen
im Grunde nur Wahrscheinlichkeitsverteilungen
(Un-)Abhängigkeiten zwischen Zufallsvariablen
einen naiven Klassifikator
31
Sociable gents
Summary of this lecture
Die sogenannte „Markov Blanket“ eines Knotens enthält
1.
2.
3.
4.
Alle Nachbarn
Alle Eltern, Kinder und Kindeskinder
Alle Eltern, Kinder und Kindeseltern
Alle Kinder, Geschwister und deren Kinder
32
Sociable gents
Summary of this lecture
Gegeben alle Elternknoten, ist ein Knoten bedingt unabhängig von
1.
2.
3.
4.
Allen Nachbarn
Allen Nicht-Nachfahren
Allen Nachfahren
Allen Nicht-Nachbarn
33
Sociable gents
Summary of this lecture
In diesem Bayes-Netz gilt: P(c,a,r,b,e) = ...
1.
2.
3.
4.
P(c|a,r,b,e)P(r|a,b,e)P(r|b,e)P(e)P(b)
P(c|a,b)P(a|b,e)P(r|e)P(a)P(e)
P(e)P(r|e)P(c|a)P(a|b,e)P(b)
P(r,a,b,e|c)P(c)P(e)P(a)P(b)
34
Sociable gents
Summary of this lecture
Welche Aussage ist falsch, wenn C, A und R
gegeben sind?
1.
2.
3.
4.
Der Pfad E-A-C ist geblockt.
Der Pfad R-E-A-B ist geblockt.
Der Pfad B-A-C ist geblockt.
Der Pfad A-E-R ist offen.
35
Sociable gents
Summary of this lecture
Das MEU-Prinzip betrifft...
1.
2.
3.
4.
Die Mehrheit der EU-Bürger
Die Auswahl von Aktionen nach gegebenen Utility-Werten
Die Präferenzen bei der Planung von Handlungsfolgen
Kriterien zur Aktionsauswahl nach erwartetem Nutzen
36
Sociable gents
Summary of this lecture
Die Definition eines Markov-Entscheidungsproblems beinhaltet nicht
1. Ein Übergangsmodell
2. Eine Belohnungsfunktion
3. Einen Zielzustand
4. Einen Startzustand
5. Ein Beobachtungsmodell
37
Sociable gents
Summary of this lecture
Maximum Likelihood Estimation ist ein Verfahren, um...
1. Die Struktur von Bayes-Netzen zu lernen
2. Den Wert einer Evidenz abzuschätzen
3. Die Parameter einer bedingten WS-Verteilung zu lernen
4. Fehlende Datenpunkte beim Parameterlernen zu rekonstruieren
38
Sociable gents

Documentos relacionados