Rescued from a Sea of Queries: Exact Inference in Probabilistic Relational Models

Link:
Autor/in:
Erscheinungsjahr:
2020
Medientyp:
Text
Schlagwort:
  • Betreuer-rm
Beschreibung:
  • Im Herzen von vielen Algorithmen des maschinellen Lernens liegen große probabilistische Modelle, in denen mittels Zufallsvariablen ein bestimmtes Modellverhalten oder latente Strukturen in Daten beschrieben werden. Ein Modell wird dabei oft durch eine Menge von bekannten Individuen (Objekten, Konstanten) und Relationen zwischen Individuen charakterisiert, was zu probabilistischen relationalen Modellen führt. In probabilistischen relationalen Modellen ist ein Meer von Anfragen möglich, von Anfragen an Wahrscheinlichkeiten von bestimmten Ereignissen, über Anfragen an wahrscheinlichste Erklärungen, bis hin zu Anfragen an Marginalverteilungen von austauschbaren Zufallsvariablen. Ex- akte Inferenz, im Gegensatz zu approximativer Inferenz, ermöglicht es Abweichungen zwischen Inferenzergebnis und Realität dem Modell selbst zuzuschreiben. Deshalb befasst sich diese Dissertation mit dem Problem der exakten mehrfachen Inferenz. Genauer gesagt geht es darum, in probabilistischen relationalen Modellen wiederholt Instanzen von unterschiedlichen Problemen der Anfragebeantwortung zu lösen.
    Um das Problem zu lösen, kombinieren wir das so genannte Lifting mit Baumzerlegungen von Graphen, die probabilistische relationale Modelle darstellen. Baumzerlegungen selbst bilden eine Baumstruktur (im englischen junction tree, clique tree oder join tree), in der Knoten eine Menge von Zufallsvariablen sind, die wiederum Cliquen im probabilistischen relationalen Modell bilden. Diese Baumstruktur ermöglicht effiziente mehrfache Inferenz. Lifting beschreibt die Idee, mit Repräsentanten für Objekte zu arbeiten, die sich gleich verhalten. Einzelne Objekte werden nur, wenn notwendig, angeguckt. Wir unterteilen die Beiträge dieser Dissertation in drei Teile. Als erstes präsentieren wir den Lifted Junction Tree Algorithmus, was das Lifting von Baumzerlegungen beinhaltet und die Anfragebeantwortung auf diesen Baumstrukturen ohne zusätzliche Instanziierungen. Für die Anfragebeantwortung setzen wir die geliftete Variablenelimination ein, so dass wir Lifting nicht nur bei der Baumzerlegung ausnutzen, sondern auch bei Rechnungen. Als zweites erweitern wir die Anfragesprache des Lifted Junction Tree Algorithmus.Wir stellen parametrisierte Anfragen als ein neues Konstrukt für Anfragen vor, welches Lifting ebenfalls auf Anfragen anwendet, und wir schreiben die geliftete Variablenelimination um, so dass wahrscheinlichste Zuweisungen berechnet werden. Als drittes erweitern wir den Lifted Junction Tree Algorithmus, einmal für adaptive Inferenz inklusive dem Anpassen einer Baumzerlegung an inkrementelle Änderungen in einem Modell und ein- mal als Rahmenwerk für Inferenzalgorithmen, die die geliftete Variablenelimination als Unterprozedur ersetzen können. Wir schließen diese Dissertation ab, in dem wir uns unbekannten Universen zuwenden, in denen die Objekte nicht vorher bekannt sind.

    Die Algorithmen der Dissertation werden jeweils empirisch untersucht, um zu testen, wie sie auf wachsende Zahlen von Objekten und Zufallsvariablen reagieren. Zusätzlich analysieren wir die Algorithmen bezüglich deren Richtigkeit und Komplexität. Dabei untersuchen wir auch die Verbindung von dem propositionalen Junction Tree Algorithmus und der gelifteten Variablenelimination mit dem Lifted Junction Tree Algorithmus sowie die Verbindung zwischen der Berechnung von Marginalverteilungen und der Berechnung von wahrscheinlichsten Zuweisungen in probabilistischen relationalen Modellen.

    Betreut von Prof. Dr. Ralf Möller
Lizenz:
  • info:eu-repo/semantics/openAccess
Quellsystem:
Forschungsinformationssystem der UHH

Interne Metadaten
Quelldatensatz
oai:www.edit.fis.uni-hamburg.de:publications/c072a0a6-8255-42d1-9f0e-4f77c49c2b1b