Dr. Sandra Zilles

(University of Alberta, Edmonton, Canada)

"Iteratives Lernen - formale Grundlagen für effiziente maschinelle Lernverfahren"

Beim Lernen von Klassifikatoren aus Datenströmen ist es im Allgemeinen nicht machbar, online neue Hypothesen zu berechnen und dabei alle bisherigen Daten zu berücksichtigen. Oft sind iterative Algorithmen, die ihre vorherige Hypothese allein anhand des aktuellen Trainingsbeispiels revidieren, besser geeignet.
Im Vortrag geht es um die Frage, ob man bestimmte intuitive Anforderungen an solche iterativen Lernverfahren stellen kann, ohne deren prinzipielle Leistungsfähigkeit zu beeinträchtigen. Dazu analysieren wir das iterative Lernen in Golds abstraktem Modell vom Lernen im Limes. Intuitive Anforderungen sind in diesem Fall Konsistenz (Hypothesen dürfen bekannten Daten nie widersprechen) und Konservativität (Hypothesen müssen beibehalten werden, solange sie konsistent sind). Beide Anforderungen werden beispielsweise von Rosenblatts Perzeptron-Algorithmus (einem klassischen iterativen Lernverfahren), aber nicht notwendigerweise von jedem iterativen Lernverfahren erfüllt.
Die Ergebnisse einer formalen Analyse illustrieren, inwiefern verschiedene Konsistenz- bzw. Konservativitätsanforderungen die Leistungsfähigkeit iterativer Lernverfahren beeinflussen können.
Am Beispiel des iterativen Lernens sowie an anderen Beispielen sollen letztlich Zusammenhänge zwischen der algorithmischen Lerntheorie, der Künstlichen Intelligenz und dem Maschinellen Lernen aufgezeigt werden.



Zeit: Mittwoch, 06.02.2008, 15.30 Uhr
Ort: Gebäude 48, Raum 210