Aus ML2R wurde das Lamarr-Institut – alle aktuellen Informationen finden Sie hier!

Koordinator

Dr. Sebastian Houben

Koordinator

Dr. Maram Akila

Herausforderungen und offene Forschungsfragen

Modernes Maschinelles Lernen erreicht bei der Bewältigung von immer mehr Aufgaben derzeit neue, bisher unbekannte Höchstleistungen und übertrifft dabei oft die menschliche Genauigkeit. Viele dieser Aufgaben, wie die Objekterkennung in Bildern oder die Verarbeitung natürlicher Sprache, sind von hoher Relevanz für die Industrie.

Der Einsatz dieser modernen Verfahren ist jedoch nicht einfach, da diese manchmal unter immanenten Mängeln, wie mangelnder Robustheit, mangelnder Interpretierbarkeit oder fehlenden theoretischen Garantien leiden. Darüber hinaus übernehmen einige Methoden Fehler der zugrundeliegenden Trainingsdaten, wie Verzerrungen und falsche Korrelationen, und neigen sogar dazu, diese zu verstärken. Dies kann zu Voreingenommenheit aufgrund von Hautfarbe und Geschlecht führen oder einer unerwünschten Extraktion von persönlichen Daten Tür und Tor öffnen. Diese Unzulänglichkeiten behindern oft die nachgelagerten Analyseziele, die mit den Methoden des Maschinellen Lernens erreicht werden sollen, nämlich robuste Schlussfolgerungen aus experimentellen Daten zu ziehen.

Im Bereich des vertrauenswürdigen Maschinellen Lernens untersuchen Wissenschaftler*innen vielfältige Möglichkeiten, diese Nachteile abzuschwächen oder ganz zu vermeiden. Das ML2R-Team spielt eine aktive Rolle in dieser Community.

Unsere Ansätze umfassen:

  • Anpassung von Modellarchitekturen und Training
  • Erarbeitung eines besseren theoretischen Verständnisses von datengetriebenem ML
  • Unterstützung von Endanwender*innen bei der Auswahl von ML-Methoden durch Beschreibungen von Eigenschaften, einschließlich Qualitätsschranken und Ressourcenanforderungen
  • Messung von Datenqualität und Schweregrad von Mängeln
  • Entwicklung von Werkzeugen zur Überwachung oder Interaktion durch Menschen mit dem Ziel, den Lernprozess zu verbessern oder eine bessere Erklärbarkeit zu erreichen
  • Untersuchung von Möglichkeiten, konnektionistische und symbolische Formen von ML zu kombinieren
  • Präzises Einbringen von Struktur in Einbettungsräume

Aktuelle Highlights der Forschung

Das ML2R-Team trägt auf vielfältige Weise zu aktuellen Forschungsrichtungen bei. Wir legen einen starken Schwerpunkt auf das Thema Modelltransparenz, da die Art und Weise, wie Entscheidungen nachvollzogen werden können, sowohl von der gewählten Modellfamilie als auch von der jeweiligen Anwendung abhängt. Konkret untersucht eine Gruppe innerhalb des Teams die Beziehung zwischen Erklärbarkeit und informed ML, indem sie nach Möglichkeiten sucht, strukturiertes Wissen zu integrieren und sich diese Struktur zunutze zu machen, um sinnvolle Erklärungen zu erarbeiten.

Eine andere Gruppe innerhalb des Teams zielt darauf ab, die Nutzung von Maschinellem Lernen für Nicht-Experten zu erleichtern, indem Schlüsseleigenschaften und Garantien für Modellfamilien und Trainingsverfahren abgeleitet und zusammengefasst werden. Letztendlich soll so ein Satz einfacher Regeln zur Verfügung stehen, mit denen man auch ohne sehr erfahrenes Personal und unabhängig von der konkreten Anwendung sichere und zuverlässige ML-Modelle erhalten kann.

Zudem wenden die Forschenden des ML2R Methoden des interaktiven und informed ML an, um die Robustheit von datengetriebenen Modellen durch die Einbeziehung von formalem Wissen oder menschlichem Feedback zu erhöhen. Dazu setzen die Wissenschaftler*innen erstens auf die nachträgliche Validierung von Modellvorhersagen durch Überprüfung der wissenschaftlichen Konsistenz oder regulatorischer Anforderungen. Zweitens werden Methoden des Repräsentationslernens angewendet, die darauf abzielen, Daten zusammen mit Vorwissen einzubetten.

Leseempfehlungen und ausgewählte Publikationen

Einführung und Überblick

ML2R

S. Houben, et al.: Inspect, Understand, Overcome: A Survey of Practical Methods for AI Safety. arXiv: 2104.14235, 2021. Mehr_

ML2R

R. Chatila, V. Dignum, M. Fisher, F. Giannotti, K. Morik, S. Russell, K. Yeung: Trustworthy AI. In: Reflections on Artificial Intelligence for Humanity, 2021. Mehr_

Empfehlung

M. Brundage, et al.: Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable Claims. arXiv:2004.07213, 2020. Mehr_

ML2R

A. B. Cremers, A. Englander, M. Gabriel, D. Hecker, M. Mock, M. Poretschkin, J. Rosenzweig, F. Rostalski, J. Sicking, J. Volmer, J. Voosholz, A. Voos, S. Wrobel: Vertrauenswürdiger Einsatz von künstlicher Intelligenz. Fraunhofer IAIS, 2019. Mehr_

Empfehlung

G. Marcus, E. Davis: Rebooting AI: Building Artificial Intelligence We Can Trust. Pantheon Books, 2019.

Transparenz, Erklärbarkeit und Interpretierbarkeit

Empfehlung

C. Molnar: Interpretable Machine Learning. 2021. Mehr_

ML2R

F. Giannotti, H. Kotthaus, K. Morik, N. Piatkowski, P. Schlunder: Explainablitiy for Trustworthy ML Pipelines: A discussion. ETMLP Workshop, 2020. Mehr_

Empfehlung

K. Sokol, P. Flach: One Explanation Does Not Fit All: The Promise of Interactive Explanations for Machine Learning Transparency. In: KI-Künstliche Intelligenz 34, 2020. Mehr_

Empfehlung

T. Miller: Explanation in Artificial Intelligence: Insights from the Social Sciences. In: Artificial Intelligence 267, 2019, 1-38. Mehr_

Empfehlung

S. M. Lundberg, S. Lee: A Unified Approach to Interpreting Model Predictions. NIPS, 2017. Mehr_

Empfehlung

S. Liu, X. Wang, M. Liu, J. Zhu: Towards Better Analysis of Machine Learning Models: A Visual Analytics Perspective. In: Visual Informatics 1(1), 2017, 48-56. Mehr_

Robustes Training

Empfehlung

Z. Allen-Zhu, Y. Li: Feature Purification: How Adversarial Training Performs Robust Deep Learning. arXiv:2005.10190, 2020. Mehr_