Entdecken Sie unsere Forschung

Die Wissenschaftlerinnen und Wissenschaftler am ML2R forschen an Lösungen zum Maschinellen Lernen (ML) und damit an den technologischen Grundlagen für Künstliche Intelligenz. Wir verstehen ML als Dienstleistung der Zukunft, die sich am Menschen orientiert und das Vertrauen von Anwenderinnen und Anwendern verdient. Unsere Lösungen, die sowohl auf Daten als auch auf Wissen basieren, liefern verlässliche und validierbare Ergebnisse. Wir gestalten ML-Anwendungen, die höchsten Qualitätsstandards entsprechen, Ressourcen schonen und auf den unterschiedlichsten Plattformen funktionieren, von mobilen Geräten bis zu Quantencomputern.

Koordinator

Dr. Sebastian Houben

Koordinator

Dr. Sebastian Houben

Vertrauenswürdiges Maschinelles Lernen

Vertrauenswürdiges Maschinelles Lernen hat das Ziel, mithilfe von robusten und verifizierbaren Verfahren das Vertrauen in ML- und KI-Anwendungen zu stärken und eine Zertifizierung dieser Technologien zu ermöglichen.

Anwendungen des Maschinellen Lernens (ML) und der Künstlichen Intelligenz (KI) werden zunehmend zum festen Bestandteil unseres Alltags. Die Technologien dringen dabei auch in Bereiche vor, die Leben und Gesundheit von Menschen direkt betreffen, wie beispielsweise die Medizin, das autonome Fahren oder die Personalwirtschaft. Insbesondere in diesen Anwendungsfeldern ist es notwendig, dass Entscheidungen fair und frei von Vorurteilen getroffen werden, die Verfahren robust und die Ergebnisse verifizierbar sind.

Was ist vertrauenswürdiges Maschinelles Lernen?

Mit ihren Forschungsarbeiten zum vertrauenswürdigen Maschinellen Lernen zielen die Wissenschaftler*innen des ML2R darauf ab, das Vertrauen in ML- und KI-Anwendungen zu stärken. Basis dieser Arbeiten ist die Entwicklung robuster und verifizierbarer ML-Methoden. Zudem arbeiten die Wissenschaftler*innen an der Gestaltung modularer und hybrider ML-Anwendungen, die den Einsatz wiederverwendbarer, standardisierter ML-Komponenten ermöglichen.

Dazu verfolgen die Forschenden die folgenden Ansätze:

  • Erklärbarkeit von KI- und ML-Anwendungen sicherstellen, indem Funktionsweisen und Ergebnisse für menschliche Expert*innen interpretierbar gemacht werden.
  • Transparenz der Technologien erhöhen, um diese auch für Endanwender*innen ohne wissenschaftliche Expertise sicher und zuverlässig nutzbar zu machen.
  • KI-Absicherung und Zertifizierung ermöglichen, indem die gesamte KI-Prozesskette – von der Auswahl der Trainingsdaten bis zum Einsatz in der Praxis – geprüft und bewertet wird.

Vertrauenswürdigkeit einer KI-Anwendung messen

Ein weiterer Ansatz ist die Entwicklung von Bewertungs- und Qualitätskriterien für KI. Dabei spielen Kriterien zur Einhaltung ethischer Standards, des Datenschutzes und der Wahrung der Privatsphäre eine zentrale Rolle. Mathematische Verfahren und Beweise kommen zum Einsatz, wenn es darum geht, quantitative Aussagen zur Qualität zu treffen, Gütekriterien für ML-Verfahren anzugeben und die Genauigkeit der Ergebnisse zu beschreiben.

Endanwender*innen unterstützen

Die Forschenden am ML2R haben auch jene Anwender*innen im Blick, die KI einsetzen möchten, ohne tief in die mathematischen Grundlagen des ML einzusteigen. Dafür arbeiten sie an Darstellungsformen, die ähnlich wie der Beipackzettel eines Medikaments oder die Pflegeanleitung eines Kleidungsstücks kompakt und verständlich die wesentlichen Informationen enthalten: Für welche Anwendungsszenarien ist die KI gedacht? Welche Voraussetzungen sind nötig und wie exakt sind die zu erwartenden Ergebnisse?

Highlight

Whitepaper
KI-Absicherung

Wie wird autonomes Fahren sicherer? Im Rahmen des BMWi-geförderten Projekts „KI Absicherung“ beteiligen sich ML2R-Wissenschaftler*innen an Forschungen zu Sicherheit und Vertrauenswürdigkeit von KI-Systemen. Dazu haben die Forschenden das Whitepaper “Inspect, Understand, Overcome: A Survey of Practical Methods for AI Safety” veröffentlicht. Das Whitepaper präsentiert, unter anderem am Beispiel des autonomen Fahrens, Herausforderungen und Lösungswege zur sicheren Anwendung von KI.

Koordinator

Dr. Ramses Sanchez

Koordinator

Dr. Ramses Sanchez

Hybrides Maschinelles Lernen

Hybrides ML integriert Wissen aus verschiedenen Quellen in lernende Systeme, um auch bei kleinen oder unsicheren Datenbeständen verlässliche Ergebnisse zu erzielen.

Die Forscher*innen des ML2R arbeiten an Verfahren, heterogene Daten und komplexes Wissen für das Maschinelle Lernen nutzbar machen. Dazu untersuchen sie Methoden, um Wissen in einheitlicher Form aufzubereiten und Strukturen in Daten aufzudecken. Zudem werden datenbasierte ML-Formen, wie beispielsweise das Deep Learning mithilfe künstlicher neuronaler Netze, mit anderen, auf explizitem und logischem Wissen basierenden Lernformen verknüpft.

Was ist hybrides Maschinelles Lernen?

Hybrides ML zielt darauf ab, sowohl praktische als auch grundlegende Probleme des Maschinellen Lernens und der Künstlichen Intelligenz anzugehen. Hybrid bedeutet, dass sowohl klassische, datenbasierte ML-Methoden als auch wissensgestützte Verfahren zur Anwendung kommen. ML-Anwendungen, die aus flexibel einsetzbaren, wiederverwertbaren Modulen bestehen, bieten gute Möglichkeiten, verschiedene Methoden zu kombinieren. Bei der Entwicklung hybrider ML-Lösungen stützen sich die Forschenden nicht nur auf Konzepte aus der Informatik, sondern auch auf Wissen und Methoden aus anderen Fachbereichen, wie beispielsweise der Mathematik, der statistischen Physik, der Linguistik und der Psychologie.

Worauf konzentriert sich die Forschung?

Die Forschung zu hybridem ML kann in drei Hauptrichtungen eingeteilt werden:

  • Informed Machine Learning integriert datenunabhängiges Domänenwissen in Trainingsalgorithmen oder Modellklassen, um Trainingszeiten zu verkürzen und neue Anwendungsbereiche zu erschließen.
  • Representation Learning zielt darauf ab, Strukturen in Daten aufzuspüren und zu erklären. Damit wird es möglich, fehlende oder unzureichende Trainingsdaten mithilfe von maschinell generierten Daten zu ergänzen oder zu ersetzen.
  • Theoretisches Maschinelles Lernen befasst sich mit der grundlegenden Untersuchung von ML-Algorithmen und Lernverfahren und liefert die theoretische Basis für Aussagen zur Interpretierbarkeit, zur Genauigkeit von Ergebnissen und zu Gültigkeitsbereichen.

Anwendungsbeispiel: Logistik

ML-Verfahren funktionieren häufig dann besonders gut, wenn sie mit vielen Daten lernen können. Anders sieht es in Situationen aus, in denen nur wenige oder sogar gar keine Daten vorhanden sind. In der Logistik beispielsweise können Wettereinflüsse, Baumaßnahmen oder Unfälle Ausnahmesituationen bewirken, für die keine hinreichend großen Datenmengen vorliegen.

An diesem Beispiel lässt sich auch eine weitere Herausforderung des ML illustrieren: Daten und Wissen stammen aus unterschiedlichen Quellen und haben ganz verschiedene Formate. Zum Warentransport verwendete Container werden zunehmend mit Sensoren bestückt, die Informationen zur aktuellen Position sowie zu Druck und Temperatur im Inneren senden. Diese Sensordaten müssen dann mit Wissen aus anderen Informationsquellen, wie etwa Verkehrsplanungssystemen und Wetterdaten, verknüpft werden. Manchmal ist Wissen auch nur in Form von Erfahrung oder Intuition menschlicher Experten vorhanden. Für Anwendungen in der Logistik sollen daher Systeme entwickelt werden, die komplexe Zusammenhänge in der Logistikplanung für Menschen durchschaubar machen und gleichzeitig die Potenziale des ML optimal nutzen.

Highlight

Blogbeitrag
Informed Machine Learning – Aus Daten und Vorwissen lernen

ML2R-Wissenschaftlerin Laura von Rueden erklärt in ihrem Blogbeitrag die Grundlagen des Informed Machine Learning. Die Forscherin beschreibt, wie bereits bestehende Wissensquellen für das Maschinelle Lernen nutzbar gemacht werden können. Die Möglichkeiten zur Integration von Wissen werden dabei Schritt für Schritt anschaulich illustriert und die Vorteile herausgestellt. Denn mit Informed ML ist es möglich, Modelle auch bei geringeren Datenmengen zu trainieren oder bereits trainierte Modelle mithilfe von Vorwissen abzusichern.

Koordinatorin

Helena Kotthaus
Dr. Helena Kotthaus

Koordinatorin

Helena Kotthaus
Dr. Helena Kotthaus

Ressourcenbewusstes Maschinelles Lernen

Ressourcenbewusstes ML ermöglicht es, Berechnungen mithilfe von Maschinellem Lernen auch auf kleinen Geräten, wie Smartphones oder direkt in Sensoren, zuverlässig auszuführen.

Die Entwickler*innen am ML2R arbeiten daran, Maschinelles Lernen auch auf Geräten mit beschränkter Rechenleistung sowie begrenzten Energie- und Speicherressourcen verfügbar zu machen. Insbesondere für sicherheitskritische Anwendungen müssen ML-Verfahren so gestaltet werden, dass Daten in einem vorgegebenen Zeitrahmen zuverlässig verarbeitet werden. Zudem optimieren die Forschenden ML-Anwendungen, sodass diese mit möglichst wenig Energie und Rechenressourcen auskommen.

Was bedeutet ressourcenbewusstes Maschinellen Lernen?

Ressourcenbewusstes ML stellt Verfahren bereit, die den Verbrauch an Energie, Speicherplatz und Rechenkapazitäten minimieren. Solche ressourcenbewussten ML-Verfahren sind in der Lage, große Mengen an Daten effizient und schnell zu verarbeiten, ohne dass dabei Abstriche in Bezug auf die Qualität der Ergebnisse gemacht werden müssen. Mit der zunehmenden Heterogenität moderner Rechnerarchitekturen wird es zudem immer wichtiger, dass ML-Verfahren auf spezielle Ausführungsplattformen abgestimmt und dafür optimiert werden.

In welchen Anwendungsfeldern ist Ressourceneffizienz besonders gefragt?

In modernen, automatisierten Fertigungsanlagen werden neben den eigentlichen Produkten auch große Mengen an Daten erzeugt, beispielsweise Betriebsdaten von Maschinen oder Messergebnisse von Sensoren. Die Auswertung dieses Datenschatzes birgt ein enormes Optimierungspotenzial: Prozesse können beschleunigt, die Qualität verbessert und Maschinen vorausschauend gewartet werden. In der Vergangenheit kamen für solche Big-Data-Anwendungen häufig leistungsstarke Rechenzentren zum Einsatz.

Die zunehmende Verknüpfung von physischen und virtuellen Welten im „Internet of Things“ (IoT) erfordert jedoch eine dezentrale Datenverarbeitung. Gerade für Anwendungen in der Industrie 4.0 und in der Logistik ist es – etwa wegen fehlender Bandbreite für die Datenübertragung – nicht immer möglich, alle Daten an einen Zentralrechner zu senden. Stattdessen müssen schon die Geräte, die die Daten aufnehmen, beispielsweise Sensoren, einen Teil der Verarbeitung und Analyse übernehmen.

Verbrauch an Energie sowie Speicher- und Rechenkapazität begrenzen

Ein erster Schritt zur Entwicklung ressourceneffizienter ML-Verfahren ist die Analyse der Ressourcenanforderungen. Dabei müssen die Eigenschaften der eingesetzten Algorithmen ebenso berücksichtigt werden wie die spezifischen Implementierungen auf unterschiedlichen Rechnerarchitekturen.

Ein weiterer Ansatz ist die Entwicklung von Hard- und Software, die für bestimmte Lernaufgaben optimiert ist. Für IoT-Anwendungen eignen sich insbesondere FPGAs (Field Programmable Gate Arrays), die als energieeffiziente, flexibel konfigurierbare Schaltkreise in verschiedenen Anwendungsszenarien einsetzbar sind.

Schließlich besteht ein Forschungsansatz darin, ML-Algorithmen so zu vereinfachen, dass diese auch mit weniger Speicherplatz und Rechenkapazität auskommen. Oft kommen dabei Näherungsverfahren zum Einsatz, die theoretisch begründet und mit der Angabe von Fehlerschranken versehen werden müssen.

Highlight

Online-Veranstaltung
Sommerschule zum ressourcenbewussten Maschinellen Lernen

Die internationale Sommerschule „Resource-aware Machine Learning“ fand mit über 830 registrierten Teilnehmenden aus 64 Ländern große Resonanz innerhalb der internationalen Forschergemeinschaft. Themenschwerpunkte waren das Maschinelle Lernen und die Datenanalyse mit beschränkten Ressourcen. Das Programm umfasste, neben einem Hackathon zu einer Aufgabe aus der Logistik, Vorträge, interaktive Formate und Gelegenheiten zum Kennenlernen und Netzwerken. Organisiert wurde die Online-Veranstaltung gemeinsam durch das Kompetenzzentrum ML2R und den zur Fakultät für Informatik der TU Dortmund gehörenden Sonderforschungsbereich 876 „Verfügbarkeit von Information durch Analyse unter Ressourcenbeschränkung“.

Koordinator

Dr. Nico Piatkowski

Koordinator

Dr. Nico Piatkowski

Maschinelles Lernen auf Quantencomputern

Quantencomputer können eine Vielzahl von Lösungswegen parallel berechnen und haben so das Potenzial, Informationen schneller zu verarbeiten und komplexere Aufgaben zu bewältigen als klassische digitale Computer.

Klassische Computer stoßen immer wieder an Grenzen. Dies zeigt sich insbesondere in Anwendungen aus den Bereichen Big Data und Künstliche Intelligenz, wenn es darum geht, riesige Datenmengen zu verarbeiten, viele unterschiedliche Lösungswege zu berechnen oder aus einer großen Zahl von Möglichkeiten das optimale Ergebnis auszuwählen. Solche Aufgaben sind heute oft nur mit einem enormen Zeit- und Rechenaufwand zu bewältigen, manche sind sogar praktisch unlösbar, weil die Berechnungen Jahre dauern würden.

Wie funktioniert Maschinelles Lernen auf Quantencomputern?

Quantencomputer besitzen das Potenzial, die prinzipiellen Beschränkungen klassischer Computer zu überwinden. Quantum Computing ist heute mehr als nur ein theoretisches Konzept. Nachdem erhebliche Ressourcen in Forschung und Entwicklung investiert wurden, existieren die ersten technischen Implementierungen von Quantenrechnern, die zukünftig auch den Forscherinnen und Forschern am ML2R zur Verfügung stehen werden.

Quanteneffekte für schnellere Berechnungen nutzen

Quantencomputer nutzen zur Informationsverarbeitung Quanteneffekte wie Superposition oder Verschränkung und können dadurch prinzipiell schneller Ergebnisse liefern. Während ein digitaler Computer mit Bits rechnet, arbeitet ein Quantencomputer mit Qubits, die im Gegensatz zu den klassischen Bits nicht nur genau einen von zwei möglichen Zuständen annehmen können, sondern auch eine beliebige Überlagerung beider.

Was sind aktuelle Forschungsfragen?

Forschungsvorhaben am ML2R beschäftigen sich mit der Frage, wie sich diese Quanteneffekte am besten für das Maschinelle Lernen nutzen lassen. Es hat sich bereits gezeigt, dass Verfahren des Maschinellen Lernens für Quantencomputer so angepasst werden können, dass mehrere Lösungswege gleichzeitig beschritten werden. Einige auf Quantenalgorithmen basierende Verfahren sind erheblich schneller als klassische Berechnungen somit kann sogar ein einzelner Quantencomputer schneller Lösungen finden als mehrere, in einem Cluster operierende klassische Computer.

Highlight

Studie
Quantum Machine Learning – Eine Analyse zu Kompetenz, Forschung und Anwendung

Quantencomputer werden die Künstliche Intelligenz und das Maschinelle Lernen tiefgreifend verändern und völlig neue Anwendungsmöglichkeiten erschließen. Die Studie zum Maschinellen Lernen auf Quantencomputern, entstanden unter Mitwirkung von Forscher*innen aus dem ML2R, stellt grundlegende Konzepte und Technologien des Quantencomputings vor, analysiert die aktuelle Forschungs- und Kompetenzlandschaft und zeigt Marktpotenziale auf.

Die Studie »Quantum Machine Learning« gibt einen Einblick in das Quantencomputing, erklärt, welche physikalischen Effekte eine Rolle spielen und wie diese dazu genutzt werden, Verfahren des Maschinellen Lernens zu beschleunigen. Neben den logischen Komponenten werden auch Techniken für die Implementierung der Hardware von Quantencomputern vorgestellt. Die Studie gibt außerdem einen Überblick über die aktuelle Forschungs- und Kompetenzlandschaft und ordnet die Position Deutschlands im internationalen Wettbewerb ein. Zudem stellt die Studie konkrete Anwendungsbereiche und Marktpotenziale für verschiedene Branchen vor.