Die Bekanntmachung „Förderung von Ideennachwuchs: Forschungsvorhaben von KI-Nachwuchsgruppen“ vom 15. April 2021 zielt darauf ab, durch die Förderung von exzellentem wissenschaftlichem Nachwuchs das Wissenschaftssystem im Bereich „Künstliche Intelligenz (KI)“ in Deutschland weiter zu stärken und nachhaltig auf- und auszubauen. Dabei steht die Erforschung von KI-Fragestellungen zu neuartigen und innovativen Themen durch Nachwuchsgruppen im Fokus. Hierzu fördert das BMBF qualifizierte Nachwuchswissenschaftlerinnen und Nachwuchswissenschaftler in interdisziplinären Forschungsgruppen. Durch die Förderung soll es dem wissenschaftlichen Nachwuchs ermöglicht werden, eine Arbeitsgruppe zum Betreiben eigenständiger Forschung aufzubauen, das eigene wissenschaftliche Profil zu stärken und die Sichtbarkeit in der Community zu erhöhen. Durch eine gute Integration in die nationale Forschungslandschaft sollen die jungen Wissenschaftler*innen langfristig für den Wissenschaftsstandort Deutschland gewonnen werden.
ACONITE |
Künstliche Kognitive Bildgebung: Verstehen und verbessern, wie KI-Systeme ihre Umwelt wahrnehmen In einem interdisziplinären Ansatz hat die KI-Nachwuchsgruppe „ACONITE“ sich zum Ziel gesetzt, neurowissenschaftliche Methoden und Konzepte aus dem Bereich des Repräsentationslernens bei Menschen und Tieren in der KI zu etablieren. Im Gegensatz zu aktuellen künstlichen neuronalen Netzen sind biologische neuronale Netze in unserem Gehirn sehr geschickt darin, aus nur wenigen Beispielen zu lernen. Der Fokus des Vorhabens ist deshalb, ein tieferes Verständnis der Struktur und Erklärbarkeit gelernter Repräsentationen zu erlangen, indem sogenannte kognitive Karten erstellt und analysiert werden. Des Weiteren sollen KI-Agenten in virtuellen Umgebungen untersucht werden, um zu lernen, wie die neuronalen Repräsentationen entstehen. Diese Grundlagen sollen dazu dienen, effizientere, interpretierbare und sicherere KI-Verfahren für Anwendungen zu entwerfen, die mit wenig annotierten Daten auskommen und in ihrer Funktionsweise erklärbar sein müssen Ansprechpartner: |
|
ARL |
Adversarial Resilience Learning - Eine hybride Architektur für künstliche Intelligenz in kritischen Infrastrukturen Die Forschungsgruppe Adversarial Resilience Learning entwirft eine hybride Architektur für KI in kritischen Infrastrukturen (KRITIS). Sie kombiniert zwei wesentliche Bereiche: Die KI-Module bieten eine anpassungsfähige Beweglichkeit eines lernenden Systems, das seine künstlichen neuronalen Netze für eine anpassungsfähige Strategie selbst weiterentwickelt. Die gelernten Strategien werden über einen Erklärbarkeitsansatz extrahiert. Sie werden so Teil des zweiten Moduls, das die regelbasierten, auf Logik basierten Zusicherungen klassischer KRITIS-Modellierung nutzt. Das System kann so lernen, menschen- und domänenexklusives Wissen zu nutzen und trotzdem garantiert sicheres Verhalten für KRITIS zu liefern. Ansprechpartner: |
|
AULA-KI |
Adaptive Umgebungsabhängige Lokalisierung von autonomen Fahrzeugen durch Methoden der künstlichen Intelligenz
Ansprechpartner: |
|
BirdNET-Plus |
KI-gestütztes Bioakustik-Monitoring zum Schutz von gefährdeten Tierarten und Habitaten Ansprechpartner: |
|
DynaFoRo |
Selbstlernende dynamische Fortbewegung mobiler Roboter |
|
EQUIPE |
Skalierbare, effiziente Methoden zur Quantifizierung von Unsicherheiten in der KI-basierten Zeitreihenvorhersage EQUIPE beschäftigt sich mit der Quantifizierung von Unsicherheiten in großen KI-Modellen für die Zeitreihen-Vorhersage, sogenannte Transformer-Netzwerke. Diese Netzwerke sind zwar in der Lage eine hohe Vorhersagegenauigkeit zu erzielen, benötigen jedoch immense Rechenressourcen. Gängige Ansätze zur Fehlerabschätzung in neuronalen Netzen sind in gleichem Maße rechenintensiv, was ihren Einsatz in Transformern derzeit noch erheblich erschwert. Die Forschungsarbeiten zielen darauf ab, diese Probleme zu beheben und skalierbare Algorithmen zur Quantifizierung von Unsicherheiten in großen neuronalen Netzen zu entwickeln. Hierfür werden Ansätze des verteilten, datenintensiven Rechnens und des Hochleistungsrechnens (HPC) verwendet. Ansprechpartner: |
|
FEAT |
Flexibel, Erklärbar, Akkurat – Maschinelles Lernen in komplexen Systemen unter Unsicherheit Im Projekt verfolgt eine Nachwuchsgruppe der Uni Tübingen in Zusammenarbeit mit dem DLR einen modularen NN-Aufbau aus mehreren unabhängigen Netzen anhand eines Anwendungsproblems aus der Energieforschung. Dabei sollen Strompreise innerhalb des Energiemarktmodells AMIRIS vorhergesagt werden. Übergeordnetes Ziel ist dabei, flexible und robuste NN-Architekturen zu entwerfen, deren Arbeitsweise erklärbar ist und die sich gegen die Unsicherheiten aus verschiedenen Datenquellen präzise kalibrieren lassen. Mit den Daten aus AMIRIS kann dann genau nachvollzogen werden, ob – und vor allem warum – Unsicherheiten der Vorhersage der neuronalen Architektur das Anwendungsproblem realistisch wiedergeben. Projektpartner: Ansprechpartner: |
|
FFS-AI |
Entwurf und Konstruktion einer KI-Plattform auf Basis gefächerter Merkmalsräume |
|
GPN42P |
Generative Präzisionsnetzwerke für Teilchenphysik |
|
HyTea |
Model for Hybrid Teaching |
|
IRRW |
Skalierung des inversen Ansatzes zur Bildanalyse |
|
Metrics4NLG |
Evaluationsmetriken für Textgenerierungssysteme aus dem Bereich Natürliche Sprachverarbeitung |
|
ML-Expert |
Automatisierte Modellbildung und -validierung dynamischer Systeme mittels des maschinellen Lernens sowie a priori Expertenwissen |
|
MultiML |
Multikriterielles Maschinelles Lernen - Effizienz, Robustheit, Interaktivität und Systemwissen |
|
Polke |
KI in der Bildung: Pädagogisch orientierte Extraktion von sprachlichem Wissen und Generierung natürlicher Sprache mit steuerbarer Lesbarkeit |
|
RL4CES |
Reinforcement Learning for Cognitive Energy Systems |
|
SCINEXT |
Neural-Symbolic Scholarly Innovation Extraction - Extraktion von Wissen aus wissenschaftlichen Publikationen |
|
STCL |
Was, Wo, und Wann? - Multimodales selbstüberwachtes Lernen zur Erfassung räumlich-zeitlicher Konzept Das Projekt „STCL“ bringt die Forschung im Bereich der Videoanalyse voran, indem neuronale Netze trainiert werden, die diese Aspekte, „Was passiert wann und wo in einem Video?“, erlernen und automatisch erkennen können. Verwendet wird dabei das sogenannte multi-modale selbstüberwachte Lernen, das es erlaubt Konzepte wie Objekte und Handlungen ohne menschliche Annotation zu lernen. Dazu werden semantische Merkmale innerhalb mehrerer Modalitäten, wie z. B. Text, Video, und Audio, erfasst und miteinander abgeglichen. Die verschiedenen Modalitäten werden dazu in eine gemeinsame hochdimensionale Darstellung projiziert und können dort z. B. anhand ihrer Nachbarschaftsverhältnisse verglichen werden. Somit wird eine Annotation einzelner Daten überflüssig. Erst dies ermöglicht es, Modelle auf genügend großen Datenmengen zu trainieren. Darüber hinaus lässt sich anhand der Aktivierungen innerhalb des neuronalen Netzes erkennen, wann und wo z. B. eine bestimmte Handlung stattgefunden hat oder wo sich ein Objekt befindet. Ansprechpartner: |
|
Themis |
Nutzung von Hintergrundwissen zum Verständnis und zur Modellierung komplexer Systeme Die KI-Nachwuchsgruppe Themis befasst sich mit Wissensextraktion und Wissensintegration für Maschinelles Lernen. Das Projekt zielt darauf ab, Methoden zur Wissensextraktion zu entwickeln, um komplexe Systeme entlang dreier Achsen zu erklären und zu verstehen: horizontal (Interaktionen zwischen Komponenten des Systems), vertikal (Unterschiede in den gesammelten Daten, wie etwa für unterschiedliche Personengruppen), sowie temporal (über die Zeit). Darüber hinaus werden die Grenzen sowie das Potenzial von Wissensintegration in praktischen Anwendungen untersucht und optimiert. Die entwickelten Methoden sollen in Fallstudien und Projekten mit Anwendern erprobt werden. Ansprechpartner: |
|
TriFORCE |
Erlernen adaptiver wiederverwendbarer Fähigkeiten für intelligente autonome Agenten Das Tiefe Verstärkende Lernen (englisch: Deep Reinforcement Learning, DRL) bietet vielfältige Anwendungsbereiche. Diese reichen von alltäglichen Anwendungen, z. B. in den Bereichen Gesundheitswesen, Finanzen und Robotik, bis hin zu eher theoretischen Optimierungsproblemen. Trotz großer Erfolge nutzen die bisherigen Algorithmen Daten und Rechenressourcen immer noch sehr ineffizient. Die KI-Nachwuchsgruppe TriFORCE befasst sich mit diesen Problemen, um so die Anwendung der DRL-Algorithmen auf komplexe reale Probleme zu übertragen und zu vereinfachen. Im Einzelnen werden in diesem Projekt die folgenden grundlegenden Herausforderungen adressiert: Das DRL praktisch umzusetzen, wird oft durch die hohen Rechen- und Datenanforderungen behindert. Zusätzlich wird aktuell immer noch menschliche Aufsicht benötigt, um DRL-Experimente einzurichten und durchzuführen. Die Parameter müssen umfangreich justiert werden, da die Agenten sonst nicht zuverlässig agieren können. Um DRL bei heterogenen realen Problemen einsetzen zu können, ist es entscheidend, dass sich die entwickelten Algorithmen an zuvor unbekannte Probleme anpassen können. In diesem Projekt soll gezeigt werden, dass diese scheinbar unterschiedlichen Herausforderungen gemeinsame Ursachen haben, die durch eine einheitliche Sichtweise sowie eine gemeinsame Herangehensweise zu effizienteren und damit praktischeren Algorithmen führen. Ansprechpartner: |
|
UnrEAL |
Unsicherheitsquantifizierung und Effiziente Annotationsprozesse für Deep Learning Das Projekt „UnrEAL“ entwickelt Methoden, um die Unsicherheit von KI zu erkennen und zu quantifizieren, um wenig Bedarf an manuell erzeugten Annotationen (aktives Lernen) zu haben und um Fehler in manuell erzeugten Bildannotationen zu detektieren. Dazu wird zuerst der Informationsfluss in tiefen neuronalen Netzen gemessen und analysiert. Anschließend werden Methoden entwickelt, die eine gleichzeitige Annotation und Modellbildung betreiben (aktives Lernen). Dabei wird ein Verfahren entwickelt, das es erlaubt, Bildregionen für die Annotation vorzuschlagen. Dieses wird dann in einen Annotationsprozess integriert, der immer die Bilder oder Bildregionen vorschlägt, welche besonders wichtig für die weitere Klassifikation sind. Dadurch kann die benötigte Anzahl von Daten reduziert werden. Weiterhin werden Ansätze erforscht, die Annotationsfehler entdecken. Dazu werden zuerst Vergleichsdatensätze auf-bereitet, bei denen die Annotationsfehler bekannt sind. Dann werden verschiedene Methoden erprobt, die diese bekannten Fehler vorhersagbar machen. Ansprechpartner: |
|
White-Box-AI |
Transparente Entscheidungsunterstützung durch interpretierbare Machine-Learning-Modelle Das Forschungsvorhaben verfolgt als primäre Ziele, neue, interpretierbare White-Box-KI-Modelle zu entwickeln und Erkenntnisse über die Akzeptanz dieser KI-Modell zu gewinnen. Diese zwei Ziele sind eng miteinander verwoben und beeinflussen sich gegenseitig. Zum einen werden die gelernten Abbildungsvorschriften der White-Box-KI-Modelle visuell dargestellt. Damit können Experten, unter anderem Fehler oder Bias-Effekte in den darunterliegenden Daten sowie in der Modellabbildung erkennen. Zum anderen sollen Experten ihr Wissen in die White-Box-KI zurückspielen können. Dazu werden Nebenbedingungen in den Optimierungsproblemen zum Lernen der KI entwickelt, die das Expertenwissen widerspiegeln. Ansprechpartner: |