Viele Bereiche mit Potenzial für den Einsatz von KI seien zu risikobehaftet, um von Systemen gesteuert zu werden, die sich nicht verifizieren lassen, hört man vom Deutschen Forschungszentrum für Künstliche Intelligenz DFKI. Die Bremer Forschungsbereiche des DFKI arbeiten deshalb an einer neuen Methode, um die Vorteile von schnellem, eigenständigem Lernen und verlässlicher Verifikation zu kombinieren. Das Projekt VeryHuman, gefördert vom Bundesministerium für Bildung und Forschung, soll durch die innovative Methode einen humanoiden Roboter zum Laufen zu bringen. Das Projekt wurde im Juni gestartet und läuft für vier Jahre, gefördert vom BMBF mit knapp 1,3 Millionen Euro.
Laut DFKI kann eine KI-Anwendung dort, wo Risiken existieren und Verlässlichkeit wichtig ist, etwa beim sicheren Laufen eines humanoiden Roboters, nicht ausschließlich geschätzte Werte einsetzen, die durch subsymbolische Verfahren aus dem Training in der Simulation gezogen wurden. Laut DFKI muss es mathematische, physikalische und statistische Modelle anwenden, um Korrektheit sicherzustellen. Wie der Name andeute, sei es ein zentraler Aspekt des Projekts VeryHuman – Lernen und Verifikation Komplexer Verhalten für Humanoide Roboter, Steuerungssysteme auf Basis von Künstlicher Intelligenz näher an die Fähigkeiten des Menschen zu rücken. Die Effektivität des neuen Ansatzes überprüfe man deshalb anhand eines humanoiden Roboters, der aufrecht und stabil gehen und, sollte die Methode sich als funktional herausstellen, auch komplexere Bewegungen ausführen können soll.
Laut dem DFKI stellen sich drei Herausforderungen, wenn es um diese Art von KI-Anwendung geht: Erstens gibt es keine standardisierten physikalischen Modelle für die mechanischen und kinematischen Eigenschaften eines humanoiden Systems, das sich – aufgrund ebenjener physikalischen Eigenschaften – nicht nur auf Trainingsdaten verlassen kann. Zweitens sind die Ergebnisse des Systems, sollte es sich nur auf sein Training und keine standardisierten Modelle verlassen, nicht verifizierbar – das System würde sich wie eine Black Box verhalten. Die dritte Herausforderung ist deshalb die mathematische Beschreibung des robotischen System. Ziel des Projekts VeryHuman sei deshalb die Abstraktion kinematischer Modelle vom robotischen System, die symbolisch validiert werden können. Diese Abstraktion sollen die Definition von Belohnungsfunktionen für das Reinforcement Learning und die mathematische Verifikation der Entscheidungen auf Basis der abstrahierten Modelle ermöglichen.