In den Bereichen Neurowissenschaften und biomedizinische Technik stellt die genaue Modellierung der komplexen Bewegungen der menschlichen Hand seit langem eine große Herausforderung dar. Die derzeitigen Modelle haben oft Schwierigkeiten, das komplexe Zusammenspiel zwischen den motorischen Befehlen des Gehirns und den physischen Aktionen der Muskeln und Sehnen zu erfassen. Diese Lücke behindert nicht nur den wissenschaftlichen Fortschritt, sondern schränkt auch die Entwicklung wirksamer Neuroprothesen zur Wiederherstellung der Handfunktion bei Menschen mit Amputationen oder Lähmungen ein.
EPFL-Professor Alexander Mathis und sein Team haben einen innovativen, auf künstlicher Intelligenz basierenden Ansatz entwickelt, der ein besseres Verständnis dieser komplexen motorischen Funktionen ermöglicht. Das Team zeigte sich innovativ, indem es eine maschinelle Lernstrategie einsetzte, die curriculumbasiertes, verstärkendes Lernen mit detaillierten biomechanischen Simulationen kombinierte.
Wir enthüllen die wesentlichen Mechanismen, durch die das Gehirn und die Muskeln zusammenarbeiten.
Alexander Mathis
Ihre Forschung präsentiert ein detailliertes und anatomisch genaues dynamisches Modell der Handbewegung, das direkt davon inspiriert ist, wie Menschen komplexe motorische Fähigkeiten erlernen. Die Studie, die bei der NeurIPS-Konferenz 2022 die MyoChallenge gewann, wurde auch in der Fachzeitschrift Neuron veröffentlicht.
Baoding-Bälle virtuell steuern
"Was mich an dieser Forschung am meisten fasziniert, ist, dass wir tief in die Grundprinzipien der menschlichen motorischen Kontrolle eintauchen, ein Bereich, der lange Zeit geheimnisvoll war. Wir bauen nicht einfach nur Modelle, sondern enthüllen die wesentlichen Mechanismen, durch die Gehirn und Muskeln zusammenarbeiten", sagt Professor Mathis.Die von Meta vorgeschlagene NeurIPS-Herausforderung veranlasste das Team der EPFL, einen neuen Ansatz für eine KI-Technik namens Reinforcement Learning zu erforschen. Die Aufgabe bestand darin, eine KI zu schaffen, die zwei Baoding-Bälle präzise manipulieren kann, die jeweils von 39 Muskeln auf hochkoordinierte Weise gesteuert werden. Diese scheinbar einfache Aufgabe ist aufgrund der komplexen Dynamik der Handbewegungen, einschließlich der Muskelsynchronisation und der Aufrechterhaltung des Gleichgewichts, äußerst schwierig virtuell zu reproduzieren.
In diesem hart umkämpften Umfeld haben drei Doktoranden - Alberto Chiappa aus der Gruppe von Alexander Mathis, Pablo Tano und Nisheet Patel aus der Gruppe von Alexandre Pouget an der Universität Genf - ihre Konkurrenten und Konkurrentinnen deutlich übertroffen. Ihr KI-Modell erreichte in der ersten Phase des Wettbewerbs eine Erfolgsquote von 100 % und übertraf damit das nächstbeste Rivalenteam bei weitem. Selbst in der zweiten, schwierigeren Phase erwies sich ihr Modell in immer komplexeren Situationen als robust und behielt einen komfortablen Vorsprung, um den Wettbewerb zu gewinnen.
Komplexe Aufgaben aufteilen - und wiederholen.
"Um zu gewinnen, haben wir uns von der Art und Weise inspirieren lassen, wie Menschen anspruchsvolle Fähigkeiten erlernen, ein Prozess, der in der Sportwissenschaft alssegmentiertes Training bekannt ist", erklärt Professor Alexander Mathis. Dieser Ansatz inspirierte die im KI-Modell verwendete Methode des curricularen Lernens, bei der die komplexe Aufgabe der Kontrolle von Handbewegungen in kleinere, besser handhabbare Teile zerlegt wurde."Um die Grenzen der aktuellen maschinellen Lernmodelle zu überwinden, haben wir eine Methode angewandt, die als curriculumbasiertes verstärkendes Lernen bezeichnet wird. Nach 32 Schritten und fast 400 Stunden Training gelang es uns, ein neuronales Netz darauf zu trainieren, ein realistisches Modell der menschlichen Hand präzise zu steuern", sagt Alberto Chiappa.
Ein Schlüssel zum Erfolg des Modells liegt in seiner Fähigkeit, grundlegende, sich wiederholende Bewegungsmuster, die sogenannten motorischen Primitive, zu erkennen und zu nutzen. Dieser Ansatz des Verhaltenslernens könnte die Neurowissenschaften hinsichtlich der Rolle des Gehirns beim Erlernen von motorischen Primitiven zur Bewältigung neuer Aufgaben aufklären. Diese komplexe Interaktion zwischen dem Gehirn und der Muskelmanipulation verdeutlicht, wie schwierig es ist, Maschinen und Prothesen zu entwickeln, die menschliche Bewegungen wirklich nachahmen.
"Man braucht ein breites Spektrum an Bewegungen und ein Modell, das dem menschlichen Gehirn ähnelt, um verschiedene alltägliche Aufgaben zu bewältigen. Auch wenn jede Aufgabe in kleine Teile zerlegt werden kann, benötigt jede Aufgabe einen anderen Satz dieser motorischen Primitive, um gut ausgeführt zu werden", betont Alexander Mathis.
Diese Forschung bietet uns eine solide wissenschaftliche Grundlage, die unsere Strategie stärkt.
Silverstro Micera
Nutzung von KI, um biologische Systeme zu erforschen und zu verstehen.
Silvestro Micera, ein führender Neuroprothesenforscher am Neuro X Institut der EPFL und Mitarbeiter von Mathis, betont die entscheidende Bedeutung dieser Forschung, um das zukünftige Potenzial und die derzeitigen Grenzen selbst der fortschrittlichsten Prothesen zu verstehen. "Was uns heute wirklich fehlt, ist ein tieferes Verständnis der Art und Weise, wie die Fingerbewegungen und die motorische Kontrolle, während des Greifens, ausgeführt werden. Diese Arbeit geht genau in diese entscheidende Richtung", merkt Professor Micera an. "Wir wissen, wie wichtig es ist, die Prothesen mit dem Nervensystem zu verbinden, und diese Forschung bietet uns eine solide wissenschaftliche Grundlage, die unsere Strategie stärkt."Abigail Ingster, eine Bachelor-Studentin zum Zeitpunkt des Wettbewerbs und Gewinnerin des Summer in the Lab-Stipendiums der EPFL, spielte eine zentrale Rolle bei der Analyse der Lernpolitik. Da ihr Stipendium eine praktische Forschungserfahrung unterstützte, arbeitete Abigail eng mit dem Doktoranden Alberto Chiappa und Professor Mathis zusammen, um die komplexen Mechanismen der KI-Lernpolitik zu erforschen.