• 21.6.2023
  • Lesezeit: 5 Min.

Robotik muss sicher sein

ChatGPT: Denkmaschine mit Regulierungsbedarf

ChatGPT kann das Programmieren effizienter machen, Texte verfassen, als Brainstorming-Partner dienen oder Designvorschläge kreieren. Sobald die so genannte generative künstliche Intelligenz allerdings in die physische Welt der Robotik gelangt, sind Forschende der Technischen Universität München (TUM) zurückhaltend.

Lennart Preiss
OpenAI-Chef Sam Altman beim Besuch im Audimax der TUM zusammen mit Prof. Reinhard Heckel.

Für OpenAI-Chef Sam Altman ist das von ihm als Denkmaschine bezeichnete generative KI-Modell ChatGPT der Beginn eines Paradigmenwechsels vergleichbar mit dem Launch des iPhones oder gar des Internets. „Das nützlichste, bedeutendste und begeisterndste Tool, dass die Menschheit je geschaffen hat“, so sagt es Sam Altman bei seinem Besuch an der TUM in München Ende Mai. Gilt das auch für die Robotik?

„Ich muss Codes oft nicht mehr selbst schreiben“

Reinhard Heckel ist ein Fan von ChatGPT. Der Professor für maschinelles Lernen an der TUM nutzt das OpenAI-Produkt Copilot selbst zum Programmieren. „Ich muss Teile von Code oft nicht mehr selbst ausschreiben, das übernimmt das Tool automatisch“, erläutert Heckel. Besonders bei leichten Aufgaben spart er so Zeit und kann sich mit dem Teil vom Programmieren beschäftigen, „der wirklich spannend ist“. Im Brainstorming mit ChatGPT sucht er nach geeigneten Titeln für ein Paper oder lässt es schon mal anschreiben. „ChatGPT ist ein guter Assistent für kleinere nervige Aufgaben“, meint Heckel. Sogar die Bilderkennung der Tools ist schon so gut, dass Blinde sich erklären lassen können, wie die Welt aussieht. Eine Grenze ist allerdings dann erreicht, wenn es um Roboter geht. „Als Roboter beispielsweise eine Zwiebel zu schneiden, ist komplex und im Moment schwieriger als der Umgang mit Text.“ Dennoch resümiert Heckel: „Die Vorteile überwiegen, ChatGPT und Tools wie Copilot erleichtern die Arbeit und machen sie effizienter.“

Trainingsdaten für neuronale Netze müssten da sein

Auch Klaus Diepold experimentiert mit generativer künstlicher Intelligenz. Schon vor einigen Jahren gab der Professor für Datenverarbeitung an der TUM in seinem Bachelor-Kurs „Computer und Kreativität“ Studenten die Aufgabe, Ideen zu entwickeln, wie Computer kreativ werden können. Heraus kam mit Vorläufern von ChatGPT 3 eine Glückwunschkarte „für Tante Erna“ – grafisch gestaltet und getextet von der KI. „Die Software hat ein Gedicht geschrieben und die Ranunkeln – Tante Ernas Lieblingsblumen – durch das Tool mit einbauen lassen“, erinnert sich Diepold. Praktisch Anwendungen in der Robotik gab es allerdings nicht. Heute arbeitet Doktorand Lucca Sacchetto im Rahmen des Leuchtturmprojekts KI.Fabrik beim Robotik- und KI-Institut MIRMI an einem Designgenerator auf Basis von Dalle_E, dem Bildtransformator von Altmans Unternehmen OpenAI. „Das Wissen für generative Modelle, einen Stuhl zu kreieren, ist gut, weil viele Bilder für das Training von neuronalen Netzen vorliegen.“ Soll allerdings ein Robotergreifer designt werden, ist das schwieriger, denn es gibt zu wenig Trainingsdaten. „Hinzu kommen Anforderungen an die Festigkeit des Materials und andere physikalische Eigenschaften“, so Diepold.

Robotik: Es darf kein einziger Fehler passieren

Die Herausforderungen in der klassischen Robotik sind komplex. Ein Serviceroboter beispielsweise bewegt sich im Umfeld mit dem Menschen. Er reicht einem pflegebedürftigen Menschen ein Glas Wasser oder unterstützt ihn in Reha-Übungen. „Der Roboter soll autonom, smart und schnell reagieren und darf kein Unheil anrichten“, so Diepold, „in einem sicherheitsrelevanten Umfeld darf man sich keinen einzigen Fehler erlauben“. Regulierungen sind also besonders in der Robotik vonnöten. „Verantwortungsvoll regulieren“ wolle er seine Software, versprach Altman in München. Als „sprachlich nettes Spielzeug“ (Diepold) richtet ChatGPT erstmal keinen sichtbaren Schaden an, doch hat Diepold Zweifel an dessen Intelligenz. „ChatGPT produziert Texte, die eloquent sind, aber nicht intelligent“, sagt der Professor, „das ist wie bei einem Politiker auf der Bühne: Es kann sich alles gut anhören, muss deswegen aber noch lange nicht stimmen.“ Auch Alin Albu-Schaeffer, Professor für Sensorbasierte Robotersysteme und intelligente Assistenzsysteme an der TUM, macht deutlich: „KI muss mit der physischen Welt interagieren, da reicht es nicht aus, ‚nur‘ quatschen zu können“. Das beste Beispiel dafür, was schieflaufen kann, liefert eine Hausarbeit, die Studenten von Prof. Diepold über ChatGPT haben anfertigen lassen. „Sie las sich gut, aber keine der Referenzen stimmte, die in dem wissenschaftlichen Aufsatz angegeben waren“, so Diepold. Immer, wenn Wissen fehlt, überspielt ChatGPT das mit selbst erfundenen Informationen. In der Robotik darf hingegen kein Fehler passieren.

„Eine noch nicht ausgereifte Technologie ist in die Welt gekracht“

Die Co-Direktorin der Hightech-Plattform munich_i Alena Buyx von der TUM ist eine von knapp 20 Professor:innen, die in der Taskforce für generative KI der TUM Perspektiven gegen Risiken abwägen. „Da ist ja eine noch nicht ganz ausgereifte Technologie ein wenig in die Welt gekracht und jetzt wird rapide versucht, Empfehlungen für anstehende gesetzliche Regelungen zu geben – von der technischen wie von der ethischen, sozialen und regulatorischen Seite“, erläutert die Professorin für Ethik in Medizin und Gesundheitstechnologien Buyx.  Ihr geht es aber auch darum, neben den Risiken die positiven Potenziale zu erkennen und genau zu überlegen, wo man diese nutzen kann. Im Krankenhaus beispielsweise werden in den USA – kontrolliert und unter Aufsicht – bereits Social Bots eingesetzt, die ausführliche Entlassungsgespräche mit Patienten führen und Zeit haben, alle Fragen zu beantworten. Generative KI wird zudem in der Biotechnologie zur Analyse der Proteinfaltung eingesetzt, um neue Moleküle etwa für Krebsmedikamente zu entwickeln.

Ob die Entwicklung in die richtige Richtung geht? „Die ganzen Daten, die für das Training der KI-Modelle nötig sind, stammen letztlich von uns allen, und sie wurden von den Unternehmen abgesaugt und verwendet für Technologien, die bald unsere Lebenswelt stark durchwirken werden“, erläutert Buyx, „da besteht klar für Gesellschaften das Recht, die Nutzung sowie Regulierung der Technologien aktiv zu gestalten“. Auch OpenAI-Chef Altman betont bei seinem Besuch in München, die Fähigkeiten seiner Denkmaschine verantwortungsvoll regulieren zu wollen. Es gibt noch eine Menge zu tun. Auch deswegen sieht Altman für junge Leute gerade jetzt die wohl beste Chance in den vergangenen 15 Jahren, in der Technologie eine Karriere zu starten.

Weitere Informationen und Links

Technische Universität München

Corporate Communications Center

Kontakte zum Artikel:

Prof. Alena Buyx

Lehrstuhl für Medizin und Gesundheitstechnologien, Co-Direktorin munich_i

Technische Universität München                              

a.buyx@tum.de

 

Prof. Reinhard Heckel                                        

Professur für Maschinelles Lernen                            

Technische Universität München (TUM)                             

Reinhard.heckel@tum.de

 

Prof. Klaus Diepold

Lehrstuhl für Datenverarbeitung

Technische Universität München (TUM)

kldi@tum.de

Aktuelles zum Thema

HSTS