• 20.2.2024
  • Lesezeit: 4 Min.

Interview mit Prof. Stephan Günnemann zur Technik hinter der KI

„Die Zuverlässigkeit von KI spielt in Deutschland eine entscheidende Rolle“

Künstliche Intelligenz (KI) kommt in immer mehr Bereichen zum Einsatz und hat sich zu einem Trendwort entwickelt. Doch ab wann spricht man von KI und nicht mehr von Automatisierung oder maschinellem Lernen? In einem Interview erklärt Stephan Günnemann, Professor für Data Analytics and Machine Learning an der Technischen Universität München (TUM), die wichtigsten technischen Aspekte von KI und ordnet die neuesten Entwicklungen ein. Gleichzeitig gibt er eine Einschätzung, wie weit wir in Deutschland mit der Technologieentwicklung von KI im internationalen Vergleich sind.

Stephan Günnemann, Professor für Data Analytics and Machine Learning an der Technischen Universität München (TUM) Astrid Eckert / TUM
Stephan Günnemann, Professor für Data Analytics and Machine Learning an der Technischen Universität München (TUM)

Wie lässt sich KI von anderen Begriffen wie Automatisierung und maschinellem Lernen abgrenzen?

Zunächst ist das Problem, dass sich Intelligenz schwer definieren lässt. Die Öffentlichkeit sieht KI meist im Kontext von menschenähnlicher Intelligenz. Hierbei handelt es sich beispielsweise um Roboter, die ihre Umgebung wahrnehmen, Gegenstände greifen können oder ähnliches. Aber das ist nicht das einzige Anwendungsgebiet, in dem KI eine Rolle spielt.

Wichtige weitere Bereiche sind unter anderem die Entwicklung von Medikamenten für personalisierte Medizin oder im Material Design beim Entwurf von Materialien. Da an dieser Stelle allerdings auf keine menschlichen Fähigkeiten zurückgegriffen wird, wäre es passender diese Methoden als maschinelles Lernen zu bezeichnen. Entscheidend ist hierbei, dass das Verhalten der Methoden aus Daten erlernt wird. Im Gegensatz zur klassischen Automatisierung, bei welcher die Funktionalität zuvor fest einprogrammiert wird.

Wie funktioniert ein KI-Algorithmus aus technischer Sicht?

Der Startpunkt für jeden Algorithmus sind immer Daten, die gesammelt werden. Diese Daten können dabei von allen möglichen Systemen stammen, zum Beispiel aus sozialen Netzwerken aber auch von Sensoren aus technischen Anlagen. Die Maschine lernt eine sehr komplexe Funktion, die ihr dabei hilft aus diesen Daten Muster zu erkennen, um zum Beispiel bestimmte Objekte zu klassifizieren oder später Vorhersagen treffen zu können. Diese Funktionen sind in der Regel so komplex, dass der Mensch sie nicht nachvollziehen kann.

Wäre es nicht wichtig zu wissen, wie die KI zu bestimmten Entscheidungen kommt?

Da muss ich eine Frage zurückstellen: Ist der Mensch als Alternative nicht die perfekte Blackbox? Wir können doch auch häufig nicht richtig begründen, wie wir zu Entscheidungen kommen. In Bezug auf KI braucht man meiner Meinung nach nicht immer eine Begründung. Erklärbarkeit heißt für den Menschen nachvollziehbar. Und an dieser Stelle bin ich ein bisschen skeptisch. Muss ein Mensch immer durchschauen können, was ein Algorithmus macht? Für einige Aufgaben besitzt ein Mensch gar nicht die Expertise.

Fällt Ihnen hierzu ein Beispiel ein?

Wenn ein Algorithmus bestimmte Medikamente automatisch erzeugt hat: Ist es dann wirklich entscheidend, wie er da hingekommen ist oder ist es nicht nur wichtig zu wissen, jetzt haben wir ein Medikament, das bestimmte Eigenschaften besitzt? Wieso muss ich in einem solchen Fall den Entscheidungsprozess der Maschine nachvollziehen können? Anders sieht es hingegen im klinischen Alltag aus. Hier ist es von Bedeutung zu wissen, wie der Algorithmus zu einer bestimmten Diagnose kommt. Das ist ein Anwendungsgebiet, bei dem ich mir vorstellen kann, dass Mensch und Maschine zukünftig zusammenarbeiten.

Doktoranden Seminar mit Prof. Dr. Stephan Günnemann am Munich Data Science Institute (MDSI) der TUM. Astrid Eckert / TUM
Doktoranden Seminar mit Prof. Dr. Stephan Günnemann am Munich Data Science Institute (MDSI) der TUM.

Wichtige Anwendungsbereiche der KI liegen aber nicht nur in der Medizin oder im Material Design, sondern auch in den Medien bei der Erstellung von Inhalten. Der neueste Trend ist, aus Texten Videos zu produzieren. Wie weit sind wir inzwischen in der Entwicklung von KI? Ist alles noch banal oder sind wir auf dem Weg zur allgemeinen KI?

Die neuesten Ergebnisse der Generativen KI sind natürlich sehr beeindruckend. Allerdings kann auch hier noch nicht von wirklicher Intelligenz gesprochen werden. Insbesondere die Fähigkeiten wie das Schlussfolgern oder Planen werden auch durch diese Methoden noch nicht gut abgedeckt. Daran schließt außerdem ein großer Diskurs an, ob es durch die bisherigen Methoden überhaupt möglich ist, dies zu realisieren.

Welche Methoden werden technisch eingesetzt, um Texte in Videos umzuwandeln?

Von den Grundprinzipien unterscheidet sich dies nicht wesentlich von einer "Text zu Bild" Methode. Hierzu werden aktuell primär sogenannte „diffusion models“ genutzt. Die Grundlage sind natürlich auch hier riesige Datenmengen. Die Modelle versuchen aus reinem Rauschen echte Bilder zu generieren - man lernt quasi mit einem Neuronalen Netz wie man aus verrauschten Bildern die ursprüngliche Version vorhersagt. Der Text wird dann als zusätzliche Eingabe für das Neuronale Netz genutzt, sodass das Neuronale Netz in die richtige Richtung gelenkt wird und so je nach Eingabe andere Bilder oder Videos erzeugt. Selbstverständlich spielen dann noch viele weitere Komponenten eine Rolle. Dadurch können in der Praxis sehr gute Ergebnisse erzielt werden.

Wie steht Deutschland und auch Europa in der Technologieentwicklung von KI im internationalen Vergleich da?

In der Forschung sind wir sehr gut aufgestellt. Beim Transfer von der Forschung in die Anwendung haben Deutschland und auch Europa etwas Nachholbedarf. Also das ganze Thema Start-ups. Das hat auch viel mit unserer Investmentkultur zu tun, welche weniger auf Wagniskapital für sehr junge, risikoreiche Unternehmungen ausgelegt ist — wie es aber gerade in der KI häufig der Fall ist. Da sind uns die Amerikaner:innen zum Beispiel voraus. Allerdings fördert die TUM Gründungen sehr stark.

Darüber hinaus ist die Frage entscheidend, in welchen Bereichen setzen deutsche und europäische Unternehmen KI ein. Und hier wird schnell deutlich, dass Deutschland und Europa vor allem in Domänen stark sind, in denen die Zuverlässigkeit von KI eine große Rolle spielt. Beispiele dafür sind das autonome Fahren oder der medizinische Bereich. Hier ist es anders als bei Sprachmodellen wie ChatGPT wichtig, dass die Entscheidung, die die KI trifft, auch wirklich richtig ist. Das heißt, es ist deutlich mehr Entwicklung notwendig, bevor man solche Technologien in der Praxis einsetzen kann.

Künstliche Intelligenz

KI-Anwendungen verändern schon jetzt die Arbeits-, Forschungs- und Alltagswelt. Wir gestalten diesen technologischen Fortschritt mit: Unsere Forschenden entwickeln fächerübergreifend neue Methoden und Anwendungen der KI.

KI an der TUM

Weitere Informationen und Links
  • Prof. Stephan Günnemann forscht im Bereich Maschinelles Lernen und Datenanalyse. Ein Schwerpunkt liegt hierbei auf der Erforschung der Zuverlässigkeit von Machine Learning Verfahren, mit dem Ziel deren sichere und robuste Anwendung in einer Vielzahl von Domänen zu ermöglichen.
  • Außerdem ist er Executive Director des integrativen Forschungsinstituts Munich Data Science Institute (MDSI). Diese Querschnittsinstitute widmen sich jeweils einem technologisch und gesellschaftlich hochrelevanten Wissenschaftsfeld. Das MDSI forscht zu den mathematischen und computerwissenschaftlichen Fragen der Datenanalyse und entwickelt neue Theorien und Methoden des Maschinellen Lernens und der Künstlichen Intelligenz. Daraus entwickelt es Anwendungen für die verschiedenen Forschungsfelder der TUM, wie etwa personalisierte Medizin, Lebenswissenschaften, Luft- und Raumfahrt, Mobilität, Additive Fertigung, Materialwissenschaften, Quantenforschung und Klimaforschung.
  • Prof. Stephan Günnemann ist auch Mitglied des Munich Center for Machine Learning (MCML). Das MCML ist eine gemeinsame Initiative von TUM und LMU. Das Zentrum besteht aus über 45 Forschungsgruppen und hat das Ziel, die Grundlagenforschung im Bereich des maschinellen Lernens, mit einem starken Bezug zu realen Anwendungen, voranzutreiben. Das MCML ist eine dauerhafte Forschungseinrichtung, die von der Bundesregierung und dem Freistaat Bayern finanziert wird. Es ist integraler Bestandteil der Deutschen KI-Strategie und der Hightech-Agenda Bayern.
  • Darüber hinaus ist Prof. Stephan Günnemann Direktor der 2022 gegründeten Konrad Zuse School of Excellence in Reliable AI (relAI). Sie ist eine gemeinsame Initiative der TUM und der LMU. Ziel des Graduiertenprogramms ist es, Masterstudierende und Promovierende in der Entwicklung zuverlässiger KI-Technologien zu schulen – einschließlich wissenschaftlicher Kenntnisse, Geschäftsexpertise und industrieller Erfahrung. Der Schwerpunkt der Forschung liegt dabei auf den Bereichen „safety“, „security“, „responsibility“ und „privacy“.

Technische Universität München

Corporate Communications Center

Kontakte zum Artikel:

Prof. Stephan Günnemann
Professur für Data Analytics and Machine Learning
s.guennemann@tum.de
https://www.cs.cit.tum.de/daml/startseite/

Aktuelles zum Thema

HSTS