• 10.8.2023
  • Lesezeit: 3 Min.

Globale Diskursreihe „One Topic, One Loop“: Aldo Faisal

Die Bedeutung eines transdisziplinären Wissens über KI

Vier Länder, vier Universitäten, vier Perspektiven: In der globalen Diskursreihe „One Topic, One Loop“ diskutieren vier Professor:innen ein aktuelles Thema aus Forschung und Lehre. Auf die Frage von Enkelejda Kasneci antwortet Aldo Faisal, Professor für KI und Neurowissenschaften am Imperial College London. Wie können insbesondere Erkenntnisse aus den Neurowissenschaften dazu beitragen, zwischen den von einer KI erzeugten Äußerungen und denen von Menschen zu unterscheiden?

Aldo Faisal, Professor am Imperial College London, spricht über KI und Neurowissenschaften. Auf seine abschließende Frage zum Thema antwortet John Jerry Kponyo, Professor für Telecommunications Engineering an der Kwame Nkrumah' University of Science and Technology Triplesense Reply
Aldo Faisal, Professor am Imperial College London, spricht über KI und Neurowissenschaften. Auf seine abschließende Frage zum Thema antwortet John Jerry Kponyo, Professor für Telecommunications Engineering an der Kwame Nkrumah' University of Science and Technology.

Neurowissenschaftliche Ansätze haben in der KI-Forschung von Anfang an eine bedeutende Rolle gespielt. Sieht man von den Irrungen der logikbasierten KI ab, so lassen sich bereits in den 40er und 50er Jahren Ideen zur Zuverlässigkeit denkender Maschinen und deren Implementierung mittels Neuronen von Alan Turing und Frank Rosenblatt nachweisen.

Heute haben wir KI-Systeme wie Bard oder ChatGPT, die en passant den Turing-Test bestanden haben. Sie zeigen gerade in ihren Fehlern menschliche Züge, etwa, wenn eine KI Wissen „halluziniert“, wie es Informatiker:innen heute nennen, ChatGPT also plausibel klingende Antworten auf Fragen frei erfindet. In den kognitiven Neurowissenschaften bezeichnen wir das entsprechende Phänomen beim Menschen als “Konfabulation”. Diese KI-Systeme werden rapide weiterentwickelt und werden sich selbst weiterentwickeln. Wir sind also bereits seit geraumer Zeit in einem Wettbewerb zwischen Entwickler:innen, welche KI-Systeme eine immer menschenähnlichere Kommunikation ermöglichen, und denen, die immer bessere (KI)-Systeme bauen, um KI Äußerungen zu erkennen.

In den Neurowissenschaften sehen wir durchaus Merkmale unserer biologischen Intelligenz, die (vorerst) nicht von einer Maschine erfahren werden können. Da sind etwa die persönlichen sensorischen Erfahrungen, die nicht digital, sondern analog und unmittelbar mit unseren Sinnen eingefangen werden: Das Gespräch unter Menschen, der Konzert- oder Theaterbesuch werden wichtiger und hoffentlich stärker in den Vordergrund treten. Ein anderer wichtiger Aspekt, der für unsere menschliche Intelligenz als maßgeblich angesehen wird, ist die des Embodiments, also der Tatsache, dass sich unsere Intelligenz in einem Körper entwickelt, und nur durch den Körper mit der Welt interagieren kann. Diese Körperbezogenheit setzt unserer Intelligenz physische, aber auch zeitliche Grenzen, die unsere Erzeugnisse prägen.

Wissen schafft Vertrauen

Gesellschaftlich wird mit jeder Entwicklung die Frage virulenter, welche Tätigkeiten automatisiert werden sollen und welche nicht. In der Medizin haben sich KI-Systeme in der Diagnostik als besser, schneller und präziser erwiesen als menschliche Expert:innen. Mit unserem sogenannten AI Clinician, der derzeit in vier Londoner Krankenhäusern evaluiert wird, arbeiten wir daran, dies auch in der digitalen Therapeutik umzusetzen. Wir sehen solche Systeme in Zukunft als Mitglieder eines Teams, in dem sich Mensch und KI gegenseitig ergänzen und so Zeit und Kapazitäten freisetzen.

Für all das ist Vertrauen wichtig - und hier liegt auch ein Auftrag für die Lehre: Nur wer verstanden hat, wie eine Technologie funktioniert, wer ihre Grenzen und Möglichkeiten kennt, kann ihr letztlich vollständig vertrauen. Das bedeutet, dass wir quer über die Disziplinen ein grundlegendes KI-Verständnis vermitteln müssen. Ich freue mich, dass ich im Laufe der Jahre einen KI-Masterstudiengang ins Leben gerufen habe, der für Studierende aller Fachrichtungen weiterführende Kurse anbietet.

Eine der großen Fragen, die uns in diesen Seminaren beschäftigt, ist die einer verantwortungsvollen KI - und die möchte ich an Jerry John Kponyo weitergeben: Wie kann eine KI Verantwortung lernen und welche Disziplinen sind hier besonders gefragt?

Globale Diskursreihe „One Topic, One Loop“

Vier Personen aus vier verschiedenen Ländern und von vier verschiedenen Universitäten diskutieren ein aktuelles Thema aus Forschung und Lehre. Die Serie beginnt mit einer Ausgangsfrage, auf die die erste Person antwortet und der nächsten Person eine weitere Frage zum gleichen Themenkomplex stellt. Die Reihe endet wieder mit der ersten Person, die die letzte Frage beantwortet – und abschließend alle vorangegangenen Antworten reflektiert. Das Thema der ersten Staffel sind Large Language Models und deren Einfluss auf Forschung und Lehre.

Unsere Autor:innen sind: Enkelejda Kasneci, Professorin für Human-Centered Technologies for Learning an der TUM School of Social Sciences and Technology, Aldo Faisal, Professor für KI und Neurowissenschaften am Imperial College London, Jerry John Kponyo, Associate Professor für Telecomunnications Engineering an der Kwame Nkrumah' University of Science and Technology und Sune Lehmann Jørgensen, Professor am Department für Applied Mathematics and Computer Science an der Technical University of Denmark.

Weitere Informationen und Links

Aktuelles zum Thema

HSTS