• 7.10.2019
  • Lesezeit: 3 Min.

Forschung zu ethischen Fragen in der Künstlichen Intelligenz

Startschuss für TUM Institut für Ethik in der KI

Die Technische Universität München (TUM) hat heute gemeinsam mit Staatsministerin Dorothee Bär, Beauftrage der Bundesregierung für Digitalisierung, das TUM Institute for Ethics in Artificial Intelligence eröffnet. Dabei wurden die ersten Forschungsprojekte an der Schnittstelle von Ethik und Künstlicher Intelligenz (KI) vorgestellt – von KI in autonomen Fahrzeugen bis zu Fragen der Regulation.

Staatsministerin Dorothee Bär, Beauftragte der Bundesregierung für Digitalisierung mit TUM-Präsident Thomas F. Hofmann (r.) und Prof. Christoph Lütge Andreas Heddergott / TUM
Staatsministerin Dorothee Bär, Beauftragte der Bundesregierung für Digitalisierung, hat gemeinsam mit TUM-Präsident Thomas F. Hofmann (links) und Prof. Christoph Lütge, Leiter des IEAI, das neue Institut für Ethik in der Künstlichen Intelligenz eröffnet.

Seit 2012 erforscht die TUM mit dem im Rahmen der Exzellenzinitiative 2012 eingerichteten Munich Center for Technology in Society (MCTS) die vielfältigen Wechselwirkungen von Wissenschaft, Technologie und Gesellschaft. Als Teil des MCTS konzentriert sich das TUM Institute for Ethics in Artificial Intelligence (IEAI) auf die ethischen Implikationen der Künstlichen Intelligenz. Ohne irgendwelche Auflagen und Erwartungen unterstützt das US-amerikanische Unternehmen Facebook die TUM-Initiative mit 6,5 Millionen Euro.

Bei dem heutigen Symposium zu Eröffnung des Institute for Ethics in Artificial Intelligence (IEAI) an der TUM sagte Staatsministerin Dorothee Bär, die Beauftragte der Bundesregierung für Digitalisierung: „Machine-Learning-Algorithmen bestimmen schon heute in Teilen, welche Nachrichten wir lesen – die Möglichkeiten gehen aber noch viel weiter wie etwa in der medizinischen Diagnostik. Aus diesen weitgreifenden technologischen Veränderungen ergeben sich auch viele ethische Fragen. Es ist gut, dass die TU München dazu beiträgt, diese zu beantworten.“

KI vertrauenswürdig machen

Mit dem IEAI will die TUM ihre traditionell starken Wissenschafts- und Technikdisziplinen mit den Geistes- und Gesellschaftswissenschaften zu einer Legion schmieden, um KI-basierte Technologien vertrauenswürdig und gesellschaftsfähig zu machen. „Als Technische Universität können wir nur dann wirksam zum gesellschaftlichen Fortschritt beitragen, wenn wir unsere technologischen Innovationen auf die Werte, Bedürfnisse und Erwartungen der Menschen ausrichten,“ sagte Prof. Thomas F. Hofmann, Präsident der TUM. „Dieser Leitgedanke eines Human-Centered Engineering durchdringt die künftige Handlungsagenda der TUM in Forschung, Innovation und der Ausbildung unserer Studierenden.“ Deshalb kooperieren im IEAI Forschertalente aus Medizin, Natur- und Ingenieurwissenschaften gemeinsam mit den Sozial- und Ethikwissenschaften in interdisziplinären Teams. Mit einer Förderhöhe von insgesamt rund 2,3 Millionen Euro gibt die TUM nun den Startschuss für die ersten Forschungsprojekte:

Theorien aus der Ethik sollen in Algorithmen übersetzt und in Programme integriert werden, um die Fahrtrichtung und die Geschwindigkeit autonomer Fahrzeuge an aktuelle Situationen anpassen, um zum Beispiel bei unvermeidbaren Kollision mit Menschen ethisch vertretbare Entscheidungen zu treffen. Die erweiterten Programme werden anhand von bekannten und neuen Szenarien im Simulator getestet und evaluiert.

Dieses Projekt untersucht, ob es möglich und sinnvoll ist, mit Ansätzen des Maschinellen Lernens Ärztinnen und Ärzten Hilfestellung bei wichtigen Entscheidungen im Klinikalltag zu bieten, zum Beispiel bei der Entscheidung für oder gegen ein Medikament.

Negative Informationen wie „Hate Speech“ oder „Fake News“ breiten sich in den Sozialen Medien mitunter wie ein Flächenbrand aus. Dabei spielen vermutlich die jeweiligen KI-Algorithmen der Plattformen eine entscheidende Rolle. Deshalb sollen nun die Dynamiken solcher Meinungsbildung mathematisch modelliert werden, um diese besser zu verstehen und Fragen der Verantwortung für solche „Flächenbrände“ und mögliche Kontrollmechanismen zu erforschen.

Das Projekt erforscht, ob sich mithilfe von KI-automatisierten, personalisierten Interventionen Täterinnen und Täter dazu bewegen lassen, ihr Verhalten beim Verbreiten von „Fake News“ zu ändern. Untersucht werden ethische und psychologische Fragen sowie Themen des Datenschutzes und der Privatsphäre der Betroffenen.

Das Projekt untersucht Lösungsvorschläge für die Regulierung und die Zertifizierung von KI-basierten Programmen anhand ihrer gesellschaftlichen und technischen Handhabbarkeit. Daraus sollen konkrete Handlungsempfehlungen für Gesellschaft und Politik sowie Anforderungen an die Technik entwickelt werden, um der Gesellschaft mehr Kontrollmöglichkeiten und Vertrauen zu geben.

Die beim Betrieb vernetzter Fertigungsanlagen (Industrie 4.0) erfassten Daten ermöglichen die Optimierung von Prozessabläufen in Echtzeit. Für Arbeitskräfte kann daraus jedoch ein Gefühl permanenter Überwachung entstehen. Das Projekt untersucht ethisch problematische Aspekte der Verwendung von KI und versucht, Algorithmen zu entwickeln, die die Produktionsprozesse für den arbeitenden Menschen mit seinen Stärken, Schwächen und Bedürfnissen optimieren, statt den Menschen den technischen Bedürfnissen der Produktionsprozesse unterzuordnen.

Technische Universität München

Corporate Communications Center

Aktuelles zum Thema

HSTS