• 23.8.2023
  • Lesezeit: 4 Min.

One Topic, One Loop: Jerry John Kponyo

Inklusion und verantwortungsvolle KI

In der dritten Ausgabe unserer globalen Diskursreihe „One Topic, One Loop“ befasst sich Prof. Jerry John Kponyo von der Kwame Nkrumah' University of Science and Technology (KNUST) in Ghana mit dem Konzept einer verantwortungsvollen Künstlichen Intelligenz. Er betont die Bedeutung ethischer, transparenter und inklusiver Ansätze, beschreibt, wie am Responsible AI Lab der KNUST afrozentrische Datensätze generiert werden und endet mit einer Frage an Prof. Sune Lehmann Jørgensen von der Technischen Universität Dänemark.

Illustration von Prof. Jerry John Kponyo (links) von der KNUST in Ghanaund seinem virtuellen Gesprächspartner Prof. Sune Lehmann Jørgensen von der Technischen Universität Dänemark.  Triplesense Reply
In der dritten Ausgabe von One Topic, One Loop befasst sich Jerry John Kponyo (links) von der KNUST in Ghana mit dem Konzept einer verantwortungsvollen KI und endet mit einer Frage an Prof. Sune Lehmann Jørgensen von der Technischen Universität Dänemark.

Künstliche Intelligenz (KI) berührt alle Aspekte des menschlichen Lebens. Sie hat enormen Einfluss auf unsere Arbeitswelt und macht uns produktiver, effizienter und effektiver. KI bringt jedoch auch eine Reihe unbeabsichtigter Folgen mit sich, darunter die Aufrechterhaltung bestehender Stereotype gegenüber Minderheiten und die einfache Verbreitung von Fehlinformationen. 

Die Notwendigkeit einer verantwortungsvollen KI

Um eine KI-Lösung zum Wohle der Allgemeinheit zu entwickeln, ist es wichtig, eine Reihe von Prinzipien zu berücksichtigen, die einen ethischen, transparenten und verantwortungsvollen Einsatz der Technologie in Übereinstimmung mit den Erwartungen der Nutzer:innen, den Werten des Unternehmens und den gesellschaftlichen Normen und Gesetzen gewährleisten. Für uns im Responsible AI Lab der KNUST bezieht sich verantwortungsvolle KI auf die Praxis des Designs, der Entwicklung und des Einsatzes von Künstlicher Intelligenz auf ethische Weise. Das bedeutet, dass sichergestellt werden muss, dass KI-Lösungen mit Integrität, Gerechtigkeit und Respekt für Individuen bereitgestellt werden, und dass die Entwickler:innen von KI-Lösungen stets die sozialen Auswirkungen dessen, was sie entwickeln, im Blick haben. Denn KI-Systeme sind grundsätzlich sozio-technisch. Dazu gehört auch der soziale Kontext, in dem sie entwickelt, eingesetzt und betrieben werden, mit seiner Vielfalt an Akteuren, Institutionen, Kulturen, Normen und Räumen. Zusammenfassend lässt sich also sagen: Verantwortungsbewusste KI ist auf den Menschen ausgerichtet.
Verantwortungsvolle KI versteht es die öffentliche Sicherheit zu erhalten, Schäden für Minderheiten zu verhindern und Chancengleichheit zu gewährleisten. Dies erfordert KI-Systeme, die zuverlässig und fehlerarm arbeiten, Risiken minimieren und potenziellen Schaden für Individuen und Gesellschaft verhindern. Darüber hinaus ist eine verantwortungsvolle Implementierung von KI von entscheidender Bedeutung, um die Verstärkung von Vorurteilen oder die Diskriminierung von Minderheitengruppen zu vermeiden und Fairness und Inklusivität zu fördern. Durch die Einhaltung ethischer Grundsätze und strenge Tests kann KI Vorurteile abmildern und gerechte Ergebnisse fördern.

Erstellen afrozentrischer Datensätze

Während MINT-Fachleute KI-Systeme entwickeln, ist verantwortungsbewusste KI ein multidisziplinäres Gebiet, das ein breites Spektrum von Akteuren erfordert. Informatiker:innen und Ingenieur:innen könnten sich auf die Entwicklung transparenter, fairer und vorurteilsfreier KI-Systeme konzentrieren, während Datenwissenschaftler:innen und Statistiker:innen die Datenintegrität sicherstellen und Methoden zur Bekämpfung von Vorurteilen entwickeln. 
Rechtsexpert:innen sind ebenso gefragt wie Sozial-, Wirtschafts- und Geisteswissenschaftler:innen sowie Kommunikations- und Cybersicherheitsexpert:innen. Nur multidisziplinär kann es gelingen, eine KI zu entwickeln, die der Gesellschaft nützt und gleichzeitig Schäden minimiert.

In unserem Responsible AI Lab liegt die Hauptpriorität auf der Erstellung afrozentrischer Datensätze und der Entwicklung von KI-Lösungen, die speziell auf den afrikanischen Kontinent zugeschnitten sind. Dieses Engagement entspringt der Erkenntnis, dass Afrika in der KI-Diskussion bisher zu wenig berücksichtigt wurde. Durch die Zusammenstellung von Datensätzen, die den vielfältigen afrikanischen Kontext genau repräsentieren, und die Entwicklung von KI-Lösungen, die direkt auf die einzigartigen Realitäten und Herausforderungen des Kontinents eingehen, wollen wir diese Lücke schließen und zu einem sinnvollen technologischen Fortschritt beitragen.

Generative KI verantwortungsvoll gestalten

Für eine verantwortungsvollere Gestaltung Generativer KI ist es wichtig, weitere Forschung zu fördern, die auf eine umfassende Bewertung ihrer Wirksamkeit in einer Reihe von Kontexten abzielt, darunter auch in kritischen Umgebungen wie Bildung und Gesundheit. Derzeit mangelt es an quantitativer Forschung zu den Auswirkungen Generativer KI auf Bildung, Lernergebnisse und ihr Potenzial zur Unterstützung von Menschen mit Lernschwierigkeiten. 
Die Festlegung ethischer Standards ist ein entscheidender Pfeiler für die verantwortungsvolle Entwicklung von KI-Technologien. Bei der Formulierung dieser Standards, die Bereiche wie Datenschutz, Vermeidung von Vorurteilen, Transparenz und Verantwortlichkeit umfassen, kommt der Zusammenarbeit zwischen lokalen Regierungen, Hochschulen, Industrievertreter:innen und internationalen Organisationen eine Schlüsselrolle zu. Auch die Bildung spielt eine zentrale Rolle bei der verantwortungsvollen Nutzung von KI-Systemen. Die ethische Anwendung von KI muss in die Lehrpläne integriert werden, und zwar parallel zur Vermittlung von technischen Fähigkeiten. Die Behandlung von Schlüsselaspekten wie Fairness, Verantwortlichkeit, Vertraulichkeit, Ethik, Transparenz und Sicherheit ist in allen Disziplinen unerlässlich.

An dieser Stelle möchte ich das Wort an Prof. Sune Lehmann übergeben mit der Frage, welche Datensätze wir brauchen, um eine verantwortungsvolle KI zu gewährleisten?
 

Globale Diskursreihe „One Topic, One Loop“

Vier Personen aus vier verschiedenen Ländern und von vier verschiedenen Universitäten diskutieren ein aktuelles Thema aus Forschung und Lehre. Die Serie beginnt mit einer Ausgangsfrage, auf die die erste Person antwortet und der nächsten Person eine weitere Frage zum gleichen Themenkomplex stellt. Die Reihe endet wieder mit der ersten Person, die die letzte Frage beantwortet – und abschließend alle vorangegangenen Antworten reflektiert. Das Thema der ersten Staffel sind Large Language Models und deren Einfluss auf Forschung und Lehre.

Unsere Autor:innen sind: Enkelejda Kasneci, Professorin für Human-Centered Technologies for Learning an der TUM School of Social Sciences and Technology, Aldo Faisal, Professor für KI und Neurowissenschaften am Imperial College London, Jerry John Kponyo, Associate Professor für Telecomunnications Engineering an der Kwame Nkrumah' University of Science and Technology und Sune Lehmann Jørgensen, Professor am Department für Applied Mathematics and Computer Science an der Technical University of Denmark.

Publikationen
  • P. Mikalef, K. Conboy, J. E. Lundström, and A. Popovič, “Thinking responsibly about responsible AI and ‘The dark side’ of ai,” European Journal of Information Systems, vol. 31, no. 3, pp. 257–268, 2022. doi:10.1080/0960085x.2022.2026621
  • V. Dignum, “The role and challenges of education for responsible ai,” London Review of Education, vol. 19, no. 1, 2021. doi:10.14324/lre.19.1.01
  • W. M. Lim, A. Gunasekara, J. L. Pallant, J. I. Pallant, and E. Pechenkina, “Generative AI and the future of education: Ragnarök or reformation? A paradoxical perspective from management educators,” The International Journal of Management Education, vol. 21, no. 2, p. 100790, Jul. 2023, doi: https://doi.org/10.1016/j.ijme.2023.100790
  • Su (苏嘉红)J. and Yang (杨伟鹏)W., “Unlocking the Power of ChatGPT: A Framework for Applying Generative AI in Education,” ECNU Review of Education, p. 209653112311684, Apr. 2023, doi: https://doi.org/10.1177/20965311231168423
Weitere Informationen und Links

Aktuelles zum Thema

HSTS