KAIMo

Kann ein Algorithmus im Konflikt moralisch kalkulieren? (KAIMo)
Ethik und digitale Operationalisierung im Feld der Kindeswohlgefährdung

Ein Kooperationsprojekt von der Hochschule für Philosophie in München (HfPH) mit der Fakultät Informatik & Wirtschaftsinformatik der Technischen Hochschule für Angewandte Wissenschaften Würzburg Schweinfurt (THWS) und dem Institut für E-Beratung der Fakultät Sozialwissenschaften der Technische Hochschule Nürnberg Georg Simon Ohm (IEB). (2021 bis 2024, gefördert vom Bayerischen Forschungsinstitut für Digitale Transformation – bidt)


Zu folgenden Forschungsfragen versucht das Projekt Antworten zu finden:
Normen und Werte orientieren das Handeln von Menschen. In modernen Gesellschaften sollen auch soziale und politische Institutionen diesen Kriterien gerecht werden. Dies gilt umso mehr in sozialen Konflikten und moralisch aufgeladenen Situationen, in denen Menschen in kurzer Zeit und mit begrenzten Ressourcen ethisch wie rechtlich begründete Entscheidungen treffen müssen. Angesichts der technologischen Entwicklungen stellt sich die Frage, ob Künstliche Intelligenz (KI) hier künftig die menschliche Entscheidungsfindung unterstützen oder gar ersetzt kann

Im Projekt KAIMo wurde an der Schnittstelle von Philosophie, Informatik und Sozialer Arbeit am Beispiel des spannungsreichen Feldes des Kinderschutzes zunächst der Frage nachgegangen, ob eine Automatisierung ethischer Reflexionsprozesse gelingen kann und wie Entscheidungsprozesse künftig sinnvoll unterstützt werden können. Die Ergebnisse zeigen, dass eine Übersetzung ethischer Reflexionsprozesse in einen Algorithmus aufgrund der Kontextualität und Komplexität von Wertentscheidungen auch mit den neuen generativen Sprachmodellen (LLMs) bislang nur unzureichend möglich. Gleichzeitig zeigte sich das Potenzial dieser Technologie, wenn sie als Unterstützung und nicht als Ersatz der menschlichen Entscheidungsfindung bereitgestellt wird.

Anhand eines prototypischen KI-Modells wurden im Projekt zusammen mit Fachkräften aus bayerischen Jugendämtern verschiedene Funktionen getestet. Besonders entlastete und unterstützende Effekte zeigten sich bei Funktionen der automatisierten Strukturierung und Visualisierung von vorliegenden Fallinformationen. Aber auch die Bereitstellung von zusätzlichen (Fach-)Informationen und ethisch motivierter Reflexionsfragen sowie die Generierung von Hypothesen zum Fall wurde als Bereicherung bei der Bewertung des Sachverhaltes erlebt (vgl. Burghardt et al., 2024: https://www.reinhardt-journals.de/index.php/uj/article/view/157003/7009)

Durch den im Projekt KAIMo entwickelten Ansatz konnte eine verantwortungsvolle Balance zwischen innovativer Technologie und den (berufs-)ethischen Grundsätzen gefunden sowie die Erhaltung der menschlichen Steuerung und Kontrolle erreicht werden.

Weitere Publikationen

Lehmann, R., Burghardt, J. (2024, im Erscheinen): Die Akzeptanz von Künstlicher Intelligenz bei der Entscheidungsunterstützung in der Kinder- und Jugendhilfe. In: Macsenaere (Hg.): KI in der Kinder- und Jugendhilfe. Ernst Reinhardt Verlag

Koska, C., Prugger, J., Jörg, S., Reder, M. (2024, im Erscheinen): Die Verlagerung von Vertrauen vom Mensch zur Maschine: Eine Erweiterung des zwischenmenschlichen Vertrauensparadigmas im Kontext Künstlicher Intelligenz. Zeitschrift für Praktische Philosophie

Burghardt, J.; Lehmann, R.; Reder, M.; Koska, C.; Kraus, M.; Müller, N. (2024): Kann Künstliche Intelligenz sozialarbeiterische Entscheidungsprozesse unterstützen? In: unsere Jugend, 76.Jg., S. 300-310.
https://www.reinhardt-journals.de/index.php/uj/article/view/157003/7009

Reder, M., Koska, C. (Hrsg.): Künstliche Intelligenz und ethische Verantwortung. Transcript, Bielefeld, 7-22. https://www.transcript-verlag.de/978-3-8376-6905-3/kuenstliche-intelligenz-und-ethische-verantwortung/?number=978-3-8394-6905-7

darin enthalten:

  • Reder, M., Lehmann, R., Müller, N. (2024): Über das Verhältnis von Ethik und Algorithmen. Ein Problemaufriss.
  • Kraus, M., Burghardt, J., Koska, C. (2024): AI-assisted reflection in child welfare.
  • Burghardt, J., Lehmann, R. (2023): Künstliche Intelligenz und Kinderschutz. Zeitschrift Jugendhilfe 05/2023, 410-414

    Koska, C.; Reder M. (2023): „KI-gestützte Assistenz für moralische Konfliktsituationen, zur Algorithmisierung im Handlungsfeld der Kindeswohlgefährdung“ In: Grimm, Petra; Zöllner, Oliver (Hg.): „Medien – Ethik – Digitalisierung. Aktuelle Herausforderungen“, Schriftenreihe Medienethik, Band 20, Franz Steiner Verlag, 19-36

    Gutwald, R., Burghardt, J., Kraus, M., Reder, M., Lehmann, R., Müller, N. (2021): Soziale Konflikte und Digitalisierung Chancen und Risiken digitaler Technologien bei der Einschätzung von Kindeswohlgefährdungen. Ethik Journal 7 (2), 1-20. https://www.ethikjournal.de/fileadmin/user_upload/ethikjournal/Texte_Ausgabe_2021_2/Gutwald_u.a._Ethikjournal_2.2021.pdf