Künstliche Intelligenz und Christliche Soziallehre

Die globale Zivilgesellschaft braucht digitale Verantwortung.

von Prof. Dr. Dr. Ulrich Hemel

Für die ethisch fundierte Nutzung von Daten müssen einige grundlegende Fragen eine Antwort finden. Die Christliche Sozialethik muss ihre Diskursfähigkeit wiedergewinnen.

Durch die Europäische Datenschutzgrundverordnung vom
25. Mai 2018 hat sich die EU an die Spitze überstaatlicher Regelwerke zum Umgang mit Daten gesetzt. Darüber hinaus hat sie einen Versuch zur Regulierung von künstlicher Intelligenz (KI) vorgelegt und KI-Anwendungen in die Risikoklassen I bis IV eingruppiert. Denn in der Zwischenzeit hat sich die Ethik der künstlichen Intelligenz zu einem eigenen Forschungszweig entwickelt. Dabei haben sich die Begriffe „Artificial Intelligence“ oder „künstliche Intelligenz“ zwar sprachlich durchgesetzt. Sie beziehen sich aber im Grunde auf verschiedene Facetten des „Machine Learnings“, d. h. der technischen Nutzung selbstlernender Systeme. Solche Systeme benötigen Trainingsdaten und „lernen“ anhand dieser Daten. Genauer gesagt: Sie optimieren den Rechenpfad, um vorab festgelegte Zwecke zu verfolgen.

Sind die Trainingsdaten unvollständig oder bilden nur einen Ausschnitt der Realität ab, dann besteht grundsätzlich die Gefahr einer Verzerrung oder Diskriminierung. Wenn eine Gesichtserkennungssoftware nur mit den Gesichtern junger weißer Frauen trainiert, wird sie nicht gut geeignet sein für die Erkennung älterer schwarzer Männer und umgekehrt. In einem solchen Fall muss die Software korrigiert, also durch einen normativ begründeten Eingriff abgeändert werden.

Die meisten KI-Anwendungen stellen wenig problematische technische Erleichterungen im beruflichen Alltag dar, so etwa VR-Brillen, bei denen über „Virtual Augmented Reality“ Daten eingeblendet oder besser sichtbar dargestellt werden. Da aber das Problem der Datenverzerrung, der Unvollständigkeit, der möglichen Diskriminierung und des korrigierenden Eingriffes bei keiner Anwendung völlig ausgeschaltet werden kann, stellen sich zahlreiche ethische und sozialethische Fragen rund um KI. Die Christliche Soziallehre kann in diesem Zusammenhang wiederentdeckt werden und wertvolle Hilfestellungen geben. Dabei geht es immer wieder um den verantwortlichen Umgang mit Daten.

Vier Leitfragen zur ethisch fundierten Datennutzung

Interessant ist die 2021 veröffentlichte European Data Literacy Chart. Es handelt sich dabei um den Versuch, umfassend mit der Thematik ethisch fundierter Nutzung von Daten umzugehen. Dabei wurden folgende, leicht verständliche Leitfragen formuliert:

> Was kann ich mit Daten tun?
> Was will ich mit Daten tun?
> Was soll ich mit Daten tun?
> Was darf ich nicht mit Daten tun?

Der Umgang mit KI löst dennoch gesellschaftliche Ängste und Sorgen aus, nicht nur mit Blick auf Diskriminierung oder auf die Beherrschbarkeit digitaler Programme, sondern auch vor dem Entstehen einer „Superintelligenz“ oder der Unterdrückung der Menschheit durch eine kleine Gruppe von Machthabern.

Eine Ethik der künstlichen Intelligenz

Um solche kritischen Aspekte besser zu berücksichtigen, wird inzwischen die Berücksichtigung ethischer Werte und sozialer Folgen digitaler Programme schon bei deren Planung und Programmierung gefordert. Gefordert wird die Einhaltung von Prinzipien wie Verantwortung (accountability), Werteorientierung (alignment), Erklärbarkeit (explainability), Vertrauenswürdigkeit (reliability), Datenrechte der Nutzer und Nutzerinnen (User Data Rights) und Fairness (fairness). Unklar ist, wer letztlich für datenbezogene Risiken und Haftungsfragen verantwortlich ist: der einzelne Entwickler, die beteiligte Firma oder das Land mit der entsprechenden Rechtsprechung? Ethische Fragen gehen hier in Haftungsfragen über, auf die nicht zuletzt die Gesetzgebung reagiert.

Im Rahmen einer Ethik der KI geht es zwar meistens um Forschung und technische Entwicklung sowie um unternehmensethische Fragen. Diese werden neuerdings immer wieder mit generellen, gesellschaftskritischen Erwägungen zum digitalen Kapitalismus, zur digitalen Überwachung und zur Sozialkontrolle durch Großkonzerne verbunden. Daraus entsteht ein weites Feld eher gesellschaftskritischer Erwägungen zu einer digital transformierten Gesellschaft oder ein „digitaler Humanismus“.

Der Beitrag der christlichen Sozialethik

Die Christliche Sozialethik könnte in diesem Zusammenhang zu neuer Blüte gelangen. Hilfreich ist allein schon die Unterscheidung zwischen einer digitalen Individualethik, einer digitalen Institutionen- und Unternehmensethik sowie einer digitalen Sozialethik für KI. Bei dieser sollte es um die Gesamtgesellschaft speziell beim normsetzenden Handeln von Staaten, Gesetzgebern und Regulierern gehen. Das Prinzip der Personalität spiegelt sich beispielsweise in den Forderungen nach Menschenwürde, digitaler Souveränität und digitaler Teilhabe. Das Prinzip der Subsidiarität sucht den richtigen Ort der Verantwortung und lässt sich nicht zuletzt über den Begriff der digitalen Fairness“ als Ziel digital handeln- der Unternehmen und Institutionen begreifen. Digitale „Solidarität“ wiederum stellt das gesetzgeberische Handeln von Staa- ten unter den Begriff des Gemeinwohls. So will die EU mit der geplanten „Digital Markets Act“ etwa die Machtkonzentration bei Digitalkonzernen einschränken. Eine ähnliche Ausrichtung an ethischen Mindeststandards in der Gesellschaft soll durch News und Hatespeech erreicht werden. Erforderlich ist aber auch aktives gesellschaftliches Handeln, etwa im Bildungsbereich. Dort geht es nicht nur um digitale Teilhabe, sondern auch um den nötigen ethischen Kompass im Sinn der Leitfragen: „Wer bin ich in der digitalen Welt?“ und „Wie handle ich in der digitalen Welt“?

Aktives gesellschaftliches Handeln braucht digitale Teilhabe und einen ethischen Kompass

In der Praxis hat sich ein Prüfverfahren bewährt, das von einer am Tübinger Weltethos-Institut entwickelten ethischen Toolbox ausgeht (siehe Abbildung). In einem ersten Schritt wird geprüft, welche Werte in welcher Priorisierung hinter einem Verfahren oder einem zu prüfenden Vorgang stehen. Ein zweiter Schritt bezieht diese Werte auf übergreifende Prinzipien, etwa den Maßstab der Humanität. Anschließend wird technisch und gesellschaftlich nach den monetären, sozialen, ökologischen und sonstigen Folgen in kurz-, mittel- und langfristiger Betrachtung gefragt (Folgenabschätzung). Die Betrachtung des Nutzen-Risiko-Profils einer Anwendung oder eines Vorgangs in wirtschaftlicher, juristischer und sozialer Hinsicht runden den Einsatz der ethischen Toolbox ab.

Das Ziel digitaler Verantwortung in der globalen Zivilgesellschaft umfasst nicht nur eine ethische Sprachfähigkeit rund um künstliche Intelligenz, sondern erfordert auch eine Wiedergewinnung der Diskursfähigkeit der Christlichen Soziallehre. Die Grundlagen dafür sind vorhanden. In die gesellschaftliche Wirklichkeit umsetzen müssen wir sie aber selbst. Und da liegt noch ein erheblicher Weg vor uns!

Der Autor

Prof. Dr. Dr. Ulrich Hemel ist Bundesvorsitzender des BKU und Direktor des Weltethos-Institutes in
Tübingen. Der Theologe ist Gründer des Institutes für Sozialstrategie und in unterschiedlichen Funktionen unternehmerisch tätig. Seine Forschungs- und Arbeitsschwerpunkte sind Ethik in Unternehmen, Wirtschaftsanthropologie sowie Ethik der künstlichen Intelligenz. Im Jahr 2020 erschien sein Buch
„Kritik der digitalen Vernunft. Warum Humanität der Maßstab sein muss“. Foto: Daniel Hemel

Bund Katholischer Unternehmer e.V.
Georgstr. 18 // 50676 Köln

E-Mail: service@bku.de
Telefon : 02 21 / 272 37 - 0
Dresden Görlitz Leipzig Magdeburg Berlin/ Brandenburg Mecklenburg Vorpommern Hamburg Hannover/Hidesheim Passau Regensburg München Freiburg Stuttgart Saar/ Trier Kurpfalz Augsburg Eichstätt Würzburg Bamberg Aschaffenburg Rhein-Main Fulda Koblenz Aachen Düsseldorf Köln Bonn Ruhrgebiet Paderborn Münster Osnabrück Erfurt