Theologin: Nicht nur KI ist riskant, sondern auch Strukturen dahinter
Werden Computer einst umfassend klüger sein als Menschen? Diese Frage stellt sich, seit die Künstliche Intelligenz (KI) ChatGPT selbst Texte aufgrund von Wahrscheinlichkeiten schreiben kann und dadurch schon erste Arbeitsplätze vernichtet hat. Welche ethischen Normen muss es geben? Die Theologin Anna Puzio arbeitet an der Universität Twente in den Niederlanden zu Themen um die Ethik sozial-disruptiver Technologie. Im Interview spricht sie über vorhandene Ansätze und das Menschen- wie Gottesbild der Zukunft.
Frage: Durch ChatGPT ist das Thema KI verstärkt in den Fokus der Öffentlichkeit gerückt. Gleichzeitig gibt es aber auch erste Warnschüsse: Die Entwicklerfirma OpenAI will Vorkehrungen treffen, damit eine mögliche Superintelligenz nicht schädlich für den Menschen wird, auch die Europäische Union arbeitet an einem Regulierungsplan. Für wie relevant halten Sie das Thema Regulierung?
Puzio: Ein KI-Hype, wie er nun entstanden ist, sorgt für ein gesellschaftlich sehr starkes Orientierungsbedürfnis. Die Menschen haben viele Fragen: Wie geht es jetzt weiter? Welche Fähigkeiten kann KI erlangen und wie können und sollen wir sie regulieren? Es geht um Ethik und verantwortungsvolle Gestaltung. Das betrifft ganz unterschiedliche Themen: Autonomie der Maschine, Diversität und Diskriminierung, Gerechtigkeit, der Zusammenhang mit der menschlichen Arbeit. Denn es werden Tätigkeitsfelder verschwinden und neue entstehen. Genau wegen diesen Herausforderungen gilt es, zu regulieren. Der Möglichkeit einer Künstlichen Superintelligenz jedoch stehe ich kritisch gegenüber.
Frage: Es wurde schon geschrieben, die KI würde ähnlich große Umwälzungen nach sich ziehen wie die Industrialisierung. Sehen Sie das auch so?
Puzio: Ja, es ist auf jeden Fall eine sehr große Umwälzung. Da geht es aber nicht nur um KI, sondern auch andere Technologien wie die Robotik beispielsweise. Beide Entwicklungen laufen parallel und beeinflussen sich gegenseitig. Dazu kommen neue naturwissenschaftliche Erkenntnisse. All das wird zu immensen Umwälzungen führen.
Frage: Deshalb gibt es bereits zahlreiche Ansätze für eine Ethik der KI. So hat zum Beispiel die Päpstliche Akademie für das Leben den "Rome Call for AI Ethics" mitentwickelt, dazu kam vergangene Woche das Dokument "Ethics in the Age of Disruptive Technologies: An Operational Roadmap". Auch die EU arbeitet an einer Regulierung. Wie sehen Sie diese verschiedenen Ansätze?
Puzio: Man muss diese Ansätze unterscheiden: Da ist zunächst einmal die Politik, die Regeln und Verbote aufstellen will. Daneben gibt es religiöse Träger und die theologische Forschung, die etwa christliche Leitgedanken einbringen wollen. Beide Ansätze ähneln sich sehr stark, unterscheiden sich jedoch in ihren Perspektiven. Die EU dagegen schaut auf Risikofaktoren wie Gesichtserkennung im öffentlichen Raum oder KI, die Menschen nach sozialem Verhalten und anderen Merkmalen klassifiziert. Beides soll verboten werden. Theologie und Kirche könnten den Fokus auf das Menschenbild und den Einsatz gegen Diskriminierung richten. Was allen gemeinsam ist, ist der Fokus auf Selbstverpflichtungen, mit denen die Unternehmen ethische Grundsätze umsetzen sollen.
Frage: Ist das ein guter Ansatz?
Puzio: Die Selbstverpflichtung ist wichtig, auch den Unternehmen selbst. Das ist natürlich auch eine Geschäftsstrategie, es geht nicht nur um Ethik, sondern dass Produkte verkauft werden. Dafür braucht es Vertrauen. Es ist aber auch generell sinnvoll zu sagen, dass Unternehmen Verantwortung übernehmen, auch als Institution und nicht als Einzelpersonen. Dennoch kann man die Verantwortung natürlich nicht komplett abgeben. Auch da braucht es rechtliche Regulierungen, auch Verbote. Denn riskant ist am Ende nicht nur die Technik, sondern eine große Macht geht von denen aus, die sie beherrschen – also ein kleines mächtiges Häuflein an Tech-Unternehmen und Großinvestoren, die alle ihre eigenen geschäftlichen und finanziellen Interessen haben. Da spielt auch die Warn-Funktion mit hinein. Es ist kein Zufall, dass gerade die Entwickler-Firma von ChatGPT vor den Gefahren ihres eigenen Produkts warnt – sie will natürlich auch die Vorsorgemechanismen in der Hand behalten und verkaufen. Das ist also alles Teil des Marketings. Deshalb sind ethische und rechtliche Grundsätze aus der Gesellschaft notwendig – und das möglichst frühzeitig. Sonst wird jeder Normenkatalog von der technischen Entwicklung überholt.
Frage: Diese technische Entwicklung erobert unseren Alltag immer schneller, auch etwa in Form von Service- oder Pflegerobotern mit KI. Was bedeuten solche Entwicklungen denn für unser Bild des Menschen?
Puzio: KI wird heute vor allem als eine besondere Form von Intelligenz verstanden, als analytische, technisch agierende Intelligenz. Wegen der Entwicklerteams ist ein westliches Intelligenzverständnis vorherrschend. Soziale oder emotionale Intelligenz stehen weniger im Vordergrund. Das prägt natürlich unser Verständnis von Intelligenz.
Letztlich ist es so, dass sich das Menschenverständnis ständig verändert. Schon seit Jahrhunderten verhandeln wir im Angesicht von Technologien neu, was Menschsein bedeutet. Früher war es zum Beispiel die Erfindung der Uhr, heute sind es KI und humanoide Roboter.
Dazu gehört auch, dass die Technik unser Handeln beeinflusst. Wir treffen Entscheidungen nicht unabhängig von Technik, sondern mit ihr, etwa in der Medizin. Das heißt nicht, dass wir deswegen nicht mehr autonom sind oder nicht mehr normal Entscheidungen treffen können, aber es gibt eine Beeinflussung. Es liegen vielfältige Chancen in der Mensch-Maschine-Interaktion, etwa in Sozialen Robotern. Die können im Bereich der Therapie, für Kinder im Krankenhaus oder die Bedürfnisse von Menschen mit Autismus programmiert werden. Gleichzeitig besteht im Umgang mit diesen vulnerablen Gruppen wieder die Gefahr der Manipulation.
Frage: Wenn unser Bild vom Menschen immer wieder angepasst werden soll, gilt das auch für unser Gottesbild angesichts der Superintelligenz?
Puzio: Im ganzen Technikdiskurs tauchen zahlreiche religiöse Motive auf. Da geht es um Allwissenheit, den Schöpfungsgedanken und Heilsvorstellungen. Das wird auch Einfluss auf die Religion haben. Wir sehen das schon an KI-Elementen in der Religion. Da gibt es Roboter, die in manchen buddhistischen Tempeln Zeremonien streamen oder KI-Tools in christlichen Gottesdiensten. Auch etwa in der Trauerarbeit haben wir durch digital erstellte Avatare von Verstorbenen schon Ansätze einer von KIbegleiteten Religiosität. Es kann also durchaus sein, dass die technische Entwicklung auch Einfluss auf unser Gottesbild haben wird.
Frage: Wenn man das alles zusammenfassend betrachtet, auch mit den politischen und ethischen Bestrebungen, die es für KI bereits gibt: Was fehlt Ihnen da noch?
Puzio: Ich sehe eine Gefahr in der großen Polarisierung um das Thema. Es gibt in der Gesellschaft sehr starke Ablehnung auf der einen Seite und Euphorie auf der anderen Seite, da fehlt ein Mittelweg. Es geht nicht darum, uns vor der Superintelligenz zu beschützen – was immer das auch sein soll. Es geht auch nicht nur um Risiken, sondern darum, verantwortungsvoll zu gestalten. Das machen wir uns durch eine Polarisierung kaputt. Dazu gehören auch die leiseren Stimmen in der weltweiten Gesellschaft. Bislang ist KI vor allem ein weißes, westliches Projekt. Es fehlen die Perspektiven von Menschen mit verschiedenen sozialen und kulturellen Hintergründen, der Blick auf viele Geschlechter und Menschen mit Behinderungen. Das würde ich auch als Aufgabe der Theologie sehen, eben dieses offene dynamische Menschenverständnis in die Debatte einzubringen.