Katholisches Büro: KI darf nicht über Leben und Tod entscheiden
Das Katholische Büro Berlin fordert von der EU-Kommission eine strengere Regulierung von Systemen künstlicher Intelligenz, die Entscheidungen über Leben und Tod von Menschen treffen, sowie von KI-Systemen, die die Demokratie und ihre Werte gefährden. Die am Mittwoch veröffentlichte Stellungnahme des Kommissariats der deutschen Bischöfe zum Entwurf einer EU-Verordnung für Künstliche Intelligenz begrüßt die Pläne der EU-Kommission zwar grundsätzlich. Die Regulierung von Hochrisiko-Systemen wird jedoch als zu schwach erachtet. Bislang ist vorgesehen, dass Systeme mit besonders hohem Risiko grundsätzlich zulässig sind, solange sie besonderen Sicherheitsanforderungen genügen. Das Katholische Büro dagegen spricht sich für die Regelung aus, Hochrisiko-Systeme unter ein Verbot mit Erlaubnisvorbehalt zu stellen, das heißt, sie grundsätzlich zu verbieten und nur unter bestimmten Bedingungen zuzulassen.
HTML-Elemente (z.B. Videos) sind ausgeblendet. Zum Einblenden der Elemente aktivieren Sie hier die entsprechenden Cookies.
Insbesondere richtet sich die Kritik dagegen, dass Entscheidungen über Leben und Tod von Menschen wie bei der automatischen Priorisierung des Einsatzes von Not- und Rettungsdiensten lediglich als Hochrisiko-Systeme klassifiziert werden und nicht zu den verbotenen Systemen gezählt werden. "Maschinen können selbst keine ethischen Entscheidungen treffen; vielmehr erfolgt die Entscheidung aufgrund programmierter Abwägungsprozesse", heißt es in der Stellungnahme. Leben und Tod wären so nur Faktoren in einer Formel. "Damit wäre der Mensch nicht mehr das Ziel, sondern nur noch Objekt der Entscheidung und damit in seiner unantastbaren Menschenwürde verletzt", so die Eingabe weiter. Nur ein Mensch sei in der Lage, einen anderen Menschen nicht nur als Faktor, sondern in seinem sozialen Achtungsanspruch als Mensch und seiner Subjektstellung in Entscheidungsprozessen zu würdigen.
Das Katholische Büro vermisst außerdem ein Verbot von KI-Systemen, "die das Potential haben, erhebliche Schäden für die Gesellschaft als Ganzes, das Gemeinwesen, die Demokratie und insgesamt die Werte der Union zu verursachen". Als Beispiele werden Systeme genannt, "die spezifisch dafür programmiert werden, den öffentlichen Diskurs und die demokratische Meinungs- und Willensbildung einer Gesellschaft, etwa durch die Verbreitung von sog. Fake News, zu manipulieren, gesellschaftlich zu polarisieren und soziale Verwerfungen zu verursachen". Außerdem fordert die Stellungnahme eine größere Berücksichtigung von Umwelt- und Naturschutz.
Vatikan befasste sich bereits 2020 mit KI
Die Stellungnahme greift den "Rome Call for AI Ethics" der Päpstlichen Akademie für das Leben aus dem Jahr 2020 auf. Im Kontext der Veröffentlichung wies Papst Franziskus darauf hin, dass neue Technologien ein "Geschenk Gottes" seien, deren Risiken man aber beachten müsse. Im Rome Call heißt es, dass KI-Systeme […] so konzipiert, gestaltet und implementiert werden [müssen], dass sie dem Menschen und seiner Umwelt dienen und sie schützen." KI solle dazu beitragen, "Lebensbedingungen zu schaffen (sowohl gesellschaftlich als auch persönlich), die es sowohl der Gemeinschaft als auch den einzelnen Mitgliedern ermöglichen, sich so weit wie möglich zu entfalten", so der Aufruf weiter. Im selben Jahr mahnte die Kommission der Europäischen Bischofskonferenzen COMECE die Beteiligung der Kirchen bei der Entwicklung von KI-Regulierungen an.
Im April des vergangenen Jahres hatte die EU-Kommission einen Vorschlag für eine Verordnung "zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz" vorgelegt. Grundlegend für die geplante Regulierung ist die risikoorientierte Klassifizierung algorithmischer Systeme. Dazu werden bestimmte Praktiken wie unterschwellige Beeinflussung von Menschen, die Ausnutzung von Schwächen schutzbedürftiger Menschen oder "Social-Scoring"-Systeme ganz verboten. Für sogenannte Hochrisiko-KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen, stellt der Entwurf hohe Anforderungen unter anderem an Risiko-Management, Dokumentation, Transparenz und menschliche Aufsicht auf. (fxn)