Standpunkt

Diskriminierung durch Künstliche Intelligenz muss verhindert werden

Veröffentlicht am 25.03.2022 um 00:01 Uhr – Lesedauer: 

Bonn ‐ Technik ist nie neutral, sondern immer ein Spiegelbild der gesellschaftlichen Wirklichkeit, mahnt Agnes Wuckelt in ihrem Standpunkt. Deshalb brauchten gerade algorithmische Systeme dringend eine Kontrolle gegen Diskriminierung.

  • Teilen:

HTML-Elemente (z.B. Videos) sind ausgeblendet. Zum Einblenden der Elemente aktivieren Sie hier die entsprechenden Cookies.

"Endlich sprechen alle miteinander" – dieser Titel in einer Zeitung weckt Interesse. Mal eine gute Nachricht? Doch es geht weder um das Miteinandersprechen von Kriegsgegnern noch um das von Vertreter*innen der Religionen; beides so notwendig. Es geht um "lernfähige Maschinen", die in Verbindung mit großen Mengen an Dateien und in hoher Vernetzung miteinander sprechen können. Weltkonzerne bemühen sich derzeit mit je gleichen Mitspracherechten um eine inklusive Technik-Entwicklung. Ein Traum wird Wirklichkeit – und belebt den Handel.

Was etwa zur Begeisterung über perfekt miteinander kommunizierende Haushaltsgeräte führt, lässt jedoch aufhorchen. Zum einen stellt uns die Nachvollziehbarkeit von Künstlicher Intelligenz (KI) vor große Herausforderungen: Die Technologien kommen unabhängig vom Entwicklungsstand immer mehr zum Einsatz, die großen KI-basierten Plattformen schützen sich durch IT-Sicherheitsrecht vor der Kontrolle.

Und die braucht es dringend! Erst kleinere und größere Skandale machen auf das Problem einer algorithmischen Diskriminierung von Menschen aufgrund ihrer Hautfarbe oder ihres Geschlechts aufmerksam. Verstärkt warnen die Antidiskriminierungsstelle des Bundes und zivilgesellschaftliche NGOs vor den Risiken, die zum Beispiel automatische Bewertungssysteme von Stellenbewerbungen durch große Konzerne beinhalten. Und dass Foto-Apps People of Color als Gorillas zu erkennen meinen.

Ursache ist das Datenmaterial, von dem die Technologie lernt. Es ist ein Spiegelbild einer gesellschaftlichen Wirklichkeit, in der immer noch in bestimmten Bereichen Frauen* und People of Color benachteiligt sind. Technik ist nie neutral. Damit algorithmische Systeme gerechte Entscheidungen treffen können, braucht es Daten, die die Vielfalt von Menschen zeigen. Es liegt in unser aller Verantwortung, den Einsatz von Technologien kritisch zu reflektieren und die moralischen Herausforderungen, die sie an uns stellen, in den Blick zu nehmen.

Von Agnes Wuckelt

Die Autorin

Agnes Wuckelt ist emeritierte Professorin für Praktische Theologie und stellvertretende Bundesvorsitzende der Katholischen Frauengemeinschaft Deutschlands (kfd).

Hinweis

Der Standpunkt spiegelt ausschließlich die Meinung der Autorin bzw. des Autors wider.