Auf dem Foto ist vor dunkelrotem Hintergrund die Autorin Thuy-An Nguyen zu sehen.
Foto: Kim Nguyen

Warum wir uns nicht den Algorithmen der mächtigen Tech-Konzerne ausliefern dürfen

Googles Algorithmen sind hochproblematisch – unsere Kolumnistin beschreibt, wie Künstliche Intelligenz Rassismus und Sexismus verfestigt.

Eine Bekannte erzählte mir vor einiger Zeit, wie genervt sie über diese ständigen Fragen sei: „Kann ich deine Haare anfassen? Kannst du eigentlich auch Sonnenbrand bekommen?“ Als Antwort auf solche Fragen hat sie sich mittlerweile diesen Satz zurechtgelegt: „Google’ das doch einfach mal.“

Genau diesen Satz höre ich in letzter Zeit immer häufiger von Leuten, die sich feministisch oder rassismuskritisch engagieren. Doch je häufiger ich ihn höre, desto mulmiger wird mir dabei. Denn die Algorithmen von Google sind höchst problematisch.

Zu dieser Erkenntnis kam die Informationswissenschaftlerin Safiya U. Noble, als sie im Jahr 2010 bei Google eine Suchanfrage mit den Begriffen „black girls“ eingab. Als Ergebnis erhielt sie fast ausschließlich pornografische Darstellungen oder Inhalte. Gleiches trat auf Suchanfragen wie „latin girls“ oder „asian girls“ zu.

Als ich die Begriffe in die Suchmaschine eingab, zeigte sich: Google hat nur zum Teil nachgebessert. Lediglich bei „black girls“ werden nur noch wenige degradierende Ergebnisse angezeigt. Bei anderen Frauen of Color reproduziert die Suchmaschine nach wie vor fast ausschließlich stereotype Darstellungen und verfestigt auf diese Weise Rassismus und Sexismus. Eine deutschsprachige Suche mit dem Begriff „Frau“ ergibt zudem mehrheitlich Bilder von weißen Frauen. Frauen of Color werden nicht gezeigt, also offenbar nicht mitgedacht.

Besonders hohe Fehlerquote bei Schwarzen Frauen

Diskriminierende Algorithmen beschränken sich keineswegs auf die Suchmaschine von Google. Sie finden sich bei etlichen Anwendungen, die mit Hilfe von Künstlicher Intelligenz (KI) arbeiten. Das zeigte etwa eine Studie von Joy Buolamwini, Informatikerin am Massachusetts Institute of Technology (MIT) in Cambridge. Darin wies sie nach: Software-Programme zur Gesichtserkennung von kommerziellen Marktanbietern wie Microsoft oder IBM weisen eine besonders hohe Fehlerquote bei Schwarzen Frauen auf – und zwar bis zu 35 Prozent. Bei weißen Männern dagegen lag der durchschnittliche Wert lediglich bei 0,8 Prozent.

Buolamwini zufolge wurden die KI-Systeme mit unzureichenden Daten von Schwarzen Frauen gefüttert. Somit sind die verwendeten Datensätze verzerrt und taugen nur dazu, weiße Männer zuverlässig zu erkennen. Wir sollten keinen Hehl daraus machen: Sollte diese Art von Software bei Polizei oder bei Sicherheitskontrollen an Flughäfen zum Einsatz kommen, kann dies gravierende Folgen haben.

Mythen rund um Künstliche Intelligenz

Anwendungen, die auf Künstlicher Intelligenz basieren, sind in unserem Alltag längst Normalität geworden. Seien es Suchmaschinen, Sprachassistent*innen oder Newsfeeds. Sie beeinflussen unser Leben bis ins kleinste Detail. Umso wichtiger ist es, dass wir damit anfangen, den Hype um Künstliche Intelligenz zu entmystifizieren. Das Vertrauen, KI fördere gesellschaftlichen Fortschritt und Algorithmen seien frei von Fehlern, ist ein Irrglaube. Wir müssen das Narrativ, das sich um das Phänomen Künstliche Intelligenz gebildet hat, hinterfragen.

Der Autor Timo Daum etwa bezeichnet die Wortzusammensetzung als einen „werbewirksamen Marketingbegriff für den digitalen Kapitalismus“. Sie verschleiere, worum es beim Einsatz der Technologie wirklich geht: Der Einsatz von Künstlicher Intelligenz macht Prozesse effizienter und Unternehmen gewinnträchtiger. Es wundert daher nicht, dass Non-Profit-Organisationen wie Algorithm Watch oder der Chaos Computer Club anstelle von Künstlicher Intelligenz von automatisierter Entscheidungsfindung oder automatisierten Computeralgorithmen sprechen.

„Big Data“ ist kein harmloses Konzept

„Während wir von Konzepten wie ‚Big Data‘ oder ‚Algorithmen‘ denken, sie seien harmlos, neutral oder objektiv, sind sie alles andere als das“, schreibt auch Safiya U. Noble, Autorin des Buchs „Algorithms of Oppression“. Noble lehrt als  Professorin an der University of California in Los Angeles und erforscht seit ihrer Entdeckung von Googles diskriminierenden Algorithmen die Verschränkungen von Technologie und Rassismus. Das Fallbeispiel Google ist in diesem Feld besonders pikant. Die Suchmaschine des US-Techkonzerns hat ohne Zweifel die Lebens- und Arbeitsweise sämtlicher Gesellschaften rund um den Globus revolutioniert. Das Wort „googeln“ hat 2004 sogar einen Eintrag im deutschen Duden erhalten. Es bedeutet „mit Google im Internet recherchieren“. Auch ich benutze den Begriff für gewöhnlich völlig unbekümmert.

Doch allmählich dämmert mir, was sich damit gleichzeitig unbemerkt vollzogen hat: Die Strukturen eines hauptsächlich weiß und cis männlich geprägten Tech-Konzerns haben Einzug in unseren alltäglichen Sprachgebrauch gefunden – ohne dass wir uns dessen bewusst waren. Die Entlassung der KI-Forscherin Timnit Gebru durch Google im Dezember 2020 war ein Paradebeispiel dafür, welche Strukturen sich tatsächlich hinter Googles Selbstdarstellung verbergen. Der Konzern rühmte sich noch im selben Frühjahr damit, mit Timnit Gebru eine Vorzeige-Wissenschaftlerin eingestellt zu haben, um KI-Systeme „fairer und inklusiver“ zu machen.  Doch als Gebru dem Konzern mit ihrer Kritik an möglichen rassistischen Auswirkungen einer KI zur Spracherkennung zu ungemütlich geworden war, wurde sie gefeuert.

„Für mich als individuelle Nutzerin kann es bedeuten, mich vor jeder nächsten Google-Anfrage zunächst selbst zu fragen: Ist diese Suchanfrage sinnvoll oder kann ich die Information auf andere Weise herausfinden?“

Das Beispiel Google zeigt: Eine Postwachstumsgesellschaft muss die einseitige Macht der Hightech-Konzerne herausfordern. „Wir müssen das Framing infrage stellen, in dem technologischer Fortschritt auf Kosten von Menschlichkeit praktiziert wird“, fordert Ruha Benjamin, Soziologin an der Princeton-Universität. Benjamin erforscht die sozialpolitischen Auswirkungen von technologischem Fortschritt und plädiert für einen Paradigmenwechsel in der Nutzung von Technologie. Anstatt sie zum Zwecke der Gewinnmaximierung von Unternehmen zu nutzen, sollten wir uns als Gesellschaft vielmehr fragen: Welche Art von Technologie können wir entwickeln, die uns von diskriminierenden Strukturen befreit? Für Unternehmen bedeutet das: Sie müssen für die Auswirkungen ihrer Technologien Verantwortung übernehmen. Sie müssen anfangen, nach sozialer Verantwortung zu wirtschaften und Schluss damit machen, sich von Profitgier treiben zu lassen.

Für mich als individuelle Nutzerin kann es bedeuten, mich vor jeder nächsten Google-Anfrage zunächst selbst zu fragen: Ist diese Suchanfrage sinnvoll oder kann ich die Information auf andere Weise herausfinden? Kann ich nicht Personen aus bestimmten Communitys, zivilgesellschaftlichen Organisationen oder Akteur*innen direkt empfehlen, wenn Gesprächspartner*innen nach Informationen zu rassismuskritischem oder feministischem Wissen fragen? Ich habe Listen mit nützlichen Quellen, Artikeln, Channels oder Buchtipps gespeichert, die ich stattdessen weitergeben könnte. In jedem Fall sollten wir uns als Individuen über die Auswirkungen von Künstlicher Intelligenz informieren und bilden. Damit wir uns nicht unreflektiert und uneingeschränkt den Algorithmen der mächtigen Tech-Konzerne überlassen.

Anzeige