Künstliche Intelligenz ist der aktuelle Zukunfts-Hype schlechthin. Doch viele, den künstlichen Intelligenzen zugrunde liegende, Algorithmen sind bis zum Rand gefüllt mit Konservatismus. Big-Data-Technologien basieren, wie der Name sagt, auf Daten. Diese Daten stammen in der Regel aus der Vergangenheit, denn wir haben keine aus der Zukunft. Aus den Erfahrungen der Vergangenheit werden Voraussagen für die Zukunft modelliert.
Daran ist grundsätzlich nichts falsch. Modelle sind wichtige Arbeitsinstrumente der Wissenschaft. Probleme tauchen da auf, wo Modelle automatisierte Entscheide treffen, basierend auf menschlichem Verhalten aus der Vergangenheit. So werden diese veralteten Einschätzungen wiederholt, skaliert und als neutral verkauft.
«Selbstlernende» Algorithmen übernehmen Vorurteile, die es in unserer Gesellschaft schon gibt. Dieses Video erklärt, warum Diskriminierungen mitprogrammiert werden.
Das Fatale ist nun, dass unsere Vergangenheit und unsere Gegenwart nur so strotzen vor fragwürdigen Entscheidungen. Verpackt in Datensätze werden diese als Grundlage für künstliche Intelligenzen genutzt. Unsere Gesellschaft ist geprägt von Sexismus, Rassismus, Klassismus und vielen weiteren diskriminierende Strukturen.
Unsere Gesellschaft ist geprägt von diskriminierenden Strukturen. Algorithmen reproduzieren sie für uns weiter in die Zukunft.
Algorithmen lernen diese Strukturen fleissig und reproduzieren sie für uns weiter in die Zukunft. «Bullshit in, bullshit out», wird das Prinzip auch genannt. Wollen wir als Gesellschaft vorankommen, so ist es verheerend auf vergangene menschliche Entscheidungen zu bauen.
Mathematische Modelle, was Algorithmen im Prinzip sind, sind von Natur aus vergangenheitsbezogen: Ihre Funktion basiert auf der Annahme, dass sich Muster aus der Vergangenheit in der Zukunft wiederholen. Die Zukunft als ein Raum neuer Möglichkeiten kann aber nicht durch eine Künstliche Intelligenz gedacht werden, zumindest nicht bisher.
Wir müssen uns deshalb gut überlegen, wo wir automatisierte Entscheidungs-Tools einsetzen. Gerade in Gebieten, die stark geprägt sind von diskriminierenden Mechanismen, wie zum Beispiel das Polizeiwesen, sollte gänzlich auf ihren Einsatz verzichtet werden. Wenn wir die rassistische Vergangenheit des Polizeiapparats durchbrechen wollen, können wir uns nicht auf Polizeiarbeit aus dieser Zeit verlassen.
Frage in die Runde: Wie können Algorithmen von Vorurteilen und Diskriminierungen befreit werden? Wo müsste man ansetzen? Bitte schreiben Sie Ihren Kommentar hier zuunterst in die Kommentarspalte.
Veröffentlicht am 27. September 2022
Trainiert den Umgang mit Datenkraken: Rahel Preisig ist Studentin des Studiengangs Artificial Intelligence & Machine Learning. Sie interessiert sich für das Sichtbarwerden und das Unsichtbar machen in der Digitalen-Welt: Was erzählen uns Daten und wie werden diese Erkenntnisse für Menschen zugänglich? Wie können wir uns verstecken vor den Datenkraken und unsere Privatsphäre waren? Kann ein rassistischer Algorithmus gesellschaftliche Probleme aufdecken? Solche Fragen treiben sie um und sind ihre Motivation für die Auseinandersetzung mit der zukunftsrelevanten Technologie von AI & ML.
KI-Philosophie-Serie: Der obenstehende Beitrag wurde ihm Rahmen des Bachelor-Studiengangs Artificial Intelligence & Machine Learning geschrieben. Er ist Teil einer 8-teiligen Blog-Serie mit bestbenoteten Essays von Studierenden.
Der betreffende Studiengang nimmt die Implikation der Technik ernst. Daher lernen die Studierenden nicht nur, KI einzusetzen, sondern diese auch nachhaltig, sicher und ethisch verantwortbar umzusetzen. Als Basis dafür dient unter anderem ein Philosophie-Modul unter der Leitung von Peter A. Schmid und Orlando Budelacci. Die Hochschule Luzern setzt dabei auf Interdisziplinarität: Dieses Modul zeigt beispielhaft, wie sich drei Departemente – Informatik, Soziale Arbeit und Design & Kunst – fachübergreifend einem Zukunftsthema zuwenden.