Was Sie gegen die Gefahr digitalisierter Diskriminierung tun können

Was Sie gegen die Gefahr digitalisierter Diskriminierung tun können

Spricht man heute über künstliche Intelligenz (KI), assoziieren viele damit Filmcharaktere wie R2-D2 aus Star Wars oder aber den Terminator. In Diskussionen geht es dann häufig um eine dystopische Zukunft, in welcher die Maschinen den Menschen die Arbeitsplätze wegnehmen oder sich sogar womöglich gegen die Menschheit auflehnen könnten. Aus diesem Grund assoziieren viele mit KI häufig ein Gefühl des Kontroll- und Machtverlusts. Tatsächlich umgibt uns KI heute schon in vielen Teilen unseres Lebens. Wir finden sie in unseren Smartphones, aber auch wenn wir Suchmaschinen im Internet benutzen. Dabei bewertet die KI unser Verhalten und trifft Entscheidungen für uns, aber auch über uns. Die Gefahr, die heute von dieser Art der KI ausgeht, tritt viel subtiler in Erscheinung als eine Revolution der Roboter. Gegenwärtig werden daher die Stimmen immer lauter, die vor einer verstärkten und automatisierten Diskriminierung durch Algorithmen warnen. Wie kann das aber sein, wird doch Algorithmen und KI nachgesagt, Entscheidungen objektiver, zuverlässiger, exakter und dadurch auch (geschlechter-)gerechter zu treffen?

    Algorithmen und KI: eine Begriffsdefinition

    Wichtig ist zuerst, die Begriffe richtig zu definieren, denn häufig werden KI und Algorithmen synonym verwendet. Sie stehen aber für unterschiedliche Dinge. Algorithmen lassen sich am besten als eine Handlungsanweisung beschreiben, mit der man vom Zustand A zum Zustand B kommt. Ein Beispiel sind Kochrezepte. Sie zeigen den Weg und geben Handlungsanweisungen, wie wir mit den Zutaten zum fertigen Gericht kommen.

    KI hingegen ist eine Kombination aus vielen Algorithmen. Sie vermag es, auf der Grundlage von angewandter Stochastik aus großen Datenmengen Muster zu erkennen und Rückschlüsse zu ziehen. Dies wird dann als intelligentes Verhalten bezeichnet. Auf diesem Weg lassen sich dann Entscheidungsfindungen automatisieren.

    Tatsächlich spielen automatisierte Entscheidungssysteme (ADM- Systeme) in unserer heutigen Gesellschaft schon eine große Rolle. Das ist beispielsweise bei der Vergabe von Bankkrediten der Fall oder aber, wenn Kfz-Versicherungen errechnen, in welche Schadensfreiheitsklasse jemand eingestuft wird.

    Der Mythos über die Objektivität von Algorithmen

    KI wird nachgesagt, bei der Entscheidungsfindung eine große Datenmenge zu berücksichtigen. Zudem heißt es, dass sie nicht von Gefühlen und Vorurteilen geleitet wird. In dieser Argumentation wird jedoch eine wesentliche Tatsache vergessen: Algorithmen werden von Menschen geschrieben, die darin ihre Ansichten, Neigungen, Wertvorstellungen und Unwissenheit mit einfließen lassen.

    Daher besteht die Gefahr, dass die Entwickler*innen bereits bestehende Diskriminierungsmechanismen unserer Gesellschaft in Algorithmen und somit auch in KI übertragen. Eine weitere Gefahr bergen die Daten, mit denen diese Systeme lernen. Denn KI wertet Daten aus der Vergangenheit aus. Sie erkennt daraus Verhaltensmuster und erstellt Voraussagen, mit welcher Wahrscheinlichkeit sich diese wiederholen werden.

    Die menschliche Geschichte ist jedoch alles andere als diskriminierungsfrei. Deshalb lassen sich auch häufig veraltete und diskriminierende Weltbilder in Entscheidungen der KI wiederfinden.

    Amazons diskriminierender Algorithmus

    Erst kürzlich sorgte ein Fall bei Amazon für Aufsehen: Um Kandidat*innen für Bewerbungsgespräche auszuwählen, ließ sich Amazon von einem ADM-System helfen. Das System analysierte dabei, dass in den letzten 10 Jahren mehr Männer als Frauen bei Amazon gearbeitet haben. Auf Basis dieser Information wurden dann automatisch alle Bewerberinnen aussortiert. Das Beispiel verdeutlicht gut, wie hoch das Diskriminierungspotenzial durch algorithmische Systeme ist.

    Es zeigt sich also, dass KI alles andere als neutral und frei von Diskriminierung ist. Im Gegenteil – die heutigen Diskriminierungsmechanismen werden lediglich digitalisiert. Da KI von Daten aus der Vergangenheit lernt, besteht zudem die Gefahr, dass alte und längst überwunden geglaubte Rollenklischees eine Renaissance erfahren.

    Fazit: Was Sie als Gleich­stellungsbeauftragte tun können

    Aber was kann dagegen getan werden? In einem ersten Schritt ist es wichtig, ein Bewusstsein in Ihrer Dienststelle, Institution oder in Ihrem Unternehmen zu schaffen, wie KI-Systeme funktionieren und wie sie zu einer Ungleichbehandlung führen können. Machen Sie dabei darauf aufmerksam, wie wichtig Transparenz in dieser Angelegenheit ist. Zumindest intern sollte bekannt sein, wie der Algorithmus geschrieben wurde und mit welchen Daten die selbstlernenden ADM-Systeme trainiert werden.

    Plant Ihre Dienststelle, ADM-Systeme einzusetzen, lassen Sie diese von unabhängiger Seite darauf testen, ob sich diskriminierende Muster wie etwa in dem oben genannten Beispiel von Amazon finden lassen. Auch wenn die Systeme bereits im Einsatz sind, lohnt es sich, einen Test durchzuführen.

    Darüber hinaus können Sie sich dafür einsetzen, dass eine Beschwerdestelle geschaffen wird, an die sich Personen wenden können, die sich durch eine Entscheidung des ADM-Systems diskriminiert fühlen.

    FAQ-Bereich

    Für wen ist „Gleichstellung im Blick“?

    „Gleichstellung im Blick“ richtet sich speziell an Frauen-, Gleichstellungs- und Chancengleichheitsbeauftragte im öffentlichen Dienst und der freien Wirtschaft in ganz Deutschland.

    Kann ich „Gleichstellung im Blick“ probelesen?

    Ja. Wir bieten allen interessierten Frauen-, Gleichstellungs- und Chancengleichheitsbeauftragten die Möglichkeit eine Ausgabe 14 Tage lang kostenfrei zu lesen. Sie entscheiden erst dann, ob Sie einen kostenpflichtigen Bezug möchten oder nicht.

    Was bietet mir „Gleichstellung im Blick“?

    „Gleichstellung im Blick“ bietet allen Frauen-, Gleichstellungs- und Chancengleichheitsbeauftragten relevante, aktuelle und rechtssichere Informationen zur Herstellung von Chancengleichheit in der Arbeitswelt. Neben der gedruckten Ausgabe haben Leser*innen die Möglichkeit eine telefonische Sprechstunde für individuelle Fragen in Anspruch zu nehmen. Ebenso laden wir mindestens 1mal pro Jahr zu einem Netzwerktreffen zum Austauschen und Netzwerken ein. Ein Zugang zu einem Onlinebereich, in dem Sie Muster-Initiativanträge, Checklisten, Übersichten und Muster-Schreiben herunterladen können, rundet das Angebot ab.

    Was genau sind Algorithmen und KI?

    Algorithmen lassen sich am besten als eine Handlungsanweisung beschreiben, mit der man vom Zustand A zum Zustand B kommt. Ein Beispiel sind Kochrezepte. Sie zeigen den Weg und geben Handlungsanweisungen, wie wir mit den Zutaten zum fertigen Gericht kommen.
    KI hingegen ist eine Kombination aus vielen Algorithmen. Sie vermag es, auf der Grundlage von angewandter Stochastik aus großen Datenmengen Muster zu erkennen und Rückschlüsse zu ziehen. Dies wird dann als intelligentes Verhalten bezeichnet. Auf diesem Weg lassen sich dann Entscheidungsfindungen automatisieren.

    Amazon setzte ein ADM-System ein – welche Probleme ergaben sich daraus?

    Um Kandidat*innen für Bewerbungsgespräche auszuwählen, ließ sich Amazon von einem ADM-System helfen. Das System analysierte dabei, dass in den letzten 10 Jahren mehr Männer als Frauen bei Amazon gearbeitet haben. Auf Basis dieser Information wurden dann automatisch alle Bewerberinnen aussortiert. Das Beispiel verdeutlicht gut, wie hoch das Diskriminierungspotenzial durch algorithmische Systeme ist.