Programmierte Ungerechtigkeit – Wie Technik Frauen täglich diskriminiert

Ungerechtigkeit ist allgegenwärtig. Sie macht wütend, kostet Kraft – und oft bemerken wir sie nicht einmal. Denn Diskriminierung existiert nicht nur in der realen Welt, sie steckt auch in unserer Technik: in den unsichtbaren Codes, in den Algorithmen, die unseren Alltag steuern. Ob wir einen Job suchen, einen Kredit beantragen oder uns einfach auf Social Media bewegen – digitale Systeme können Vorurteile nicht nur widerspiegeln, sondern sogar verstärken. Besonders Frauen und Minderheiten bekommen das zu spüren.


Warum ist Technik sexistisch?

Die Ursache liegt selten im Computer selbst – sondern in den Menschen, die ihn programmieren. Ein Algorithmus ist nichts anderes als eine Handlungsanweisung für eine Maschine. Doch diese Anweisungen werden überwiegend von Männern geschrieben: Nur 16 Prozent der Entwicklerinnen sind weiblich.

Das bedeutet: Die Perspektiven, Erfahrungen und Bedürfnisse von Frauen fließen kaum in die Entwicklung digitaler Systeme ein. Hinzu kommt, dass Künstliche Intelligenz aus Daten lernt – und die meisten Datensätze die männliche Norm widerspiegeln. Männer gelten in vielen Bereichen noch immer als „Standard“.

Sandra Wachter, Juristin und Professorin an der Universität Oxford, bringt es auf den Punkt: „Algorithmen sind der Spiegel unserer Gesellschaft. Sie benachteiligen diejenigen, die ohnehin sozial schwächer gestellt sind.“

Frauen stoßen also online auf die gleichen Hürden wie im echten Leben – besonders in den Bereichen Arbeit, Finanzen und Wirtschaft. Veraltete Rollenbilder sind auch in der digitalen Welt nicht verschwunden. Im Gegenteil: Algorithmen verstärken sie häufig.


Wie Algorithmen Rollenbilder festschreiben – konkrete Beispiele

1. Jobanzeigen: Männer bekommen LKW-Fahrer – Frauen bekommen Pflegerin

Matthias Spielkram von AlgorithmWatch führte ein aufschlussreiches Experiment durch. Sein Team veröffentlichte zwei identische Jobanzeigen auf Facebook – einmal für einen LKW-Fahrerin, einmal für einen Pflegerin.

Das Ergebnis:

  • 92 % der LKW-Anzeige wurden Männern ausgespielt
  • 96 % der Pflege-Anzeige wurden Frauen angezeigt

Der Algorithmus hatte gelernt, was „typisch männlich“ und „typisch weiblich“ ist – und reproduzierte diese Rollenbilder automatisch.

2. Google degradiert eine der wichtigsten Forscherinnen Deutschlands

Zum Beispiel Özlem Türeci war maßgeblich an der Entwicklung des Biontech-Corona-Impfstoffs beteiligt. Doch bei Google wurde sie lange Zeit lediglich als „Ehefrau von Ugur Sahin“ angezeigt. Sahin hingegen wurde korrekt als Biontech-Gründer ausgewiesen. Noch heute listet Google Türeci zwar als Ärztin – aber nicht als Mitgründerin eines der bedeutendsten Impfstoffentwickler der Welt.

3. Instagram: Wenn Hautfarbe und Körperform zu Nachteilen werden

Unternehmerin Jen Martens nutzt Instagram, um ihre Beauty-Produkte zu bewerben. Ihr fiel auf: Zeigt ein Posting eine Schwarze Person, wird es deutlich weniger ausgespielt. Sie muss daher zwischendurch „weißen Content“ posten, um ihre Reichweite wiederherzustellen.

Die Influencerin Tanja Marfo berichtet von Fettfeindlichkeit:
Ein Foto, das „Bauchfett“ thematisierte, wurde mit der Begründung „Nacktheit und Bauchfett“ gesperrt – während ein männlicher Waschbrettbauch problemlos durchgewunken wurde.


Wenn Benachteiligungen sich überschneiden – Intersektionalität im Algorithmus

Besonders drastisch trifft digitale Diskriminierung Frauen, die zusätzlich aufgrund von Hautfarbe, Herkunft, sozialer Zugehörigkeit oder sexueller Orientierung benachteiligt werden. Die Kombination dieser Merkmale wirkt wie ein digitaler Multiplikator der Ungerechtigkeit.
Algorithmen benachteiligen nicht einfach nur Frauen – sie benachteiligen Frauen in all ihrer Vielfalt.


Warum wird das nicht einfach behoben?


Man könnte fair programmieren – aber es passiert nicht.

Warum?

  1. Weil sich mit der Norm besser Geld verdienen lässt. Und die Norm ist noch immer: weiß, männlich, heterosexuell.
  2. Weil Diskriminierung nicht technisch, sondern gesellschaftlich verankert ist. Solange soziale Ungleichheiten existieren, existieren sie auch in den Daten, aus denen KI lernt.
  3. Weil Vielfalt im Tech-Bereich fehlt. Wo Frauen fehlen, fehlen auch ihre Perspektiven – in Codes, Datensätzen, Produkten.

Fazit: Für digitale Gerechtigkeit brauchen wir reale Gleichberechtigung


Digitale Diskriminierung ist kein technischer Fehler – sie ist das Ergebnis jahrzehntelanger patriarchaler Strukturen, die sich nun in Algorithmen fortschreiben.

Um das zu ändern, reicht es nicht, ein paar Codezeilen umzuschreiben.
Wir müssen:

  • mehr Frauen in Tech-Berufe bringen
  • Datensätze divers gestalten
  • digitale Produkte kritisch hinterfragen
  • und vor allem echte Gleichberechtigung in der Gesellschaft schaffen

Denn erst, wenn die reale Welt gerechter wird, kann es auch die digitale sein.

Programmierte Ungerechtigkeit – Wie Technik Frauen täglich diskriminiert

Hinterlasse einen Kommentar