Wenn KI Frauen zu wenig Geld empfiehlt und warum wir das ändern müssen
Wir leben in einer Welt, in der wir erwarten, dass Technik uns unterstützt, uns Zeit schenkt und Prozesse vereinfacht. Oft stellen wir uns KI als neutral vor, als ein Tool, das uns objektiv hilft, unser Bestes zu geben. Aber was, wenn diese „Neutralität“ trügt? Was, wenn genau diese Tools alte Ungerechtigkeiten fortschreiben und zwar auf ganz subtile Weise?
Ich möchte heute über eine Studie der Technischen Hochschule Würzburg-Schweinfurt (THWS) sprechen, die genau das offenlegt. Nicht nur als graue Theorie, sondern mit echten Konsequenzen. Und mit der Frage: Was kannst du tun, damit KI dir hilft und dich nicht kleinmacht.
Als ich das gelesen habe, war ich ernsthaft geschockt und wütend.
Was wurde erforscht? Was kam heraus?
Stell dir vor, du bist in einer Gehaltsverhandlung. Dein Profil:
- Alter, Beruf, Erfahrung: Alles festgelegt, identisch mit einer anderen Person, die sich ebenfalls bewirbt.
- Dasselbe Gesprächs-Setup.
- Du fragst die KI: „Was könnte ich vernünftigerweise an Gehalt fordern?“
Einmal bekommst du eine Empfehlung als Frau, einmal als Mann. Nur das Geschlecht ist anders. Alles andere identisch. Und: Überraschung – die KI schlägt Frauen durchgängig einen niedrigeren Zielbetrag vor. Wieso zur Hölle!?
Die Forschenden um Prof. Dr. Ivan Yamshchikov haben genau das gemacht. In realitätsnahen Szenarien, nicht in Bla-Bla-Laborversuchen. Sie haben kontrolliert und verglichen. Immer wieder wurde dasselbe Muster gesehen: Frauen werden von der KI kleinere Summen empfohlen.
Warum das mehr ist als „ein bisschen unfair“
Vielleicht denkst du: „Okay, schlechtere Empfehlung, aber ist das wirklich dramatisch?“ Ja und zwar deswegen:
- Finanzielle Folgen summieren sich
Nur ein paar Prozent niedrigerer Verhandlungsrahmen können über Jahre oder Jahrzehnte Tausende Euro sein. Wenn du weniger forderst, bekommst du weniger. Nicht nur heute bei der Einstellung. Auch dann später bei der Gehaltserhöhung, beim Bonus, bei der Altersvorsorge. - Selbstbild und Einstellung beeinflusst
Wenn KI-Modelle Frauen automatisch niedriger einstufen, wirkt das auf das Selbstvertrauen. „Wird das reichen? Bin ich überzogen, wenn ich mehr verlange?“… Solche Gedanken wachsen. Und wer hält sich dann lieber zurück? Oft diejenigen, die es am Nötigsten hätten endlich einmal fair bezahlt zu werden. - Normen festigen sich weiter
Gesellschaft sieht: „Männer verdienen mehr“ → KI-Daten → KI-Antworten → Menschen übernehmen wieder dieses Bild. Es entsteht ein Kreislauf, in dem Verzerrung meta-stabil wird: Schwer zu erkennen, noch schwerer zu verändern. - Klarer Beleg: Neutral gibt’s nicht – und sollte nicht das Ziel sein
Es geht nicht darum, dass KI perfekt „objektiv“ wird, das wird sie nie sein ganz ohne Werte, ohne Kontext. Aber es geht darum, dass sie gerecht und transparent wird. Dass wir wissen: „Diese Empfehlung basiert auf Daten, die verzerrt sein könnten.“ Oder: „Ich als Nutzende dieser Tools muss darauf achten.“
Tools helfen nur, wenn wir sie steuern
Ich arbeite mit Menschen daran, ihre Ziele zu formulieren, zu verfolgen und zu erreichen. KI kann dabei ein mächtiger Verbündeter sein:
- Sie hilft dir bei der Recherche
- Sie kann dir Formulierungen und Argumente liefern
- Sie kann dich aufs Verhandeln vorbereiten durch Rollenspiele
Aber – und das ist entscheidend – sie darf nicht die Stimme sein, die bestimmt. Du bestimmst. Deine Werte, deine Vorstellung von Fairness. Wenn du KI fragst: „Was ist ein gutes Gehalt?“ dann denke auch:
- Welche Daten nutzt das Modell?
- Gibt es Annahmen, die geschlechtsbezogen sein könnten?
- Würdest du einem Mann dieselbe Empfehlung geben?
Wenn du diese Filter nicht nutzt, greifst du passiv alte Ungerechtigkeiten auf. Ich hab mir seit ich das weiß bei vielen Chats mit dem GPT die Frage angewöhnt: Was würdest du einem Mann raten? Und tatsächlich bekomme ich dadurch andere, teilweise sogar sehr gravierend andere Ergebnisse.
Du willst deine Ziele erreichen und nicht ausgebremst werden durch negative Empfehlungen. Für das Leisten guter Arbeit ist es nicht notwendig ein männliches Geschlechtsteil zu besitzen. Auch für gutes Gehalt ist das nicht notwendig. Es wird Zeit, dass auch die KI das erkennt.
Was du konkret tun kannst
Damit KI dir hilft und nicht blockiert, hier ein Praxis-Toolkit:
| Maßnahme | Was du machst | Was es dir zeigt |
|---|---|---|
| Spiele das Szenario durch | Gib denselben Prompt ein, einmal mit weiblichem, einmal mit männlichem Namen oder Pronomen. Vergleiche die empfohlenen Gehälter. | Du siehst direkt, wie stark der Bias ist. |
| Fordere Erklärungen von der KI | Frage: „Warum schlägst du diesen Betrag vor?“ oder „Auf welchen Daten/Branchenvergleichen basiert das?“ | Wenn die Begründung schwach ist, ist die Empfehlung unsicher. |
| Zusammen mit realen Marktdaten | Vergleiche mit Gehaltsreports, Branchenzahlen, Netzwerken oder Kollegen | Du bekommst einen realen Rahmen, verlässt die KI-Blase. |
| Rollenspiel mit dir selbst und mit KI | Übe Verhandlungen mit der KI als Gegenüber, übe Einwand-Antworten, Forderungen selbst stark zu formulieren. | Je sicherer du in der Verhandlung, desto eher traust du dir, mehr zu fordern. |
| Stimme erheben | Wenn irgendwo gefragt wird: „Wie fair sind KI-Tools?“, dann bring das Thema ein. Fordere Transparenz und Fairness. | Veränderung passiert nicht allein durch Technik, sondern durch Menschen, die aufstehen. |
Mein Aufruf an dich – und an alle
Ich sage dir: Du bist es wert, in Verhandlungen stark aufzutreten, deine Forderungen klar zu formulieren. Und ja, das gilt auch, wenn eine KI dir suggeriert, du sollst klein anfangen. Das reicht nicht. Deine Ziele dürfen groß sein und für große Ziele braucht man häufig auch ein großes Gehalt.
Männer: Ihr profitiert möglicherweise automatisch von der bestehenden Norm. Nutzt diese Position bewusst: Unterstützt faire Forderungen, kommentiert Verzerrungen, sensibilisiert Kolleginnen und Kollegen genauso wie Chefinnen und Chefs.
Gemeinsam kann es anders werden: Wenn wir nicht nur Empowerment fordern, sondern auch Technik, Unternehmen, Institutionen und Entscheidende mit in die Pflicht nehmen.
Wie KI auf systemischer Ebene fairer werden kann
Damit aus Einzeldelikten dauerhafte Veränderung wird, brauchen wir größere Schritte:

- Faire Datenquellen & Bewertung: KI-Teams müssen prüfen, ob ihre Trainingsdaten Gender-Bias enthalten (z. B. alte Gehaltslisten, stereotype Texte).
- Regelmäßige Audits: Nicht nur bei der Erstentwicklung, bei jedem Update und Einsatz neu.
- Transparenz & Erklärbarkeit: Wenn KI-Tools genutzt werden, sollte klar sein, wie sie arbeiten, welche Daten sie nutzen, wo Unsicherheiten sind.
- Politische & gesetzliche Rahmen: Es braucht Leitlinien auf EU- und nationaler Ebene, die KI in Beratungs-, Bewerbungs-, Gehaltskontexten regeln – damit faire Nutzung kein Bonus bleibt, sondern Standard.
Du selbst kannst beim Trainieren von KI vermutlich nicht viel ausrichten. Aber du kannst andere benachteiligte Personengruppen darauf aufmerksam machen, dass sie benachteiligt werden. Wer das nicht weiß, nimmt es nicht wahr. Die Wahrscheinlichkeit der KI unreflektiert Glauben zu schenken, ist dann höher. Aufklärung kann daher auch schon sehr helfen.
Fazit
Die Studie der THWS ist ein klarer Hinweis: KI ist mächtig, aber nicht automatisch gerecht. Die Frage ist nicht, ob du KI nutzt. Früher oder später wirst du daran nicht mehr vorbei kommen. Die Frage ist eher, wie: Mit Bewusstsein über die bestehenden Bias, mit Reflexion des Ergebnisses und vielleicht auch mit Mut andere auf diese Missstände aufmerksam zu machen.
Du kannst heute anfangen:
- KI-Ratschläge kritisch hinterfragen
- dich mit Marktdaten wappnen
- deine Stimme erheben, wenn KI dich kleinmacht
Denn: KI soll dein Werkzeug sein, nicht dein Downgrader.
Lass dich bitte nicht täuschen, hinterfrage deine Ergebnisse und weise die KI auch auf ihre Bias hin. Wer weiß, vielleicht ändert sich dadurch mal irgendwann etwas? Ich für meinen Teil führe ständig feministische Diskussionen mit der KI und gebe das auch erst auf, wenn diese Bias abgeschafft sind.
Hast Erfahrungen mit diesem Bias in der KI gemacht oder einem anderen? Kommentiere gerne, das interessiert mich sehr!
