Wenn Algorithmen Karrieren stoppen

Bewerbungsgespräch mit Roboter
Quelle: Dieses Bild wurde mittels Grok entwickelt.

Wie Künstliche Intelligenz im Recruiting reale Ungleichheit verschärft.

Der erste Kontakt zwischen Bewerbern und Unternehmen findet heute oft nicht mehr zwischen Menschen statt. Er findet zwischen Datensätzen statt. Lebensläufe werden hochgeladen, automatisch analysiert, verglichen, sortiert. Wer dabei aussortiert wird, erfährt davon meist nur indirekt, als Standardabsage oder gar nicht. Kein Gespräch, keine Nachfrage, kein Mensch.

Was Unternehmen als Effizienzgewinn verkaufen, ist für Bewerber ein Kontrollverlust. Denn die Entscheidung, ob ein Mensch überhaupt eine Chance bekommt, liegt zunehmend bei Systemen, deren Funktionsweise niemand offenlegt und für deren Fehler niemand verantwortlich sein will.

Das Problem beginnt nicht bei der Technik, sondern bei der Delegation von Verantwortung.

In vielen großen Unternehmen entscheidet heute eine Software, welche Bewerbungen überhaupt von Personalverantwortlichen gesehen werden. Diese Systeme scannen Lebensläufe nach Schlagworten, vergleichen Karrieren mit statistischen Erfolgsprofilen und vergeben Eignungsscores. Wer unter eine bestimmte Schwelle fällt, wird aussortiert, unabhängig davon ob Qualifikation, Motivation oder Potenzial tatsächlich fehlen.

Das ist keine Ausnahme, sondern Standard bei internationalen Konzernen, Plattformunternehmen und zunehmend auch im Mittelstand. Der Bewerber merkt davon nichts. Er weiß nicht, dass seine Unterlagen nie von einem Menschen gelesen wurden. Er weiß nicht, warum er abgelehnt wurde. Er weiß nur: wieder eine Absage.

Diese Intransparenz ist kein Nebeneffekt, sondern Teil des Systems.

Diskriminierung ohne Diskriminierende

Eines der frühesten und lehrreichsten Beispiele stammt von Amazon. Der Konzern entwickelte über Jahre ein KI-System zur automatisierten Bewerberbewertung. Das System lernte aus früheren Einstellungsentscheidungen. Das Ergebnis: Frauen wurden systematisch schlechter bewertet. Lebensläufe mit Hinweisen auf Frauenförderprogramme oder weiblich dominierte Aktivitäten fielen durch.

Amazon stoppte das Projekt. Doch die entscheidende Frage lautet: Wie viele Unternehmen bemerken solche Effekte nicht, oder nehmen sie bewusst in Kauf?

Denn der Fehler lag nicht im Code, sondern im Lernprinzip. KI bildet ab, was war. Wenn Unternehmen in der Vergangenheit bestimmte Gruppen bevorzugt haben, reproduziert die Maschine genau diese Realität effizienter, schneller und schwerer angreifbar.

Ein aktueller Fall zeigt, dass diese Probleme längst juristische Dimensionen haben. In den USA wurde gegen den HR-Softwareanbieter Workday Klage eingereicht. Bewerber warfen dem Unternehmen vor, durch KI-gestützte Vorauswahl systematisch ältere Menschen, Menschen mit Behinderungen und ethnische Minderheiten benachteiligt zu haben.

Der entscheidende Punkt ist nicht nur der Vorwurf, sondern die Struktur dahinter. Workday argumentierte, man stelle lediglich Software bereit. Die Entscheidung treffe der Kunde. Die Unternehmen wiederum verwiesen auf das Tool. Niemand fühlte sich verantwortlich.

Genau hier liegt die neue Qualität der Ungerechtigkeit: Diskriminierung ohne Diskriminierende. Kein Personalchef, kein Sachbearbeiter, keine klare Entscheidung. Nur ein System, das „empfiehlt“.

Besonders problematisch wurde der Einsatz von KI bei Video-Interviews. Anbieter wie HireVue versprachen, aus Mimik, Sprache und Gestik Rückschlüsse auf Persönlichkeit, Belastbarkeit und Motivation zu ziehen. Bewerber wurden vor der Kamera analysiert, Scores berechnet, Ranglisten erstellt.

Kritiker warnten früh: Diese Systeme messen keine Eignung, sondern Abweichung von Normen. Menschen mit Akzent, neurodiverse Personen oder Bewerber mit Behinderungen wurden systematisch benachteiligt. Die Technologie suggerierte Objektivität, beruhte aber auf fragwürdigen Annahmen darüber, wie „geeignete“ Menschen aussehen und sprechen.

HireVue zog Teile dieser Technologie später zurück. Doch der Schaden war da. Tausende Bewerbungen waren bereits bewertet worden, ohne dass die Betroffenen wussten, auf welcher Grundlage.

Mehrere Untersuchungen zeigen, dass bereits Namen einen Unterschied machen. Bewerbungen mit „nicht-typisch“ klingenden Namen schneiden bei KI-gestützter Vorauswahl schlechter ab, selbst bei identischer Qualifikation. Das liegt nicht an „böser Absicht“, sondern an statistischer Ähnlichkeit. Systeme bevorzugen Profile, die dem bisherigen Erfolgsbild ähneln.

Wer einen geradlinigen Lebenslauf hat, wer die „richtigen“ Stationen vorweisen kann, wer in das statistische Raster passt, hat Vorteile. Wer Umwege gegangen ist, später eingestiegen ist oder aus anderen sozialen Kontexten kommt, wird schneller aussortiert.

So wird Vielfalt nicht gefördert, sondern systematisch herausgerechnet.

KI bevorzugt KI

Ein besonders perfider Effekt zeigt sich zunehmend im Alltag: Bewerbungen, die selbst mit KI erstellt wurden, passen besser zu KI-gestützten Auswahlverfahren. Struktur, Wortwahl und Logik entsprechen exakt dem, was die Systeme erwarten.

Das führt zu einer paradoxen Situation: Nicht Qualifikation entscheidet, sondern Anpassung an maschinelle Erwartungen. Wer keinen Zugang zu solchen Tools hat oder bewusst darauf verzichtet, hat schlechtere Chancen. So entsteht eine neue Form digitaler Klassengesellschaft, leise, effizient und schwer angreifbar.

Unternehmen betonen gern, dass am Ende ein Mensch entscheidet. In der Praxis zeigt sich jedoch ein anderes Muster: Recruiter folgen algorithmischen Empfehlungen überdurchschnittlich häufig. Scores und Rankings wirken objektiv. Wer widerspricht, muss sich rechtfertigen.

Die Verantwortung verschiebt sich. Nicht mehr das System muss erklärt werden, sondern die Abweichung vom System.

Diskriminierung ist verboten. Doch KI macht sie unsichtbar. Entscheidungslogiken sind geschützt, Trainingsdaten geheim, Ablehnungen nicht begründet. Bewerber können kaum klagen, weil sie nicht wissen, was gegen sie entschieden hat.

Der Rechtsrahmen hinkt hinterher. Während KI im Recruiting längst Alltag ist, fehlen klare Regeln zu Transparenz, Haftung und Prüfpflichten. Solange das so bleibt, tragen Bewerber das Risiko, nicht die Unternehmen.

KI im Recruiting spart Zeit und Geld. Aber sie erzeugt neue Ungleichheiten, verschiebt Verantwortung und macht Diskriminierung schwerer sichtbar. Das Problem ist nicht Technologie, sondern ihr Einsatz ohne Kontrolle.

Solange Unternehmen Entscheidungen an Systeme delegieren können, ohne für deren Folgen einzustehen, bleibt KI im Recruiting kein neutrales Werkzeug, sondern ein Machtinstrument mit realen Folgen für reale Menschen.

Quellen

Financial Times
„The perils of using AI when recruiting“
https://www.ft.com/content/229983ee-c11f-44fb-8e61-2ac61d8d100a

Reuters
„Mediating disputes in the age of algorithmic hiring“ (Klage gegen Workday)
https://www.reuters.com/legal/legalindustry/mediating-disputes-age-algorithmic-hiring–pracin-2025-12-08/

The Guardian
„People interviewed by AI for jobs face discrimination risks, Australian study warns“
https://www.theguardian.com/australia-news/2025/may/14/people-interviewed-by-ai-for-jobs-face-discrimination-risks-australian-study-warns

AlgorithmWatch
„Diskriminierende KI bei Bewerbungen“
https://algorithmwatch.org/de/diskriminierende-ki-bewerbungen/VoxDev (CEPR)

„AI hiring tools exhibit complex gender and racial biases“
https://voxdev.org/topic/technology-innovation/ai-hiring-tools-exhibit-complex-gender-and-racial-biases

University of Washington
„AI tools show bias in ranking job applicants’ names“
https://www.washington.edu/news/2024/10/31/ai-bias-resume-screening-race-gender/

AP News
„Civil rights agency drops a key tool used to investigate workplace discrimination“
https://apnews.com/article/a2e8aba11f3d3f095df95d488c6b3c40

Günther Burbach

Günther Burbach, Jahrgang 1963, ist Informatikkaufmann, Publizist und Buchautor. Nach einer eigenen Kolumne in einer Wochenzeitung arbeitete er in der Redaktion der Funke Mediengruppe. Er veröffentlichte vier Bücher mit Schwerpunkt auf Künstlicher Intelligenz sowie deutscher Innen- und Außenpolitik. In seinen Texten verbindet er technisches Verständnis mit gesellschaftspolitischem Blick – immer mit dem Ziel, Debatten anzustoßen und den Blick für das Wesentliche zu schärfen.
Mehr Beiträge von Günther Burbach →

Ähnliche Beiträge:

3 Kommentare

  1. Wäretwas Wert ist der wird gesucht, der Rest muss sich schon bei den Bewerbungen degradieren!

    Ich glaub das ist mit „Soziale Marktwirtschaft“ gemeint oder heißt das Neue-Grundsicherung?

    1. Wobei sich der „Wert“ am Nutzen im Prozess der Kapital-Vermehrung bemisst und nicht primär an den Bedürfnissen der Menschen. Zu meinen, das wäre stellvertretend das Gleiche ist liberale Ideologie und nicht die Realität. Ein Kauf-Rausch auf dem Markt befriedigt nur einen Teil der Bedürfnisse.

  2. Recruitung ? = Rekrutierung = Personal-
    beschaffung. >>> Läuft das nicht gerade wieder in Teutschland? Melden sich nicht
    genug, werden „wir“ nachhelfen müssen.
    Rechts um, marsch !

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert