Bewerbungen: Warum KI-Tools für Unternehmen nicht die beste Lösung sind

In immer mehr Prozessen kommt Künstliche Intelligenz zum Einsatz. Dabei wird klar, nicht immer ist das auch ein Vorteil. Forscher aus Cambridge haben gezeigt, warum sich Unternehmen in Bewerbungsverfahren nicht ausschließlich auf KI-Tools verlassen sollten.

Wo liegen eigentlich die Grenzen von Künstlicher Intelligenz? Bei all der Bewunderung und dem Enthusiasmus: Gibt es Bereiche, in denen KI in Zukunft an ihre Grenzen stoßen wird? Oder sind diese Grenzen schon erreicht? Künstliche Intelligenz übernimmt Tätigkeiten und entwickelt Fähigkeiten, die uns nicht selten staunend zurücklassen. Mit hoher Geschwindigkeit entwickeln Forscher Anwendungen, die ein Versprechen an die Zukunft sind: „Hey, keine Sorge: KI übernimmt und wird das Leben leichter machen.“

Untersuchungen von KI-gestützten Rekrutierungstools

Doch ist das wirklich so? Können wir uns uneingeschränkt dem technologischen Fortschritt anvertrauen? Forscher des Zentrums für Geschlechterstudien im englischen Cambridge haben sich mit dieser Frage beschäftigt und dabei insbesondere KI-gestützte Rekrutierungstools untersucht. Die Ergebnisse lassen erahnen, dass Künstliche Intelligenz nicht immer automatisch besser ist, sondern dass Urteilsvermögen, Bauchgefühl und Empathie enorm wichtige Attribute sind. Und die können Computer-Anwendungen – so fortschrittlich sie auch sein mögen – eben nicht so ohne Weiteres erlernen.

Erhöht Künstliche Intelligenz die Vielfalt in Unternehmen?

Dabei hört es sich so gut an: Anbieter von Rekrutierungsanwendungen, die auf Basis von Künstlicher Intelligenz arbeiten, versuchen mit Fortschrittlichkeit zu überzeugen. So sollen die KI-Tools bei Einstellungsverfahren etwa menschliche Voreingenommenheit umgehen und Diskriminierung verhindern. Das Ziel: Diese automatisierten Bewerbungsprozesse sollen zum Beispiel die Vielfalt in Unternehmen erhöhen. Hierfür kommen Chatbots, Lebenslauf-Analysetools und Programme zur Bewertung von Videointerviews zum Einsatz. Die Algorithmen erkennen sprachliche Muster, bewerten die verwendeten Wörter und können sogar kleinste Veränderungen der Mimik im Gesicht lesen. Das Ergebnis ist eine zügige Reduzierung der Bewerbergruppe auf geeignete Kandidaten. Und zwar so, dass letztlich nur vermeintlich passende Persönlichkeitstypen übrig bleiben.

KI und Diskriminierung

Ein Kritikpunkt der Cambridge-Forscher: Persönlichkeit lässt sich nicht anhand von Gesichtszügen ablesen. Hierbei handele es sich um ein Beispiel für gefährlichen „Technoliberalismus“. Denn mit solchen Anwendungen soll Technologie dazu genutzt werden, gesellschaftlich tief verwurzelte Diskriminierungsprobleme zu lösen. Für diese Aufgabe wäre jedoch eher ein grundlegender Wandel in der Unternehmenskultur nötig.

Die Suche nach dem idealen Kandidaten

Um KI-Einstellungstechniken einem Praxistest zu unterziehen, haben die Wissenschaftler in Zusammenarbeit mit IT-Studenten ein eigenes Tool zur Optimierung von Bewerbungsprozessen entwickelt. Nach Vorlage bestehender Anwendungen. Mit diesem Tool konnten sie nachweisen, dass bereits bewusst herbeigeführte Änderungen des Gesichtsausdrucks oder andere Kleidung zu komplett verschiedenen Persönlichkeitsbewertungen geführt haben. Selbst die Beleuchtung während des Bewerbungsgespräches oder ein anderer Hintergrund hatten Einfluss auf das Ergebnis. Das Fazit: Der Einsatz von Künstlicher Intelligenz in Bewerbungsprozessen führt nicht zu mehr Vielfalt, sondern zu mehr Einheitlichkeit in der Belegschaft eines Unternehmens. Der Grund: Weil das Tool die Vorgaben des Anwenders umsetzt, sucht die Technologie nach einem „idealen“ Kandidaten, der sich bestmöglich in einen Betrieb einfügt.

Wie Bewerber KI-Rekrutierungstools überlisten können

Was zunächst nicht verwerflich klingt, weil doch jedes Unternehmen letztlich den idealen Bewerber sucht, könnte zur großen Schwachstelle von KI-Rekrutierungstools werden. Denn Kandidaten, die die Bewerbungsvoraussetzungen erfüllen, könnten den Algorithmus „überlisten“, indem sie Verhaltensweisen nachahmen und diese später mit an den Arbeitsplatz nehmen. Das Ergebnis wären Mitarbeiter, die sich durch ihr Anpassungsbestreben selbst im Weg stehen und ihr Potential nicht voll entfalten können.

Probleme bei der Interpretation von Zusammenhängen

KI-Einstellungstools geben Bewertungen zu Bewerbern ab, die sie auf der Grundlage von Menschen vornehmen, die sie vorher einmal gesehen und deren Muster gespeichert haben. Dadurch treffen die Anwendungen Persönlichkeitsvorhersagen, die fehleranfällig sind. Der Grund: Es kommt dabei zu falsch interpretierten Zusammenhängen zwischen der Persönlichkeit eines Kandidaten und einem nicht relevanten Merkmal, wie etwa der Helligkeit während eines Videointerviews.

Fehlendes Bauchgefühl als K.-o.-Kriterium

Bei Rekrutierungstools, die den Einstellungsprozess auf Basis von Künstlicher Intelligenz begleiten, ist also Vorsicht geboten. Letztlich braucht es wohl doch das menschliche Urteilsvermögen, um einen neuen Mitarbeiter auszusuchen. Denn oftmals ist das Bauchgefühl der letztlich entscheidende Faktor, der für oder gegen einen Kandidaten spricht. Und mit einer solchen Empfindung können KI-Anwendungen noch nicht dienen.


Quellen:

www.cam.ac.uk/research/news/claims-ai-can-boost-workplace-diversity-are-spurious-and-dangerous-researchers-argue