Was wäre, wenn das größte Hindernis für einen Arbeitsplatz nicht ein Mangel an Fähigkeiten wäre, sondern vielmehr die Konzeption des Recruiting-Prozesses? Für Millionen von Bewerber:innen mit Behinderungen ist der Einstellungsprozess selbst das Hindernis. Konkret: Automatisierte Bewertungen, die nicht mit Bildschirmleseprogrammen funktionieren. Einseitige Videointerviews, die neurodiverse Bewerber herausfiltern. KI-gesteuerte Lebenslaufprüfungen, die nicht-traditionelle Karrierewege benachteiligen. Diese Systeme rationalisieren nicht die Rekrutierung, sondern schließen stillschweigend Menschen aus.
KI und Automatisierung sind dennoch gleichzeitig der Schlüssel, um diese Barrieren zu durchbrechen. Die Herausforderung? Sicherzustellen, dass diese Technologien mit dem Ziel der Inklusion entwickelt werden und nicht erst im Nachhinein.
In diesem Artikel wird untersucht, wie KI einen barrierefreieren Einstellungsprozess gestaltet – einen Prozess, bei dem Technologie nicht nur filtert, sondern Chancen fördert.
Den Einfluss von KI auf die Barrierefreiheit verstehen
Für viele Arbeitssuchende versprechen KI-gesteuerte Rekrutierungstools Effizienz und Fairness. Allerdings können dieselben Systeme für Kandidat:innen mit Behinderungen eher Hindernisse darstellen. Automatisierte Screening-Tools, Chatbots und Videointerviews sind oft nicht auf diverse Bedürfnisse ausgerichtet, was die Ausgrenzung eher verstärkt als abbaut.
Freemann Consulting zufolge sind viele KI-gestützte Einstellungssysteme nicht barrierefrei konzipiert. Automatisierte Lebenslauffilter können beispielsweise aufgrund von Erkrankungen entstandene Lücken in der beruflichen Laufbahn benachteiligen. Einseitige KI-gestützte Videointerviews interpretieren die Sprechweise oder Mimik neurodiverser Bewerber:innen oft falsch, was zu ungerechten Absagen führt. Diese Technologien, die menschliche Vorurteile beseitigen sollen, können unbeabsichtigt bestehende Ungleichheiten verstärken, wenn sie nicht kontrolliert werden.
Dieselben KI-Systeme können jedoch leistungsstarke Werkzeuge für die Barrierefreiheit sein – wenn sie verantwortungsbewusst entwickelt werden. KI-gesteuerte Spracherkennungstechnologie stellt sicher, dass gehörlose und schwerhörige Kandidat:innen an digitalen Vorstellungsgesprächen teilnehmen können. Mit Screenreadern kompatible Bewerbungsportale verbessern den Zugang für sehbehinderte Bewerber:innen. Einige Unternehmen setzen sogar Algorithmen zur Erkennung von Vorurteilen ein, um KI-gesteuerte Einstellungsentscheidungen in Echtzeit zu überwachen und anzupassen.
Die Argumente für eine inklusive Personalpolitik liegen auf der Hand. Darüber, wie Barrierefreiheit im Recruiting den Talentpool erweitert und das Employer Branding stärkt, berichteten wir bereits im vorherigen Insight. Kandidat:innen erwarten zunehmend inklusive Arbeitsplätze und solche Organisationen ziehen auch ein breiteres Spektrum qualifizierter Bewerber:innen an.
KI allein wird Diskriminierung bei der Einstellung jedoch nicht beseitigen. Es muss mit diversen Datensätzen trainiert, regelmäßig auf Voreingenommenheit überprüft und kontinuierlich präzisiert werden. Unternehmen, die Barrierefreiheit als fortlaufende Aufgabe und nicht als einmalige Lösung betrachten, werden beim Aufbau eines wirklich inklusiven Einstellungsprozesses eine Vorreiterrolle einnehmen.
Risiken mindern: Umgang mit algorithmischer Voreingenommenheit
KI sollte menschliche Vorurteile bei der Einstellung beseitigen. Stattdessen hat sie in vielen Fällen Diskriminierung in großem Maßstab automatisiert. Das KI-gestützte Einstellungstool von Amazon hat bekanntermaßen weibliche Lebensläufe herabgestuft. Und es stufte Absolventinnen von zwei Colleges herab, die ausschließlich von Frauen besucht werden (Reuters, 2018). Gesichtserkennungsalgorithmen können Kandidat:innen mit Behinderungen oder mit diversen ethnischen Hintergründen oft nicht richtig einschätzen. KI-gestützte Lebenslauf-Screening-Systeme neigen dazu, traditionelle Karriereverläufe zu bevorzugen und Bewerber:innen mit Karriereunterbrechungen aufgrund von Krankheiten oder Pflegeverantwortung außen vor zu lassen.
Diese Vorurteile sind nicht auf die KI selbst zurückzuführen, sondern auf die Daten, mit denen sie trainiert wird. Wenn historische Einstellungsmuster Diskriminierung widerspiegeln, lernt die KI, diese zu replizieren. Wie PALTRON in seiner Analyse der KI-gesteuerten Rekrutierung hervorhebt, funktionieren diese Systeme am besten, wenn sie regelmäßig überprüft, verfeinert und an die reale Diversität angepasst werden.
Strategien für eine vorurteilsfreie KI bei der Einstellung
- Diverses Datentraining: KI-Modelle müssen mit inklusiven Datensätzen trainiert werden, die ein breites Spektrum an Hintergründen, Fähigkeiten und Fertigkeiten der Kandidat:innen widerspiegeln. Dadurch wird verhindert, dass das System veraltete Einstellungsmuster verstärkt, die Minderheitengruppen benachteiligen.
- Algorithmen zur Erkennung von Voreingenommenheit: Einige Organisationen setzen inzwischen KI zur Überwachung von KI ein. Tools zur Erkennung von Voreingenommenheit scannen Einstellungsalgorithmen kontinuierlich auf diskriminierende Muster und stellen so sicher, dass KI-gesteuerte Entscheidungen bestimmte Bewerber:innen nicht unfair benachteiligen.
- Menschliche Aufsicht und hybride Einstellungsmodelle: Kein KI-System sollte isoliert arbeiten. Laut „The HR Director“ verfolgen Unternehmen mit den effektivsten KI-Einstellungsverfahren einen „Human-in-the-Loop“-Ansatz, bei dem Recruiter KI-Entscheidungen überprüfen und bei Bedarf außer Kraft setzen. Dieses Hybridmodell verbindet Effizienz mit Fairness.
- Inklusive Stellenbeschreibungen und Bewertungen: Plattformen wie Textio haben gezeigt, dass voreingenommene Sprache in Stellenbeschreibungen diverse Bewerber:innen abschreckt. KI-Tools können nun Stellenausschreibungen auf ausgrenzende Formulierungen scannen und so von der ersten Interaktion an einen inklusiveren Einstellungsprozess gewährleisten.
- Transparenz und Feedback für Kandidat:innen: Arbeitssuchende sollten verstehen, wie KI ihre Bewerbungen bewertet. Unternehmen, die Feedback dazu geben, warum ein:e Kandidat:in abgelehnt wurde, tragen dazu bei, Fairness zu gewährleisten und Vertrauen in KI-gesteuerte Einstellungssysteme aufzubauen.
Auf dem Weg zu ethischer KI bei der Einstellung
KI ist natürlich nicht von Natur aus voreingenommen, aber sie spiegelt die Vorurteile der Menschen wider, die sie entwickeln und trainieren. Organisationen, die ihre KI-Einstellungsinstrumente aktiv prüfen, menschliche Aufsicht integrieren und Transparenz fördern, werden nicht nur Diskriminierung vermeiden, sondern auch gleichzeitig eine stärkere, diversere Belegschaft aufbauen. Denn hier wird grundsätzlich ein “Diversity Mindset” aufgebaut.
Neurodiversität und Automatisierung: Neue Wege bei der Einstellung von unterschiedlichen Denkweisen
Traditionelle Einstellungsverfahren begünstigen oft Kandidat:innen, die einer engen Definition von Professionalität entsprechen – also ausgefeilte Kommunikation, selbstbewusste Körpersprache und reibungslose soziale Interaktionen. Für neurodivergente Personen, wie Menschen mit Autismus, ADHS oder Legasthenie, können diese Erwartungen jedoch erhebliche Hindernisse darstellen. KI und Automatisierung bieten hier eine Chance, neu zu definieren, wie Unternehmen das Potenzial von Menschen bewerten. Dies ist jedoch nur möglich, wenn diese Technologien unter Berücksichtigung der Neurodiversität entwickelt werden.
Wenn Automatisierung versagt – neurodivergente Kandidat:innen
KI-gesteuerte einseitige Videointerviews, bei denen Kandidat:innen auf vorab aufgezeichnete Fragen antworten, sind mittlerweile ein gängiges Auswahlverfahren. Diese Systeme priorisieren jedoch häufig Blickkontakt, Stimmlage und Mimik – Faktoren, die wenig mit der tatsächlichen Fähigkeit eines Kandidaten oder einer Kandidatin zu tun haben, eine Arbeit auszuführen.
Ebenso kann die algorithmische Lebenslaufprüfung Bewerber:innen mit nicht-linearen Karrierewegen oder unkonventioneller Formulierung herausfiltern und dabei hoch qualifizierte Personen übersehen, deren Arbeitsverlauf möglicherweise nicht den traditionellen Mustern folgt.
Wie KI neurodivergente Talente unterstützen kann
Trotz dieser Herausforderungen bietet KI auch das einzigartige Potenzial, die Einstellung von Mitarbeitern inklusiver zu gestalten. Das „Autism at Work“-Programm von SAP zeigt, wie strukturierte, auf Fähigkeiten basierende KI-Bewertungen dabei helfen können, Stärken zu erkennen, die bei herkömmlichen Einstellungsverfahren übersehen werden. Anstatt die soziale Leistungsfähigkeit zu überprüfen, können sich KI-Tools auf kognitive Fähigkeiten, Problemlösungsfähigkeiten und aufgabenspezifische Stärken konzentrieren – Bereiche, in denen neurodivergente Fachkräfte oft hervorragende Leistungen erbringen.
Jenseits der Automatisierung: Schaffung eines wirklich inklusiven Einstellungsprozesses
KI allein wird keine neurodiverse Belegschaft schaffen, aber sie kann einige der größten Hindernisse beseitigen. Der Schlüssel liegt in der Entwicklung von Automatisierungswerkzeugen, die bestehende Vorurteile nicht nur widerspiegeln, sondern ihnen aktiv entgegenwirken. Das bedeutet, dass KI darauf trainiert werden muss, alternative Kommunikationsstile zu erkennen, Interviewprozesse an unterschiedliche kognitive Bedürfnisse anzupassen und sicherzustellen, dass die Rekrutierungssysteme flexibel genug sind, um alle Arten von Denkern zu unterstützen.
Hinzu kommt: Die alternde Belegschaft in Deutschland und der Mangel an technischen Fachkräften machen die Einstellung von neurodiversen Mitarbeitern aktuell zu einer hochstrategischen Notwendigkeit. Unternehmen wie Siemens und die Deutsche Telekom setzen bereits KI-Tools ein, um autistische Talente für Positionen in der Datenanalyse und Cybersicherheit zu rekrutieren. Diese Initiativen stehen im Einklang mit dem Antidiskriminierungsauftrag des Allgemeinen Gleichbehandlungsgesetzes (AGG) und schließen gleichzeitig Kompetenzlücken, die deutsche Unternehmen bis 2027 pro Jahr 74 Milliarden Euro kosten (49 Milliarden im Jahr 2024).
Fazit: KI als Instrument für Inklusion, nicht als Barriere
Das Potenzial von KI besteht darin, den Zugang zu Stellen zu erleichtern, aber nur, wenn sie so konzipiert ist, dass sie die Vielfalt menschlicher Erfahrungen erkennt und berücksichtigt. Während Automatisierung Prozesse rationalisieren und Vorurteile beseitigen kann, kann sie ebenso leicht Ausgrenzung verstärken, wenn sie unkontrolliert bleibt. Der Schlüssel liegt darin, sich nicht allein auf KI zu verlassen, sondern sie mit Transparenz, kontinuierlicher Aufsicht und einem tiefen Engagement für Barrierefreiheit zu gestalten.