Kann eine KI den Karriereerfolg eines Menschen allein anhand seines Gesichts vorhersagen? Eine neue Studie von Forschern der Wharton School, Yale und Indiana University behauptet genau das. Doch die Technologie steht vor massiven ethischen und rechtlichen Herausforderungen – insbesondere im Hinblick auf den EU AI Act, der solche Methoden als verbotene Praktik einstufen könnte.
Wie funktioniert das?
Die Forscher haben mithilfe von KI die Big Five Persönlichkeitsmerkmale (Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit, Neurotizismus) aus LinkedIn-Profilbildern von 96.000 MBA-Absolventen extrahiert. Anschließend wurden diese „Photo Big 5“-Werte mit Karriereverläufen abgeglichen.
Ergebnis: Die Gesichtsanalyse sagt Gehalt, Job-Seniorität und Jobwechsel erstaunlich genau voraus – oft sogar besser als klassische Kriterien wie Hochschulnoten oder Testergebnisse.
Welche Merkmale sind entscheidend?
- Gewissenhaftigkeit erhöht die Wahrscheinlichkeit, eine Elite-Business-School zu besuchen und ein hohes Gehalt zu erzielen.
- Extraversion korreliert mit höherem Einstiegsgehalt, aber auch mit häufigeren Jobwechseln.
- Offenheit hat einen schwächeren Einfluss auf Karriereentwicklung.
- Neurotizismus wirkt sich oft negativ auf Gehalt und Karriereverlauf aus.
Warum ist das problematisch?
Der Einsatz von KI zur Analyse von Gesichtern und zur Vorhersage von Persönlichkeit oder Karrierechancen wirft rechtliche und ethische Fragen auf. Insbesondere könnte diese Technologie mit dem EU AI Act kollidieren, der bestimmte Praktiken im Bereich der Künstlichen Intelligenz verbietet.
Mögliche problematische Aspekte:
✅ Beeinflussung von Verhalten (Art. 5(1)a) – Wenn eine KI Entscheidungen über Bewerber trifft oder Empfehlungen gibt, die auf fragwürdigen oder schwer nachvollziehbaren Kriterien basieren, könnte dies unfaire Nachteile für Einzelpersonen schaffen.
✅ Automatisierte soziale Bewertung (Art. 5(1)c) – Falls die Technologie dazu genutzt wird, Menschen aufgrund von Persönlichkeitsmerkmalen systematisch in „wünschenswerte“ und „weniger wünschenswerte“ Gruppen einzuteilen, könnte dies als eine Form der sozialen Klassifizierung angesehen werden.
✅ Diskriminierung durch biometrische Systeme (Art. 5(1)d) – Falls die Gesichtsanalyse unbewusst bestimmte Gruppen benachteiligt (z. B. durch Verzerrungen in den Trainingsdaten oder algorithmische Voreingenommenheit), könnte sie gegen Antidiskriminierungsvorschriften verstoßen.
Da KI-gestützte Bewerbungsverfahren immer stärker reguliert werden, müssen Unternehmen sicherstellen, dass ihre Technologien transparente, faire und diskriminierungsfreie Entscheidungen ermöglichen.
Welche ethischen Fragen stellt die Forschung?
- Diskriminierung: Menschen könnten allein aufgrund ihrer Gesichtszüge schlechtere Karrierechancen haben.
- Autonomie: Wenn Unternehmen Gesichter statt Fähigkeiten bewerten, bleiben persönliche Entwicklung und individuelle Leistung unberücksichtigt.
- Datenschutz: Diese Technologien könnten ohne Zustimmung genutzt werden – ein klarer Verstoß gegen die DSGVO und den EU AI Act.
Warum wird überhaupt an so etwas geforscht?
Unternehmen suchen nach effizienteren Möglichkeiten, Talente zu erkennen und Bewerbungsprozesse zu automatisieren. KI könnte dabei helfen – aber um welchen Preis?
Fazit: Innovation vs. Grundrechte
Die Gesichtsanalyse zur Vorhersage des Karriereerfolgs zeigt, wie leistungsfähig moderne KI-Systeme sind – aber auch, wie schnell sie in ethisch und rechtlich gefährliches Terrain vordringen.
Mit dem EU AI Act ist klar: Automatisierte, gesichtsbasierte Selektion im Jobbereich wird in der EU kaum zulässig sein. Stattdessen müssen Unternehmen Wege finden, KI fair, transparent und diskriminierungsfreieinzusetzen.