US-Diversity-Programm
So soll KI jetzt Bewerber nach „Geschlecht, Rasse und ethnischer Zugehörigkeit“ auswählen
Unter anderem mithilfe von KI-Tools hat ein US-Recruiting-Konzern in den letzten Jahren amerikanischen Unternehmen bei der bevorzugten Anstellung von Minderheiten und Frauen – und damit bei der Benachteiligung des Feindbilds der „alten, weißen Männer“ - geholfen.
Von
„Diversity“ im Arbeitsmarkt ist schon lange kein Fremdwort mehr. Immer mehr Unternehmen prahlen geradezu damit, bestimmte Quoten was Geschlecht, Ethnie oder Sexualität angeht zu erfüllen. Alte, weiße Männer unerwünscht. Im Namen des Kampfes gegen vermeintliche Diskriminierung tritt eine nüchterne Betrachtung der Mitarbeiter-Leistung immer öfter in den Hintergrund – stattdessen werden mehr und mehr Posten nach „Diversity“-Kriterien vergeben.
In den USA liefert dazu nun ein Unternehmen Tools, die das per künstliche Intelligenz machen. Gegenüber dem US-Techportal Pirate Wire berichtete kürzlich ein Whistleblower über diese Praxis beim US-Recruiting-Konzern Gem. Dessen Software wird verschiedene Dinge wie Personal- und Gehaltsmanagement genutzt, aber eben auch – und dafür interessieren sich Kunden wohl besonders – für „diversitätsfördernde“ Funktionen im Einstellungsprozess.
Konkret geht es den Unternehmen darum, eben jene sich selbst gesetzten „Diversity“-Quoten zu erfüllen. Nach eigenen Angaben ermöglicht Gem Recruitern, „Geschlecht und Rasse/ethnische Zugehörigkeit im gesamten Einstellungsprozess“ zu verfolgen. Als Quelle dafür, wer divers sei, also welche Ethnie, Geschlecht, etc. ein Bewerber angehöre, empfiehlt Gem-Gründer Steve Bartel drei Quellen: Selbstauskunft der Bewerber, Kenntnisstand der Recruiter – etwa durch ein Bewerbungsgespräch – und eben eine KI-„Vorhersage“ von Gem. Gerade an der seien viele Unternehmen interessiert, so der Whistleblower.
Maschinelles Lernen, das „Rasse und Geschlecht“ bestimmt
„Ein wichtiger Teil des Pitchs bestand darin, den Kunden zu sagen, dass Gem KI und maschinelles Lernen nutzt, um Rasse und Geschlecht zu bestimmen“, erklärt der. „Eine Sache, die mich wahnsinnig gemacht hat, war, dass Recruiting-/DEI-Einkäufer der Unternehmen fragten: ‚Ist das legal?‘“, erzählte der Whistleblower. „Nicht weil sie etwas dagegen hatten, dass die Software so offensichtlich rassistisch war – sie liebten, was sie sahen. Die Sorge war Widerstand aus ihrem Rechtsteam.“ Für solche Fragen hätte Gem aber vorbereitete Folien der eigenen Anwälte präsentiert.
Gerade aufgrund des früher weiter verbreiteten Rassismus in den USA, ist es dort oft üblich, dass explizit keine Bewerbungsbilder erwünscht sind, damit auf dem Bewerbungsschreiben nichts auf die Ethnie des Bewerbers her deutet, sondern nur sein Lebenslauf eine Rolle spielt.
Gem sorgte aber stattdessen dafür, dass genau solche Merkmale wieder häufiger sichtbar werden. So bewirbt der Konzern sein KI-Tool mit verschiedenen Kundenberichten. Einer davon, vom Tech-Unternehmen Chili Piper, beschreibt dabei, wie man nach dem Einsatz von Gem wieder Videos von Bewerbern verlangte. Denn „URGs“ („unter-repräsentierte Gruppen“, also Frauen, ethnische Minderheiten, etc.) wären im Einstellungsprozess zurückgefallen, nachdem man das Einsenden von Vorstellungsvideos eingestellt hatte – das zeigte Gems Software.
Mit der Wiedereinführung der Bewerbervideos, auf denen dann natürlich Geschlecht und Ethnie klar zu erkennen sind, habe das Unternehmen „einen entscheidenden Wandel in der Demografie der Kandidaten erlebt, die es in die Interviewphase unseres Prozesses schaffen. Wir haben einen Anstieg der URG-Kandidaten um 54 Prozent und einen Anstieg der weiblichen Kandidaten um 31 Prozent festgestellt, die es in die erste Runde der Vorstellungsgespräche geschafft haben. Die Angebote, die auf URGs ausgedehnt wurden, und die Angebote, die von diesen angenommen werden, haben zugenommen“, heißt es stolz.
In einem anderen Kundenbericht von dem Gehaltsabrechnungsunternehmen Gusto verweist Gem darauf, dass der Konzern mithilfe des „Candidate Rediscovery“-Tool Bewerber auch auf der Grundlage von Ethnie und Geschlechts einstellte: Gusto nutzte das Tool, um „geprüfte – und vielfältige – Talente ausfindig zu machen, was letztlich die Zeit bis zur Einstellung verkürzt“.
Ebenfalls bemerkenswert ist ein Kundenbericht über das Telekommunikationsunternehmen Twilio. Dort heißt es: „Die Kennzahlen von Gem haben [dem Personalvermittler] auch dabei geholfen, Phasen im Vorstellungsgespräch zu identifizieren, in denen es dem Team nicht gelingt, eine ausgeglichene Einstellung von Männern und Frauen zu gewährleisten.“ Konkret ging es um eine Abteilung, in der mehr Frauen eingestellt wurden, wie Twilio begeistert berichtet. Dann aber habe Gems Software gezeigt, dass bald mehr Männer eingestellt werden, da es mehr männliche Bewerber gäbe – eigentlich ein proportional völlig natürliches, und auch nicht diskriminierendes oder verwerfliches Ergebnis. Aber es geht eben nicht um gleiche Chancen, sondern gleiche Ergebnisse.
Jobkandidaten mit stereotypischen Minderheitennamen finden
Gem lieferte damit nun den Grund gegenzusteuern, und stattdessen mehr Frauen einzustellen: „Hätten wir keinen Zugriff auf diese Daten gehabt, wären wir nicht in der Lage gewesen, diesen Trend zu erkennen und Strategien für die richtige Zuweisung unserer Ressourcen zu entwickeln“, zitiert Gem ihren Kunden stolz. Twilios Chef prahlte dabei übrigens in der Vergangenheit schon damit, wie das Unternehmen Stellenabbau durch eine „Anti-Rassismus-/Anti-Unterdrückungs-Linse“ betreibe.
Auch Gem selbst verwendet dabei wohl fragwürdige Einstellungsverfahren. So zeigt ein internes Dokument, das Pirate Wires zugespielt wurde, wie im Konzern Stellen unter „Diversity Suche“ als „Offen“, „Frauen“, „URM“ (wohl für „unterrepräsentierte Minderheiten“) oder „Frauen & URM“ markiert werden. Im Endeffekt würde das bedeuten, dass dem Feindbild Weiße Männer bestimmte Stellen von vorneherein verwehrt bleiben. In einem Webinar, über das Pirate Wires berichtete, hieß es demnach auch: „Hier bei Gem konzentrieren wir uns jedes Mal, wenn wir eine neue [Position] eröffnen, ausschließlich auf die Suche von URGs, und in diesem Zusammenhang veröffentlichen wir die Stelle nicht auf der Karriereseite, bis wir es notwendig sein sollte.“
Jenes Seminar – gerichtet an Recruiter – erklärte ebenfalls, wie man Bewerber bestimmter Geschlechter und Ethnien findet: „Die Suche nach URGs erfordert möglicherweise, dass Sie einige grundlegende Vorstellungen darüber ändern, wie ein guter Kandidat aussieht.“ Und hier kommt eben wieder jene Abkehr, von der bis vor kurzem üblichen Hautfarben-blinden Bewerbersuche ins Spiel. So wird beschrieben, wie man LinkedIn durchsucht und dabei nach Jobkandidaten mit stereotypischen Minderheitennamen suchte oder solchen, die bestimmte Pronomen verwenden (nicht männlich, sondern weiblich oder trans).
Ist also all das legal? Wenn man Gem fragt, schon. Aber wenn es um US-Arbeitsrecht geht, ist eigentlich klar: Die Hautfarbe oder das Geschlecht dürfen kein Grund zur Einstellung sein. Der Trick liegt darin, das Bewerbungsverfahren so zu verwässern und mit subjektiven Kriterien zu versehen (Videoeinsendung zur „Kreativität“, die leicht auch zur Erkennung von Geschlecht und Hautfarbe genutzt werden können), dass nach außen hin eine Diskriminierung nicht offen sichtbar ist – intern aber Bewerber danach kategorisiert werden können. KI ist da eine weitere Hilfe, um noch einfacher nach subtilen Merkmalen wie etwa für Minderheiten typischen Namen zu suchen.
Hätte niemals gedacht, eine Welt vorzufinden, in der aufgeschlossene, tolerante, offene und vor allem kompetente Menschen aufgrund ihres Geschlechts oder ihrer Rasse diskriminiert werden und zwar von genau denen, die gegen Geschlechter- und Rassendiskriminierung kämpfen.
Ist das eigentlich ein Hauptmerkmal dieser links-grün-woken Menschen? Dieses irrationale Handeln? Dieses Verdrehen der Realität und alles auf den Kopf stellen? Dieses gut gemeinte, aber grandios schlecht gemachte? Können die auch mal etwas Sinnvolles machen? Kriegen die das einmal in ihrem Leben hin?
Die USA sind auch eines jener Länder, die sich zum Shithole wandeln. Ob da ein Zusammenhang besteht?
Die vermeintlich Gerechten sind die Ungerechten – im Westen nichts Neues.
Wenn man sich selbst schädigen will, ist man da mit und ohne KI auf dem richtigen Weg. Wenn keine Leistung, sondern alles Mögliche außerhalb von Leistung zählt, ist das der Anfang vom Ende. Man stelle sich zum Vergleich vor, man besetzt im Leistungssport Mannschaften nach diesen bescheuerten Kriterien. Da wäre man erster Anwärter auf den Abstieg.
Die Übertragung auf den Einzelsport wäre da noch abstruser. Aber in der Arbeitswelt soll es der richtige Weg sein – das ist einfach nur lächerlich. Und mit meiner Meinung bin ich dann in den Augen dieser Leute wahrscheinlich rechtsextrem.
Dümmer geht es m.E. kaum und zeigt, dass es nur um Ideologie geht, nicht um Verbesserung und Weiterentwicklung.
Für einige USA-Institutionen wurden IQ-Test verboten, weil Ostasiaten stets sehr gute und Neger sehr schlechte Ergebnisse erzielen, was dem „demokratischen Gleichheitsprinzip“ widerspricht.
Da sollte man auch Schachturniere verbieten.
Warum nicht auch nach der richtigen Gesinnung und politischen Präferenz? … Ah, kommt noch. Demnächst. Noch vor den Wahlen!
„Democrats“ machen Kriege und Rassenselektion möglich und wollen von Donald Trump nicht dabei gestört werden. Wir kennen es sinngemäß von der kriegsgeil buntgeschminkten Ampel, die nicht von der AfD gestört werden möchte.
Also steht doch fest, das einige bis viele Frauen und bestimmte Ethnien bei denselben neutralen Auswahlkriterien ganz von alleine hinten runter fallen.
Tja, das ist die berühmt-berüchtigte Umkehrerkenntnis, an der wohl keiner mehr vorbei kommt. Umgekehrt wird es sich in Frauenspezifischen Berufen verhalten. Dort werden wohl meist die Männer den kürzeren ziehen. Und was sagt uns das ? Eben drum, nämlich dass die Alten nicht halb so blöd sind wie die Jungen. Wie oft will man das Rad eigentlich noch neu erfinden ? Wir sind wie wir sind, nämlich geschlechtsspezifisch und das ist auch gut so ! Auf die ethnische Aufschlüsselung will ich hier nicht eingehen. Die erschließt sich dem wachen Geist von selbst.
Endlich feiert die Schädelvermessung ihr wohl verdientes Comeback…
Ich geh immer als Vulkanier. Falls sich jemand beschwert … okay, dann eben ein Elf.
Gut so. Diese Spezies Mensch bereitet sich damit selbst den Garaus und das wäre ein Segen für diesen Planeten und die Handvoll, die diesen Irrsinn überleben.
Gibt es eigentlich auch schon „künstliche Wut“ ? Also dazu könnte ich was sagen.
Erinnert an den Film Gattaca. Dieser wird mit dystopisch beschrieben. Unsere Zukunft sieht wahrscheinlich derartig aus. Entsprichst du nicht der biologischen Auswahl, bist du weg vom Fenster. Das ist rassistisch, diskriminierend und menschenverachtend zusammengenommen. Für dieses Extrem muss sicherlich eine neue Wortschöpfung erfolgen.
Etwas Rassistischeres kann man sich kaum vorstellen
Viel Text für wenig Inhalt. Die großen US Unternehmen müssen Zahlen liefern, alles andere ist „nice to have“.
Wer die Zahlen nicht liefert, der wird von der Börse abgestraft.
Sobald der Shareholder Value nicht stimmt wuss die Strategie / Mitarbeiter geändert werden.
Und das finde ich gut und richtig, habe mein gesamtes Berufsleben in dieser Kultur verbracht.
Nicht nur in Amerika versucht man sich die KI nützlich zu machen! Trotz der penetranten Warnung an die braven Bürger vor den Gefahren dieser Technik bemüht man sich mittels dieser Technik Informationen über Mitbürger zu verschaffen, die nicht oder nur vermutet nicht der verordneten politischen Sicht entsprechen. Einen entsprechender Auftrag mit KI Hasskriminalität im Netz aufzudecken ging an den „Soziologen“ Dr. Pelzer, der zusammen mit seinem Team von der Technischen Universität (TU) Berlin, unter dem Motto „TU Berlin: Mit KI Hasskriminalität im Netz aufdecken“, den Einsatz künstlicher Intelligenz (KI) durch Sicherheitsbehörden zur Aufdeckung und Verfolgung politisch motivierter Straftaten mit Internetbezug ermöglichen soll; „um gegen Hasskriminalität im Internet besser strafrechtlich vorzugehen, sei das Forschungsprojekt „KISTRA – Einsatz von Künstlicher Intelligenz (KI) zur Früherkennung von Straften“ gestartet“.
Punkt 1: „Diversity“ umfasst alle, also auch alte Weiße Männer. Dass bei einem Unternehmen, wo 3/4 der Belegschaft Weiße Männer sind, darauf geachtet wird, dass das Team facettenreicher wird, is legitim, sinnvoll und für Unternehmen auch lukrativer, da Unternehmen auch wirtschaftlich besser funktionieren, wenn Arbeitskräfte und Führungsetage ein diverses Spektrum abdecken. Klingt fast so, als wolle der Artikel nicht informieren, sondern Stimmung machen?
Punkt 2: Hier steht, Leistung wäre irrelevant geworden? Psychologisch betrachtet ist es faktisch so, dass Menschen den Hang dazu haben ihresgleichen zu bevorzugen: Frau wählt Frau, Schwarz wählt Schwarz. Es war nie wirklich meritokratisch, sondern vorher genau anders herum: Weiße Männer haben Weiße Männer gewählt, auch wenn Frauen oder nicht Weiße Personen gleich oder besser geeignet waren. Eine KI kann tatsächlich helfen dieses Missverhältnis aufzuwiegen. Ein Unternehmen profitiert auf allen Ebenen davon.