US-Diversity-Programm
So soll KI jetzt Bewerber nach „Geschlecht, Rasse und ethnischer Zugehörigkeit“ auswählen
Unter anderem mithilfe von KI-Tools hat ein US-Recruiting-Konzern in den letzten Jahren amerikanischen Unternehmen bei der bevorzugten Anstellung von Minderheiten und Frauen – und damit bei der Benachteiligung des Feindbilds der „alten, weißen Männer“ - geholfen.
Von
![...](https://apollo-news.net/wp-content/uploads/2024/02/ki-hiring-edited.jpg)
„Diversity“ im Arbeitsmarkt ist schon lange kein Fremdwort mehr. Immer mehr Unternehmen prahlen geradezu damit, bestimmte Quoten was Geschlecht, Ethnie oder Sexualität angeht zu erfüllen. Alte, weiße Männer unerwünscht. Im Namen des Kampfes gegen vermeintliche Diskriminierung tritt eine nüchterne Betrachtung der Mitarbeiter-Leistung immer öfter in den Hintergrund – stattdessen werden mehr und mehr Posten nach „Diversity“-Kriterien vergeben.
In den USA liefert dazu nun ein Unternehmen Tools, die das per künstliche Intelligenz machen. Gegenüber dem US-Techportal Pirate Wire berichtete kürzlich ein Whistleblower über diese Praxis beim US-Recruiting-Konzern Gem. Dessen Software wird verschiedene Dinge wie Personal- und Gehaltsmanagement genutzt, aber eben auch – und dafür interessieren sich Kunden wohl besonders – für „diversitätsfördernde“ Funktionen im Einstellungsprozess.
Konkret geht es den Unternehmen darum, eben jene sich selbst gesetzten „Diversity“-Quoten zu erfüllen. Nach eigenen Angaben ermöglicht Gem Recruitern, „Geschlecht und Rasse/ethnische Zugehörigkeit im gesamten Einstellungsprozess“ zu verfolgen. Als Quelle dafür, wer divers sei, also welche Ethnie, Geschlecht, etc. ein Bewerber angehöre, empfiehlt Gem-Gründer Steve Bartel drei Quellen: Selbstauskunft der Bewerber, Kenntnisstand der Recruiter – etwa durch ein Bewerbungsgespräch – und eben eine KI-„Vorhersage“ von Gem. Gerade an der seien viele Unternehmen interessiert, so der Whistleblower.
Maschinelles Lernen, das „Rasse und Geschlecht“ bestimmt
„Ein wichtiger Teil des Pitchs bestand darin, den Kunden zu sagen, dass Gem KI und maschinelles Lernen nutzt, um Rasse und Geschlecht zu bestimmen“, erklärt der. „Eine Sache, die mich wahnsinnig gemacht hat, war, dass Recruiting-/DEI-Einkäufer der Unternehmen fragten: ‚Ist das legal?‘“, erzählte der Whistleblower. „Nicht weil sie etwas dagegen hatten, dass die Software so offensichtlich rassistisch war – sie liebten, was sie sahen. Die Sorge war Widerstand aus ihrem Rechtsteam.“ Für solche Fragen hätte Gem aber vorbereitete Folien der eigenen Anwälte präsentiert.
Gerade aufgrund des früher weiter verbreiteten Rassismus in den USA, ist es dort oft üblich, dass explizit keine Bewerbungsbilder erwünscht sind, damit auf dem Bewerbungsschreiben nichts auf die Ethnie des Bewerbers her deutet, sondern nur sein Lebenslauf eine Rolle spielt.
Gem sorgte aber stattdessen dafür, dass genau solche Merkmale wieder häufiger sichtbar werden. So bewirbt der Konzern sein KI-Tool mit verschiedenen Kundenberichten. Einer davon, vom Tech-Unternehmen Chili Piper, beschreibt dabei, wie man nach dem Einsatz von Gem wieder Videos von Bewerbern verlangte. Denn „URGs“ („unter-repräsentierte Gruppen“, also Frauen, ethnische Minderheiten, etc.) wären im Einstellungsprozess zurückgefallen, nachdem man das Einsenden von Vorstellungsvideos eingestellt hatte – das zeigte Gems Software.
Mit der Wiedereinführung der Bewerbervideos, auf denen dann natürlich Geschlecht und Ethnie klar zu erkennen sind, habe das Unternehmen „einen entscheidenden Wandel in der Demografie der Kandidaten erlebt, die es in die Interviewphase unseres Prozesses schaffen. Wir haben einen Anstieg der URG-Kandidaten um 54 Prozent und einen Anstieg der weiblichen Kandidaten um 31 Prozent festgestellt, die es in die erste Runde der Vorstellungsgespräche geschafft haben. Die Angebote, die auf URGs ausgedehnt wurden, und die Angebote, die von diesen angenommen werden, haben zugenommen“, heißt es stolz.
In einem anderen Kundenbericht von dem Gehaltsabrechnungsunternehmen Gusto verweist Gem darauf, dass der Konzern mithilfe des „Candidate Rediscovery“-Tool Bewerber auch auf der Grundlage von Ethnie und Geschlechts einstellte: Gusto nutzte das Tool, um „geprüfte – und vielfältige – Talente ausfindig zu machen, was letztlich die Zeit bis zur Einstellung verkürzt“.
Ebenfalls bemerkenswert ist ein Kundenbericht über das Telekommunikationsunternehmen Twilio. Dort heißt es: „Die Kennzahlen von Gem haben [dem Personalvermittler] auch dabei geholfen, Phasen im Vorstellungsgespräch zu identifizieren, in denen es dem Team nicht gelingt, eine ausgeglichene Einstellung von Männern und Frauen zu gewährleisten.“ Konkret ging es um eine Abteilung, in der mehr Frauen eingestellt wurden, wie Twilio begeistert berichtet. Dann aber habe Gems Software gezeigt, dass bald mehr Männer eingestellt werden, da es mehr männliche Bewerber gäbe – eigentlich ein proportional völlig natürliches, und auch nicht diskriminierendes oder verwerfliches Ergebnis. Aber es geht eben nicht um gleiche Chancen, sondern gleiche Ergebnisse.
Jobkandidaten mit stereotypischen Minderheitennamen finden
Gem lieferte damit nun den Grund gegenzusteuern, und stattdessen mehr Frauen einzustellen: „Hätten wir keinen Zugriff auf diese Daten gehabt, wären wir nicht in der Lage gewesen, diesen Trend zu erkennen und Strategien für die richtige Zuweisung unserer Ressourcen zu entwickeln“, zitiert Gem ihren Kunden stolz. Twilios Chef prahlte dabei übrigens in der Vergangenheit schon damit, wie das Unternehmen Stellenabbau durch eine „Anti-Rassismus-/Anti-Unterdrückungs-Linse“ betreibe.
Auch Gem selbst verwendet dabei wohl fragwürdige Einstellungsverfahren. So zeigt ein internes Dokument, das Pirate Wires zugespielt wurde, wie im Konzern Stellen unter „Diversity Suche“ als „Offen“, „Frauen“, „URM“ (wohl für „unterrepräsentierte Minderheiten“) oder „Frauen & URM“ markiert werden. Im Endeffekt würde das bedeuten, dass dem Feindbild Weiße Männer bestimmte Stellen von vorneherein verwehrt bleiben. In einem Webinar, über das Pirate Wires berichtete, hieß es demnach auch: „Hier bei Gem konzentrieren wir uns jedes Mal, wenn wir eine neue [Position] eröffnen, ausschließlich auf die Suche von URGs, und in diesem Zusammenhang veröffentlichen wir die Stelle nicht auf der Karriereseite, bis wir es notwendig sein sollte.“
Jenes Seminar – gerichtet an Recruiter – erklärte ebenfalls, wie man Bewerber bestimmter Geschlechter und Ethnien findet: „Die Suche nach URGs erfordert möglicherweise, dass Sie einige grundlegende Vorstellungen darüber ändern, wie ein guter Kandidat aussieht.“ Und hier kommt eben wieder jene Abkehr, von der bis vor kurzem üblichen Hautfarben-blinden Bewerbersuche ins Spiel. So wird beschrieben, wie man LinkedIn durchsucht und dabei nach Jobkandidaten mit stereotypischen Minderheitennamen suchte oder solchen, die bestimmte Pronomen verwenden (nicht männlich, sondern weiblich oder trans).
Ist also all das legal? Wenn man Gem fragt, schon. Aber wenn es um US-Arbeitsrecht geht, ist eigentlich klar: Die Hautfarbe oder das Geschlecht dürfen kein Grund zur Einstellung sein. Der Trick liegt darin, das Bewerbungsverfahren so zu verwässern und mit subjektiven Kriterien zu versehen (Videoeinsendung zur „Kreativität“, die leicht auch zur Erkennung von Geschlecht und Hautfarbe genutzt werden können), dass nach außen hin eine Diskriminierung nicht offen sichtbar ist – intern aber Bewerber danach kategorisiert werden können. KI ist da eine weitere Hilfe, um noch einfacher nach subtilen Merkmalen wie etwa für Minderheiten typischen Namen zu suchen.
Hätte niemals gedacht, eine Welt vorzufinden, in der aufgeschlossene, tolerante, offene und vor allem kompetente Menschen aufgrund ihres Geschlechts oder ihrer Rasse diskriminiert werden und zwar von genau denen, die gegen Geschlechter- und Rassendiskriminierung kämpfen.
Ist das eigentlich ein Hauptmerkmal dieser links-grün-woken Menschen? Dieses irrationale Handeln? Dieses Verdrehen der Realität und alles auf den Kopf stellen? Dieses gut gemeinte, aber grandios schlecht gemachte? Können die auch mal etwas Sinnvolles machen? Kriegen die das einmal in ihrem Leben hin?
Die Welt wird (wieder mal) neu vermessen. Die Daten werden formatiert, metrisiert, attribuiert; alles hat seine Schublade samt Schaltern. Und es wird noch paranoider werden: Coke und Pepsi werden die eingeblendete Werbung für Sinalco bezahlen, da die KI weiß, dass sie auf Coke-Ads hin Pepsi gekauft haben und auf Pepsi-Ads hin Coke, und danach im inneren Boykott sind.
Woher wissen Sie über Menschen, die Sie gar nicht kennen, dass sie aufgeschlossen, tolerant, offen & kompetent sind, wenn die einzige Info, die Sie haben, ist, dass diese Person Weiß und männlich ist?
Blind Auditions haben doch gezeigt, dass das Problem viel zu lange war, dass Menschen mit ihresgleichen sympathisieren & nicht auf Basis von Leistung entscheiden, wer den Job bekommt. So änderte sich durch die Unkenntniss über das Geschlecht zum Beispiel bei den New Yorker Philharmonikern das Verhältnis seit den 80ern mit 99% Männern zu ca 50% bei neuen Einstellungen. Bei einem Tech Unternehmen stellte man fest, dass ohne Kenntnis über das Geschlecht & nur über die Qualität des Bewerbers die im Job dominante Gruppe – nämlich Weiße Männer – nur noch 40% der Einstellungen ausmachten. Auch die Münchener Philharmoniker haben einmal eine Blind Audition gemacht, weil der Sohn eines Berühmten sich bewarb. Eine Frau gewann die Stelle & Blind Auditions wurden wieder abgeschafft.
„Woher wissen Sie über Menschen, die Sie gar nicht kennen, dass sie aufgeschlossen, tolerant, offen & kompetent sind“
Weiß ich nicht. Aber diejenigen, die es nicht sind, brauchen sich folglich über eigens erfahrene Diskriminierung oder über eine Nichteinstellung nicht zu beschweren.
Und darum geht es. Man ist aufgeschlossen, tolerant, offen & kompetent und wird aufgrund des eigenen Geschlechts oder Rasse (was man beides nun mal nicht ändern kann… ja wirklich…) nicht genommen. Das ist rückschrittlich. Aber Haltung ist hier wichtiger als Leistung.
Es sollte eigentlich immer der beste Bewerber eingestellt werden. Welche Proportionen dann entstehen, ist vollkommen irrelevant. Es sei denn, es kommt nicht das dabei raus, was die Woken gerne hätten. Und schon ist man wieder am diskriminieren. Ich bin es einfach nur noch leid.
„Rasse“ gibt es bei Menschen nicht.
Auch wer selbst andere diskriminiert, darf nicht diskriminiert werden.
Jobs werden in den seltensten Fällen nur auf Basis von Qualifikation vergeben. Wichtige Punkte sind ja zB auch Sympathie, Potenzial, soziale Kompetenz.
Es ist ja nicht so, dass in den 60er, als sich Frauen endlich unabhängig von Vater & Ehemann am freien Markt beteiligen konnten, alle Frauen plötzlich nach ihrer Leistung bewertet worden sind, sondern viele Narrative, dass sie dies & jenes nicht könnten o. eine andere Rolle in unserer Gesellschaft hätten, erstmal mühsamst bekämpfen mussten. Bis heute.
Es sollte immer die Person gewählt werden, die am besten für den Job geeignet ist, am besten ins Team passt & die wirtschaftlich einen langfristigen Benefit für das Unternehmen bedeutet. Wenn Mann & Frau (gleich gut) sich bewerben, wird die Person gewählt, die weniger repräsentiert ist.
im text steht doch das ohne Bilder und Videos wenn nur die CV entscheidet weniger Diversität im Unternehmen landet. Ihr Beispiel mag vielleicht eine tolle Anekdote sein hat aber aufgrund der Aussage im Text keine logische Basis
Ich bin in meinem Kommentar lediglich auf den Kommentar von Atlas eingegangen, in dem die Behauptung aufgestellt wurde, dass die Diskriminierung bei der Stellenvergaben kein reales Problem sei. Und mit meiner tollen Anekdote, habe ich lediglich darauf hingewiesen, dass es absolut real ist.
Aber trotzdem würde mich interessieren, wo sie die Info her nehmen, dass weniger Diversität im Unternehmen landet? Da steht lediglich, dass durch Bilder und Videos der Fokus wieder auf Eigenschaften gelenkt wird, die durch Blind Auditions irrelevant werden würden.
Allerdings ist ein ganz großer Bestandteil dieser KI, stille Personen zu rekrutieren, die ein interessantes Profil haben, sich aber nicht bewerben. Wenn Ihnen der Ober eine Karte bringt, auf der Pommes oder Nudeln steht, ist das ja eine ganz andere Art und Weise der Wahl, als wenn Sie in der Innenstadt herumsuchen mit dem konkreten Ziel Sushi zu essen. Die KI hilft besonders bei letzterem, die Sushi zu finden, die sie wollen.
Die USA sind auch eines jener Länder, die sich zum Shithole wandeln. Ob da ein Zusammenhang besteht?
Die vermeintlich Gerechten sind die Ungerechten – im Westen nichts Neues.
Wenn man sich selbst schädigen will, ist man da mit und ohne KI auf dem richtigen Weg. Wenn keine Leistung, sondern alles Mögliche außerhalb von Leistung zählt, ist das der Anfang vom Ende. Man stelle sich zum Vergleich vor, man besetzt im Leistungssport Mannschaften nach diesen bescheuerten Kriterien. Da wäre man erster Anwärter auf den Abstieg.
Die Übertragung auf den Einzelsport wäre da noch abstruser. Aber in der Arbeitswelt soll es der richtige Weg sein – das ist einfach nur lächerlich. Und mit meiner Meinung bin ich dann in den Augen dieser Leute wahrscheinlich rechtsextrem.
Dümmer geht es m.E. kaum und zeigt, dass es nur um Ideologie geht, nicht um Verbesserung und Weiterentwicklung.
Warum nicht auch nach der richtigen Gesinnung und politischen Präferenz? … Ah, kommt noch. Demnächst. Noch vor den Wahlen!
Für einige USA-Institutionen wurden IQ-Test verboten, weil Ostasiaten stets sehr gute und Neger sehr schlechte Ergebnisse erzielen, was dem „demokratischen Gleichheitsprinzip“ widerspricht.
Da sollte man auch Schachturniere verbieten.
Also steht doch fest, das einige bis viele Frauen und bestimmte Ethnien bei denselben neutralen Auswahlkriterien ganz von alleine hinten runter fallen.
Tja, das ist die berühmt-berüchtigte Umkehrerkenntnis, an der wohl keiner mehr vorbei kommt. Umgekehrt wird es sich in Frauenspezifischen Berufen verhalten. Dort werden wohl meist die Männer den kürzeren ziehen. Und was sagt uns das ? Eben drum, nämlich dass die Alten nicht halb so blöd sind wie die Jungen. Wie oft will man das Rad eigentlich noch neu erfinden ? Wir sind wie wir sind, nämlich geschlechtsspezifisch und das ist auch gut so ! Auf die ethnische Aufschlüsselung will ich hier nicht eingehen. Die erschließt sich dem wachen Geist von selbst.
„Democrats“ machen Kriege und Rassenselektion möglich und wollen von Donald Trump nicht dabei gestört werden. Wir kennen es sinngemäß von der kriegsgeil buntgeschminkten Ampel, die nicht von der AfD gestört werden möchte.
Ich geh immer als Vulkanier. Falls sich jemand beschwert … okay, dann eben ein Elf.
Gut so. Diese Spezies Mensch bereitet sich damit selbst den Garaus und das wäre ein Segen für diesen Planeten und die Handvoll, die diesen Irrsinn überleben.
Endlich feiert die Schädelvermessung ihr wohl verdientes Comeback…
Gibt es eigentlich auch schon „künstliche Wut“ ? Also dazu könnte ich was sagen.
Die KI kapriziert sich kurativ. Schwer zu erklären: Also, es ergeben sich in einem Riesengraphen (graph) viele Spezialknoten (node), die miteinander verbunden sind (neuron, neuronal net). Kurateure untersuchen Verbindungen und logische Kausalitäten und benennen daraufhin kritische Knoten als kapitalisierungswürdig. Sodann wird werbeschaltmäßig oder rekrutierungsmäßig drauf rumgeritten == Wütigkeit. Mithin hat KI einen kurativen Bias.
Erinnert an den Film Gattaca. Dieser wird mit dystopisch beschrieben. Unsere Zukunft sieht wahrscheinlich derartig aus. Entsprichst du nicht der biologischen Auswahl, bist du weg vom Fenster. Das ist rassistisch, diskriminierend und menschenverachtend zusammengenommen. Für dieses Extrem muss sicherlich eine neue Wortschöpfung erfolgen.
Was genauer erinnert bei der gefilterten Suche nach Menschen mit anderen Perspektiven und Lebensrealitäten, die der Qualifikation für einen Job entsprechen an das Vorgehen durch Blutabnahme Krankheiten und Todesursachen vorhersagen zu können?
Dieser Artikel mag suggerieren, dass Weiße Männer völlig uninteressant für Unternehmen werden, das stimmt aber nicht. Es gibt nunmal Strukturen in unserer Gesellschaft, die dafür sorgen, dass bestimmte Menschengruppen nicht so schnell sichtbar werden. Wenn ein Unternehmen das Gefühl bekommt, nicht genügend Perspektiven abzudecken, hat es so die Möglichkeit aktiv Menschen mit nicht immer gleichen oder ähnlichen Lebensrealitäten heran zu holen. In welcher Welt ist das eine Dystopie?
„Es gibt nunmal Strukturen in unserer Gesellschaft“
Hört sich an wie eine billige Phrase. Können Sie mir mal paar Beispiele, wenn Sie schon im Plural sprechen, dafür geben?
„dass bestimmte Menschengruppen nicht so schnell sichtbar werden“
Das kann mit einfacher Statistik erklärt werden. Die allermeisten Menschen sind hier in Deutschland (noch, aber nicht mehr lange) weiß, eindeutig einem von den beiden Geschlechtern zuordenbar und heterosexuell. Dann ist es nur logisch, dass farbige Menschen, Transen und Schwule in der Arbeitswelt unterrepräsentiert sind. Die Arbeitswelt ist die Realität. In woken Werbungen kann man die Realität auf den Kopf stellen und nur noch Minderheiten abbilden, aber im echten Leben geht das nun mal nicht.
Also erstmal vorab: Sie zählen sich in ihrem oben selbst verfassten Kommentar vermutlich zu den „offenen, toleranten“ Menschen, deshalb lege ich gerne direkt nahe „Transen“ (das ist eine abfällige Formulierung) als trans Personen zu bezeichnen und „Farbige“ (der Begriff kommt aus der Kolonialzeit & ist eine Fremdbezeichnung, die rassistischen Ursprung hat) idealerweise als People of Colour oder kurz PoC zu bezeichnen, das ist nämlich die geschlossene Selbstbezeichnung.
Ich glaube darüber, dass die Anzahl nicht binärer Personen oder trans Personen anteilig unfassbar gering ist und es nicht nur frech, sondern auch logisch nicht möglich wäre, dass ebendiese plötzlich den Arbeitsmarkt dominieren, brauchen wir nicht diskutieren, oder?
Mehr als 50% der Menschen ist aber eben auch nicht männlich. Unter diesen Männern sind auch ein ziemlich großer Teil nicht Weiß. Die Überrepräsentation von Weißen Männern in Jobs, besonders wenn es um Macht geht, wirft da doch schnell Fragen auf.
Aber zu den Argumenten zu den Strukturen:
Bereitschaft sich mit der Lebensrealität von betroffenen Gruppen auseinanderzusetzen und wie diese zB durch Sprache zumindest nicht konstant beleidigt werden oder als fester Bestandteil unserer Gesellschaft akzeptiert werden. Dass folgende Anfeindungen bei trans Personen zB der häufigste Grund für das Bereuen der Transition sind gepaart mit einer signifikant höhere Suizidrate von ebendiesen spricht schonmal Bände. (Dazu zB gerne mal diese Studie ansehen: https://transequality.org/sites/default/files/docs/usts/USTS-Full-Report-Dec17.pdf da sind eigentlich hauptsächlich Daten erhoben, aus denen man eigene Schlüsse ziehen kann.)
Ein weiterer Punkt wäre da, dass Menschen mit einem nicht deutschen oder nicht europäischem Nachnamen größere Schwierigkeiten haben, eine Wohnung zu finden. Dass Menschen mit Migrationshintergrund wesentlich häufiger von Armut betroffen sind, obwohl ethnische Wurzeln keinen Einfluss auf die Intelligenz haben.
Sie sprechen davon, dass die meisten heterosexuell seien, dabei darf ein Unternehmen sich nichtmal für die sexuelle Orientierung eines Menschen interessieren. Auch diese KI wird das nicht berücksichtigen.
Diese KI filtert übrigens nicht nur ethnische Wurzeln, sondern sie bietet unfassbar detaillierte Möglichkeiten Qualifikationen, die sehr jobspezifisch sind, zu filtern.
Und wenn Sie in ihrem Unternehmen eine IT-Abteilung haben, in der nur südeuropäische Männer sitzen, haben sie dadurch die Möglichkeit das Team zu erweitern mit Menschen, die nicht südeuropäisch sind, die nicht männlich sind, Java und C++ beherrschen und Englisch, Deutsch und Kisuaheli beherrschen, wie es für das Job-Profil ideal ist.
Hier wird es dann so dargestellt, als würde Ethnie und Geschlechteridentität vor Leistung gestellt. Schaut man sich das Programm aber einmal an, sieht man, es ist sehr auf Leistung fokussiert & bringt den Aspekt zur Möglichkeit der Gestaltung eines diversen Teams mit rein.
Ohje. Ihnen geht es ja noch schlechter als ich befürchtet habe. Gute Besserung.
Etwas Rassistischeres kann man sich kaum vorstellen
Viel Text für wenig Inhalt. Die großen US Unternehmen müssen Zahlen liefern, alles andere ist „nice to have“.
Wer die Zahlen nicht liefert, der wird von der Börse abgestraft.
Sobald der Shareholder Value nicht stimmt wuss die Strategie / Mitarbeiter geändert werden.
Und das finde ich gut und richtig, habe mein gesamtes Berufsleben in dieser Kultur verbracht.
Nicht nur in Amerika versucht man sich die KI nützlich zu machen! Trotz der penetranten Warnung an die braven Bürger vor den Gefahren dieser Technik bemüht man sich mittels dieser Technik Informationen über Mitbürger zu verschaffen, die nicht oder nur vermutet nicht der verordneten politischen Sicht entsprechen. Einen entsprechender Auftrag mit KI Hasskriminalität im Netz aufzudecken ging an den „Soziologen“ Dr. Pelzer, der zusammen mit seinem Team von der Technischen Universität (TU) Berlin, unter dem Motto „TU Berlin: Mit KI Hasskriminalität im Netz aufdecken“, den Einsatz künstlicher Intelligenz (KI) durch Sicherheitsbehörden zur Aufdeckung und Verfolgung politisch motivierter Straftaten mit Internetbezug ermöglichen soll; „um gegen Hasskriminalität im Internet besser strafrechtlich vorzugehen, sei das Forschungsprojekt „KISTRA – Einsatz von Künstlicher Intelligenz (KI) zur Früherkennung von Straften“ gestartet“.
Punkt 1: „Diversity“ umfasst alle, also auch alte Weiße Männer. Dass bei einem Unternehmen, wo 3/4 der Belegschaft Weiße Männer sind, darauf geachtet wird, dass das Team facettenreicher wird, is legitim, sinnvoll und für Unternehmen auch lukrativer, da Unternehmen auch wirtschaftlich besser funktionieren, wenn Arbeitskräfte und Führungsetage ein diverses Spektrum abdecken. Klingt fast so, als wolle der Artikel nicht informieren, sondern Stimmung machen?
Punkt 2: Hier steht, Leistung wäre irrelevant geworden? Psychologisch betrachtet ist es faktisch so, dass Menschen den Hang dazu haben ihresgleichen zu bevorzugen: Frau wählt Frau, Schwarz wählt Schwarz. Es war nie wirklich meritokratisch, sondern vorher genau anders herum: Weiße Männer haben Weiße Männer gewählt, auch wenn Frauen oder nicht Weiße Personen gleich oder besser geeignet waren. Eine KI kann tatsächlich helfen dieses Missverhältnis aufzuwiegen. Ein Unternehmen profitiert auf allen Ebenen davon.
“ legitim, sinnvoll und für Unternehmen auch lukrativer, da Unternehmen auch wirtschaftlich besser funktionieren, wenn Arbeitskräfte und Führungsetage ein diverses Spektrum abdecken“
Sie sollten ihre abstrusen Wahnvorstellungen besser beim sozialwissenschaftlichen Stuhlkreis vortragen…
https://online.uncp.edu/degrees/business/mba/general/diversity-and-inclusion-good-for-business/
oder an der 72. besten Universität der Welt im Wirtschaftsstudium.
Hier auch direkt mit ein paar Stichpunkten und Verweisen zu Studien und Untersuchungen.
Das ist aber mit einer Google-Suche findet sich da noch viel mehr.
Ich verstehe nicht so ganz, wieso Sie direkt persönlich werden, wenn Sie Menschen mit Inhalten viel einfacher überzeugen könnten? Ich bin immer an Tatsachen und Wahrheiten interessiert und recherchiere immer gerne tiefgehend, schaue mir diverse Quellen und Perspektiven an. Klar, komme ich da auch nicht immer zum „richtigen“ Schluss und man wird mich auch nie 100% auf eine Seite ziehen können, aber ich lasse mich generell in Aspekten gerne überraschen und überzeugen.
„Ein Unternehmen profitiert auf allen Ebenen davon“
Was Stockton Rush wohl heute davon halten würde…
Wieso sollte das in Bezug auf den Inhalt von Relevanz sein?