New York City versucht, die Verwendung von Algorithmen zur Überprüfung von Bewerbern einzuschränken. Es ist eine der ersten Städte in den USA, die versucht, eine zunehmend übliche – undurchsichtige – Einstellungspraxis zu regulieren.
Der Stadtrat erwägt einen Gesetzentwurf, der potenzielle Arbeitgeber dazu verpflichten würde, die Bewerber über die Verwendung dieser als “automatisierte Entscheidungssysteme” bezeichneten Instrumente zu informieren. Die Unternehmen müssten außerdem ein jährliches Audit durchführen, um sicherzustellen, dass die Technologie nicht zu Verzerrungen führt.
Der Schritt kommt, da der Einsatz künstlicher Intelligenz bei der Einstellung von Mitarbeitern in die Höhe schießt und zunehmend menschliche Prüfer ersetzt. Fortune-500-Unternehmen wie Delta, Dunkin, Ikea und Unilever haben sich an AI gewandt, um bei der Beurteilung von Bewerbern Hilfe zu erhalten. Diese Tools reichen von einem einfachen Textlesegerät, das Bewerbungen nach bestimmten Wörtern und Sätzen durchsucht, bis hin zu einem System, das Videos von potenziellen Bewerbern auswertet, um ihre Eignung für die Stelle zu beurteilen.
“Wir haben alle Gründe zu glauben, dass jedes größere Unternehmen einige algorithmische Einstellungsverfahren einsetzt”, sagte Julia Stoyanovich, eine Gründungsdirektorin des Center for Responsible AI an der New York University, kürzlich in einem Webinar.
Maschinelle Verzerrung
In einer Zeit, in der die New Yorker unter zweistelliger Arbeitslosigkeit leiden, sind die Gesetzgeber besorgt über die schöne neue Welt der digitalen Einstellungen. Untersuchungen haben gezeigt, dass KI-Systeme mehr Probleme schaffen als lösen können. Tools zur Gesichtserkennung, die KI verwenden, haben gezeigt, dass es schwierig ist, Gesichter von Schwarzen zu identifizieren, das Geschlecht von Menschen zu bestimmen und Kongressmitglieder fälschlicherweise einer Verbrecherdatenbank zuzuordnen.
Das vielleicht berüchtigtste Beispiel für die Voreingenommenheit bei der KI ist die Tatsache, dass ein intern bei Amazon entwickeltes Einstellungsinstrument verschrottet werden musste, weil es Frauen diskriminierte. Das Tool wurde auf der Grundlage einer 10-jährigen Geschichte von Lebensläufen entwickelt, die dem Unternehmen vorgelegt wurden, dessen Belegschaft männliche Mitarbeiter verzerrt. Infolgedessen “lehrte” sich die Software effektiv selbst, dass männliche Kandidaten vorzuziehen sind, und degradierte Bewerbungen, die das Wort “Frauen” oder die Namen von zwei reinen Frauenhochschulen enthielten. Obwohl das Werkzeug nie benutzt wurde, zeigt es die potentiellen Fallstricke auf, wenn maschinelle Intelligenz durch menschliches Urteilsvermögen ersetzt werden soll.
“Als Gesetzgeber in einer Stadt, in der einige der größten Unternehmen der Welt ansässig sind, müssen wir eingreifen und ungerechtfertigte Neueinstellungen verhindern”, sagte Stadtratsmitglied Laurie Cumbo, der Sponsor des Gesetzentwurfs, letzte Woche bei einer Anhörung für die Gesetzgebung.
Nicht hart genug
Mehrere Bürgerrechtsgruppen sagen, dass der New Yorker Gesetzentwurf nicht weit genug geht. Ein Dutzend Gruppen, darunter das AI Now Institute, die New York Civil Liberties Union und die New York Communities for Change, haben letzte Woche einen Brief veröffentlicht, in dem sie darauf drängen, dass das Gesetz mehr Arten von automatisierten Werkzeugen und mehr Schritte im Einstellungsverfahren abdeckt. Sie wollen, dass die Maßnahme härtere Strafen vorsieht, so dass Menschen verklagt werden können, wenn sie wegen voreingenommener Algorithmen für eine Stelle übergangen wurden. Dies stünde im Einklang mit dem geltenden Arbeitsrecht, das es Bewerbern erlaubt, wegen Diskriminierung aufgrund von Rasse oder Geschlecht zu klagen.
“Wenn wir [den Gesetzentwurf], wie er heute formuliert ist, verabschieden, wird er ein Stempel für einige der schlimmsten Formen der algorithmischen Diskriminierung sein”, sagte Albert Fox Cahn, Exekutivdirektor des Surveillance Technology Oversight Project, dem Stadtrat.
“Wir brauchen viel schärfere Strafen”, sagte er. “Genau wie bei jeder anderen Form der Diskriminierung am Arbeitsplatz brauchen wir die Durchsetzung im privaten Sektor.
Alicia Mercedes, eine Sprecherin von Cumbo, dem Sponsor des Gesetzentwurfs, sagte, der Gesetzentwurf befinde sich noch im Anfangsstadium und werde sich wahrscheinlich als Reaktion auf Rückmeldungen ändern.
“Wir setzen uns dafür ein, dass diese Gesetzgebung als etwas herauskommt, das wirksam sein kann, daher werden wir natürlich jeden Input, den wir von denjenigen erhalten können, die sich täglich mit diesen Themen beschäftigen”, sagte Mercedes.
Weniger Zeit, bessere Ergebnisse?
Bei der Einstellung von Fachkräften liegt der Hauptanziehungspunkt der KI in ihrer Fähigkeit, Zeit zu sparen. Aber Technologen haben auch das Potenzial für automatisierte Programme angepriesen, die bei richtiger Anwendung menschliche Voreingenommenheiten beseitigen können, wie z.B. die gut dokumentierte Tendenz von Einstellungsmanagern, afroamerikanische Bewerber zu übersehen oder Kandidaten, die dem Einstellungsmanager körperlich ähneln, wohlwollend zu betrachten.
“Wenn nur ein Mensch einen Lebenslauf durchsieht, können Menschen leider nicht die Dinge übersehen, die unbewusste Voreingenommenheiten verursachen – wenn jemand zur gleichen Alma Mater gegangen ist oder in der gleichen Gemeinde aufgewachsen ist”, sagte Athena Karp, CEO von HiredScore, einer KI-Einstellungsplattform.
Karp sagte, dass sie das New Yorker Gesetz unterstützt. “Wenn bei der Einstellung von Mitarbeitern Technologien eingesetzt werden, können und sollten die Hersteller von Technologien und die Kandidaten wissen, wie sie eingesetzt werden”, sagte sie bei der Anhörung.
In den USA ist dies derzeit nur in Illinois der Fall, dessen Biometric Privacy Act von den Arbeitgebern verlangt, den Bewerbern mitzuteilen, ob die KI zu ihrer Beurteilung eingesetzt wird, und den Bewerbern die Möglichkeit gibt, sich dagegen auszusprechen. Auf Bundesebene wurde im Kongress ein Gesetzentwurf zur Untersuchung der Voreingenommenheit in Algorithmen eingebracht. In New York haben die meisten Stellenbewerber keine Ahnung, dass sie von Software überprüft werden – selbst diejenigen, die selbst Informatiker sind.
“Ich habe in meiner Laufbahn als Hochschulabsolventin und Studentin einen beträchtlichen Anteil an Ablehnungen von Stellen und Praktika erhalten”, sagte Lauren D’Arinzo, eine Kandidatin für einen Master-Abschluss in Datenwissenschaften und KI an der New York University. “Es beunruhigt mich, dass ein zukünftiger Arbeitgeber meine Bewerbung aufgrund der Ausgabe eines Algorithmus missachten könnte”.
Sie fügte hinzu: “Was mich am meisten beunruhigt, ist, dass ich, wenn ich nicht für ein Projekt angeworben worden wäre, das explizit in diesem Bereich forscht, wahrscheinlich nicht einmal gewusst hätte, dass diese Art von Tools regelmäßig von Fortune-500-Unternehmen verwendet werden.
Quelle: https://www.cbsnews.com/news/new-york-city-artificial-intelligence-hiring-restriction/
Übersetzung: deepl