Künstliche Intelligenz im Personalbereich benötigt Diskurs und Transparenz

  • Werden zukünftig nur noch Maschinen die Personalauswahl und -entwicklung für uns übernehmen?

    Prof. Dr. Zweig: Sicher nicht alleinig, aber ergänzend. Dafür sind jedoch Voraussetzungen zu schaffen, die unserer Kenntnis nach in vielen Unternehmen noch nicht umgesetzt sind. Damit ein maschinell-lernendes System gut arbeiten kann, braucht es viele Daten. Da liegt die Krux, denn die meisten Unternehmen arbeiten mit vielen verschiedenen Anwendungen und Datenbanken und die Daten sind nicht entsprechend aufbereitet. Zudem braucht es eine intensive Beschäftigung mit diesen Daten, um eine potentielle Diskriminierung zu verhindern. Zudem lässt sich nicht mehr vorab formulieren, was genau ein solches KI-System aus den Daten für Regeln lernt. So ist bei einem großen Onlineversandhändler beispielsweise erst nach einer Weile aufgefallen, dass das hauseigene Bewerbungsbewertungssystem Frauen seltener als potentielle Mitarbeitende vorschlug. Aus den Vergangenheitsdaten hatte das System "gelernt", dass man besser männlich ist, um dort zu arbeiten. Mit diesen Fragestellungen muss sich ein Unternehmen intensiv beschäftigen und das mit interdisziplinären Teams, die verschiedene Blickrichtungen und Kompetenzen mitbringen. Finden diese Diskussionen hinter verschlossenen Türen statt, steigt das Risikopotential und Misstrauen von Mitarbeitenden gegenüber KI.

    Borgert: In den vielen Datentöpfen, die in Unternehmen zur Verfügung stehen, finden sich manchmal trotzdem nicht die notwendigen Daten, um beispielsweise eine Personalauswahl zu unterstützen. Unserer Erfahrung nach haben wenige Unternehmen die Stellenprofile und auch die Kompetenzprofile der Mitarbeitenden über einen relevanten Zeitraum elektronisch gespeichert. Gleichzeitig sind auch die Kriterien für eine "erfolgreiche Einstellung" häufig nicht formuliert – zumal das sowieso eine komplexe Aufgabenstellung ist. Es beginnt schon bei den Kriterien, die für eine Stelle herangezogen werden. Diese sind oft situativ verschieden oder es gibt nur zwei bis drei feststehende Must-Have-Kriterien. Dann tut es auch ein einfacher Algorithmus und man kann sich den Aufwand einer KI sparen. 

  • Wie lässt sich sicherstellen, dass Künstliche Intelligenz ethisch und sinnvoll eingesetzt wird?

    Prof. Dr. Zweig: Sinnvoll ist bereits vor der Entwicklung oder dem Kauf eines solchen Systems alle beteiligten Bereiche im Unternehmen zusammen zu holen und einen Diskurs über die grundsätzlichen Fragestellungen anzustrengen:

    • Was wollen wir warum erreichen?
    • Welche Auswirkungen kann der Einsatz einer KI haben?
    • Wie schätzen wir das Risikopotential bezüglich Diskriminierung ein?
    • Wie stellen wir Transparenz und einen laufenden Diskurs sicher?

    Dazu ist natürlich auch grundsätzliches Wissen über Algorithmen und KI notwendig. Auch die Personalbereiche werden sich dahingehend weiterbilden müssen, damit sie an der Diskussion teilnehmen können.

    Borgert: Der ethische Einsatz von KI, vor allem überall dort, wo Menschen bewertet werden, lässt sich nur mit Transparenz und Diskurs gestalten. Auf der technischen Ebene liegt die alleinige Lösung nicht. Schon allein, weil es eben nicht mehr nur explizite Algorithmen sind, deren Ergebnisse sich nachvollziehen lassen. Eine Überwachungsstelle nach Vorbild des TÜVs ist auch kein passender Ansatz, weil er mitunter trügerische Sicherheit suggeriert. Deshalb argumentieren wir für einen Prozess, der möglichst viele Beteiligte einbindet und gemeinsame Entscheidungen forciert.