KI-gestützte Entscheidungen nur mit menschlicher Kontrolle

Bei KI-gestützten Entscheidungen wird nicht der Einsatz von Algorithmen selbst als kritisch angesehen, sondern die fehlende menschliche Kontrolle. Das ist das Ergebnis einer neuen Studie um die Datenwissenschaftler Professor Florian Keusch und Professorin Frauke Kreuter.

 

KI bereits vielfach in Anwendung

 

Als Ende 2020 die österreichische Arbeitsmarktagentur AMS einen Algorithmus einsetzte, um die Art der Job- und Weiterbildungsangebote an die individuellen Profile von Arbeitssuchenden anzupassen, war die öffentliche Aufregung in Österreich groß. Viele kritisierten das Vorgehen, weil es auf historischen Daten basierte und damit potenziell Menschen benachteilige, die schon in der Vergangenheit am Jobmarkt diskriminiert wurden: Frauen erhielten beispielsweise per se einen Punktabzug, Mütter mussten einen weiteren Punktabzug hinnehmen. Dies hätte wiederum ihre Chancen verringern können, an Wiedereingliederungsmaßnahmen teilzunehmen.

Aber nicht nur auf dem Arbeitsmarkt, auch im Banken- und Personalwesen oder in der Medizin ist der Einsatz von Algorithmen verbreitet – und wird kontrovers diskutiert. Wie es um die Akzeptanz von Algorithmus-basierten Entscheidungen steht, hat der Mannheimer Datenwissenschaftler Prof. Dr. Florian Keusch in Zusammenarbeit mit Prof. Dr. Frauke Kreuter von der Ludwig-Maximilians-Universität München untersucht. Ihre Studie belegt, dass Entscheidungen, an denen Menschen beteiligt sind, als fairer beurteilt werden als solche, die ein Algorithmus allein trifft.

 

Einsatz von KI ohne menschliche Kontrolle problematisch

 

„Die Ergebnisse lassen darauf schließen, dass die Nutzung von Algorithmen ohne zusätzliche Kontrolle durch den Menschen als besonders problematisch angesehen wird“, konstatiert Keusch. „Es ist also nicht der Einsatz von Algorithmen an sich, der umstritten ist“, so der Mannheimer Professor weiter.

Die Forschenden haben für ihre Studie im Rahmen des German Internet Panels (GIP) mehr als 4.000 Menschen online befragt. Diese mussten Fragen beantworten, wie fair und akzeptabel sie die Nutzung von KI-gestützten Entscheidungen in vier unterschiedlichen Szenarien beurteilen: bei der Vergabe eines Finanzprodukts, bei Job-Bewerbungen, bei Gefängnisstrafen und bei Maßnahmen für Arbeitssuchende.

In allen vier Bereichen ist der Einsatz von KI schon heute zumindest in Teilen Realität. Das so genannte automated decision making (ADM) wird von Unternehmen und staatlichen Einrichtungen genutzt, um vor allem die Effizienz von Entscheidungsprozessen zu erhöhen und den Einfluss persönlicher Einstellungen der Entscheider zu reduzieren. Dabei wird oftmals die Aufgabe zwischen Mensch und Maschine geteilt: Bewerben sich beispielsweise Hunderte von Kandidatinnen und Kandidaten auf einen Job, sortiert ein Computerprogramm auf Basis von historischen Daten die Auswahl schon einmal vor und die oder der Zuständige trifft dann die endgültige Entscheidung. Dass eine Maschine allein eine Entscheidung trifft, ist noch eine Seltenheit. Aber es sei durchaus denkbar, dass bestimmte Prozesse künftig komplett automatisiert würden, sagen die Studienautoren.

Wo es um Akzeptanz geht, ist meist auch Transparenz ein großes Thema. Viele Algorithmen ähneln einer Blackbox – selbst für diejenigen, die sie verwenden. Der Grund: Sie werden teilweise extern eingekauft, so dass Entscheidende selbst gar nicht wissen, wie der Algorithmus zu seinem Ergebnis kommt. „Aus wissenschaftlicher und gesellschaftlicher Sicht ist es natürlich wünschenswert zu wissen, wie der Algorithmus einzelne Kriterien gewichtet“, so Keusch. Auch das sei eine wichtige Voraussetzung für dessen gesellschaftliche Akzeptanz.

 

Den Ergebnisbericht der Studie finden Sie hier.

 

Quelle: Universität Mannheim

 

 

Beitragsbild: pixabay.com