https://rotary.de/gesellschaft/der-computer-sagt-nein-a-21661.html
Titelthema

Der Computer sagt Nein

Titelthema - Der Computer sagt Nein
© Adobe Stock

Algorithmen verändern das Rollenverständnis bei der Arbeit. Aber wer ist eigentlich für Entscheidungen verantwortlich?

22.03.2023

Algorithmische Entscheidungssysteme rütteln an unserem Selbstverständnis, an unserem Glauben an eine überlegene menschliche Intelligenz. Dadurch verändern sich Rollenwahrnehmungen, die Autonomie und Selbstwirksamkeit der Mitarbeitenden verringern sich und es kommt zu einer Diffusion von Verantwortung. Als 2016 erstmals ein Algorithmus den weltbesten Go-Spieler besiegte, wurde die Vorstellung, dass die menschliche Intelligenz, Kreativität und Intuition durch nichts übertroffen werden kann, zutiefst erschüttert. Gleichzeitig entstand die Hoffnung, dass künstliche Intelligenz (KI) menschliche Grenzen und Unzulänglichkeiten überwinden wird. Mit dem Einsatz algorithmischer Entscheidungssysteme sollen in Zukunft objektivere und bessere Entscheidungen möglich werden. Neue kognitive Fähigkeiten von KI-Systemen und insbesondere ihre Lernfähigkeit ermöglichen diesen Paradigmenwechsel. Sie können ohne Zutun des Menschen die Umwelt wahrnehmen, sich an sie anpassen und aus ihr lernen. Daraus resultiert ihre Handlungsmacht.

Aber sind die hohen Erwartungen an diese Systeme beim heutigen Stand der KI-Technik berechtigt? Bisher hat die Forschung vor allem die Auswirkungen algorithmischer Entscheidungen auf Betroffene analysiert – und die hohen Erwartungen bereits gedämpft. Es zeigt sich, dass auch algorithmische Entscheidungen – aufgrund verzerrter oder unvollständiger Daten, unzureichender Modellbildung und problematischer Zielsetzungen – ähnliche Probleme aufweisen können wie Entscheidungen von Menschen. Schließlich sind ja auch KI-Systeme "nur" von jenen fehleranfälligen Menschen designt, die man ersetzen möchte. Eine Ironie der Automatisierung (Bainbridge, 1993).

Was passiert eigentlich, wenn Mitarbeitenden "intelligente" und "autonome" Systeme als Co-Worker zur Seite gestellt werden, mit denen sie gemeinsam Entscheidungen treffen? Bei vielen algorithmischen Entscheidungssystemen verschwimmen die Grenzen zwischen automatisierten Entscheidungen und Entscheidungsunterstützung. Wie wirkt sich das auf das Selbstverständnis und die eigene Rollenwahrnehmung aus? Und wer trägt am Ende die Verantwortung für Entscheidungen?

Beginnen wir von vorne. Tatsächlich kann unter Laborbedingungen durch die Kombination komplementärer Fähigkeiten von Menschen und KI-Systemen eine Verbesserung der Entscheidungsqualität nachgewiesen werden. Während Menschen für die Auswahl und Entwicklung der Entscheidungsmodelle, die Zielsetzungen und die Interpretation des Entscheidungskontexts benötigt werden, können KI-Systeme unglaublich große Datenmengen in kürzester Zeit analysieren und Zusammenhänge und Muster erkennen. Dafür braucht es eine gut gestaltete Schnittstelle zwischen Mensch und KI-System, die zunächst Informationen aus verschiedenen Datenkanälen automatisiert sortiert, bewertet und kategorisiert. Werden anschließend Zukunftsprognosen ermöglicht, verringert dies die kognitive Arbeitsbelastung der Menschen und verbessert damit letztlich die Entscheidungsqualität.

Wenn Aufgaben an algorithmische Entscheidungssysteme delegiert werden, so schreiben die Menschen solchen Systemen auch Handlungskompetenzen zu. Sie entwickeln Annahmen über die Fähigkeiten und Kompetenzen dieser Systeme und haben bestimmte Erwartungen an sie. In diesen soziotechnischen Systemen, in denen Menschen und autonome Systeme arbeitsteilig Aufgaben übernehmen, verändern sich bei Mitarbeitenden drei Dinge: Erstens die Wahrnehmung der eigenen Rolle, zweitens die Wahrnehmung der eigenen Kompetenzen und Selbstwirksamkeit und drittens die Zuschreibung von Verantwortung für den Arbeitsprozess und das Ergebnis. Es besteht die Gefahr, dass den automatisierten Systemen zu sehr vertraut wird. Das schwächt die Autonomie und Selbstwirksamkeit von Mitarbeitenden und schließlich kommt es zu einer Diffusion von Verantwortung.

Übertriebenes Vertrauen kann so weit führen, dass Menschen ihr Selbstverständnis infrage stellen: Das Ergebnis muss richtig sein, weil die Analyse ja von einem Computer gemacht wurde und Computer bessere Schlussfolgerungen ziehen als Menschen. Mit Argumenten wie diesen rechtfertigen Menschen sogar offensichtlich falsche Klassifizierungen ihrer Person durch das algorithmische Entscheidungssystem. Mit dem übermäßigen Vertrauen gehen aber Fähigkeiten und Kompetenzen verloren, weil sie nicht regelmäßig gebraucht und trainiert werden. Entscheidungsprozesse, deren Regeln und Zusammenhänge nicht verstanden werden, bieten auch keine Lernchancen für neue Erfahrungen und Erkenntnisse für Menschen. Damit steigt unsere Abhängigkeit von KI-Systemen, die insbesondere dann problematisch wird, wenn sie ausfallen oder nicht richtig funktionieren. Zwar wird in sogenannten Out-of-the-loop-Szenarien erwartet, dass Menschen einspringen und die Aufgaben der Systeme wieder übernehmen können, aber dann fehlen ihnen die Erfahrungen und Kompetenzen dazu. Eine weitere Ironie der Automatisierung.

Autonomie und selbstbestimmtes Handeln erfordern ein bestimmtes Maß an (Eigen-)Verantwortung. Durch die Delegation von Entscheidungen an algorithmische Entscheidungssysteme wird die Handlungsmacht der Menschen eingeschränkt. Damit sinken auch die wahrgenommene Kontrolle und das Verantwortungsgefühl. Allein die Tatsache, dass eine Entscheidung nicht von einem Menschen getroffen wird, sondern das Ergebnis eines automatisierten Prozesses ist, verleiht ihr eine gewisse Neutralität und Legitimität – und schwächt damit das Verantwortungsgefühl der Anwenderinnen und Anwender. Dies ist deshalb besonders problematisch, weil sich insbesondere Laien lieber auf Algorithmen als auf die Fachexpertise von Menschen verlassen. Aber wer trägt schlussendlich die Verantwortung für Fehlentscheidungen in einem soziotechnischen Entscheidungssystem?

Gerade beim Einsatz von KI-Systemen für Entscheidungen, die Einfluss auf die Rechte, das Leben und die Gesundheit von Menschen haben, ist die Frage der Verantwortung höchst relevant. Wie können Ärztinnen und Ärzte für Diagnosen verantwortlich gemacht werden, die sie aufgrund von Fehleinschätzungen von KI-Systemen, die ihnen ihr Arbeitgeber zur Verfügung stellt, getroffen haben? Hier wird deutlich, dass es zu einer Verantwortungsdiffusion zwischen Anwendern, Systementwicklerinnen und Arbeitgebern kommt. Ob die Verantwortung für potenzielle Folgen algorithmischer Entscheidung eindeutig zugeordnet werden können, hängt in hohem Maße von der Transparenz und Erklärbarkeit der eingesetzten KI-Systeme ab. Da KI-Technologien die Anforderungen an moralisches Handeln und Verantwortung nicht erfüllen können, ist es wichtig, die Informationsasymmetrie zwischen den KI-Systemen und ihren Anwenderinnen und Anwendern zu schließen. Dabei reicht es nicht aus, den Zugang zu Daten, Zielsetzungen und Entscheidungsmodell zu haben, sondern die Anwender müssen den Entscheidungsprozess auch nachvollziehen und verstehen können. Dies ist allerdings auf Basis des aktuellen Stands der Forschung in vielen Fällen noch nicht in ausreichendem Maße möglich.

Sabine Theresia Köszegi


Sabine Theresia Köszegi ist seit 2009 Professorin für Arbeitswissenschaft und Organisation an der Technischen Universität Wien. Ihre Forschungsschwerpunkte liegen in der Schnittmenge von Technologie, Gender, Arbeit und Organisation.



Künstliche Intelligenz schafft auch Bilder, die oft mit der Realität wenig zu tun haben. Sehen Sie hier, was der Bildergenerator Midjourney uns noch für Bilder zum Thema KI zusammengestellt hat:

2023, ai, künstliche intelligenz, bilderserie
BILDERSERIE - KLICKEN SIE AUF DAS FOTO!