Titelthema
Die neue Gottheit und die Rolle des Menschen
Menschen nehmen künstliche Intelligenz als omnipräsent, omnipotent und unendlich wahr. Das sind klassische Gottesattribute. Neue Welten sollen geschaffen und die Sterblichkeit besiegt werden. Über Fluch und Segen neuer Technologien
1. Tag:
Da sprach Gott: „Licht soll entstehen!“, und sogleich strahlte Licht auf. Gott sah, dass es gut war. Er trennte das Licht von der Dunkelheit und nannte das Licht „Tag“ und die Dunkelheit „Nacht“.
2. Tag:
Gott befahl: „Im Wasser soll sich ein Gewölbe bilden, das die Wassermassen voneinander trennt!“ Er machte ein Gewölbe und trennte damit das Wasser darüber von dem Wasser, das die Erde bedeckte. Das Gewölbe nannte er „Himmel“.
Eine Theologin, die einen Artikel über künstliche Intelligenz schreibt? Das braucht man doch so dringend wie der sprichwörtlich gewordene Fisch sein Fahrrad. Ausgerechnet die älteste aller Wissenschaftsdisziplinen (neben Medizin und Jurisprudenz) soll die neuste aller Technologien diskutieren? Das bedarf einer Erklärung!
In der Tat ist einzugestehen, dass ich durch intensive Forschungs- und Leitungsarbeit an einem deutschen KI-Kompetenzzentrum zwar einige Technikkompetenz erworben habe, aber eine Expertin für die mathematischen oder informatischen Aspekte von künstlicher Intelligenz bin ich dennoch nicht. Bei meiner technikethischen Forschung liegt daher der Fokus auf dem Menschen und seinem Zusammenspiel mit der Technologie: Welche anthropologischen Vorannahmen gehen der KI-Entwicklung und -Implementierung voraus, welche Vorstellungen bilden Menschen von sich in der Interaktion mit KI, welche Konsequenzen ergeben sich daraus?
Nicht nur technische Fragen
Umfassende technikethische Analysen fokussieren daher nicht exklusiv auf die Technologie und klassifizieren diese nach „gut, kritisch oder schlecht“. Dabei soll nicht unterschlagen werden, dass natürlich problematische Aspekte in der Technik selbst liegen können, etwa wenn eine KI Vorurteile aus Daten reproduziert und diskriminiert („biased AI“), wenn sie intransparent ist oder wir ihre Ergebnisse nicht rekonstruieren und erklären können. Diese Trias aus Fairness, Transparenz und Erklärbarkeit soll gewährleistet sein – zumindest dann, wenn KI-Systeme Entscheidungsempfehlungen generieren oder gar selbst automatisierte Entscheidungen treffen. Der jüngst beschlossene EU-AI-Act adressiert diese Ansprüche und fordert die Einhaltung der genannten Prinzipien in verschiedenen Risikoklassen. Und dennoch ist damit noch nicht alles gut. Ein Problemverständnis, das nur die Technik in die Pflicht nimmt, würde nämlich zu kurz greifen.
Der Faktor Mensch
Menschen tragen durch die Art und Weise ihrer Nutzung der Technik beziehungsweise sogar durch die Art, wie sie KI wahrnehmen, essenziell zur ethischen (Un-)Bedenklichkeit der Technologie bei. Dabei ist nun aber nicht an eine traditionell vorherrschende Sichtweise gedacht, die davon ausgeht, dass Technik an sich neutral sei und ihre schädliche oder nützliche Wirkung am bösen oder guten Willen des Nutzers hänge. Vielmehr ist das komplexe Zusammenspiel von Technik, einzelnem Nutzer und Gesellschaft in den Blick zu nehmen. Der menschliche Anteil der Mensch-Technik-Interaktion besteht (in praxeologischer Sicht) in den individuellen und kollektiven Praktiken, die Menschen als Individuen und im Kollektiv im Umgang mit Technik an den Tag legen. Wem das zu sehr nach geisteswissenschaftlichem Hyper-Problembewusstsein klingt, der lasse sich auf das folgende Gedankenexperiment ein.
Stellen Sie sich vor, Sie hätten ein auffälliges Muttermal. Ihre Dermatologin (mit Jahrzehnten Berufserfahrung) beurteilt es als unbedenklich. Die bildanalysierende KI kommt zu einem anderen Urteil und rät zur operativen Entfernung. Oder stellen Sie sich vor, Sie wären selbst am Hebel. Sie verkaufen Versicherungen und kommen nach eigener Analyse eines Aspiranten für eine Lebensversicherung zu einem positiven Ergebnis – anders als das datenverarbeitende System Ihres Unternehmens. Wessen Rat würden Sie jeweils folgen und warum?
Gefangen im Vergleich
Die skizzierten Situationen weisen auf einen unbewussten menschlichen Mechanismus hin. Wenn wir mit KI interagieren, löst die Chiffre „künstliche Intelligenz“ bei uns einen unbewussten Reflex aus. Wir begeben uns in ein gemeinsames Referenzsystem und stellen uns dem Vergleich anheim. Wer kann besser Bilder oder Daten analysieren, wer verfügt über größeres Wissen und überlegene Intelligenz, wer macht mehr Fehler, und wer hat welche ausgewiesenen Schwächen? In Situationen wie den skizzierten kommen wir oft zu einem Negativbefund, was das menschliche Vermögen angeht. Oder aber das genaue Gegenteil ist der Fall: Menschen empfinden einen enormen Machtzuwachs, weil ihnen mit KI ein quasi allwissendes und allmächtiges Werkzeug zur Verfügung steht (die Metaphern des „Werkzeugs“ oder „Instruments“ waren in diesem Zusammenhang ein auffälliges Bild bei meinen empirischen Studien, die auch auf ein spezifisches und neues Verständnis von Verantwortung verweisen).
Mehrheitlich sind wir Menschen uns jedoch im Angesicht von KI unserer humanen Makel auf einmal sehr bewusst – wir sind begrenzt in der Datenverarbeitung, vergleichsweise langsam, wir ermüden, lassen uns ablenken, können krank werden und altern. Dass dieser urteilende Vergleich mehrheitlich hinkt und jeweils nur sehr begrenzt auf eben diese eine Handlungssituation zutrifft, ist uns dabei nicht bewusst. Man spricht hier von einem Halo-Effekt. Wir erweitern die erlebte Situation und generalisieren sie zu einem Gesamturteil: „Der Mensch ist der KI unterlegen.“ Als Wesen, die ihr Selbstkonzept (also ihr theoretisches Konzept vom eigenen Sein) aus der sozialen Interaktion ziehen, reagieren wir eben in genannter Manier auf eine Technologie, die in ihrer Zielausrichtung und Funktionsweise ihrerseits stark auf den Menschen bezogen ist.
Eine neue Gottheit?
Bis zu diesem Punkt scheinen die Ergebnisse vor allem für die Psychologie interessant, vielleicht noch für die KI-Forschung oder marktreife Entwicklung, etwa wenn es um das „User Interfaces Design“ geht, das menschliche Reaktionen der genannten Art sicherlich verstärken oder minimieren kann. Was aber wäre nun eine genuin theologische Perspektive?
Oben wurde bereits darauf verwiesen, dass Menschen KI mitunter als omnipräsent, omnipotent, omniscient (allgegenwärtig, allmächtig, allwissend) wahrnehmen. Man könnte noch unendlich und unverfügbar hinzufügen, auch diese Sichtweise manifestiert sich in der Forschung. Die genannten Eigenschaften kann man getrost als klassische Gottesattribute bezeichnen, und so wundert es nicht, dass KI in Medien und Literatur als Fluch oder Segen (man beachte die Konnotation!) betitelt wird, man mit ihr neue Welten schaffen will, die Sterblichkeit besiegen möchte und sich aufs Neue herausgefordert fühlt, über das Menschsein im Gegenüber zu dieser „neuen Gottheit“ nachzudenken.
Was steckt nun hinter dieser augenfällig religiös aufgeladenen Konstellation von KI? In religionspsychologischer Perspektive kann man hier eine Wiederkehr von Verdrängtem feststellen. Es gehört zum Menschsein dazu, sich ein Höheres, Größeres, Ideales – Gott hat viele Namen – vorzustellen und das Bild von sich selbst in Bezogenheit auf dieses Größere in irgendeiner Form zu bestimmen („ich bin angenommen“, „ich muss mich beweisen“). In unserer inzwischen mehrheitlich säkularen Gesellschaft wird diese Funktion von Religion allerdings schon längst nicht mehr nur von religiösen Institutionen oder Glaubensgemeinschaften wahrgenommen. Augenscheinlich kann unter anderem KI zum funktionalen Äquivalent des Gottesgedankens werden und im Prozess der individuellen Identität die Leerstelle einnehmen, die einst christlich religiösen Sinnentwürfen vorbehalten war. Das kann man nun beklagen, ganz sicher sollten Kirche und Theologie den Gründen nachgehen. Als Wissenschaftlerin im Feld der Technikethik interessiert mich jedoch insbesondere, wie wir auf gute Weise mit diesem Phänomen umgehen können, wenn es um die Wahrnehmung von Verantwortung geht, die im Fall von KI durchaus als groß bezeichnet werden kann, wenn man an die Eingriffstiefe denkt, die diese Technologie mit sich bringt.
Neue Normen entstehen
„Auf den Menschen kommt es an“ – dieser Impuls ist keineswegs in der uns eigenen menschlichen Hybris zu lesen. Man muss vielleicht nicht gleich von der vierten großen Kränkung des Menschen sprechen (nach Kopernikus, Darwin und Freud), gleichwohl darf man feststellen, dass uns mit KI in der Tat eine neue Wissensordnung begegnet, durch die wir uns herausgefordert fühlen. Man kann das ja durchaus als positive „Challenge“ sehen, die „safe“ gesetzte Zentralstellung des Menschen infrage zu stellen und uns neu zu entdecken – auch und gerade aus christlicher Sicht. Dabei sollten wir aber zwei Stolpersteine im Blick haben. Erstens: Die Summe von Einzelwahrnehmungen, wie sie in oben stehenden Beispielen skizziert sind, hat das Potenzial, über die normierende Kraft des Faktischen Realitäten zu schaffen. Wenn viele Individuen eine Wahrnehmung teilen, werden bestimmte Urteils- und Reaktionsweisen normal und zu einem geteilten Muster. Die meisten Normen entstehen nicht in irgendwelchen Kommissionen, sondern auf diese Weise bottom-up. Der aktuelle Diskurs um KI legt nahe, dass wir uns in einem solchen Prozess befinden, der sich mit jeder weiteren Anwendung von KI in Unternehmen, Schulen, Krankenhäusern und anderen Institutionen verstärkt – mit fundamentalen Auswirkungen auf die Wahrnehmung von Verantwortung. Daher gilt es zweitens, die Interaktion mit KI in den diversen Situationen nicht nur entlang der Technik ethisch zu beurteilen, sondern auch und gerade an und mit den Menschen, die ihr gegenüberstehen. Dies ist eine gemeinsame Anstrengung, zu der ich die Leserschaft hier gerne einlade.
Birte Platow ist Professorin für Evangelische Theologie an der TU Dresden. Sie ist zudem Forscherin am KI-Kompetenzzentrum ScaDS.AI der TU Dresden und der Universität Leipzig. Dort ist sie Mitglied im Vorstand.