https://rotary.de/gesellschaft/taeuschung-als-prinzip-a-21697.html
Titelthema

Täuschung als Prinzip

Titelthema - Täuschung als Prinzip
Büste_leicht_geneigt_Hinterkopf_ist_offen_kreative_Ideen_und _musikalische_Noten_fliegen_aus_dem_Kopf_Ideen_werden_ abgeschöpft_Farben_bunt_und_fröhlich © Midjourney/Cyprian Lothringer

Was, wenn man natürliche und künstliche Sprache nicht mehr voneinander unterscheiden kann? Vom Umgang mit postartifiziellen Texten

Hannes Bajohr01.04.2023

Nick Cave, australischer Popmusiker und Romancier, war über diese Post nicht erfreut. Ein Fan hatte ihm einen Songtext geschickt, der von der auf Textgenerierung ausgelegten künstlichen Intelligenz ChatGPT produziert worden war. Auf die Aufforderung hin, „ein Lied im Stil von Nick Cave“ zu schreiben, generierte sie Zeilen wie „I’ve got the blood of angels, on my hands / I’ve got the fire of hell, in my eyes“. Cave ließ in seinem Blog wissen, er halte das Ergebnis für „eine groteske Verhöhnung dessen, was es heißt, ein Mensch zu sein“. Songs entständen aus „Leiden, das heißt, sie basieren auf einem komplexen, inneren menschlichen Schöpfungskampf“. ChatGPT dagegen habe kein Inneres: „Daten leiden nicht.“


Hören Sie hier den Artikel als Audio!

Einfach anklicken, auswählen und anhören!


Seit große Sprachmodelle wie ChatGPT in der Lage sind, fast menschlich klingende Texte zu schreiben, ist die alte Furcht der Moderne, Menschen könnten durch Maschinen ersetzt werden, neuerlich aufgeflammt. Zugleich droht sich mit dem KI-Siegeszug die Erwartungshaltung an unbekannte Texte zu ändern, die bisher davon ausging, dass diese natürlich, nicht künstlich seien.

Diese Unterscheidung traf schon 1962 der Philosoph und Schriftsteller Max Bense. „Natürliche Poesie“ nannte er Literatur, die Ausdruck eines „personalen poetischen Bewusstseins“ sei und sich zugleich immer auf die Welt beziehe. Als „künstliche Poesie“ bezeichnete er dagegen die Produkte von Algorithmen. Die Wörter, die ein Computer verarbeitet, sind leere Symbole und bedeuten ihm nichts. So gesehen hat Cave völlig recht: Das Thema eines artifiziell generierten Textes ist, selbst wenn seine Wörter zufällig für uns Dinge in der Welt bezeichnen sollten, eigentlich nicht mehr die Welt.

Nun verteidigte Bense gerade nicht Caves romantische Idee von authentischer menschlicher Schaffenskraft. Im Gegenteil wollte er wissen, was man von einem künstlichen Text ästhetisch noch aussagen kann. Zu diesem Zweck beauftragte er 1959 seinen Schüler Theo Lutz, per Computer „stochastische Texte“ zu generieren: Aus einem Satz von Vokabeln stellte ein Algorithmus über eine Zufallsfunktion immer neue Kürzestsätze her: „Nicht jeder Blick ist nah. / Kein Dorf ist spät.“ Sie gelten als erstes deutschsprachiges Experiment mit digitaler Poesie und sind gewissermaßen ein Ahne von ChatGPT.

Maßgeschneiderte Textgenerierung

Die Differenz zwischen natürlichen und artifiziellen Texten erschien Bense und Lutz offensichtlich: Sie wussten ja, wie das Gedicht hergestellt worden war. Was aber, wenn man das nicht mehr weiß? Wäre Caves Absage an die Seelenlosigkeit des artifiziellen Textes so deutlich ausgefallen, hätte er seinen Ursprung nicht gekannt? 1960 veröffentlichte Theo Lutz einen weiteren Computertext, diesmal mit Weihnachtsthema – und ohne Hinweis auf die Machart: „jeder schnee ist kalt / und nicht jeder engel ist weiß“. Es folgten Briefe von ästhetisch düpierten Lesern: „Sie sollten sich vielleicht doch überlegen, ob Sie solchen modernen Dichterlingen die Spalten Ihres Blattes öffnen!“

Das ist die Standarderwartung an unbekannte Texte: dass sie von einem Menschen stammen, der etwas sagen will. Um einen Text als artifiziell zu erkennen, bedarf es immer noch zusätzlicher Information. Lutz’ „Betrug“ ist zugleich das Ur-Prinzip künstlicher Intelligenz, meint der Medienwissenschaftler Simone Natale. Als der Informatikpionier Alan Turing 1950 überlegte, wie man die Intelligenz von Computern nachweisen sollte, schlug er vor: dann, wenn ein Mensch in einem textlich vermittelten Gespräch nicht mehr sagen könnte, ob er mit einem Computer oder einem Menschen spricht. Zugespitzt gesagt: Das Wesen von KI ist es, artifizielle Texte fälschlicherweise als natürliche auszugeben. Caves Lob der „offensichtlich“ menschlichen Qualitäten eines Textes ist daher naiv, weil die KI-Forschung alles daransetzt, diese Offensichtlichkeit zu simulieren.

Je mehr artifizieller Text uns aber in Zukunft umgibt, desto wahrscheinlicher ist es, dass sich auch die Standarderwartung verändert. Sie wäre nun der Zweifel: Hat diesen Text ein Mensch oder eine Maschine geschrieben?

Gerade im Umgang mit nicht literarischen Texten zeigt sich, dass der Turing-Test keine relevante Beschreibung von Wirklichkeit mehr ist. Er geht von starker Täuschung als einziger Form von Mensch-MaschineInteraktion und der Differenz artifiziell/natürlich als der einzigen möglichen Unterscheidung von Textarten aus. Dabei gibt es bereits heute überall Zwischenstufen, gerade im Bereich von unmarkierten, funktionalen Texten. Es ist sehr wohl möglich, zu wissen, dass etwas mit einer Maschine produziert wurde, und es gleichzeitig so zu behandeln, als wäre es bewusste Kommunikation. Wir wissen, dass Siri kein Mensch ist und kein Inneres besitzt, aber die reibungslose Kommunikation mit ihr funktioniert nur dann, wenn wir die KI zumindest ansatzweise so behandeln, als ob.

Menschliche und maschinelle Textproduktion wachsen zudem immer mehr zusammen. SprachKIs werden als lizenzierte Funktion verkauft, die in andere Software eingebaut wird. Damit kann Textgenerierung auf spezielle Aufgaben maßgeschneidert werden. So hat Microsoft neue Milliardeninvestitionen in OpenAI angekündigt – und KI-Funktionen für die nächste Version von Word. Wie die aussehen könnten, zeigt die Notizsoftware Craft, in der schon jetzt ein KI-Assistent Absätze weiterschreiben, stilistisch bearbeiten oder in Stichpunkte zusammenfassen kann.

Damit ist das Problem automatisierter Propaganda noch gar nicht berührt, auch nicht, dass Sprachmodelle es mit der Wahrheit nicht so genau nehmen, gern auch Fakten ausdenken und rhetorisch autoritativ erscheinen lassen. All das wird, je mehr solcher Texte zirkulieren, den Zweifel immer akuter machen.

Plötzlich wäre es egal, woher der Text stammt

Ein solcher Zustand wäre auf Dauer unerträglich. Man kann daher spekulieren, ob dieser Herkunftszweifel irgendwann von einer Zeit postartifizieller Texte abgelöst wird. Damit meine ich zweierlei. Einmal, dass sich artifizielle und natürliche Sprache immer weiter vermischen. Das kann besorgniserregende Effekte haben: Ein Sprachmodell lernt, indem man es auf große Mengen Text trainiert – je mehr, desto besser. Ein zukünftiges Modell würde im Extremfall einmal mit aller verfügbaren Sprache trainiert worden sein. Es mag sich dann, wie der Philosoph Benjamin Bratton es nennt, ein Uroboros-Effekt ergeben: Wie die Schlange, die sich selbst in den Schwanz beißt, werden diese Modelle für weiteren Performancegewinn dann anhand von Text lernen, der selbst bereits aus einem Sprachmodell stammt.

Die so fixierte Durchschnittssprache würde umgekehrt auf menschliche Sprecher einwirken – eingebunden in all die kleinen Schreibassistenten, hätte sie den Status einer Norm, die ihre Benutzer in einen sich selbst verstärkenden Sprachstandard einsperrte: Jede linguistische Innovation hätte einen nur noch so geringen Anteil an den Trainingsdaten, dass sie so gut wie nicht existent wäre.

Doch schon bevor es so weit ist, ergäbe sich bereits eine neue, dritte Standarderwartung. Das ist die andere Bedeutung von postartifiziell: Statt einen Menschen hinter einem Text zu vermuten oder vom Zweifel heimgesucht zu werden, ob es nicht doch eine Maschine war, wird diese Frage schlicht nicht mehr wichtig sein. Wir konzentrieren uns dann nur darauf, was der Text sagt, statt darauf, von wem er stammt. Freilich ginge es hier zunächst um Gebrauchsprosa.

Menschliche Herkunft als Qualitätsmerkmal

Was aber ist mit dem künstlerischen Schreiben, um das sich Nick Cave solche Sorgen macht? Hier deutet die Autorin Jennifer Lepp eine Zukunft an. Sie schreibt Fantasyromane – alle 49 Tage einen. Ihr hilft dabei das Programm Sudowrite, ein KI-basierter Schreibassistent, der Dialoge fortführt und Beschreibungen ergänzt. Eine solche literarische KI tendiert auf einen konventionellen Umgang mit Sprache – sie produziert selbst Uroboros-Literatur. Genrekonventionen, wie in Lepps Fantasyromanen, könnten daher am ehesten postartifiziell werden.

Welche Literatur könnte sich dem Postartifiziellen dagegen entziehen? Womöglich die Nachfahren von Lutz und Bense: Was man „digitale Literatur“ nennt – Literatur, die dezidiert mithilfe von Computern hervorgebracht wird –, stellt die Verquickung zwischen natürlich und artifiziell bewusst aus. So bei David Jhave Johnstons Buch ReRites: Über ein Jahr ließ er eine selbst trainierte KI Textmassen generieren, die er anschließend nachbearbeitete. Derart als „Performance“ gerahmt, ist die Verteilung der menschlichen und maschinellen Rolle weiterhin sichtbar und selbst Thema des Textes. Die andere Möglichkeit lautet, die menschliche Herkunft als besonderes Merkmal hervorzuheben. So wie man bei Manufactum Handgefertigtes kauft, könnte auch Cave auf seine Alben schreiben: „guaranteed human-made“.

Nur: Auch diese Versicherung ist nicht beweisbar. Was dann noch bliebe, wäre, den Durchschnittstexten der KI mit einem unkonventionellen Gebrauch von Sprache zu begegnen. Jedes formale Experiment, jede linguistische Subversion liefe der Wahrscheinlichkeit großer Sprachmodelle, ihrem Uroboros-Standard zuwider. Ob das am Ende auch Caves Lyrics einschließt oder diese eben doch – auch ohne Leiden – simulierbar wären, muss sich erst noch herausstellen. 


 

Künstliche Intelligenz schafft auch Bilder, die oft mit der Realität wenig zu tun haben. Sehen Sie hier, was der Bildergenerator Midjourney uns noch für Bilder zum Thema KI zusammengestellt hat:

 

2023, ai, künstliche intelligenz, bilderserie
BILDERSERIE - KLICKEN SIE AUF DAS FOTO!
Hannes Bajohr
Hannes Bajohr ist Medienwissenschaftler und Fellow am Collegium Helveticum in Zürich. Zuletzt erschien Schreibenlassen. Texte zur Literatur im Digitalen (August Verlag, 223 Seiten, 20 Euro).

© Zoë Tempest