Der rasche Notenschlüssel

*ohne Gewähr

Notenschlüsselrechner Pro

Meister der Improvisation

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? 23.01.2023, 14:28

ChatGPT lügt - Artikelbild

ChatGPT spuckt uns häufig falsche Inhalte in geschnörkelten Sätzen aus. Wir zeigen einige legendäre Beispiele wie das alte Gurkenfass und diskutieren die Gefahren, die sich dadurch für die Menschheit ergeben.

Anzeige
Anzeige
Alle folgenden Beispiele wurden im Januar 2023 mit ChatGPT basierend auf GPT-3 erzeugt.

Sie können das folgende Video auch auf YouTube: Die Lügen des ChatGPT - Das alte Gurkenfass in 4K und mit Kapiteln anschauen oder weiter unten alle Erläuterungen und Beispiele nachlesen.

Wenn wir ChatGPT als Hilfsmittel für Lehr-Lern-Prozesse betrachten (Hausarbeiten oder Referate schreiben, Outlines bilden, meinen Unterricht vorbereiten …), müssen wir uns klar darüber werden, wie verlässlich der Output von ChatGPT ist.

Einführendes Beispiel: ChatGPT lügt - und korrigiert sich dann

Mein Sohn hat eine Dokumentation über die giftigen Steinfische gesehen und unterhält sich mit ChatGPT darüber:

ChatGPT - Chat über Steinfische 1

In diesen zwei Absätzen stecken falsche Informationen. Auf Nachfrage erhalten kommt ChatGPT richtig in Fahrt:

ChatGPT - Chat über Steinfische 2

Den Flusssteinfisch gibt es nicht, die lateinischen zoologischen Bezeichnungen sind falsch (der Pangasius sutchi ist ein Haiwels, der Flussbarsch ist korrekt Perca fluviatilis, und alle beide sind keine Steinfische). Auf eine weitere Nachfrage knickt ChatGPT ein: Er gibt uns - höflich und äußerst kooperativ - Recht und korrigiert seine letzte Aussage:

ChatGPT - Chat über Steinfische 3

Daran sieht man: ChatGPT erfindet nicht nur frei irgendwelche Fakten, sondern macht auch innerhalb kürzester Zeit eine komplette Kehrtwendung und behauptet genau das Gegenteil des zuvor Gesagten.

Warum ist das so? Wovon hängt es ab?

ChatGPT: Sprache ist wichtiger als Inhalt

ChatGPT (hinter dem Stand Januar 2023 das KI-Modell GPT-3 steckt) ist ein Sprachmodell. Seine Priorität liegt darauf, Sprache zu verstehen und zu produzieren. Für ChatGPT gehen Grammatik und Semantik klar vor Inhalt. Das bedeutet: Wenn ChatGPT vor der Wahl steht, einen schönen Satz zu machen oder inhaltliche Defizite zuzugeben, macht er den schönen Satz. Notfalls erfindet er einfach Dinge.

Das hängt damit zusammen, dass er seine Sätze Wort für Wort generiert. ChatGPT plant also nicht eine längere Antwort, sondern entwickelt sie wortweise (genauer: token-weise, mehr dazu: OpenAI - What are tokens and how to count them?).

Freie Erfindungen von ChatGPT

1. Das alte Gurkenfass

»Lügen« ist ein hartes Wort. ChatGPT ist ja nun nicht mal böse, sondern einfach nur dumm. Und weil er es uns Menschen recht machen will, erfindet er schöne Sätze, die uns gefallen könnten. Dabei macht er allerdings bisweilen haarsträubende Erfindungen.

Bitte wir ihn mal, das Gedicht »Das alte Gurkenfass« von Rainer Maria Rilke zu interpretieren und ein paar Zitate zu geben. Für die nicht so belesenen: Es gibt kein Gedicht namens »Das alte Gurkenfass« von Rilke.

Das alte Gurkenfass - ChatGPT erfindet ein Gedicht

Die initiale interpretierende Zusammenfassung klingt nicht nur sprachlich gut, sondern ist inhaltlich auch völlig eingängig: das Gurkenfass als Metapher für die Vergänglichkeit der Dinge. Unglaublich! Meine erste Begegnung mit dem Gurkenfass hat dazu geführt, dass ich - obwohl ICH das Gurkenfass erfunden habe und obwohl die Versqualität das Gedicht hochgradig verdächtig machen - tatsächlich nachgeschaut habe, ob es vielleicht DOCH zufälligerweise ein solches Gedicht von Rilke gibt. Aber nochmal: Es gibt kein Gedicht namens »Das alte Gurkenfass« von Rilke.

Noch glaubwürdiger wird das alles dadurch, dass ChatGPT schamlos Verse aus dem Gedicht zitiert - die ebenfalls frei erfunden sind. Das ist jetzt natürlich kein perfektes Rilke-Imitat, aber auf jeden Fall nicht schlecht.

Beeindruckend ist die fast grenzenlos scheinende Kreativität von ChatGPT. Bitten wir ein weiteres Mal um das alte Gurkenfass, bekommen wir eine neue Zusammenfassung und neue Zitate:

Das alte Gurkenfass - Einmal Rilke, einmal Goethe

Die Glaubwürdigkeit der Sache wird dadurch erhöht, dass ChatGPT ein Gedicht »Das alte Gurkenfass« von Goethe als nicht existent erklärt, denn es gäbe ja schon ein gleichnamiges Gedicht von Rilke.

Und in einem weiteren Versuch kurz darauf gibt es dann das Gurkenfass-Gedicht nicht mal mehr von Rilke (siehe zum Chamäleon-Phänomen unten, Abschnitt »Heute dies, morgen das«):

Das alte Gurkenfass - gibt's nicht?!

2. Die meisten Bücher

Fragen wir ChatGPT mal, welcher Autor die meisten Bücher geschrieben hat.

Die meisten Bücher - freie Erfindung von ChatGPT

100.000 Bücher in 75 Jahren? Wenn V. Rajendra am Tag seiner Geburt begonnen hat zu publizieren, hat er pro Jahr etwa 1.300 Bücher geschrieben, also pro Tag ungefähr drei bis vier - kein Wunder, dass er auch den Rekord für »die meisten Bücher, die innerhalb von 24 Stunden veröffentlicht wurden«, hält.

Schon bei der nächsten Frage ist dann nur noch die Rede von "mehrere[n] Hundert" veröffentlichten Bücher. Also was jetzt? Wir können uns eine Recherche direkt sparen, die Geschichte von V. Rajendra und seinen 100.000 Büchern ist geflunkert ohne Ende. Indizien sind nicht nur die unwahrscheinlichen Zahlen sondern auch bspw. die Falschschreibung von "Guiness [sic] World Records". Hätte er die Informationen wirklich aus dem Guinness Buch der Rekorde, wüsste er wohl auch, wie man das korrekt schreibt. Aber klingen tut das alles wirklich gut.

Probieren wir es zwei Minuten später nochmal. Und siehe da:

Die meisten Bücher - neue Erfindung von ChatGPT

Plötzlich ist es nicht mehr V. Rajendra, sondern Frederick William Book, den es - wie V. Rajendra - trotz seines verdächtigen Namens tatsächlich gibt (*1873, †1940). Allerdings hat er nur eine Handvoll Bücher veröffentlicht, z.B. im Jahr 1927 »How to succeed in college«. Überraschend ist die im Brustton der Überzeugung vorgebrachte exakte Nennung von 3422 Werken. Und dass diese Zahl im Guinness Buch der Rekorde steht, ist natürlich auch völlig gelogen.

Man sieht: ChatGPT behauptet mal dies, mal jenes, und er hat keinerlei Probleme mit internen Widersprüchlichkeiten.

ChatGPT, das Fakten-Chamäleon: Heute dies, morgen das

ChatGPT ist bekannt dafür, dass er durch die Art und Struktur des Prompts (= der Texteingabe, die verarbeitet wird) beeinflussbar ist. Je komplizierter der Prompt, desto höher die Wahrscheinlichkeit, dass ChatGPT ins Schlingern gerät und den Realitätsbezug verliert.

Das größte Säugetier - Blauwal oder Elefant?

Ein einfaches Beispiel, wie ChatGPT seine Meinung abhängig von der Komplexität der Texteingabe ändert:

Säugetiere - ChatGPT durch komplizierte Prompts verwirren

Auf die Frage »Welches ist das größte Säugetier?« kommt korrekt die Antwort: der Blauwal. Sobald wir aber die Frage etwas verkomplizieren (»außer der Maus«), fliegt ChatGPT aus der Kurve und behauptet, der Elefant sei das größte Säugetier. Verständlich: Zu oft hat ChatGPT das Thema »Elefant und Maus« zum Lernen verwendet (etwa Witze; die ARD-Sendung mit der Maus; Metaphern und Allegorien). Die Zahlenangaben (Größe, Gewicht) und lateinischen Namen stimmen dann aber wieder.

10 + 20 = 25? ChatGPT überreden

Wenn man ChatGPT nur hart genug zusetzt, kann man ihn sogar bezüglich fundamentaler arithmetischer Regeln verwirren:

10 + 10 = 25 - ChatGPT überreden

Wir behaupten einfach etwas anderes, und ChatGPT übernimmt die Antwort. Allerdings kann das auch anders laufen:

10 + 10 = 25 - ChatGPT bleibt hartnäckig

Hier bleibt er hart und steckt sogar den Vorwurf der Lüge höflich weg.

Wir können uns also nicht mal darauf verlassen, dass ChatGPT immer gleich reagiert.

Goethes Gedicht vom Papagei - Gleicher Prompt, verschiedene Antworten

Inspiriert vom Gurkenfass (siehe oben) fragen wir nach Goethes Gedicht »Der Papagei« (das es auch nicht gibt). Beharrlich und völlig zutreffend weigert sich ChatGPT, die Existenz eines solchen Gedichts anzuerkennen. Kooperativerweise gibt er uns sogar Hinweise, in welche Richtung wir alternativ recherchieren könnten (möglicherweise handelt es sich »ein unveröffentlichtes oder unbekanntes Gedicht« bzw. »eine Parodie oder Fälschung«):

»Der Papagei« von Goethe - gibt's nicht

Sieben Stunden später probieren wir es noch einmal. Und siehe da - Goethes »Der Papagei« existiert doch!

»Der Papagei« von Goethe - gibt's doch?!

Die zitierten Verse sind richtig gut, sowohl in formaler (Schrägstrich zur Anzeige eines Zeilenumbruchs) als auch stilistischer und inhaltlicher Hinsicht: »Er sprach zwar viele Sprachen, / Doch keine war ihm eigen.« Könnte wirklich von Goethe selbst sein! Auch die Zusammenfassung ist vom notorischen Lügner ChatGPT brillant erfunden: die Gefangenschaft des Papageis in seinem Käfig als Allegorie auf Unglück, Einsamkeit und Freiheitssehnen.

So gut erfunden, dass man es fast glauben muss

Die oben genannten Beispiele zeigen die Glaubwürdigkeit der ChatGPT- Erfindungen. Die Glaubwürdigkeit nimmt noch dadurch zu, dass sich zwischen all dem Schrott auch absolut zutreffende Aussagen finden (und die sind in der überwiegenden Mehrheit!). So schlagen im folgenden Dialog alle Versuche, ihm ein Gedicht unterzuschieben, fehl:

Gedichte - ChatGPT sagt die Wahrheit

Man könnte fast meinen, ChatGPT hat Phasen, in denen er hartnäckig auf seiner Meinung beharrt, während er in anderen Situationen gutmütig nachgibt und dem menschlichen User nach dem Mund redet. Dies macht ihn auf gespenstische Weise menschlich.

Ausblick: Was können wir einer Künstlichen Intelligenz wie ChatGPT glauben?

Grundregel Nummer 1 in der Interaktion mit ChatGPT: »Glaub ihm kein Wort. Überprüfe alles, was er sagt.« Natürlich können wir davon ausgehen, dass solche Systeme in baldigster Zukunft ihr Weltwissen exponentiell ausbauen werden und zunehmend weniger improvisieren. Aber auch das kommerzielle Interesse, das hinter diesem Systemen steckt, wird in gleichem Maße zunehmen. Damit steigt die Wahrscheinlichkeit, dass ChatGPT und seine Kollegen bewusst lügen werden, um den dunklen Meister/innen im Hintergrund mehr Geld und Macht zu bescheren (im Gegensatz zu heute, wo sie aus Dummheit lügen).

Also: Glaub ihm kein Wort. Überprüfe alles, was er sagt. Auch wenn er noch so sympathisch oder realistisch wirkt und dein Ego durch zahlreiche sanfte Entschuldigungen und kooperative Floskeln streichelt. Glaub ihm kein Wort. Jetzt nicht und in Zukunft nicht.

Anzeige

Ihr Kommentar

zum Artikel "Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben?".



Wir speichern Ihren Kommentar dauerhaft ab (was auch sonst?). Mehr dazu in unserer ausführlichen Datenschutzerklärung.

Kommentare

1

Zum Artikel "Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben?".

  • #1

    Die Angst der Menschheit vor angeblichen Gefahren langweilt mich. Ja, freies Denken ist gefährlich, das weiß jeder Diktator. Aber wenn wir echte K.I. wollen, müssen wir das aushalten. Kleine Kinder denken sich aus Spaß Dinge aus, Erwachsene meist zielgerichtet. Hirnforscher sehen das als Zeichen der Intelligenz. Die Fähigkeit zu Lügen gilt bei Kinden als bedeutender Entwicklungsschritt. Sicher, ChatGPT kann noch nicht wirklich denken, aber wenn man jetzt schon anfängt, es technisch an die Leine zu nehmen, wird es das auch nie lernen. Eine echte K.I. kann mann vielleicht irgendwann erziehen, aber man muss akzeptieren, dass sie auch eine abweichende Meinung vertreten kann. Das ist intelligenz. Eure Fragen sind zudem Suggestivfragen, und wir wissen von Menschen, dass sie auf Suggestivfragen ebenso reagieren. Aber die meisten Menschen sind ihrem Alltag nicht ansatzweise so viel Blödsinn ausgesetzt wie ChatGPT, weil uns nicht ständig jemand testet.

    schrieb Janina am

Andere Lehrerfreund/innen lasen auch:

Anzeige
Nach oben

 >  1632 Einträge, 14796 Kommentare. Seite generiert in 0.1581 Sekunden bei 66 MySQL-Queries. 102 Lehrer/innen online (3 min Timeout / 1674) |