"ChatGPT lügt"

  • Worum geht es?
    "ChatGPT lügt" ist eine oft gehörte Aussage.
  • Was ist dazu zu sagen?
    • ChatGPT und andere Sprachmodelle produzieren zum Teil Texte, die nicht der Wahrheit entsprechen. Es stimmt, aktuelle Sprachmodelle liefern Texte, die nicht immer der Realität entsprechen. Dies liegt in der Natur ihrer Funktionsweise. Sie rechnen statistische Wahrscheinlichkeiten von möglichen Texten aufgrund der Texte, die sie vorgängig verarbeitet haben. Dies ergibt zwei grundsätzliche Quellen für unkorrekte Tatsachenbehauptungen:
      • Die unkorrekten Aussagen stecken bereits in den für das Training verwendeten Daten.
      • Rein sprach-statistisch ist die errechnete Aussage wahrscheinlich, was sie aber noch nicht inhaltlich korrekt macht. (Schweizer Politik-Beispiel: Dass Toni Brunner von ChatGPT auch schon als Sohn von Christoph Blocher bezeichnet worden ist, liegt vermutlich daran, dass Medien Toni Brunner mehrfach "Ziehsohn" von Christoph Blocher nannten und ChatGPT diese Aussage nicht als Metapher erkannt hat.
    • Lügen setzt die Kenntnis der Wahrheit und eine (böse) Absicht voraus: Es stellt sich aber die Frage, ob dieses Verhalten als Lügen bezeichnet werden soll. Wikipedia definiert eine Lüge als _"eine Aussage, von der der Sender (Lügner) weiß oder vermutet, dass sie unwahr ist, und die mit der Absicht geäußert wird, dass der Empfänger sie glaubt." Eine Lüge setzt gemäss dieser Definition sowohl die Kenntnis der Wahrheit als auch eine Täuschungsabsicht voraus. Nur: Es ist nicht davon auszugehen, dass die Sprachmodelle es eigentlich besser wüssten oder könnten - sie liefern als Antwort das gemäss ihren Daten und Algorithmen passendste Ergebnis. Auch ihnen eine Täuschungsabsicht zu unterstellen, ist nicht unproblematisch - ab wann soll man Maschinen eigene Absichten attestieren?
    • Ist "bullshitting" die bessere Alternative? Verschiedentlich wird dazu geraten, das Verhalten als bullshittung zu bezeichnen, nach dem Bestseller "On Bullshit" von Harry G. Frankfurt. Frankfurt und andere definieren bullshitting als Versuch, andere Leute zu beeindrucken oder zu überzeugen mit Aussagen, deren Wahrheitsgehalt einem egal ist. Somit trifft bullshitting die Funktionsweise von grossen Sprachmodellen schon besser - es erstellt ihnen aber immer noch eine Täuschungsabsicht. Hier gilt es eventuell zu unterscheiden zwischen dem Verhalten der Maschinen und ihrer Betreiber:innen. Es ist sehr wohl denkbar, dass Betreiber:innen von Sprachmodellen in gewissen Kontexten ein Interesse an bullshitting haben (z.B. um von der Lügner-Dividende zu profitieren).
    • Ist "halluzinieren" die bessere Alternative? Verschiedentlich wird das Verhalten von Sprachmodellen auch als halluzinieren bezeichnet. Bei diesem Begriff ist klar, dass weder böse Absicht noch die Kenntnis der Wahrheit Voraussetzung für das Verhalten ist. Der bisherige Gebrauch des Begriffs impliziert jedoch gemäss Kritiker:innen dieser Formulierung, dass Sinneseindrücke überbewertet oder imaginiert werden, was Sprachmodellen ein zu lebendiges Verhalten unterstellen würde.

Weiterführende Informationen

Kommentare

 
PHSZ Logo

Die Website gmls.phsz.ch ist eine seit Dezember 2022 laufend erweiterte Sammlung von Einordnungen der Professur "Digitalisierung und Bildung" der Pädagogischen Hochschule Schwyz zur Frage, welche Auswirkungen generative Machine-Learning-Systeme wie ChatGPT auf die Schule haben.

Lizenz: Die Website steht unter einer CC-BY-ND-Lizenz, Bilder und Texte dürfen somit unter Quellenangabe an anderen Orten verwendet werden.

Zitationsvorschlag: Döbeli Honegger, Beat (2023). ChatGPT & Co. und Schule. Einschätzungen der Professur "Digitalisierung und Bildung" der Pädagogischen Hochschule Schwyz. https://gmls.phsz.ch/ (abgerufen am 21 Nov 2024)