– Einleitung zu einer ISAfA-Blog-Serie –

Bernhard Thomas und Ulrich Trottenberg – Januar 2023

 

Die Aufregung ist groß! Nahezu täglich gibt es zurzeit Artikel in den Medien, die einige der jüngsten spektakulären Entwicklungen im Bereich der generativen KI als Zeitenwende lobpreisen oder das Ende der menschlichen Kreativität heraufbeschwören. So insbesondere Open AI’s Sprachmodell ChatGPT. Vortrainiert mit immensen Mengen an vorverarbeiteten Texten, können entsprechende Algorithmen  zu beliebigen Themen per Eingabe von Überschriften, Gliederungspunkten, Stichworten o.ä. (sog. Prompts) Texte unterschiedlichen Typs automatisch erzeugen, die inhaltlich sinnvoll und hochprofessionell wirken und auch von Experten nicht auf Anhieb als KI-erzeugt erkannt werden.

Einige Autoren schreiben diesen Algorithmen oder den sie ausführenden Rechnern ein Bewusstsein (oder gar eine „Seele“) zu, was allerdings durch nichts gerechtfertigt und geradezu aberwitzig ist. Zumal in allen kognitiven und philosophischen Disziplinen weitgehend unklar bleibt, was damit gemeint ist – und so erst recht im Bereich der Informatik. Jeder, der sich auch nur oberflächlich mit der den Algorithmen zugrunde liegenden Mathematik beschäftigt, erkennt sehr schnell die Absurdität einer solchen Zuschreibung. Die zugrundeliegenden mathematischen Prinzipien sind verblüffend simpel, basieren z.B auf dem aus der Schule bekannten Newton-Verfahren, der Kettenregel, einfachen statistischen Methoden usw., angewandt allerdings in Räumen oft extrem hoher Dimension.

Das bedeutet nicht, dass diese neuen, mächtigen generativen Algorithmen per se unbedenklich sind. Die Algorithmen sind Mathematik, also prinzipiell wertfrei. Sie können für höchst wünschenswerte Zwecke verwendet werden, mit großartigen, überraschenden Ergebnissen, wie wir auch Tag für Tag lesen. Sie können aber eben auch für betrügerische, kriminelle, inhumane und politisch problematische Zwecke missbraucht werden, für Diskriminierung, Fake News und Hate Speech. Vor diesen Möglichkeiten wird mit Recht gewarnt. Es macht deutlich, wie wichtig es ist, ein gewisses Verständnis für GPT zu entwickeln ist, wie dringend die Öffentlichkeit und – im Hinblick auf die Zukunft – insbesondere die Kinder und Jugendlichen sachlich aufgeklärt werden müssen. Und wie wichtig der korrekte Umgang mit diesen neuen Möglichkeiten ist.

Die InterScience-Akademie für Algorithmik macht sich zur Aufgabe, Verständnis für aktuelle generative Algorithmen und ihre Einsatzmöglichkeiten zu vermitteln. Sie leistet auch Beiträge zu den damit zusammenhängenden rechtlichen, ethischen, gesellschaftlichen und politischen Fragen. Eine solche Frage betrifft z. B. die Autorenschaft für die automatisch entstehenden Texte und Ergebnisse. Der unumgängliche menschliche Beitrag bei solchen algorithmisch generierten Texten besteht in der gezielten oder kreativen Formulierung der Vorlage (Prompt). Damit ist dann auch die Verantwortung für den generierten Text verbunden. Die Autorenschaft bekommt eine neue Form.

In unserer Blog-Serie präsentieren wir eine Reihe von Experimenten, in denen wir ChatGPT mit unterschiedliche Typen von Aufgaben konfrontieren.  Die teils verblüffenden Ergebnisse versuchen wir zu kommentieren und uns damit ein wenig dem Verständnis zu nähern dafür, was da eigentlich passiert. Wir versuchen dabei auch, die Grenzen der Fähigkeiten des Sprachmodells auszuloten, teilweise durch Wiederholungen, Veränderung von Prompts oder dem Auftrag, Fehler selbst zu korrigieren.

Es ist dabei zu bedenken, dass die Ergebnisse – selbst mit gleichem Prompt – nicht reproduziert werden, sondern bei Wiederholung Varianten erstellt werden. Dies ist ein Effekt des inhärenten Zufallsprozesses.

Es ist weiterhin zu bedenken, dass ChatGPT ein mit immensen Datenmengen vortrainiertes, extrem hochdimensionales Sprachmodell ist, das Input-Text direkt verarbeiten kann. Im Gegensatz dazu sind übliche Data Analytics und ML-Modelle mit Trainingsdaten zunächst zu trainieren, bevor sie sinnvoll auf neue (Test-) Daten angewendet werden können.

Der Zugang zum experimentellen Ausprobieren von ChatGPT kann z.B. so erfolgen

  • Google chatgpt
  • Link ChatGPT: Optimizing …. Aufrufen
  • Button TRY CHATGPT klicken
  • Ggf. Login mit e-mail-Adresse oder mit Google oder MS Konto anmelden
  • Prompt-Eingabe in Editor-Zeile unten auf der Seite

Prompt und Ergebnisse der Experimente sind überwiegend auf Englisch. Übersetzung mit Deepl.com (nicht empfohlen für Poetry und Songtexte) wie folgt:

  • Zu übersetzenden Text in Zwischenablage kopieren (Ctl-c)
  • URL Deepl.com im Browser aufrufen
  • Zielsprache Deutsch (rechte Seite) wählen
  • Zwischenablage links einfügen (Ctl-v), Sprache „Englisch“ wird erkannt
  • Die Übersetzung erscheint rechts

Liste der bisherigen Experimente, die mit ChatGPT als Generator in englischer Sprache geführt wurden, wozu ggf. DeepL als Translator eingesetzt wurde. (Die einzelnen Beispiele werden als eigenstädige Blog-Beiträge gepostet und in diese Übersicht verlinkt.)

  1. Bus Stop Romance – GPT Poetry
  2. Programmieren mit ChatGPT – GPT liefert Programme in gewünschter Progarmmiersprache
  3. Father and Son – Ein Vater-Sohn-Konflikt im Mail-Dialog
  4. Schummelhilfe? – Schön wär’s! GPT löst Textaufgaben mit 3 Unbekannten *)
  5. Smartroom Chatbot – Bob (GPT) versteht Alice’s (Mensch) Gefühle  *)
  6. Unbekannte Programmieraufgabe – Ein Programm, das es (vermutlich) bisher nicht gab.
  7. Rolling down the highway – Song-Text und Musik-Annotation Neil Young Stil
  8. Obst sortieren – ChatGPT als Sprachmodell soll Bananen und Birnen auf Basis Länge und Breite unterscheiden *)
  9. Intelligente Obstkasse – Machine Learning mit ChatGPT *)
  10. Reverse Prompting – Generieren eines Prompts zu vorgegebenem Text
  11. Winds from the past – ChatGPT Co-writing – Eine Story entwicklen im Wechsel zwischen Autor und ChatGPT
  12. Winds from the past – How the story ends – ChatGPT generiert ein mögliches Ende des Story und einen Klappentext
  13. Mensch oder Maschine – Wer war’s?
  14. Gerade oder Ungerade? – Ein Modell-Problem für KI *)
  15. Sinn, Sinnlos, Unsinn – ChatGPT verweigert sich

(More to come)

Alle Beispiele mit ChatGPT auf Basis GPT 3.5 (kostenfrei)

*) Anm.: Beispiele aus den „KI-Stories für den Informatikunterricht NRW“ (s. Blog “KI-Modelle für den Informatikunterricht)

Wir werden die Blogs mit einer adäquaten, neuen Autorenschaft-Angabe für generierte Ergebnisse kennzeichnen, wie im Songtext-Beispiel #7:

  • Lyrics & Music: BT
  • Titel & Prompt: BT
  • Generator: ChatGPT
  • Translator: n/a
  • Editing: BT
  • Authoring: BT
  • Credits: Prompt inspired by Neil Young: „Barn“

InterScience-Akademie für Algorithmik

Der vorliegende Blog-Text mit klassischer Autorenangabe ist nicht-generiert (soweit wir wissen).