von Ulrich Trottenberg
21.04.2023
Ein Taschenrechner (für 2,50 € z.B. bei Amazon) rechnet unvergleichlich viel schneller als jeder Mensch. Mit einem Smartphone – das heute so schnell rechnet wie ein Superrechner vor 30 Jahren – kann man anspruchsvolle mathematische Aufgaben lösen. Und ein Höchstleistungsrechner ist heute in der Lage Billiarden (eine Billiarde = eine 1 mit 15 Nullen!) Rechenoperationen in einer Sekunde durchzuführen und auf diese Weise sehr wichtige Rechenergebnisse zu erzielen, zum Beispiel das Wetter der nächsten Tage vorherzusagen. Trotz dieser geradezu unvorstellbaren Rechenleistung und der äußerst nützlichen Ergebnisse kommt niemand auf die Idee, den Rechnern ein „Bewusstsein“ zuzusprechen, dem Taschenrechner nicht, aber auch dem Höchstleistungsrechner nicht. Niemand fühlt sich durch die Rechner bedroht, auch nicht durch die extreme Leistungsfähigkeit der Höchstleistungsrechner.
Das ist offenbar anders in dem Moment, wo der Computer nicht „sinnvolle“ Zahlen, sondern „sinnvolle“ Texte produziert. Die durch Algorithmen des Maschinelles Lernens erzeugten Texte des ChatGPT4 Sprachmodells oder anderer generativer Algorithmen führen bei vielen Benutzern zur Überzeugung, dass der Computer mit der GPT-Software den „Sinn“ der erzeugten Texte „versteht“: Das GPT-System gibt in vielen Fällen auf Fragen intelligente, verständnisvolle Antworten, und es kann sich ein anspruchsvoller, überraschend anregender Dialog entwickeln.
Seit Monaten überschlagen sich die Medien in Berichten über die oft fantastischen Ergebnisse, die man mit dem Sprachroboter ChatGPT erzielen kann. Plötzlich kann jeder interessierte Mensch, ohne programmieren zu können oder andere einschlägige Erfahrungen zu haben, mit dieser KI-Anwendung spielen und arbeiten. Es sind insbesondere die Feuilleton-Teile der Medien, auch der großen renommierten Zeitungen und Zeitschriften, die sich des Themas annehmen. Dabei reichen die Reaktionen und Bewertungen von begeisterter Faszination über verstörte Verunsicherung bis zu massiver Ablehnung.
In Überschriften solcher Artikel ist von der „Seele der Maschinen“, vom „Maschinengott“ und vom drohenden „Untergang der Menschheit“ die Rede, renommierte Experten und Wissenschaftsjournalisten sprechen den Systemen ein „Bewusstsein“ zu und reden von „denkenden“ Maschinen die wir in naher Zukunft zu erwarten haben. In solchen Formulierungen wird deutlich, wie intensiv die Erschütterung durch die generativen Algorithmen erlebt wird. Aus mathematischer Sicht fällt dagegen auf, dass die heute eingesetzten KI-Algorithmen und die zugehörigen Modelle mathematisch vergleichsweise simpel sind, jedenfalls bei weitem simpler als die meisten Algorithmen, die täglich für die Simulation und Optimierung natürlicher und technischer Vorgänge verwendet werden. Der Unterschied zu den bekannten KI-Algorithmen ist, dass ChatGPT mit mehreren Hundert Milliarden anpassbarer Parameter und vorverarbeiteter Daten arbeitet, wo eine „intelligente Obstkasse“ im Supermarkt mit einem lernenden Algorithmus vielleicht 100 Daten und Parameter einsetzt, um selbstständig z.B. Birnen und Bananen zu unterscheiden: Die „Intelligenz“ des Algorithmus, der Kern der zugrundeliegenden mathematischen Methodik, ist bei ChatGPT und bei der KI-basierten Obstkasse im wesentlichen die gleiche, nur die Daten- und Parameter-Quantitäten unterscheiden sich um viele Größenordnungen.
Die Aufregung um ChatGPT ist verständlich, wenn man sich vor Augen hält, dass generative Algorithmen zu fragwürdigen, unsinnigen, gefährlichen und schädlichen Resultaten führen können. Die Ergebnisse hängen wesentlich vom Input (vom „Prompt“) ab, also von der Formulierung der Aufgabenstellung, und natürlich von den Daten und Texten, mit denen das System – aufgrund des vorgegebenen Inputs – voreingestellt wurde. ChatGPT kann den Nutzer durchaus in die Irre führen oder gezielt missbraucht werden, z. B. durch vollkommene Sinnestäuschung, durch manipulierte und konstruierte, von der Realität ununterscheidbare Bilder und Filme. Was ein Plagiat und was ein Original ist, können wir ohne Kennzeichnung nicht mehr unterscheiden. Und die Kennzeichnung kann natürlich auch manipuliert werden. Wer ist der Autor eines Textes, wenn jeder uninspirierte, schwer verständliche Text durch eine generativ-algorithmische Überarbeitung in ein literarisches Kunstwerk oder fachliches Essay verwandelt werden kann? Wie verändern diese KI-Entwicklungen die Arbeitswelt? An welchen Stellen nehmen KI-basierte Systeme den Menschen (gezielt oder unbemerkt) existentielle Entscheidungen ab, die den Menschen auf jeden Fall vorbehalten bleiben müssten oder sollten?
Dieser kritischen Bewertung lernender Algorithmen stehen auf der anderen Seite die ungeheuren Erfolge der KI gegenüber. Dazu gehören im medizinisch-pharmazeutischen Sektor zum Beispiel die lebensrettende Früherkennung von Krebs, die individualisierte Medizin, die Optimierung der Entwicklung von neuen Arzneien usw. Bei diesen Chancen und den angedeuteten Risiken erkennen wir wieder die Wertfreiheit der Mathematik, sie ist die Grundlage für die größten Errungenschaften – sie wird aber auch für inhumane und zerstörerische Zwecke missbraucht. Dass die Weiterentwicklung der KI-Systeme sorgfältig beobachtet, kontrolliert und verantwortungsvoll gesteuert werden sollte, und dass in vielen Anwendungsbereichen auch gesetzliche Regulierungen nötig sind, darüber muss unbedingt (möglichst international und systemübergreifend) ein Konsens hergestellt werden.
Klug genutzt, können die heutigen und die weiter entwickelten Systeme zu großartigen Erleichterungen für die Menschheit führen. Wir Menschen sind dabei, mit diesen Systemen die Welt fundamental zu verändern.