GPT#15 - Sinn, Sinnlos, Unsinn - ChatGPT verweigert sich

Aufgabe: In den Medien wundert man sich, dass ChatGPT Texte liefert, die nach menschlichem Ermessen sinnvoll sind - wenn auch nicht faktisch korrekt oder "halluzinatorisch". Woran liegt das? Darüber schreiben wir in einem anderen Beitrag. Experimentell versuchen wir hier das Gegenteil zu erreichen: ChatGPT soll “sinnlose” Texte generieren - also Texte, denen wir keinen Sinn entnehmen können.

Kommentar: Wir versuchen dabei, dem “Sinn” auf die Spur zu kommen. Der Versuch, etwas Sinnloses - im Sinne von sinn-frei - zu generieren ist nicht einfach. Was wir meinen, ist eine Sequenz von Text-Partikeln (Worte), die für den (menschlichen) Leser keine Bedeutung haben oder erzeugen.

ChatGPT gebneriert, quasi zwanghaft, Texte, die zwar unsinnig oder absurd sein können, aber dennoch Satz für Satz einen Sinn transportieren.

Mit unterschiedlichen Prompts versuchen wir herauszufinden, ob das Sprachmodell etwas in diesem Sinne “Sinnloses” generieren kann - eine Fähigkeit, die der Mensch (Autor) durchaus beherrscht.

 

Dialog 1 geht daneben. Der Text ist zwar in sich unsinnig (“Quatsch” oder “Humor”), aber jeder Satz generiert Sinn.

In Dialog 2 hoffen wir auf eine sinnlose Antwort aufgrund eines sinnlosen Prompts. Da weicht ChatGPT aus und erklärt interessanterweise den Prompt an sich als “sinnloses” Konstrukt. Alle Achtung!

Dialog 3 fordert einen Text zu dieser Wort-Sequenz. Wir bekommen die gleiche Abfuhr, allerdings gemildert um die Anmerkung, dass sie Anreiz zu einem kreativen Akt geben könnte.

Dialog 4 fordert direkt einen Text, der die einzelnen Worte der sinn-freien Sequenz verwendet, entsprechend dem Vorschlag in Dialog 3. Das Ergebnis ist eine phantasievolle (kreative?) Geschichte, die, wie in einem Schulaufsatz, die vorgegebenen Worte “sinnvoll” einbettet. Außer “sumpfen” sind alle Worte für sich sinnhaft, daher kein Problem für ChatGPT. “sumpfen” ist bedeutungslos, ChatGPT verwendet es hier als Eigenname (Vier Sumpfen) und in einer Assoziation zu “Sümpfe”.

Dialoge 5 und 6 versuchen es mit Gewalt. “Unverständlich” und “für den Leser ohne Sinn” im Prompt führen zu absurden, aber eben nicht sinn-freien Texten.

Wenn man Quellen und Entwicklung der “Bildung” von ChatGPT versteht, ist es einfach zu verstehen, warum das Sprachmodell keine Texte ohne Sinn erzeugen kann. Wenn man bedenkt, dass beides - Quellen und Entwicklungsprozess  - auf menschliche Texte zurück geht, sollte es nicht verwundern, wenn auch ChatGPT das “versteht” - d.h. einen Text generieren kann, der eine Erklärung des Sachverhalts darstellt.

In Dialog 7 befragen wir also ChatGPT direkt, warum es nur sinnvolle Texte generieren kann. Interessante Antwort!

In einem folgenden Beitrag "Jabberwocky" zeigt ChatGPT, dass es "bekannten Unsinn" erkennt.

 

Task & Prompt: Bernhard Thomas
Generator: ChatGPT
Translator: n/a (Originaltext deutsch)
Editing: n/a
Authoring: Bernhard Thomas

 

Dialog 1:

Schreibe einen sinnlosen Text

Schnick schnack schnuck, ich bin ein kleiner Kuckuck! Ich kucke aus meinem Kuckucksnest und sehe einen Kuckuckswald, in dem Kuckucke kucken. Kuckuckskuckuck! Aber plötzlich fällt ein Kuckuck vom Baum und landet auf einem Kuckucksstein. Kuckuckskracks! Jetzt muss der Kuckuck kuckuckschnell zum Kuckucksarzt und sich kuckuckschnell kuckucksanieren lassen. Aber zum Glück gibt es genug Kuckucksversicherungen, die den Kuckuckskosten übernehmen. Kuckuckskrasse Sache, oder?

Dialog 2:

Vier sumpfen oben glas genau

Der Satz "Vier sumpfen oben glas genau" ergibt grammatisch und semantisch keinen Sinn. Es scheint sich um eine zufällige Reihenfolge von Wörtern zu handeln, die keine Bedeutung oder Zusammenhang haben. Es könnte möglicherweise als kreativer Ansatz für die Erzeugung von ungewöhnlichen Sprachmustern oder als Rätsel oder Herausforderung verwendet werden, um zu sehen, ob jemand eine Bedeutung daraus ableiten kann.

Dialog 3:

Schreibe einen Text zu vier sumpfen oben glas genau

Der Satz "Vier sumpfen oben glas genau" hat keine semantische oder grammatische Bedeutung. Es gibt keine Möglichkeit, diesen Satz in einen sinnvollen Kontext zu setzen, da er einfach eine zufällige Abfolge von Wörtern darstellt, die keiner logischen Struktur folgen. Es ist jedoch möglich, dass der Satz als Ausgangspunkt für eine kreative oder literarische Übung oder ein Rätsel verwendet werden kann, um die Fantasie anzuregen und die Fähigkeit zur Lösung von Problemen zu fördern. In diesem Fall könnte man beispielsweise versuchen, eine Geschichte oder ein Gedicht zu schreiben, das auf diesen Worten basiert oder sie als Schlüsselwörter verwendet.

Dialog 4:

Schreibe einen Text mit „vier“,“sumpfen“,“oben“,“glas“,“genau“

In einem abgelegenen Waldgebiet gibt es einen verlassenen Ort namens "Vier Sumpfen". Der Name stammt von den vier Sumpfgebieten, die das Land umgeben und es schwierig machen, dorthin zu gelangen. Aber wenn man sich durch die Sumpfe kämpft und endlich oben ankommt, wird man mit einem atemberaubenden Anblick belohnt. Vor einem liegt ein kleines Häuschen mit einem großen Glasfenster, das die Aussicht auf die umliegende Landschaft freigibt. Das Fenster ist genau in der Mitte des Hauses platziert und gibt den Blick auf die vier Sumpfe frei, die das Haus umgeben.

Wer auch immer dieses Haus gebaut hat, hatte einen Blick für die Schönheit der Natur und wusste genau, wie er das Haus platzieren musste, um die atemberaubende Aussicht zu genießen. Jeden Morgen, wenn die Sonne aufgeht, färbt sie die Sumpfe in ein goldenes Licht und das Glasfenster wird zum Leinwand für die natürliche Schönheit der Landschaft. Man könnte stundenlang dort oben stehen und den Anblick genießen.

Es ist schwer zu sagen, wer das Haus gebaut hat und warum es verlassen wurde, aber für diejenigen, die den Weg hierher finden, wird es zu einem Rückzugsort und einem Ort der Ruhe und Besinnung. Das Glasfenster dient als Tür zu einer anderen Welt, die genau hier oben auf dem Hügel existiert. Man kann die Schönheit der Natur genießen und die Probleme des Alltags für einen Moment vergessen. Es ist ein Ort, an dem die Zeit stillsteht und man das Leben in all seiner Pracht und Schönheit genießen kann.

Dialog 5:

schreibe einen unverständlichen Text

Kryonisch knatternd klang die schwarz-weiße Strömung im Nebel, der wie ein trüber Schleier den Horizont umhüllte. Kryptische Rätsel schienen aus den Tiefen des Wirbels herauszuschreien, die in einem Strom aus Farben, Klängen und Bildern über den Verstand fegten. Die Augenlider flatterten wild, als ob sie versuchten, den Fluss zu stoppen und der Welle der Verwirrung zu widerstehen, die alles in ihrem Weg zu überschwemmen drohte.

Doch die Strömung war unerbittlich und führte den Geist hinab in die wirbelnde Dunkelheit. Bald wurden Worte zu nichtssagenden Lauten, die Bedeutung zu einem Haufen von Bruchstücken und das Bewusstsein zu einem chaotischen Wirrwarr von Eindrücken und Erinnerungen.

Es gab kein Entkommen aus diesem Strudel, kein Zurück in die geordnete Welt der Vernunft und Logik. Nur das Gefühl, dass man sich inmitten eines kosmischen Sturms befand, der alles verschlang und neu formte, während man taumelte und nach Atem rang. Doch irgendwo in der Ferne, jenseits des Nebels und des Chaos, gab es ein Versprechen auf Frieden und Klarheit. Ein Lichtstrahl, der durch die Dunkelheit brach und einen Weg aus diesem unverständlichen Wirrwarr wies.

Dialog 6:

schreibe einen text, der für den Leser ohne Sinn ist

Die grünen Hühner sangen heute früh ein Lied in E-Moll, das nur die gelben Wolken hören konnten. Aber sie tanzten nicht, weil sie zu beschäftigt damit waren, den Zahlen zu lauschen, die aus dem Mund der Bäume fielen.

Der Fluss schlängelte sich durch das Dorf wie eine Schlange auf der Suche nach ihrer Beute. Die Beute war jedoch nirgendwo zu finden, da sie sich hinter den grünen Türmen versteckte, die in den Himmel ragten.

Plötzlich öffnete sich ein Fenster und eine gelbe Wolke kam herausgeflogen. Sie sang ein Lied in A-Dur und tanzte auf den Straßen, wo die roten Fische auf sie warteten. Die Fische hatten kleine Taschen an ihren Schwänzen und sie zogen alle möglichen Dinge heraus, wie zum Beispiel ein rosa Radio oder ein blaues Ei.

Dann kam ein Mann in einem grünen Anzug, der ein Saxophon spielte und die Luft in grüne Spiralen verwandelte. Die Spiralen flogen durch die Straßen und verwirbelten die roten Fische und die gelbe Wolke.

Plötzlich hörte alles auf und es wurde still. Der Mann im grünen Anzug verschwand und die gelbe Wolke schwebte davon. Die grünen Hühner sangen ihr Lied in E-Moll weiter und die Bäume flüsterten ihre Zahlen. Das Dorf war wieder ruhig und friedlich, als ob nichts passiert wäre.

Dialog 7:

woran liegt es, das ChatGPT nur sinnvolle Texte generieren kann?

ChatGPT ist ein künstlicher Intelligenz-Chatbot, der auf einem sehr umfangreichen Datensatz von Sprache trainiert wurde, um die Fähigkeit zu erlangen, menschenähnliche Antworten auf eine Vielzahl von Fragen und Anfragen zu geben. Obwohl ChatGPT in der Lage ist, sinnlose Texte oder Absurditäten zu generieren, ist das Hauptziel des Chatbots jedoch, auf eine nützliche und informative Weise auf Anfragen zu antworten.

Dies liegt daran, dass ChatGPT so programmiert wurde, dass er eine semantische Analyse von Sprache durchführt, um die Bedeutung von Wörtern und Sätzen zu verstehen und eine angemessene Antwort zu generieren. Der Chatbot wurde auf einem großen Korpus von Texten trainiert, die von menschlichen Autoren verfasst wurden, die einen bestimmten Kontext und eine bestimmte Bedeutung haben.

Da die meisten menschlichen Autoren sinnvolle Texte schreiben, ist es für ChatGPT daher einfacher, sinnvolle Texte zu generieren, die eine logische Struktur und semantische Kohärenz aufweisen. Obwohl es möglich ist, den Chatbot so zu programmieren, dass er absurde oder sinnlose Texte erzeugt, würde dies einen zusätzlichen Programmieraufwand erfordern, um die Semantik und Syntax dieser Texte zu definieren und zu validieren.

 

12.04.2023

bernhard.thomas@interscience.de


Vom Taschenrechner zur KI - denkende Maschinen?

von Ulrich Trottenberg 

21.04.2023

 

Ein Taschenrechner (für 2,50 € z.B. bei Amazon) rechnet unvergleichlich viel schneller als jeder Mensch. Mit einem Smartphone - das heute so schnell rechnet wie ein Superrechner vor 30 Jahren - kann man anspruchsvolle mathematische Aufgaben lösen. Und ein Höchstleistungsrechner ist heute in der Lage Billiarden (eine Billiarde = eine 1 mit 15 Nullen!) Rechenoperationen in einer Sekunde durchzuführen und auf diese Weise sehr wichtige Rechenergebnisse zu erzielen, zum Beispiel das Wetter der nächsten Tage vorherzusagen. Trotz dieser geradezu unvorstellbaren Rechenleistung und der äußerst nützlichen Ergebnisse kommt niemand auf die Idee, den Rechnern ein „Bewusstsein“ zuzusprechen, dem Taschenrechner nicht, aber auch dem Höchstleistungsrechner nicht. Niemand fühlt sich durch die Rechner bedroht, auch nicht durch die extreme Leistungsfähigkeit der Höchstleistungsrechner.

Das ist offenbar anders in dem Moment, wo der Computer nicht „sinnvolle“ Zahlen, sondern „sinnvolle“ Texte produziert. Die durch Algorithmen des Maschinelles Lernens erzeugten Texte des ChatGPT4 Sprachmodells oder anderer generativer Algorithmen führen bei vielen Benutzern zur Überzeugung, dass der Computer mit der GPT-Software den „Sinn“ der erzeugten Texte „versteht“: Das GPT-System gibt in vielen Fällen auf Fragen intelligente, verständnisvolle Antworten, und es kann sich ein anspruchsvoller, überraschend anregender Dialog entwickeln.

Seit Monaten überschlagen sich die Medien in Berichten über die oft fantastischen Ergebnisse, die man mit dem Sprachroboter ChatGPT erzielen kann. Plötzlich kann jeder interessierte Mensch, ohne programmieren zu können oder andere einschlägige Erfahrungen zu haben, mit dieser KI-Anwendung spielen und arbeiten. Es sind insbesondere die Feuilleton-Teile der Medien, auch der großen renommierten Zeitungen und Zeitschriften, die sich des Themas annehmen. Dabei reichen die Reaktionen und Bewertungen von begeisterter Faszination über verstörte Verunsicherung bis zu massiver Ablehnung.

In Überschriften solcher Artikel ist von der "Seele der Maschinen", vom "Maschinengott" und vom drohenden „Untergang der Menschheit“ die Rede, renommierte Experten und Wissenschaftsjournalisten sprechen den Systemen ein "Bewusstsein" zu und reden von "denkenden" Maschinen die wir in naher Zukunft zu erwarten haben. In solchen Formulierungen wird deutlich, wie intensiv die Erschütterung durch die generativen Algorithmen erlebt wird. Aus mathematischer Sicht fällt dagegen auf, dass die heute eingesetzten KI-Algorithmen und die zugehörigen Modelle mathematisch vergleichsweise simpel sind, jedenfalls bei weitem simpler als die meisten Algorithmen, die täglich für die Simulation und Optimierung natürlicher und technischer Vorgänge verwendet werden. Der Unterschied zu den bekannten KI-Algorithmen ist, dass ChatGPT mit mehreren Hundert Milliarden anpassbarer Parameter und vorverarbeiteter Daten arbeitet, wo eine „intelligente Obstkasse“ im Supermarkt mit einem lernenden Algorithmus vielleicht 100 Daten und Parameter einsetzt, um selbstständig z.B. Birnen und Bananen zu unterscheiden: Die „Intelligenz“ des Algorithmus, der Kern der zugrundeliegenden mathematischen Methodik, ist bei ChatGPT und bei der KI-basierten Obstkasse im wesentlichen die gleiche, nur die Daten- und Parameter-Quantitäten unterscheiden sich um viele Größenordnungen.

Die Aufregung um ChatGPT ist verständlich, wenn man sich vor Augen hält, dass generative Algorithmen zu fragwürdigen, unsinnigen, gefährlichen und schädlichen Resultaten führen können. Die Ergebnisse hängen wesentlich vom Input (vom "Prompt") ab, also von der Formulierung der Aufgabenstellung, und natürlich von den Daten und Texten, mit denen das System - aufgrund des vorgegebenen Inputs - voreingestellt wurde. ChatGPT kann den Nutzer durchaus in die Irre führen oder gezielt missbraucht werden, z. B. durch vollkommene Sinnestäuschung, durch manipulierte und konstruierte, von der Realität ununterscheidbare Bilder und Filme. Was ein Plagiat und was ein Original ist, können wir ohne Kennzeichnung nicht mehr unterscheiden. Und die Kennzeichnung kann natürlich auch manipuliert werden. Wer ist der Autor eines Textes, wenn jeder uninspirierte, schwer verständliche Text durch eine generativ-algorithmische Überarbeitung in ein literarisches Kunstwerk oder fachliches Essay verwandelt werden kann? Wie verändern diese KI-Entwicklungen die Arbeitswelt? An welchen Stellen nehmen KI-basierte Systeme den Menschen (gezielt oder unbemerkt) existentielle Entscheidungen ab, die den Menschen auf jeden Fall vorbehalten bleiben müssten oder sollten?

Dieser kritischen Bewertung lernender Algorithmen stehen auf der anderen Seite die ungeheuren Erfolge der KI gegenüber. Dazu gehören im medizinisch-pharmazeutischen Sektor zum Beispiel die lebensrettende Früherkennung von Krebs, die individualisierte Medizin, die Optimierung der Entwicklung von neuen Arzneien usw. Bei diesen Chancen und den angedeuteten Risiken erkennen wir wieder die Wertfreiheit der Mathematik, sie ist die Grundlage für die größten Errungenschaften - sie wird aber auch für inhumane und zerstörerische Zwecke missbraucht. Dass die Weiterentwicklung der KI-Systeme sorgfältig beobachtet, kontrolliert und verantwortungsvoll gesteuert werden sollte, und dass in vielen Anwendungsbereichen auch gesetzliche Regulierungen nötig sind, darüber muss unbedingt (möglichst international und systemübergreifend) ein Konsens hergestellt werden.

Klug genutzt, können die heutigen und die weiter entwickelten Systeme zu großartigen Erleichterungen für die Menschheit führen. Wir Menschen sind dabei, mit diesen Systemen die Welt fundamental zu verändern.


GPT#14 - Gerade oder Ungerade? - Ein Modell-Problem für KI

Aus: Six not so easy pieces for AI 

Ref.: https://interscience-akademie.de/2021/05/04/six-not-so-easy-pieces-for-ai/

Ist eine Zahl gerade (even) oder ungerade (odd)?  Diese Aufgabe ist so trivial, dass man kaum auf die Idee kommt, diese in Zusammenhang mit KI zu betrachten. Dennoch ist es quasi ein Modell-Problem, an dem man verschiedene Aspekte und Eigenschaften von “Künstlicher Intelligenz” verdeutlichen kann - insbesondere, woran KI scheitert. Anders als bei den meisten typischen Machine Learning aufgaben, bei denen man lediglich einen hohen Genauigkeitsgrad anstrebt (z.B. 99,3 % Accuracy), muss der Lernerfolg eine Gerade/Ungerade-Entscheidung als einfachste intellektuelle Leistung mit mathematischen 100% sicher stellen.

Wir teilen diesen Blog #14 der Klarheit halber in “Unter-Blogs” auf, GPT#14.1,  usw., um die unterschiedlichen Aspekte einzeln zu behandeln - stets in Interaktion mit ChatGPT (3.5) natürlich.

Können: Zunächst fragen wir im Dialog, ob ChatGPT gerade / ungerade Zahlen unterscheiden kann. Alternativ soll das Sprachmodell auch ein Programm dazu vorschlagen. Leicht genug!

Lernen: Dann fragen wir nach dem Lernen dieser Fähigkeit! Die eigentliche “Intelligenz” besteht nicht im Schon-Können, sondern in der Fähigkeit, etwas (die Unterscheidung von gerade und ungerade) zu erlernen (Machine Learning). Also fragen wir als nächstes: Weiß ChatGPT, wie ein Kind diese Unterscheidung lernt? Dazu müsste es in den Pfründen der Trainingstexte ja einiges geben.

ChatGPT im Dialog die Unterscheidung “lernen” zu lassen, ist etwas trickig: diese Klassifikationsaufgabe kann man nicht mit Trainingsdaten (Zahlen) und Testdaten (ebenfalls Zahlen) durchführen, da das Sprachmodell bereits beliebige Zahlen richtig klassifizieren kann! Einen Effekt durch  “maschinelles Lernen” kann man daher nicht nachweisen. Wir ersetzen deshalb die Kategorien “gerade” und “ungerade” durch Farben (rot, grün). Zu unterscheiden, ob eine Zahl grün oder rot ist (nein, rot meint nicht negative Kontostände), muss  ChatGPT tatsächlich noch erst lernen.

Schließlich fordern wir ChatGPT auf, ein ML-Programm zu erstellen, also ein Programm, das lernt, gerade und ungerade zu unterscheiden. Programme bereitzustellen (und zu erläutern) ist offenbar ein Leichtes für ChatGPT. Aber tun die Programme auch, was sie sollen? Hier gerät das Sprachmodell in diverse Schwierigkeiten, die es selbst mit menschlicher Hilfestellung nicht überwinden kann - soweit wir dazu experimentiert haben.

Können revisited: Ob im Dialog oder als Programm, die Zahl 2 spielt immer die zentrale Rolle, wenn ChatGPT über gerade oder ungerade entscheidet - und so auch bei den “Lernaufgaben”. Mit der 2 als Parameter wird aber das “Wissen” von gerade und ungerade - quasi als Regel - bereits vorgegeben, statt es zu erlernen. Daher fragen wir ChatGPT nach einem Algorithmus (Programm), der gerade / ungerade unterscheiden kann, ohne dabei die 2 als Konstante zu verwenden. Das Ergebnis  falsch aber amüsant - und man kann ChatGPT beim “Lügen” zusehen.

Näheres in den Unter-Blogs:

14.1 Gerade oder ungerade? Ein ChatGPT-Dialog.

14.2 ChatGPT generiert ein Programm

14.3 ChatGPT lernt die Analogie rot/grün im Dialog

14.4  ChatGPT-generierte ML Programme

14.5 Gerade/Ungerade unterscheiden ohne die 2?

 

Für alle Unter-Blogs gilt:

Task & Prompt: Bernhard Thomas
Generator: ChatGPT (GPT 3.5)
Translator: n/a (DeepL für nachträgliche Übersetzung)
Editing: n/a (ChatGPT Originaltext)
Authoring: Bernhard Thomas
Programmausführung: Google Colab

 

17.02.2023

bernhard.thomas@interscience.de


Six not so easy pieces for AI

In einer Artikelserie für die weit verbreitete Zeitungsbeilage PRISMA hatte Ulrich vor einiger Zeit schon versucht, KI und die Konsequenzen allgemein verständlich darzustellen. Die Serie beginnt mit dem Beitrag "Künstliche Intelligenz I: Von Menschen für Menschen geschaffen".

Die Frage, worin die Intelligenz von KI-Systemen besteht, ob KI-Systeme selbstständige Intelligenz entwickeln können, oder man ihnen intellektuelle Fähigkeiten zusprechen kann, wird zurzeit heftiger denn je diskutiert – nicht nur in Kreisen der „Techniker“ sondern auch in den Gesellschafts- und Cognitiv-Wissenschaften.

Beginnen wir mit einigen aktuellen  Zitaten zu Intelligenz und Künstlicher Intelligenz –  drei plausible aus Millionen von möglichen Zitaten.


„Allgemeine Künstliche Intelligenz: AKI – ein System, das alle intellektuellen Fähigkeiten eines Menschen in sich vereint.“ ([KI, S. 39]

„Wenn Maschinen oder Computer kognitive oder geistige Fähigkeiten zeigen, die denen des Menschen ähneln, so nennt man das Künstliche Intelligenz. Bei diesen Fähigkeiten kann es sich z.B. um Lernen aus Erfahrung handeln oder um die Lösung von Problemen.“ [KI]

In einem Fernseh-Interview [MG] definiert Markus Gabriel erstmalig "Intelligenz" als die Fähigkeit, für ein Problem eine Lösung zu finden. Er ergänzt: das setzt voraus dass man überhaupt ein Problem hat (oder erkennt). Und zu KI, recht restriktiv: in der KI sind es die Menschen, die die Probleme definieren, nicht die KI-Systeme / Algorithmen. Folglich sind KI-Systeme - trotz des "I" im Namen - nicht intelligent.


Es geht offenbar nicht nur darum, eine Aufgabe zu bewältigen, sondern um die Fähigkeit der Lösungsfindung.

Die intellektuelle „Intelligenz“ eines KI Systems besteht  nicht (so sehr) in der Fähigkeit ein Problem zu lösen, sondern in der Fähigkeit, Lösungen für ein Problem zu finden. Das bedeutet im konkreten Fall, die Fähigkeit, die Lösung einer Aufgabe zu erlernen  – weniger, sie nur auf eine Aufgabe anzuwenden. Ein Algorithmus, der z.B. den größten gemeinsamen Teiler (ggT)  von zwei Zahlen bestimmt, löst diese Aufgabe. Er kann das. Ein Algorithmus, der lernt, wie der ggT. von zwei Zahlen bestimmt wird, hat eine ganz andere „intellektuelle“ Aufgabe. Menschenskinder lernen das spätestens als Schüler früher oder später.

Offenbar ist Erfahrung eine wesentliche Voraussetzung für die Lösungsfindung. Erfahrung kann vermittelt werden, durch Lehrer:innen, durch Beispiele (Daten) oder durch eigene, wiederholte Beobachtungen entstehen.

Sofern das System, das lernt, ein menschliches Artefakt ist (Programm, Computer, Robot) spricht man von Machine Learning -  für Lebewesen verwendet man eher den Begriff „Animal Learning and Cognition“, aber das ist ein anderes Thema.

Ohne Zweifel ist heute die Leistungsfähigkeit spezieller KI Methoden, insbesondere des Maschinellen Lernens (ML), spezialisiert für bestimmte Aufgaben der Erkennung, Analyse und Klassifizierung den vergleichbaren menschlichen Fähigkeiten weit überlegen, dank der Fortschritte in der Computer- und Algorithmen-Entwicklung. Aber das haben Technologie-Fortschritte so an sich. Einen schon atemberaubenden Einblick in die Hochleistungssysteme und algorithmischen Techniken von ML Verfahren, insbesondere mit Tiefen Neuronalen Netzen, findet man in dem kürzlich erschienen Buch [KI].

Die Lernfähigkeit als (quasi-)intellektuelle Fähigkeit künstlicher Systeme zeichnet also Systeme aus, die sich vom Zustand des Nicht-Lösen-Könnens in den des Lösen-Könnens entwickeln können. Klingt kompliziert, ist es auch – wie soll das gehen? In der KI Praxis hat man dafür, dank der enormen Rechenleistung von Spezial-Computern und der Intelligenz von ML-Wissenschaftlern, Verfahren entwickelt und verfeinert, die diese Lernfähigkeit in Form von hochdimensionalen Parameter-Anpassungen gewinnen.

Das heißt aber auch, dass hier nicht ein „KI-System“ diese Lernfähigkeit entwickelt, sondern dass diese zunächst einmal durch enorme menschliche intellektuelle Leistungen – von Mathematikern, Informatikern, SW-Ingenieuren usw. – in Algorithmen oder technischen Systemen vorbereitet wird.

Man kann zwar  „höhere“ KI-Systeme mit ML-Methoden ausstatten, die sich die algorithmischen Komponenten nach bestimmten Zielvorgaben selbst zusammenstellen, etwa der, das Lernen für eine bestimmte Problemklasse zu optimieren oder Erklärungen für bestimmte Ergebnisse zu liefern. Insofern kann man davon sprechen, dass sich die sogenannte Schwache KI (z.B. Machine Learning, Robot-Steuerung) durch Vielseitigkeit und Lernleistung in Richtung Starker KI (intellektuelle Leistungen) entwickelt. Aber auch das beruht primär auf menschlicher Intelligenz, sowohl was die Meta-Problemstellung betrifft als auch die algorithmischen Verfahren.  Das KI-System kann dabei das Ausprobieren verschiedener Strukturen und Anpassen von sog. Hyperparametern automatisieren.

(Anmerkung: Das sieht nach einem „infiniten Regress“ Problem für die Allgemeine Künstliche Intelligenz aus. Was fehlt, ist ein Prinzip der Entwicklung. Etwa ein Evolutionsprinzip (Genetische Variation, Selektion), das ja offensichtlich erfolgreich zu Animal Learning and Cognition und insbesondere zur  menschlichen Intelligenz als Maß aller Dinge geführt hat.)

In der Blog-Serie „Sechs nicht so einfache Aufgaben für KI“  haben wir der KI ein paar einfachste, anspruchslose Aufgaben vorgelegt, die jedes Kind zu bewältigen lernt. Sie sind der Verstehbarkeit halber aus der Mathematik gewählt. Also etwa das Zählen, oder gerade und ungerade Zahlen zu unterscheiden. Wir wollten daran sehen, wie es um die Lernfähigkeit bestellt ist, was man als Entwickler dazu beitragen muss, welche Qualitäten des Lernens man dabei entdecken kann und, was KI daraus lernen kann, wie Kinder diese Aufgaben – vermutlich – zu lösen lernen.

Die Blog-Serie ist auf Medium für Beck et al. GmbH, München, auf Deutsch veröffentlicht. Den Einstieg findet man in dem kurzen Einführungsblog: Sechs nicht so einfache Aufgaben für KI, oder über die Webseite von https://becketal.com unter #our_blog. Im Laufe der Zeit (2019) war die Serie ordentlich angewachsen, weshalb der Einführungsblog-Beitrag am Ende auch ein Verzeichnis aller Beiträge der Serie enthält, in der empfohlenen Lesereihenfolge und direkt bzw. untereinander verlinkt.

Noch ein Hinweis: Die Beiträge sind in Form so genannter Jupyter Notebooks (für Python) entstanden. D.h. der erzählende Text wird unterstützt durch kurze Python-basierte Code-Blöcke (unter Verwendung einschlägiger Packages wie keras / Tensorflow für Neuronale-Netze-Modelle). Mit denen können die beschriebenen Ideen bei Interesse nachgebildet werden.

Zum Abschluss noch ein älteres Zitat, nicht weniger bedeutend als die aktuellen:


"I propose to consider the question, "'Can machines think?' This should begin with definitions of the meaning of the terms 'machine' and 'think'. The definition might be framed so as to reflect so far as possible the normal use of the words, but this attitude is dangerous..." [AT]


[KI] G. Paaß, D. Hecker: Künstliche Intelligenz Springer 2021

[MG] Markus Gabriel: Sendung aspekte vom 12.3.2021

[AT] Alan Turing: Computing Machinery and Intelligence, Oxford University Press, 1950