KI-Modelle für den Informatik-Unterricht

 Kommentiertes Inhaltsverzeichnis

Bernhard Thomas – Ulrich Trottenberg

Interscience Akademie für Algorithmik

Sept. 2021, Jan., Apr. 2022

Das Ziel dieser Serie von KI-Beispielen für die Schule ist die Heranführung  an eine Auswahl von KI-Methoden (Maschinelles Lernen, Data Analytics). Im Vordergrund steht dabei stets ein einfacher  (Lern-) Aufgabenkontext, wie er aus dem Schulunterricht oder dem Alltagsleben bekannt ist. Auf die üblichen Cook-Book Beispiele wird bewusst verzichtet. Der Ansatz ist daher stets die Frage: Kann eine KI lernen, die vorliegende Aufgabe zu lösen? Präziser heißt das: Mit welcher Methode des maschinellen Lernens und auf welchem Wege kann ein System dies lernen. Geht das überhaupt, und wenn ja, wie gut? Wie macht das der Mensch, als Kind, als Schüler*.

Diese Übersicht gibt neben dem Titel eine kurze Erläuterung des Beispiels. Zusätzlich wird vermerkt, welche KI-Methode verwendet wird. Weiter wird angedeutet, wie das Verfahren mit einfachen Mitteln, etwa Papier-und-Farbstift, Zirkel-und-Lineal oder spielerisch nachvollzogen und die Aufgabe eigenständig variiert werden kann. Dies ist im jeweiligen Text (Story) genauer beschrieben.

Die Verfahren werden blackbox-artig den Aufgaben angemessen in ihrer Wirkung und Anwendung erklärt. Es ist nicht nötig, die  teilweise komplexe Theorie (höhere Mathematik) der Verfahren zu erklären, und auch die teilweise exotisch (mathematisch) klingenden Bezeichnungen werden weitestgehend vermieden. In dieser Übersicht sind sie lediglich als Referenz aus dem KI-Methoden-Baukasten erwähnt.

Die zugehörigen ausführlichen Texte und Programme sind als Grundlage zu verstehen. Je nach Einsatzzweck (z.B. Schule) können daraus zielgruppenspezifisch vollständige Kurse entwickelt werden. Dabei ist jeweils der Stand der Mathematik-Kompetenz der Jahrgangsstufe / Schulform zu berücksichtigen.

Als zusammenfassende Tabellen sind A.) die Titel der Themen aufgelistet und am Ende B.) eine Übersicht der der in den Artikeln verwendeten Verfahren und Varianten als Referenz zusammengestellt. Die Reihenfolge der Beispiele in der Übersicht ist ohne weitere Bedeutung.

 

 

 

 

 

 

 

 

 

 

 

 

  1. Tabelle der Themen
# Thema
01 KI lernt gerade und ungerade Zahlen zu unterscheiden
02 KI lernt Gleichungen mit 3 Unbekannten lösen (3x3 Teil 1)
03 Pizza-Bringdienst - KI lernt Vorhersagen zu machen ohne die Lösung zu kennen (3x3 Teil 2)
04 KI lernt aus Erfahrung Vorhersagen zu machen (3x3 Teil 3)
05 KI lernt PKWs zu klassifizieren (PKW Teil 1)
06 KI bestimmt eine PKW Klasseneinteilung selbstständig ohne Vorgaben (PKW Teil 2)
07 KI lernt Größer und Kleiner zu unterscheiden
08 KI lernt Obstsorten zu unterscheiden (Obst Teil 1)
09 Erweiterte Aufgaben für die intelligente Scanner-Kasse (Obst Teil 2)
10 Scanner-Kasse lernt Obstsorten zu unterscheiden ohne Vorgaben (Obst Teil 3)
11 KI-Unterstützung: Was ist wichtig?
12 KI lernt quadratische Gleichungen zu lösen
13 KI lernt die Umkehrmatrix für Gleichungen mit 3 Unbekannten (3x3 Teil 4)
14 KI lernt die Formel zur Lösung von quadratischen Gleichungen
15 KI lernt Zählen (Zählen Teil 1)
16 KI lernt Abzählen (Zählen Teil 2)
17 KI lernt Wetter-Apps zu bewerten
18 Größer/Kleiner unterscheiden lernen – KI-Varianten
19 Mein Smartes Zimmer - Chatbot lernt Anweisungen zu verstehen und auszuführen
20 NN lernt Klassifizieren (am Beispiel Obstsorten)
21 KI lernt die kleinste Zahl aus einer Reihe von Zahlen zu finden
22 Ein Robot lernt Richtungsmuster zu erkennen (directions Teil 1)
23 Escape Room: Ein Robot lernt Richtungshinweise auszuwerten (directions Teil 2)
24 Hunting Fox – Weg zum Erfolg finden

 

Stand Jan. 2022: Alle Themen mit Jupyter Notebooks, kursive Nummern noch ohne „Story“-Text

#01 KI lernt gerade und ungerade Zahlen zu unterscheiden

Aus vorgelegten 6-stelligen Zahlen soll ein ML-Verfahren lernen, Zahlen nach gerade / ungerade zu klassifizieren. Wie lernt ein Kind diese Unterscheidung? Die „intellektuelle Fähigkeit“ besteht darin, Auffälligkeiten in den Trainingszahlen zu erkennen und diese mit „gerade“ oder „ungerade“ zu verbinden.

KI-Methode: Data Analytics – Categorical Naïve Bayes
Nachvollziehbarkeit: Tabellen, Häufigkeiten auszählen, ggf. mit Excel
Eigene Variationen: Bunte Kärtchen statt Zahlen, Vielfache von 5

 

#02 KI lernt Gleichungen mit 3 Unbekannten lösen (3x3 Teil 1)

Ein Logikrätsel und ein Pizza-Bringdienst bieten 2 Beispiele typischer Textaufgaben, die jeweils zu 3 Gleichungen mit 3 Unbekannten führen. Die ML Lernaufgabe besteht darin, die Lösungen zu finden. Eine ungewöhnliche Verwendung eines einfachen künstlichen neuronalen Netzes (KNN) zur Iteration der Lösung.

KI-Methode: Machine Learning mit KNNs (Lineares Perzeptron), Backpropagation
Nachvollziehbarkeit: Rechnen mit der KNN Struktur, Ausprobieren, Übergang von Text zu Gleichungen, bekannte Lösungsmethode aus dem Unterricht.
Eigene Variationen: Weitere Textaufgaben, 2 Gleichungen mit 2 Unbekannten, einfache lineare Gleichung.

 

 

#03 Pizza-Bringdienst - KI lernt Vorhersagen zu machen ohne die Lösung zu kennen (3x3 Teil 2)

Die Textaufgabe zum Pizza-Bringdienst wird ergänzt durch die Anforderung, Vorhersagen für die nächste Woche abzuleiten. Vorgegeben sind die „Erfahrungen“ der zurückliegenden drei Tage, in Form der 3 Gleichungen. Die klassische Lernaufgabe für ein KNN (lineares Perzeptron).

KI-Methode: Machine Learning mit mehrschichtigen KNNs, Lineare Aktivierung, Backpropagation
Nachvollziehbarkeit: Rechnen mit der KNN Struktur, Ausprobieren
Eigene Variationen: Lösungsberechnung und Anwendung der Ergebnisse auf Vorhersagezeitraum

 

#04 KI lernt aus Erfahrung Vorhersagen zu machen (3x3 Teil 3)

Der Pizza-Bringdienst sammelt Daten über einen längeren Zeitraum und will daraus eine Planungsvorhersage für die nächste Woche erstellen. Variation der Aufgabe #03. Vorgegeben sind die gesammelten „Erfahrungen“  als Trainingsdaten. Planungsdaten folgen aus Anwendung des trainierten ML-Modells auf die nächsten Wochentage (Testdaten).  Die klassische Lernaufgabe für ein KNN-Modell (lineares Perzeptron).

KI-Methode: Machine Learning mit linearem Perzeptron, Backpropagation
Nachvollziehbarkeit: Rechnen mit der KNN Struktur, Ausprobieren, Papier-und-Bleistift-Algorithmus
Eigene Variationen: Spielen mit unterschiedlichen Daten-Szenarien, Aufgabe mit E-Fahrzeugen.

 

#05 KI lernt PKWs zu klassifizieren (PKW Teil 1)

Anhand von drei Kenndaten sollen PKWs als Fahrzeuge der Oberklasse, Mittelklasse, Kompaktklasse oder Kleinwagenklasse klassifiziert werden.  Mit Trainingsbeispielen wird ein Entscheidungsbaum (decision tree) trainiert, der dann für die Klassifikation neuer Fahrzeuge eingesetzt wird. Ebenfalls ein typisches Beispiel für „überwachtes Lernen“ (supervised learning).

KI-Methode: Machine Learning mit Entscheidungsbäumen, Klassifikation
Nachvollziehbarkeit: Aufmalen von Entscheidungsbäumen, Zuordnungen ausprobieren, Korrektur der Verzweigungsbedingungen.
Eigene Variationen: Andere oder mehr Kenndaten, Variation der PKW-Klassen ( 6 bzw. 3), Anwendung auf E-Fahrzeuge.

 

#06 KI bestimmt eine PKW Klasseneinteilung selbstständig ohne Vorgaben (PKW Teil 2)

Ein Fahrzeug anhand von Beispiel-PKWs in vorgegebene Fahrzeugklassen einzuordnen ist eine Sache – geeignete Fahrzeugkategorien für die Einordnung erst einmal festzulegen, ist eine andere, vielleicht schwierigere Sache. Eine “datenanalytische“ Methode der KI findet in den Daten Gruppen, die man als mögliche PKW-Klassen identifizieren kann. Ein typisches Beispiel für „unüberwachtes Lernen“ (unsupervised learning).

KI-Methode: Clustering (k-means), Zentralpunkte
Nachvollziehbarkeit: Imitieren des KI-Verfahrens, Punktdiagramm für 2 Kenndaten, Cluster per Augenmaß durch „Kreise“ abgrenzen und Mittelpunkte einzeichnen.
Eigene Variation: Verschiedene Anzahl Cluster, Gruppenbezeichungen finden, neue Fahrzeuge einzeichnen.

 

#07 KI lernt Größer und Kleiner zu unterscheiden

Lernt jedes Kind – früher oder später. Aber wie lernt es das? Und wie eine KI? Anhand von Zahlenpaaren lernt ein einfaches Neuronales Netz, welche Zahl die größere ist, und kann das danach für neue Zahlenpaare entscheiden. Einigermaßen sicher.

KI-Methode: Lineare Regression, Machine Learning mit KNN, nichtlineare Aktivierung, 2 verschiedene KNN Strukturen.
Nachvollziehbarkeit: Punktdiagramm, KNN rechnerisch auswerten. Raten der Gewichte.
Eigene Variation: KNN-Varianten vergleichen

 

#08 KI lernt Obstsorten zu unterscheiden (Obst Teil 1)

Eine vereinfachte Scanner-Kasse erfasst eine Reihe von Merkmalen bei Obststücken: Breite, Länge, Gewicht und Farbe. Sie soll zunächst lernen, Bananen und Birnen anhand von 2 Merkmalen zu unterscheiden. Das KI-Verfahren lernt anhand von Beispielen Bananen von Birnen zu „trennen“ und entscheidet dann, zu welcher Obstsorte weitere Obststücke gehören.

KI-Methode: SVM-Klassifikation, lineare Trennlinie / Korridor (SVM = „Support Vector Machine“)
Nachvollziehbarkeit: Manueller „Algorithmus“ mit Punktgrafik. Ausprobieren verschiedener gerader Trennlinien.
Eigene Variation:  Gerade Linien, gekrümmte Linien, andere 2 Obstsorten aus dem Datensatz, Preisberechnung durch Scanner-Kasse

 

#09 Erweiterte Aufgaben für die intelligente Scanner-Kasse (Obst Teil 2)

Die „intelligente“ Scanner-Kasse soll nun verschiedene 2 Obstsorten mittels bis zu vier Merkmalen klassifizieren. Welche Merkmale sind am wichtigsten für die Unterscheidung? Wie lernt die Scanner-Kasse alle 4 Obstsorten unterscheiden? Es wird komplizierter, aber im Wesentlichen verwendet sie das gleiche Verfahren wie in Teil 1.

KI-Methode: Lineare SVM-Klassifikation, paarweise und „Eine gegen den Rest“ Separierung, Entscheidungsfunktion
Nachvollziehbarkeit: Vereinfachung (Feature Reduktion), Mehrfach-Trennlinien.
Eigene Variation:  Gerade Linien, gekrümmte Linien, Diskussion der „Lern-Schwierigkeiten“

 

#10 Scanner-Kasse lernt Obstsorten zu unterscheiden ohne Vorgaben (Obst Teil 3)

Die Scanner-Kasse bekommt nur Obststücke vorgelegt ohne Angabe, um welches Obst es sich handelt. Sie lernt anhand der Merkmalsausprägungen, Obststücke zu gruppieren, z.B. in 4 Gruppen und sortiert neue Stücke (anhand der Merkmale) in die Gruppen ein. Das KI-Verfahren bildet die Gruppen nach dem Prinzip der „Ähnlichkeit“ bezogen auf die Merkmalsdaten. Aber - was ist dann was?

KI-Methode: k-Means Clustering, Confusion Matrix, Skalierung
Nachvollziehbarkeit: Grafik mit einfarbigen Punkten, nach Augenmaß umkreisen von zusammengehörigen Punkten in 4 Gruppen
Eigene Variation:  Versuche mit 2 oder 6 Gruppen, Zuordnung: welche ist (z.B.) die Bananen-Gruppe

 

#11 KI-Unterstützung: Was ist wichtig?

Möglichst viele Merkmale sind nicht unbedingt besser für Entscheidungen und machen auch die maschinellen Verfahren komplizierter. Welche Objekt-Merkmale (Features) sind ausschlagegebend für eine Klassifizierung? In Obst Teil 2 wurden zwei von vier Merkmalen durch Probieren als dominierend identifiziert. Auch hierfür kann man eine maschinelle Methode einsetzen.

KI-Methode: PCA (Hauptkomponenten-Analyse), Abbildung auf Feature-Achsen
Nachvollziehbarkeit: In Punktwolken die Richtungen der größten Ausdehnung einzeichnen, Interpretation im Merkmalsraum
Eigene Variation:  Obst-Datensatz variieren. PCA mit 2, 3 oder 4 Komponenten analysieren. Interpretation als Merkmale.

 

#12 KI lernt quadratische Gleichungen zu lösen (QGln Teil 1)

Hier wird nicht die Lösungsformel ausgerechnet, sondern ein (mehrschichtiges) soll KNN lernen, eine Lösung zu finden. Zum Training werden Zahlenpaare vorgegeben, die entstehen, wenn die Gleichung für verschiedene Werte ausprobiert wird. Mit dem Trick, Input (x) und Output (y) des KNN zu vertauschen, kann das KNN trainiert werden, eine Lösung zu berechnen.

KI-Methode: Mehrschichtiges KNN mit sigmoider Aktivierung, universelle Approximationseigenschaft von KNNs
Nachvollziehbarkeit: Zeichnen der Kurve zur Gleichung und der Umkehrung (x,y vertauschen)
Eigene Variation:  Verschiedene quadratische Gleichungen, Fälle mit 1 und 2 Lösungen.

 

#13 KI lernt die Umkehrmatrix für Gleichungen mit 3 Unbekannten (3x3 Teil 4)

Drei Gleichungen mit 3 Unbekannten kann man in der sogenannten Matrix-Form schreiben, d.h. mit einer 3x3 Matrix der Koeffizienten, und der rechten Seite als 3x1 Matrix (Vektor). Ein KNN lernt, die „Umkehrmatrix“ (Inverse) zu bestimmen, mit der man die Lösung direkt ausrechnen kann.

KI-Methode:  Lineares KNN mit „dichter“ Verknüpfung (Dense Layer), universelle Approximationseigenschaft von KNNs
Nachvollziehbarkeit: Probieren, Rechnen, Korrigieren mit Papier und Bleistift
Eigene Variation:  Besondere Matrizenformen, Vergleich mit direkten Lösungsalgorithmen aus dem Unterricht

 

#14 KI lernt die Formel zur Lösung von quadratischen Gleichungen (QGln Teil 2)

Für quadratische Gleichungen gibt es Lösungsformeln, die (a,b,c)- oder die (p,q)-Formel. Das KI-Verfahren (hier wieder ein KNN) soll aus eine Reihe von verschiedenen Gleichungen mit den Koeffizienten a,b,c und vorgegebener Lösung lernen, die Lösung von anderen Gleichungen zu bestimmen. Variante: Ein KNN soll lernen, die entsprechenden Koeffizienten der Lösungsfomel zu bestimmen.

KI-Methode: Mehrschichtiges KNN mit sigmoider Aktivierung, universelle Approximationseigenschaft von KNNs
Nachvollziehbarkeit: Beispielhafte Zuordnung von (a,b,c)-Tripeln zu Lösungen, bzw. zu den Koeffizienten der p-q-Formel
Eigene Variation:  Möglichkeiten grafischer Darstellung

 

#15 KI lernt Zählen (Zählen Teil 1)

Jedes Kind lernt Zählen, von 1 bis 10, von 10 bis Hundert, aber wie? Was kommt nach Eintausendachthundertundzwölf? Gleich zwei KI-Methoden lernen die Nachfolgerregel, eine datananalytische und ein neuronales Netz.

KI-Methode: Zweischichtiges, minimales KNN, Lineare Regression
Nachvollziehbarkeit: Wie hat man Zählen gelernt, Trainingsdaten und grafische Darstellung
Eigene Variation:  Negative Zahlen

 

#16 KI lernt Abzählen (Zählen Teil 2)

Eine andere Art des Zählens: Abzählen von Objekten, z.B. rote Legosteine in einer Box. Wie lernt man das? Für KI ist das keine so einfache Aufgabe. Der Lernprozess besteht aus zwei einfacheren Lern-Phasen, für die u.a. unterschiedliche KI-Methoden zusammen kommen.

KI-Methode: Nicht-lineare SVM + KNN, KNN mit Transfer Learning
Nachvollziehbarkeit: Imitieren der zwei Phasen mit physischen Objekten oder Zahlen
Eigene Variation:  Worte statt Legosteine

 

#17 KI lernt Wetter-Apps zu bewerten

Welche der 4 Wetter-Apps auf dem Smartphone macht die beste Vorhersage für das Wochenende? Erfahrungen über mehrere Wochen werden protokoliert und dienen als Trainingsdaten. Hier gibt es gleich mehrere KI-Methoden, die aus der Erfahrung lernen und Vorhersagen machen, welcher App man trauen sollte.

KI-Methode: Methoden im Vergleich: Naive Bayes, KNN, SVM Classifier, Decision Tree, Reinforcement
Nachvollziehbarkeit: Datenmodell verstehen, Protokolldarstellung, Auszählen für Naive Bayes
Eigene Variation:  Nachhalten der Voraussagen, Nach-Training der Modelle.

(geplant)

 

#18 Größer / Kleiner unterscheiden lernen – KI-Varianten

Anhand dieser einfachen Lernaufgabe werden neben dem nichtlinearen Perzeptron (s. #07) zwei weitere grundlegende Formen von Neuronalen Netzen erläutert: NN mit separaten Inputströmen und klassifizierende NN.

KI-Methode: Regression NN, Categorical NN, separate Inputs, Gewichte-Analyse.
Nachvollziehbarkeit: Nachrechnen der Modelle, Einfluss der Gewichte, Aufgaben-Analogie mittels Farbkärtchen.
Eigene Variation: Farbkärtchen-Lernaufgaben, Übertragung auf Obst-Klassifikation

 

#19 Mein Smartes Zimmer - Chatbot lernt Anweisungen zu verstehen und auszuführen

Ein "smartes Zimmer" (Chatbot) lernt im Dialog verstehen, ob es ein Fenster öffnen oder schließen soll und das Licht an- oder ausschalten soll.

KI-Methode: Einfacher endlicher Automat, variierender Text-Input (keine NLP Verfahren), Reinforcement.
Nachvollziehbarkeit: Datenmodell und Dialog-Ablauf verstehen
Eigene Variation: Erweiterung, anderer Konversationskontext, andere Aktionen

 

#20 Neuronales Netz lernt Klassifizieren von Obstsorten  (Obst Teil 4)

Für die Unterscheidung von Obstsorten soll ein Neuronales Netz lernen, Objekte zu klassifizieren. D.h. die Scanner-Kasse wird mit einer anderen Art von KI als in Teil 1 ausgestattet. Auch hier werden die einzelnen Obststücke durch Breite, Länge, Gewicht und Farbe erfasst, und diese Informationen werden für das Training zusammen mit der Sorte (Klasse) für das NN geeignet aufbereitet.

KI-Methode: Klassifizierendes Neuronales Netz, zwei und mehr Klassen, Wahrscheinlichkeiten
Nachvollziehbarkeit: Berechnen eines Vorwärts-Durchlaufs des NN, grafische Modellierung mit Open Roberta NN. Versuchen, aus einer Reihe von Input-Daten selbst auf die Klasse zu schließen
Eigene Variation: Im Open Roberta NN Gewichte manipulieren. Verschiedene Feature-Kombinationen.

 

#21 KI lernt die kleinste Zahl aus einer Reihe von Zahlen zu finden

Es gilt, die kleinste Zahl aus einer Reihe von z.B. 10 Zahlen zu finden. Und zwar durch Angabe der Position innerhalb der Zahlenreihe.  Kann ein Neuronales Netzt das allein aus vorgelegten Beispielen lernen? Wie würde man das aus Beispielen selbst lernen, d.h. ohne „zu wissen“, dass man die kleinste Zahl suchen soll?

KI-Methode: Klassifizierendes NN, Mehrfach-Klassen, StandardSkalierung, Softmax, one-hot Kodierung
Nachvollziehbarkeit: Ablauf eines Vorwärts-Durchlaufs des NN (ohne Rechnen). Versuchen, aus Zahlenreihen und Vorgabe einer Positionsnummer die Aufgabe zu erkennen
Eigene Variation:  Übergang von Größer/Kleiner zu „Kleinste Zahl finden“. Variation der Aufgabenstellung, z.B. größte Zahl finden, verschiedene Reihenlänge, one-hot Kodierung für Beispielklassen erstellen.

 

#22 Ein Robot lernt Richtungsmuster zu erkennen

Als Vorstufe für die Escape Room Aufgabe (#23) soll eine KI lernen einfache Muster in einem 3x3 Feld zu erkennen Z.B. die beiden Diagonalen. Zunächst werden die Gewichte (Filter) von Hand vorgegeben und modifiziert um das Lernziel zu erreichen. Im zweiten Schritt wird das NN darauf trainiert. Es soll experimentiert und erklärt werden können, warum das NN ein nicht-diagonales Muster als eine der beiden Diagonalen interpretiert.

KI-Methode: Lineares / nichtlineares Perzeptron, einfaches Convolutional NN, Filter
Nachvollziehbarkeit: Verwenden von Schablonen zum Erkennen der Diagonalen. Umsetzung in der OpenRoberta/TF-Playground Umgebung (IAIS), Setzen und modifizieren der Gewichte von Hand. Erklären der Entscheidungen. Variante: Ausschließlich Verwendung von ganzen nicht-negativen Zahlen.
Eigene Variation: Weitere Muster erkennen, 4x4 Feld

 

#23 Escape Room: Ein Robot lernt Richtungsanzeigen erkennen

Ein Robotfahrzeug soll seinen Weg aus einem „Escape Room“  finden, oder durch ein Labyrinth oder durch einen Stadtteil von New York (bildlich). Der Weg ist durch Richtungshinweise markiert. Die KI des Robots muss lernen, die Richtungszeichen zu verstehen, d.h. in die richtige Bewegung umzusetzen.

KI-Methode: Tiefes NN, einfaches Convolutional NN
Nachvollziehbarkeit: Verwenden von Schablonen zum Entdecken und Deuten von Richtungshinweisen, in Bewegungseinheiten übersetzen, kleines Vehikel bewegen je nach Lernstand
Eigene Variation: Gestörte Richtungshinweise, andere / weitere Richtungszeichen, Stoppzeichen, „von A nach B“

 

#24 Hunting Fox – Weg zum Erfolg finden

Ein simuliertes Tier (Fuchs- Robot) erkundet sein Habitat (seine Umwelt) auf der Suche nach Nahrung (Rewards). In Bau-Nähe findet sich nur wenig, aber es gibt einen weiter entfernten Flecken mit reichlich Nahrung. Wie lernt er den Weg dorthin?

KI-Methode: Reinforcement Learning, Q-Learning, Tiefes NN
Nachvollziehbarkeit: Spielerisch auf linearem oder quadratischen Spielplan
Eigene Variation: Veränderliche Rewards, zwei ergiebige Ressourcen in unterschiedlichen Richtungen, Fehlleitende Reward-Verteilung

 

 

 

  1. Tabelle der KI-Methoden (Data Analytics, Machine Learning)
Verfahren Variante Typ Verwendet in:
Entscheidungsbaum Binär Categorical #05, #17
Naive Bayes Categorical #01, #17
Support Vector Machine Linear, multi-class, ovo, ovr Categorical #08, #09
Support Vector Machine Nicht-linear, rbf kernel Categorical #16, #17
K-means Clustering Confusion matrix Categorical #06, #10
Hauptkomponenten-Analyse PCA Feature #11
Feature Regularisierung StandardScaling Feature #10, #20, #21
Encoding One-hot Feat. / Target #18, #20
Lineare Regression Regressional #07, #15
Neuronale Netze Lineares Perzeptron (LP) Regressional #02, #04
Neuronale Netze Multi-layer LP (MLP) Regressional #03, #15
Neuronale Netze Nicht-linear, multi-layer NN Regressional #07, #18
Neuronale Netze MLP, sigmoid Aktivierung Regressional #12, #13, #14
Neuronale Netze One-hot Target Categorical #18, #20
Kombiniert (Transfer Learn.) SVM+KNN, KNN+KNN Cat. / Regr. #16
(Reinforcement) Dialog #19
Neuronale Netze CNN (Convolutional NN) Categorical #23
Reinforcement Q-Learning Regr. / Cat. #24
XAI (Ansätze) Effektanalyse Input / Gewichte Categorical #22, #23

 

Anmerkungen:

  • Jupyter Notebooks, Python Libraries, Durchführung z.B. auf Google Colaboratory Umgebung (Internet / Browser)
  • NN-Modelle auf OpenRoberta mit IAIS TF Playground Integration