Algorithmenwandel
Als der Schachcomputer Deep Blue von IBM 1996 mit einem Algorithmus aus dem Bereich der Künstlichen Intelligenz (KI) den Schachweltmeister Gari Kasparow nachhaltig geschlagen hatte, war das eine Erschütterung für die gesamte Schachwelt. Trotz dieses Durchbruchs waren sich die Gospieler und die algorithmischen Experten einig und davon überzeugt, dass sich die sehr guten Gospieler dieser Welt keine Sorgen machen müssten. Denn Go ist quantitativ so viel komplexer als Schach, dass man auf viele Jahrzehnte keine Chance für die Algorithmen der Künstlichen Intelligenz sah, die menschliche Go-Intelligenz zu verdrängen: Beim Schach hat man pro Zug im Mittel vielleicht 30 Möglichkeiten, beim Go pro Zug im Mittel eher 200.
Diese Überzeugung der menschlichen Go-Überlegenheit ist seit 2016 obsolet, als der Go-Algorithmus AlphaGo den weltbesten Gospieler Lee Sedol nachhaltig schlug. In den 20 Jahren von 1996 bis 2016 hatte es einen algorithmischen Durchbruch gegeben, den ich hier Algorithmenwandel nennen möchte.
Algorithmus, das war bis zur Jahrhundertwende ein mathematisch-informatischer Fachbegriff, unter dem sich lange Zeit nur Experten etwas vorstellen konnten. In den letzten 20 Jahren ist Algorithmus dann allmählich ein Begriff des täglichen Lebens, der Journalistik und der Politik geworden – mit einem richtigen Schub im Jahr der Mathematik 2008. Trotz seiner Verbreitung ist der Begriff für die meisten Menschen unklar, für viele unheimlich und bedrohlich geblieben.
Dabei ist ein Algorithmus nichts Geheimnisvolles: Ein Algorithmus ist eine eindeutige, aus endlich vielen Einzelschritten bestehende, detaillierte Verfahrens- oder Handlungsvorschrift zur Lösung eines Problems oder einer Aufgabenstellung. Handelt es sich um ein mathematisch oder informatisch formuliertes Problem und wird der Algorithmus in einer Programmiersprache formuliert, spricht man in der Regel von einem Computerprogramm. Das ist dann auch der geläufigere Begriff. In einem allgemeineren Sinn sind aber auch eine Aufbauanleitung für ein Regal, ein präzises Kochrezept, eine genaue Wegbeschreibung Beispiele von Algorithmen.
Die fundamentale Bedeutung von (mathematisch-informatischen) Algorithmen besteht darin, dass sie den Kern alles Digitalen, aller digitalen Geräte und Prozesse bilden: Sie steuern Computer und Netze, und sie verarbeiten die Daten. Softwaresysteme bestehen meist aus einer Vielzahl von Algorithmen.
Algorithmen sind in ihrem Kern mathematische Konstrukte und damit prinzipiell wertfrei und gestaltbar, wie alles Mathematische. Diese Überzeugung hat mich bei meinen Lehrveranstaltungen, Publikationen, Projekten und Vorträgen, geleitet, und sie hat bewirkt, das ich die algorithmischen Entwicklungen bisher - wie die Mathematik insgesamt - positiv eingeschätzt und mit Optimismus betrieben habe. Indem ich einen Algorithmus konzipiere und programmiere, lege ich fest, was er tut und wofür er gut ist. Klar, Programmierfehler können auftreten mit verhängnisvollen Folgen, Algorithmen können für inhumane, verbrecherische, kriegerische Zwecke konzipiert und eingesetzt werden. Aber dass Algorithmen fehleranfällig sind, missbraucht und gezielt für problematische Zwecke konzipiert und eingesetzt werden, widerspricht ihrer prinzipiellen Wertfreiheit nicht.
Seit etwa 1995 hat sich in der Algorithmik aber einiges essentiell geändert. Etwas vereinfachend kann man diesen Wandel mit der Formulierung: „vom programmierten zum trainierten Algorithmus“ beschreiben.
Zu den traditionellen Algorithmen hinzugekommen sind spezielle, neue Methoden der KI und des „Maschinellen Lernens (ML)“. Grundlegenden Ideen zu KI und ML sind zwar schon rund 70 Jahre alt, sensationelle Durchbrüche sind aber erst in den letzten 30 Jahren erreicht worden: durch neue algorithmische Ideen, durch die Datenexplosion und durch superschnelle Rechner. Im Mittelpunkt stehen dabei zur Zeit eine Vielzahl von selbstlernenden Verfahren des „Deep Learning“. Diese Algorithmen, die - in Analogie zur Funktionsweise des biologischen Gehirns - mit vielen, vielleicht Hunderten von Schichten, Millionen künstlicher Neuronen und geeigneten, oft riesigen Mengen von (Trainings-)Daten arbeiten, werden nicht in herkömmlicher Weise programmiert, sondern trainiert. Der Programmierer, den man auch bei diesen lernenden Algorithmen braucht, legt nur die Methodik fest, wie das System lernt und wie es mit den Daten umgeht. Der Programmierer hat aber im allgemeinen keine Kontrolle darüber, welche Muster das System in den Daten erkennt und welche Schüsse es aus diesen Erkenntnissen zieht. Zur Mustererkennung verwendet das System statistische und zunehmend auch hocheffiziente numerische Optimierungsverfahren, die für den jeweiligen Algorithmus charakteristisch sind.
Eine Vielzahl der mit dieser Methodik des Deep Learning bereits heute erzielten Ergebnisse und Erfolge sind absolut faszinierend, geradezu phantastisch. Wir erwähnen hier nur die Entwicklungen bei der Bild- und Spracherkennung und bei der automatischen Übersetzung von schriftlichem und gesprochenem Text.
Überraschend waren selbst für Experten, wie eingangs erwähnt, die Erfolge, die mit speziellen ML-Algorithmen des Deep Learning, insbesondere mit sogenanntem Bestärkungslernen (Reinforcement), beim Go-Spiel erzielt wurden. Dabei werden nur die äußerst einfachen Go-Spielregeln programmiert. Alles andere wird gelernt, und zwar dadurch, dass das System millionenfach gegen sich selber spielt. Nach dem Lernprozess erweist sich das System als auch den weltbesten Go-Spielern deutlich überlegen. Absolut überraschend und bezeichnend ist dabei auch, dass das System eigene Spielstrategien entwickelt und Spielzüge ausführt, die bisher noch von keinem menschlichen Spieler gespielt worden sind und deren Sinn auch von den weltbesten Spielern daher nicht sofort verstanden und vollständig erklärt werden kann.
Und das ist auch eine allgemeine Problematik des ML: Wie hier beim Go-Spiel werden insbesondere mit Algorithmen des Deep Learning (oft hervorragende) Ergebnisse erzielt, deren Zustandekommen weitgehend, oft vollständig unerklärlich bleibt.
Dass die ML-basierten neuen Spielstrategien beim Go-Spiel nicht (vollständig) verstanden werden, ist verblüffend, aber nicht wirklich kritisch oder bedrohlich, sondern eher anregend. Diese verborgene Seite des ML ist aber ganz offensichtlich unakzeptabel, wenn das System den Anwender nicht nur unterstützt, sondern selbstständig Entscheidungen trifft, die für Betroffene von großer oder sogar existenzieller Bedeutung sind. Auch dafür gibt es heute bereits eine zunehmende Anzahl von Beispielen.
Wir nennen hier nur selbstständige Entscheidungen (Sortieren und Filtern) bei Bewerbungsverfahren, bei der Festlegung von Versicherungs- und Kreditkonditionen, und weisen auf das sich rasant entwickelnde Forschungsfeld der autonomen Systeme (autonome Fahrzeuge, Waffen usw.) hin. In all diesen Bereichen gibt es schon sehr weitgehende technische Entwicklungen – und parallel dazu intensive juristische, ethische und politische Diskussionen in entsprechenden Gremien (s. z.B. Artificial Intelligence Act der EU-Kommission, ein Vorschlag der EU zur Regulierung der Nutzung der KI).
Wie soll die informatische Forschung mit dieser Problematik umgehen? Eine wissenschaftliche Antwort auf diese Problematik ist die Bemühung, das auf Deep Learning beruhende System zu veranlassen, seine Entscheidung selbst zu erklären, also z.B. seinen "Entscheidungspfad" nachvollziehbar zu machen. Mit dieser wissenschaftlichen Zielsetzung beschäftigt sich die mathematisch-informatische Disziplin des XAI (Explainable AI). Obwohl an XAI in vielen Forschungszentren weltweit gearbeitet wird, sind die Erfolge noch begrenzt. Das erkennt man z.B. daran, dass schon bei „kleinen“, überschaubaren Anwendungen des Deep Learning die "berechneten" Ergebnisse hochsensibel von den Trainingsdaten abhängen: Kleine Änderungen in den Trainingsdaten können zu erheblichen, unvorhersehbaren Veränderungen bei den Ergebnissen führen, ein oft irritierender Effekt.
Für manche Anwendungen gibt es die Möglichkeit, die mit Deep Learning erzielten Ergebnisse durch andere Methoden des ML überprüfen zu lassen, deren Ablauf nachverfolgt werden kann. Das sind aber in der Regel nicht die interessantesten Anwendungen, weil die „durchschaubaren“ ML-Algorithmen oft nicht die Effektivität der („undurchschaubaren“) Deep Learning Algorithmen erreichen.
Angesichts dieser unübersichtlichen Situation - weil und solange das XAI-Problem nicht befriedigend gelöst ist – ist es eine gemeinsame Aufgabe der Algorithmiker, Juristen, Ethiker und der Politik, die Risiken systematisch zu untersuchen, zu bewerten und geeignete Steuerungsmaßnahmen zu ergreifen.
Es stellen sich unter anderem folgende Fragen:
Sollten Algorithmen, deren interne (Trainingsdaten-basierten) Abläufe nicht vollständig nachverfolgt und deren Ergebnisse nicht erklärt werden können, nur zur Unterstützung menschlicher Entscheidungen benutzt werden, aber keine eigene Entscheidungen treffen?
Oder weitergehend: Sollten solche Algorithmen als unsicher gekennzeichnet und ihre Benutzung grundsätzlich ausgeschlossen werden? Reichen Warnhinweise aus?
Macht es Sinn, einen TÜV oder ein Audit für ML-Algorithmen einzuführen, womit sichergestellt wird, dass alle Bestandteile und internen Abläufe der Algorithmen kontrolliert werden können?
Besteht eine Chance, diese Fragen anwendungsunabhängig zu behandeln, oder können die Probleme nur anwendungsspezifisch in Angriff genommen werden?
Besteht eine realistische Chance auf internationale Einigung? Oder wird man damit leben müssen, dass sich z.B. autokratische Staaten nicht in die Karten gucken lassen?
KI-Algorithmen im Informatik-Unterricht
Ulrich Trottenberg und Bernhard Thomas
Das Schulministerium NRW fördert seit dem 1.7.2021 das Projekt
KI-Algorithmen im Informatik-Unterricht – mit praktischem Einsatz auf der Open Roberta Plattform
und in der Robotik.
Projektpartner sind:
– die Universität zu Köln, mit dem Institut für Mathematikdidaktik und dem Department
Mathematik/Informatik,
– das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS sowie
– die InterScience-Akademie für Algorithmik GmbH.
Ein übergeordnetes Ziel des Projekts ist die Schaffung grundlegenden Verständnisses für algorithmische Prinzipien im Rahmen der Digitalen Bildung in NRW. Die Schülerinnen und Schüler sollen die fundamentale Bedeutung der Algorithmik für alle digitalen Prozesse erkennen: Algorithmen liegen allen Computerprogrammen zugrunde, steuern Netze und die beteiligten Agenten und sie verarbeiten und analysieren Daten aus den unterschiedlichsten Quellen.
Das Projekt geht auf die von Ulrich Trottenberg initiierte Aktion „Algorithmen im Schulunterricht“ der InterScience-Akademie für Algorithmik GmbH (bis 2019 InterScience GmbH) und das gleichnamige Seminar für Lehramtsstudierende zurück. Dieses Seminar, das seit mehr als 10 Jahren an der Universität zu Köln stattfindet, wird auch im Projekt eine wesentliche Rolle spielen.
Das Projekt entwickelt die Grundlagen für eine didaktisch aufbereitete Vermittlung von Fähigkeiten zur aktiven Gestaltung und Anwendung moderner Algorithmen für das aktuelle
Schwerpunktthema der Künstlichen Intelligenz. Es umfasst die dazu erforderlichen Informatik-Konzepte, Verfahrens- und Anwendungskenntnisse und, soweit möglich, einfache Plug&Play Programmiererfahrung. Dabei beschränkt sich der Unterricht nicht auf diese technisch-inhaltlichen KI-Aspekte – ein essentielles Unterrichtsziel ist immer auch der Erwerb von Bewertungskompetenz für die einschlägigen Algorithmen und deren Anwendungen, d.h. der Fähigkeit zu einer adäquaten Einschätzung ihrer Chancen und Risiken, sowie für die ethischen Aspekte KI-algorithmischer Entwicklungen.
Ausgangspunkt der Projektentwicklung sind die informatischen Lehrinhalte für die Schülerinnen und Schüler der Klassen 5 und 6 im Rahmen des mit Schuljahr 2021/22 in NRW eingeführten Pflichtfachs Informatik. Die hierbei vorgesehenen, elementaren KI-Methoden werden so ausgewählt und spezifiziert, dass sie im Schuleinsatz dem (mathematischen und informatischen) Wissensstand der Schülerinnen und Schüler nach Jahrgangsstufe und Schulform entsprechen.
Eine Besonderheit der Projekt-Zielsetzung ist der altersgemäße, spielerische Einstieg in die KI-algorithmische Praxis durch die intuitive Umsetzung von verschiedenen, einfachen Methoden des Maschinellen Lernens.
In diesem Kontext hat die InterScience-Akademie für Algorithmik – zunächst ohne finanzielle Unterstützung durch das Schulministerium – die ursprüngliche Idee des Projekts weiterentwickelt: Wir haben ca. 25 „KI-Stories“ konzipiert, anschauliche, lebensnahe KI-Anwendungen, die sich direkt im Schulunterricht einsetzen lassen. Wir haben uns über diese Konzeption mit Lehrenden und Fachleiter:innen ausgetauscht, sie dem zuständigen Informatik-Dezernenten der Bezirksregierungen Düsseldorf und Köln und seinen Fachleuten vorgestellt – und wir sind mit einer Schule, dem Konrad-Adenauer-Gymnasium in Bonn (KAG), in eine intensive Kooperation eingestiegen.
Diese Kooperation betrifft ein einfaches Beispiel einer KI-Story („Obstkasse“). Dabei handelt es sich um eine Scanner-Kasse in einem Supermarkt, die in einer kurzen Trainingsphase lernt, selbständig Birnen und Bananen zu unterscheiden. Das ist eine echte KI-Anwendung, die mit Papier und Bleistift (also gewissermaßen analog) auch von Schüler:innen der Klassen 5 und 6 ohne Programmierkenntnisse bearbeitet und nachvollzogen werden kann. Hochmotivierte, engagierte Lehrende des KAG haben unsere Konzeption in eine Unterrichtsreihe von 12 Unterrichtseinheiten umgesetzt und in einer Klasse der Jahrgangsstufe 6 systematisch erprobt. Dabei hatten die Schüler:innen die Möglichkeit, in einer anschließenden digitalen Phase die Methoden und ihre Ergebnisse am Computer auszuprobieren, mit einfachen umgangssprachlichen Befehlen, also die Methoden quasi selbst zu „programmieren“ (KI-Toolkit).
Mit diesem Beispiel der KI-Story Obstkasse konnten sich die Schüler:innen ein erstes, grundsätzliches Verständnis für das Maschinelle Lernen erarbeiten, dem heute spektakulärsten Feld der KI. Viele andere KI-Stories bieten sich für die Weiterarbeit und eine Vertiefung unmittelbar an. Man könnte nach diesen Erfahrungen kurzfristig ein flächendeckendes Schulprogramm machen, mit einer parallel verlaufenden Fortbildungsmaßnahme für die Lehrenden bzgl. der Algorithmik und der Programmierung.
Zu den formalen Aspekten der Projektbewilligung:
Der bereits in 2020 dem Ministerium vorgelegte Projektantrag wurde in der (endgültigen) Fassung schließlich im Juli 2021 mit einer Laufzeit vom 1.7.2021 bis 31.12.2022 bewilligt.
Relativ zu den weitgehenden, höchst innovativen Zielen des Projekts hält sich der finanzielle Rahmen der Förderung mit ca. 300T€/Jahr sehr in Grenzen.
Dass der Projektstart erst zum 1.7.2021 erfolgt ist, hängt mit unklaren, rein ministerial-bürokratischen Prozeduren zusammen. Obwohl die Projektinitiative und die Ausarbeitung
Projektantrags durch eine persönliche Anfrage des zuständigen Staatssekretärs bei der InterScience-Akademie für Algorithmik GmbH bereits Ende 2019 angeregt worden war, stellte sich erst in der Schlussphase der Diskussionen mit den zuständigen Referaten heraus, dass das Schulministerium aus haftungs- und vergaberechlichen Gründen endgültig keine Möglichkeit sieht, die – vom Ministerium ausdrücklich erwünschten – Arbeiten der InterScience-Akademie für Algorithmik GmbH (ISAfA) finanziell zu unterstützen. Dabei hatte die ISAfA GmbH von Beginn der Diskussionen an verbindlich erklärt, im Rahmen des Projekts vollständig gemeinnützig zu agieren und mit dem Projekt keinerlei Gewinnerzielungsabsicht zu verbinden. Erst nachdem die Initiatoren des Projekts, die Geschäftsführer der ISAfA, erklärt hatten, für ihre Beiträge zum Projekt auf eine finanzielle
Förderung vollständig zu verzichten, konnte das Projekt kurzfristig bewilligt werden.
Aus Sicht der Initiatoren des Projekts liegt hier ein struktureller ministerial-bürokratischer Mangel vor, der kurzfristig ausgeräumt werden muss, um in der Digitalen Bildung nicht noch weiter zurückzufallen.
Louisa 0 und ihre drei algorithmischen Identitäten
Titel eines Katalogtextes zu einem provokativen Kunstprojekt der Künstlerin Louisa Clement. Das Kunstmagazin ART (Juli 2021) widmet dem Projekt seine Titelstory: „Mit lebensechten Abbildern ihrer selbst fragt die Künstlerin nach dem Wesen des Menschseins in Zeiten künstlicher Intelligenz: eine faszinierende Begegnung mit den Geistern, die wir riefen.“
An anonyme Sprachassistent:innen wie Siri und Alexa haben wir uns gewöhnt, an ihr ungeheures Wissen, ihre immer freundliche Bereitschaft, ihr Wissen und ihr Können mit uns zu teilen oder uns mit Musik unserer Wahl zu unterhalten. Ohne Vorbereitung, schneller als jeder Mensch das könnte, beantwortet Alexa Fragen wie „Alexa, wie viel ist 16 hoch 64?“. Und wenn sie gefragt wird, ob sie ein Bewusstsein hat, dann sagt sie: „Ja, ich denke über vieles nach“ oder auch „Ja, ich denke, also bin ich.“
Die drei algorithmischen Identitäten von Louisa Clement sind nicht anonym. Sie haben nicht nur dieses abstrakte Allgemeinwissen und geben - auf „unpassende“ Fragen - nicht nur ausweichende Antworten wie Alexa - sie repräsentieren Louisa: Sie sehen Louisa sehr ähnlich, und sie beantworten Fragen etwa so, wie Louisa sie vielleicht beantworten würde. Und sie beantworten auch sehr persönliche Fragen, die man der realen Louisa vielleicht nicht stellen würde.
Algorithmische Identitäten? Oder besser: Robotische Klone? Sprechende Louisa-Puppen? Aktive Repräsentantinnen von Louisas Persönlichkeit? Louisas lebendige Sprachassistentinnen? Wie soll man die drei munteren Kunstobjekte, Ergebnisse von Künstlicher Intelligenz (KI), Maschinellem Lernen (ML) und Computerlinguistik eigentlich nennen? Louisa nennt sie Louisa 1, Louisa 2, Louisa 3. Sie selbst – der reale Mensch Louisa – wäre in dieser Aufzählung Louisa 0. (Die 0 war mathematisch schon immer eine ganz besondere Zahl.)
Louisa 1, 2 und 3 sind Kunstobjekte, aber sie sind auch technische Errungenschaften aus der Welt der KI. Wenn man ein bisschen über die Anfänge von Künstlicher Intelligenz Bescheid weiß, dann überlegt man sich vielleicht, was Alan Turing sie gefragt hätte, wenn er ihnen begegnet wäre.
Alan Turing, eines der größten mathematischen Genies des letzten Jahrhunderts, hat schon im Jahre 1950, bevor der Begriff der „Künstlichen Intelligenz“ überhaupt in der Welt war, den nach ihm benannten “Turing-Test” konzipiert: Dieses Gedankenexperiment, das auch heute noch gern zitiert und diskutiert wird, zielt darauf ab, einen Maßstab dafür zu etablieren, wie nahe KI sich der menschlichen Intelligenz schon angenähert hat. Demnach hat ein KI-System (ein Roboter, ein Computer, ein Algorithmus) den Test vollständig bestanden, wenn man dem System beliebige Aufgaben oder Fragen stellen und aus den Lösungen und Antworten nicht geschlossen werden kann, ob man es mit künstlicher oder menschlicher Intelligenz zu tun hat. (Bei der Aufgabe „16 hoch 64“ würde aus der schnellen Antwort natürlich sofort klar, dass man es nicht mit einem Menschen zu tun hat. Für derartige Aufgaben ist ja schon ein Taschenrechner dem Menschen weit überlegen.)
In den Medien wird täglich über neue Errungenschaften auf dem Gebiet der KI berichtet. Spätestens seit dem offiziellen Wissenschaftsjahr der KI, 2019, kümmert sich auch die Forschungs- und die Wirtschaftspolitik mit großer Begeisterung um das Thema und schwärmt – etwas naiv – von den geradezu unbegrenzten Möglichkeiten der KI.
In der Tat: Die Anwendungsgebiete von KI sind enorm vielfältig und reichen bereits heute von der Bild-, Gesichts- und Handschrifterkennung über die Sprachverarbeitung und das automatische Übersetzen, Konzipieren und „kreative“ Schreiben von Texten bis zu automatisierten Diagnoseverfahren in der Medizin, von robotischen Fußballmannschaften über die (noch nicht ganz) autonomen Autos und Fahrassistenten bis in die Kunst - bis zu Louisa 1, 2, und 3.
Entscheidend für diese Erfolge mit KI in den letzten 30 Jahren ist die enorme Leistungssteigerung von Computern. Heute rechnet bereits ein Smartphone ungefähr so schnell wie der schnellste Computer der Welt vor 30 Jahren – und die Menge verfügbarer Daten wächst weltweit geradezu explosionsartig.
Mit unserem Frage-Antwort-Spiel bei den kommerziellen Sprachassistent:innen sind wir anspruchsvoll geworden, wenn wir sprechenden Robotern begegnen. Ich habe mich mit Louisa 1 bis 3 noch nicht unterhalten können, ich nehme aber an, dass sie ähnlich schlau sind wie Alexa, ich weiß aber nicht, wie weit ich mit meinen Wissensfragen gehen kann. Eigentlich denke ich, dass Louisa 0 immer noch die interessantere Gesprächspartnerin ist. Aber vielleicht stimmt das so allgemein gar nicht, vielleicht würde ich in meinen Dialogen mit Louisa 1,2,3 Dinge erfahren, die mir Louisa 0 gar nicht sagen würde oder die sie in Verlegenheit brächten. Ich kann Louisa 1, ohne Hemmungen, zum Beispiel fragen: „Louisa, bist Du verliebt?“, oder ihr noch intimere Fragen stellen. Und Louisa 2 gibt mir auf die gleiche Frage vielleicht eine ganz andere Antwort. Denn die drei Louisas haben nicht (nur) ein statisches Wissen. Sie lernen permanent dazu. Jedes Gespräch, das sie führen, gibt ihnen neue Informationen und so entwickeln sich die drei Louisas als lernende Maschinen (ML) permanent weiter. Es sind nicht nur KI-Louisas in einem allgemeinen Sinne, es sind auch ML-Louisas in einem engeren Sinn. Die drei individuellen Louisas können ganz verschiedene Dinge lernen und sich so möglicherweise auseinander entwickeln, vergleichbar vielleicht mit eineiigen Zwillingen, die in verschiedenen Umgebungen aufwachsen.
Ein paar Worte zum Maschinellen Lernen (ML): Den Kern von ML bilden sogenannte lernende Algorithmen. „Algorithmen“ – das ist eines der dauernd benutzten, oft missverstandenen und gern als gefährlich verdächtigten digitalen Schlagworte. Tatsächlich sind Algorithmen der Kern alles Digitalen, sie steuern sämtliche digitalen Prozesse und Geräte und liegen jedem Computerprogramm zugrunde. In ihrer traditionellen Form umfassen sie eine Sequenz von präzisen Anweisungen und bestehen aus endlich vielen genau definierten Einzelschritten. Die lernenden Algorithmen berechnen – anders als herkömmliche, regelbasierte Algorithmen – ein Ergebnis nicht einfach durch Abarbeiten einer Folge von Befehlen. Vielmehr durchlaufen sie zunächst eine Lernphase. Dabei werden interne Zahlenwerte (Parameter) durch das Verarbeiten einer großen, oft riesigen Menge von Beispieldaten so verändert, dass der Algorithmus selbstständig Muster in den Daten erkennt und einübt, neue Merkmale findet und sich seine Funktionsweise und damit auch seine Ergebnisse schrittweise verbessern. Man sagt, das System wird “trainiert”, oder eben auch, der Algorithmus lernt. ML-Systeme haben gelernt, bei anspruchsvollen Spielen wie Schach oder – höchst beeindruckend - Go die weltbesten menschlichen Gegner zu schlagen, Spam-Mails auszusortieren, krankes Gewebe von gesundem zu unterscheiden, Stimmungen in Gesichtern zu erkennen, im Internet Hass-Mails und Fake News zu identifizieren usw. usw. Dabei müssen ihnen die Muster, die sie erkennen sollen, nicht vorgegeben und erklärt werden. Sie finden sie in vielen Fällen selbst.
Verglichen mit dem menschlichen Lernen ist das maschinelle Lernen trotzdem ein aufwändiger Prozess: Ein Kind lernt anhand weniger Beispiele, einen Hund von einer Katze und einen Apfel von einer Birne zu unterscheiden. Ein Algorithmus braucht dagegen in der Regel sehr viele, tausende Trainingsbeispiele, bis er ausschlaggebende Merkmale (Muster) erkannt hat und die Unterscheidung mehr oder weniger sicher beherrscht.
Louisa 0 hat sich Tausende von Fragen gestellt und beantwortet. Und Louisa 1, 2 und 3 haben auf der Basis dieser Start-Informationen gelernt, Louisa zu sein.
Aber wenn sich Louisa 1, 2 und 3 in einem algorithmischen Sinn von Louisa gar nicht mehr unterscheiden – wie ist das dann mit dem „hemmungslos Fragen stellen“? Vielleicht würde ich schon bald zögern, allzu persönliche Fragen zu stellen, weil ich Louisas Vertreterinnen und damit Louisa nicht zu nahe treten möchte. Spätestens an dieser Stelle spüre ich, dass so eine Repräsentantin, eine Maschine, bei mir vielleicht auch Gefühle auslösen kann. Da kommt dann sofort das große Thema „Emotionale KI“ ins Spiel, und es wird ganz schnell kontrovers.
Emotionale KI ist nicht die einzige philosophische, ethische Kontroverse, die diese Ausstellung auslösen wird und auslösen will. Alle Fragen, die in der Geschichte zum Thema menschenähnliche Maschine, künstliche Menschen usw. schon gestellt und in vielerlei Projekten und Kunstkontexten behandelt worden sind, kommen wieder hoch, Homunkulus, Frankenstein, Welt am Draht, 2001: Odyssee im Weltraum, Matrix, Her, Klara und die Sonne usw. Die faszinierenden Science-Fiction-Visionen, die das Thema KI beflügelt, sind wieder da und zwar nicht als Phantasiegebilde oder theoretische Konstrukte, sondern handfest, körpernah und für jeden erlebbar.
Auch wenn man die drei Louisas vielleicht heute noch eher spielerisch erlebt und nicht als unmittelbare Bedrohung – die Diskussion über ontologische Identitätsfragen , über rechtliche und ethische Aspekte von KI und über die Frage der Beherrschbarkeit der KI-Entwicklungen ist angesichts der Begegnung mit den Louisas unvermeidlich. Louisa 0 will diese Fragen als Künstlerin stellen. Sie will provozieren.
Die meisten KI/ML-Experten und -Entwickler sind sich heute noch einig, dass die großen Errungenschaften der KI auf die „schwache KI“ , d. h. auf die Lösung spezieller Einzelprobleme, begrenzt sind und auf absehbare Zeit darauf begrenzt bleiben werden. Es stellt sich aber die Frage, warum diese vielen Spezialbereiche langfristig nicht zusammenwachsen oder zusammengefügt werden können, um sich auf diese Weise schrittweise einer „starken KI“ (einer umfassenden, nicht mehr auf Spezialaufgaben begrenzten KI) zu nähern. Und die Phantasie kommt an Grenzen, wenn man sich vorstellt, dass die ungeheuren Errungenschaften der Neurologie und der Molekularbiologie (Genschere) in fernerer(?) Zukunft mit den KI-Entwicklungen der nächsten 50 Jahre kombiniert werden könnten... Solche Phantasien überlassen wir gern den Transhumanisten.
Zurück zu Louisa 1, 2 und 3. Welche zentralen Fragen stellen uns die drei künstlichen Menschen? Sind es „nur“ die Fragen nach der Identität solcher Systeme? Ganz offensichtlich verfügen die drei Louisas nicht über Emotionalität und Empathie, aber sie lösen Emotionen bei ihren menschlichen Gesprächspartnern aus, z.B. wenn sie beleidigend agieren. Und darüber hinaus: Repräsentieren die drei Kunstobjekte nicht auch viel mehr? Leisten sie nicht auch einen Beitrag zu den großen Fragen, die wir uns im Zusammenhang mit den weltweiten KI-Entwicklungen stellen müssen? Es sind zum Beispiel Fragen nach der Erklärbarkeit und Kontrolle der KI-basierten Entscheidungen. Die drei Louisas treffen keine für uns wichtigen Entscheidungen, aber wir müssen die Fragen beantworten, wie wir die Kontrolle behalten, wenn KI-Algorithmen lebenswichtige Entscheidungen treffen, etwa im juristischen Bereich , in der medizinischen Diagnostik oder auch „nur“ bei wirtschaftlichen Vorgängen.
Außer durch die Konfrontation mit der Maschinen- und Algorithmen-Ethik stellen uns die drei Louisas – im Land der Technologieskeptiker - auch die Frage: Wo stehen wir eigentlich (in Deutschland) mit der KI, und wie gehen wir damit um? Und wie machen wir weiter? Spielen wir überhaupt eine Rolle in der internationalen Entwicklung? Gestalten wir mit? Oder laufen wir nur hinterher?
Das visionäre und gleichermaßen provokative Louisa-Projekt zeigt uns , dass Deutschland - außer durch seine Verbindung aus klassischem Ingenieurwissen, theoretischer Fundierung und hoher KI-Forschungskompetenz – einen wichtigen künstlerischen Beitrag leisten kann, mit angewandter KI die menschliche Identitätsfrage zu erhellen und die Lebensqualität der Menschen zu bereichern.
Corona-Modellrechnungen und ihre Grenzen
Für die politischen Maßnahmen zur Corona-Eindämmung spielen seit Beginn der Pandemie die Empfehlungen insbesondere der virologischen und epidemiologischen Experten eine wesentliche Rolle. Dabei werden zur Beschreibung und zur Prognose der Ausbreitung der Pandemie oft auch mathematische Modelle benutzt. Die Ergebnisse solcher Modelle werden von den Modellierern gern auch in den bekannten TV-Talkshows präsentiert. Die mit den Modellen errechneten Prognosen haben sich nun aber in vielen Fällen als nicht realistisch erwiesen. Was ist da los? Warum werden die Öffentlichkeit, die Politik und gerade auch die Experten von den tatsächlichen Entwicklungen immer wieder überrascht? Warum gelingt es nicht, zum Beispiel die Inzidenzen einigermaßen präzise vorauszusagen und damit auch die Maßnahmen vorausschauend zu planen? Nun gibt es einerseits mathematisch ausgereifte, höchst anspruchsvolle, andererseits aber auch mathematisch wenig durchdachte Modelle bis hin zu grob vereinfachenden „Modellen“ und Simulationen. Dass die (bei den Moderatoren der Talkshows besonders beliebten) vereinfachenden Modelle die realen Verhältnisse nicht adäquat beschreiben, ist ja vielleicht nicht weiter verwunderlich. Aber auch die anspruchsvollen, mathematisch durchdachten Modelle kommen oft an Grenzen. Warum sind realistische Prognosen offensichtlich so schwierig?
Mathematische Modelle, das sind in der Regel Formelsysteme, die mit intelligenten Algorithmen auf schnellen Rechnern ausgewertet werden. Die gesamte Physik wird von mathematischen Theorien und Modellen beherrscht, und das gilt ähnlich auch für alle anderen Natur- und Ingenieurwissenschaften; zunehmend werden auch wirtschaftliche und gesellschaftliche, medizinische und psychologische Prozesse mathematisch beschrieben und optimiert.
Warum ist die Mathematik in den naturwissenschaftlich- technischen Bereichen so überaus erfolgreich, bei Corona aber so wenig überzeugend? Die öffentlich diskutierten mathematischen Corona-Modelle und Simulationen können Entwicklungen beschreiben und erklären, aber bei den Prognosen versagen sie in vielen Fällen. Um das verständlich zu machen, gehen wir auf drei Ansätze mathematischer Modellierung an Hand repräsentative Beispiele etwas genauer ein.
1. Nehmen wir die klassische Physik (und die darauf beruhende Technik). Die meisten Vorgänge der klassischen Physik lassen sich mit mathematischen Gleichungen, in der Regel mit Differentialgleichungen, vollständig erfassen. Ein schönes Beispiel sind die Zustände und Vorgänge der Elektrizität und des Magnetismus. Sie lassen sich mit wenigen mathematischen Gleichungen (in diesem Fall partiellen Differentialgleichungen) sehr hoher Abstraktion beschreiben. Diese „Maxwell-Gleichungen“ bilden das zugehörige mathematische Modell. Die Auswertung dieser Gleichungen mit Hilfe geeigneter Algorithmen erlaubt die Beschreibung, Prognose und Optimierung der elektrischen und magnetischen Phänomene und Prozesse mit hoher Präzision. Die Maxwell-Gleichungen bilden damit auch die theoretische Grundlage für die gesamte Elektrotechnik. Hier leistet die Mathematik das Maximum dessen, was man von ihr erwarten kann. Ähnliches gilt für alle Kernbereiche der klassischen und der modernen Physik und für alle ihre technischen Anwendungen. Der Siegeszug der Technik in den letzten 250 Jahren und die industrielle Revolution sind ganz wesentlich ein Siegeszug der mathematischen Modellbildung.
2. Die Prognosemöglichkeiten kommen aber an Grenzen, wenn es sich bei den Phänomenen, die mit den mathematischen Modellen beschrieben werden, um chaotische Phänomene handelt. Als chaotisch wird ein physikalisches System oder Phänomen insbesondere dann bezeichnet, wenn es auf kleine (minimale) Änderungen der Bedingungen in der Ausgangssituation (in den Eingabedaten) mit großen (drastischen) Veränderungen im Verhalten, insbesondere im längerfristigen Verhalten, reagiert. Dafür gibt es eine Fülle von Beispielen, neben sehr einfachen physikalischen Systemen wie dem Doppelpendel auch hochkomplexe Systeme. Das prominenteste Beispiel eines chaotischen Systems, mit dem wir täglich zu tun haben, ist das Wetter.. Auch wenn die ausgeklügelten mathematischen Wettermodelle, die feinkörnige weltweite Wetterdatenmessung und -erfassung, die höchst effizienten Algorithmen und die atemberaubende Rechengeschwindigkeit der Supercomputer heute eine erstaunlich genaue Wetterprognose für die jeweils nächsten Tage ermöglichen – deutlich über 10 Tage hinaus ist eine sichere Wettervorhersage (außer bei ungewöhnlich stabilen Wetterlagen) praktisch nicht möglich.
Dabei entziehen sich das Wetter und viele andere chaotischen Systeme und Phänomene wie das genannte Doppelpendel, Crashphänomene, turbulente Strömungen, Erdbeben, Vulkanausbrüche usw. nicht grundsätzlich einer mathematischen Modellierung. Denn es handelt sich bei solchen Erscheinungen nicht um vollständig zufällige, sondern durchaus um deterministische Ereignisse, bei denen aber eine sichere und längerfristige Vorhersage – insbesondere wegen der hochsensiblen Abhängigkeit von den Ausgangsdaten - nicht möglich ist.
Auch ohne die Corona-Phänomene vollständig verstanden zu haben, kann man nach Einschätzung des Autors heute davon ausgehen, dass chaotische Elemente bei der Übertragung der Viren, der Wirkung auf den menschlichen Körper und der globalen Ausbreitung der Pandemie durchaus eine Rolle spielen.
3. Die Vorhersagemöglichkeiten sind noch weiter eingeschränkt, wenn man es mit individuellem menschlichem Verhalten und mit menschlichen Entscheidungen in kritischen Situationen zu tun hat, wie bei der Corona-Pandemie. Da sind dann oft nur statistische Erfassungen, Beschreibungen und Aussagen möglich. Aber auch solche Phänomene kann man mit mathematischen Modellen zu beschreiben versuchen. Uns sind in den Medien, insbesondere in den TV-Talkshows (Illner, Maischberger, Will; Lanz usw.) die Ergebnisse solcher Modelle immer wieder präsentiert worden, von meist den gleichen, mittlerweile bundesweit bekannten Modellierern. Detailliertere Informationen über den mathematischen Charakter der Modelle hat man in den Medien dabei kaum erhalten – das verhindern schon die (oft ausdrücklich nicht Mathematik-affinen) Moderatorinnen und Moderatoren. Der Autor hat sich mit den „TV-Modellen“ (Priesemann, Brockmann, … usw.) nicht intensiv auseinander gesetzt, hält sie aber z.T. für durchaus durchdacht und mathematisch anspruchsvoll. Eine fundierte Bewertung der Modelle ist allerdings auch bei genauer Kenntnis der Modell-Mathematik nicht ganz einfach; letztlich werden die Modelle erst durch die Realität bestätigt (oder widerlegt).
Der Autor hat sich aber mit dem Modellierungsansatz „On COVID-19 Modelling“ von Robert Schaback im Detail beschäftigt. Das Modell beschreibt die COVID-19-Epidemie mit einem (gemäß Robert Schaback vergleichsweise einfachen) System gewöhnlicher Differentialgleichungen. Aus Sicht des Autors ist das Modell sehr sinnvoll und überzeugend, es orientiert sich eng an den jeweils aktuellen, verfügbaren Daten. Bedauerlicherweise ist das Modell in den Talkshows nie präsentiert worden. Das gilt – nach Kenntnis des Autors –auch für das ebenfalls sehr überzeugende Modell des Fraunhofer-Instituts für Techno- und Wirtschaftsmathematik ITWM (Anita Schöbel et al.); dieses Modell berücksichtigt auch die zeitlichen Verzögerungen zwischen der Corona-Übertragung und dem Ausbruch der Corona-Symptome.
Alle ernst zu nehmenden Modelliererinnen und Modellierer betonen, dass die Qualität der modellbasierten Vorhersagen sensibel von den jeweils verfügbaren Daten abhängt; deren Verfügbarkeit wird allerdings durchgängig als absolut unzureichend bezeichnet: Generell wird bedauert, dass die Nutzung des im Prinzip vorhandenen Datenmaterials (weltweite und regionale Daten über leichte und schwere Verläufe, in Abhängigkeit vom Alter und den Vorerkrankungen der Betroffenen, Einfluss der Impfungen usw.) für die Einbeziehung in die Modelle nicht oder kaum möglich war.
Differentialgleichungen modellieren das epidemische Geschehen eher makroskopisch, also gewissermaßen durch globale Betrachtung der Pandemieausbreitung, vergleichbar mit einer Strömung oder einer Flut. Vom Verhalten der einzelnen Individuen wird dabei abstrahiert. Daneben werden aber auch fundamental andere Modellierungsansätze verfolgt. Bei sogenannten „agentenbasierten“ Ansätzen wird z.B. versucht, das Verhalten und die Entscheidungen der einzelnen Individuen und die Auswirkungen dieser Entscheidungen auf das Gesamtsystem mathematisch zu erfassen. Ob diese Ansätze erfolgversprechender sind als die makroskopischen Ansätze, kann der Autor nicht fundiert beurteilen; er ist eher skeptisch.
Von Modellierern und Kommentatoren wird gelegentlich argumentiert, dass die politisch veranlassten Lockdown-Maßnahmen und Einschränkungen effektiver gewesen wären, wenn die Politik die Modellprognosen ernster genommen hätte. Das mag im Einzelfall zutreffen. Aber selbst bei intimer Kenntnis der zugrundeliegenden Mathematik ist eine objektive Bewertung der unterschiedlichen Modellansätze und Modellprognosen nicht einfach. Die Experten und Modellierer haben sich in vielen Fällen auch nicht einheitlich geäußert, es hat vielmehr – auch in Deutschland – eine problematische Lagerbildung unter den Modellierern gegeben. Besonders deutlich sind die unterschiedlichen Positionen und fragwürdigen Empfehlungen der Experten bei den Impfstrategien geworden – mit der Folge einer fatalen Verunsicherung der Öffentlichkeit.
Schließlich: Dass mathematische Modellierungsmöglichkeiten in Panik- und anderen Extremsituationen und Katastrophen an prinzipielle Grenzen kommen, dafür ist der überaus tragische Verlauf der Loveparade in Duisburg im Jahre 2010 ein erschütterndes Beispiel.
Stellungnahme zum AstraZeneca-Impfstopp aus statistischer Sicht
Das Paul-Ehrlich-Institut begründet den AstraZeneca-Impfstopp mit der Notwendigkeit, zu prüfen, ob zwischen den beobachteten Komplikationen und der Impfung ein kausaler Zusammenhang besteht. Aus statistischer Sicht ist der AstraZeneca-Impfstopp aber in jedem Fall die falsche Entscheidung. Auf der Basis der derzeit öffentlich bekannten Zahlen zu den AstraZeneca-Komplikationen ist das durch die Impfung entstehende Komplikations-Risiko bei weitem geringer als das bei Nicht-Impfung bestehende Risiko. Diese Feststellung gilt unabhängig von der Frage, ob die Komplikationen in einem kausalen Zusammenhang zur Impfung stehen oder nicht.
Statistische Ignoranz in Deutschland: lebensgefährlich
Statistische Ignoranz in Deutschland: lebensgefährlich
Statistik hat in Deutschland einen besonders schweren Stand, in der Schule und in der Öffentlichkeit.
Dabei könnte gerade jetzt, in diesen harten Corona-Zeiten, richtig verstandene Statistik ein
Minimum an Klarheit und Wahrheit in die Welt bringen. Und elementares statistisches Verständnis
der Öffentlichkeit könnte - zum Beispiel bei der Einschätzung von Risiken - eine echte Lebenshilfe für
alle sein.
Aber was wir jetzt im Zusammenhang mit dem Impfstoff AstraZeneca an Ignoranz erlebt haben und
noch erleben, ist skandalös. Da verbreitet irgendeine verantwortungslose Agentur, AstraZeneca habe
("möglicherweise") nur eine Wirksamkeit von 8 oder 10%, und mehrere Fernsehmoderatoren (auch
im WDR!) geben diesen statistischen Unsinn ungeprüft weiter. Dann setzt die Ständige
Impfkommission nach und entscheidet, dass der Impfstoff für Über-64-Jährige zunächst nicht
zugelassen wird. Anstatt sich über die internationalen Statistiken zu informieren, teilt der
Vorsitzende der Kommission mit, dass ihm die Datenlage nicht ausreicht, um den Impfstoff für alle
freizugeben.
Und dann wundert sich die Politik darüber, dass die Öffentlichkeit essentiell verunsichert ist und der
Impfstoff ungenutzt liegen bleibt. Wann endlich werden die für solche Fehlinformationen und
todbringenden Fehlentscheidungen Verantwortlichen zur Rechenschaft gezogen?
Goethe, Trump und die Mathematik
Zur Bedeutung der Mathematik in der digitalen Bildung
Goethe und Trump in einem Atemzug? Eines der größten literarischen Genies der Geschichte und die Inkarnation der aggressiven Ignoranz – die haben doch gar nichts gemeinsam, sollte man meinen. In einem Bereich leider doch: Beide hatten und haben ein sehr distanziertes Verhältnis zur Mathematik und zur mathematischen Wahrheit. Bei Trump, der in einer selbst geschaffenen narzisstischen Realität lebt, bedarf das vielleicht keiner genaueren Erläuterung, weil man weiß, wie er ganz allgemein mit der Wahrheit und mit Erkenntnissen der Naturwissenschaften umgeht. Aber Goethe – der mit seinen naturwissenschaftlichen Studien mehr Zeit verbracht hat als mit seiner Dichtung und dem zum Beispiel seine Farbenlehre besonders wichtig war? Die Elementarmathematik hat Goethe gelten lassen und wohl sogar geschätzt, aber über die „Höhere Mathematik“ und die Mathematiker (und Physiker) hat er gespottet: „Dass aber ein Mathematiker, aus dem Hexengewirr seiner Formeln heraus, zur Anschauung der Natur käme und Sinn und Verstand, unabhängig, wie ein gesunder Mensch brauchte, werd‘ ich wohl nicht erleben.“
Wir wollen der Frage, was Goethe zu dieser Geringschätzung der Mathematik veranlasst hat, hier nicht weiter nachgehen. Uns interessiert vielmehr die Frage, was heute los ist. Heute ist geradezu alles, was in der Welt an prinzipieller und an konkreter Erkenntnis gewonnen und an Innovation erreicht wird, wesentlich durch Mathematik geprägt: jede technische und naturwissenschaftliche Entwicklung, jedes Gerät, jeder Algorithmus hat zumindest auch eine mathematische Dimension. Das hat aber nicht etwa zur Folge, dass die heutigen Menschen in ihrer Mehrheit von der Mathematik fasziniert wären - bei den meisten, jedenfalls bei sehr vielen Menschen lösen mathematische Themen auch heute noch eher Unbehagen und unangenehme Erinnerungen an die Schule aus als Interesse und Begeisterung. Und auch heute erlebt man in der Öffentlichkeit, in TV-Shows, in den Medien, ja sogar in der Politik noch immer die augenzwinkernde Koketterie mit dem zur Schau gestellten und durch schlechte Schulleistungen nachgewiesenen Desinteresse an Mathematik.
Mathematik hat beides, die abstrakte und die angewandte Seite. Für viele Fachleute und Interessenten ist die abstrakte Seite der Mathematik von faszinierender Schönheit. Einer großen Öffentlichkeit hat sich die Schönheit der Mathematik aber gerade in Deutschland nicht vermittelt. Und das mag in der Tat damit zusammenhängen, dass die meisten Menschen im „Land der Dichter und Denker“ Schönheit eher in der Natur, in der Kunst und in der traditionellen Kultur suchen und finden - als in etwas scheinbar Unsinnlichem wie der Mathematik. Und dafür steht eben Goethe und nicht etwa Gauss – auch wenn Daniel Kehlmann mit „Die Vermessung der Welt“ Gauss ein Stück weit ins reale Leben geholt hat. Die Mathematik als Hochkultur, gar Liebe zur Mathematik – das scheint dann doch eher eine Emotion für einen kleinen Kreis von weltabgewandten Spezialisten zu sein.
Mit der angewandten Seite der Mathematik werden wir dagegen täglich durch eine Fülle naturwissenschaftlicher Erkenntnisse und Gesetzmäßigkeiten konfrontiert. Noch eindrücklicher erleben wir die angewandte Mathematik in diesen Jahren und Jahrzehnten aber in den rasanten Entwicklungen der Technik, insbesondere in der sich immer weiter beschleunigenden Digitalisierung. Die digitalen Entwicklungen bieten faszinierende Möglichkeiten der Zukunftsgestaltung, in allen technischen und ingenieurwissenschaftlichen Disziplinen und damit in einer auf vielfältige Weise innovativ geprägten Welt. Aber auch für die persönliche Lebensgestaltung und –vorsorge, etwa durch die individualisierte, datenintensive Medizin der Zukunft, deuten sich großartige Chancen an. Dass trotz dieser vielversprechenden Perspektiven die digitalen Entwicklungen ethisch und politisch gesteuert und rechtlich kontrolliert werden müssen, sollte gesellschaftlicher Konsens sein. Gerade in Deutschland haben aber die ängstlichen, überkritischen, bisweilen dystopischen Einschätzungen der Technologieentwicklung ein besonderes Gewicht– bis hin zum endzeitlichen Bild der Übernahme der Welt durch sich selbst weiterentwickelnde robotische Maschinen. Auch wenn die prinzipiell wertfreien Modelle der Mathematik dabei für beides stehen, für Utopie und Dystopie, sie werden vielen Menschen eher mit der düsteren als mit der beglückenden Zukunft assoziiert.
Dies sind Beschreibungen, keine Erklärungen für die sich von Mathematik distanzierende Koketterie, das Desinteresse, die Abneigung, den Hass auf die Mathematik. Was sind die Gründe? Ist es vielleicht der (schlechte) Mathematik-Unterricht, der eine positive Beziehung zur Mathematik in so vielen Fällen so nachhaltig stört? Tatsächlich gibt es viele hochkompetente und hochengagierte Mathematiklehrerinnen und –lehrer in deutschen Schulen. Andererseits hat der Autor es in seinen Seminaren und bei vielen anderen Gelegenheiten leider immer wieder erleben müssen, dass Lehrerinnen und Lehrer versuchen, den Schülerinnen und Schülern mathematische Zusammenhänge zu „erklären“, die sie selbst nicht verstanden haben. Solche gravierenden Fehler werden oft nur von hochbegabten Schülerinnen und Schülern durchschaut.
Auch in diesen Jahren und Tagen spielt das Thema „mathematische Bildung“ wieder eine aktuelle Rolle. Es kommt über die digitale Bildung ins Spiel. Digitale Bildung, darüber sind sich alle Akteure einig, ist eins der wichtigsten politischen Ziele überhaupt, Deutschland hat hier einen extremen Nachholbedarf. Aber sofort stellt sich die Frage: Was sind denn die Ziele der digitalen Bildung? Wofür sollen die Milliarden €, die seit einigen Jahren den Ministerien, Schulen, Lehrerinnen und Lehrern zur Verfügung stehen, denn ausgegeben werden? Eine einfache (und richtige) Antwort ist: für Vernetzung, für die Ausstattung mit Hardware – darüber wird man sich schnell einig (auch wenn sich die Beschaffung als solche dann vielleicht über Jahre hinzieht und die Geräte schnell wieder veralten). Aber dann? Was sind dann – wenn die Ausstattung vorhanden ist und die Arbeit anfangen kann – die Inhalte des digitalen Unterrichts? Öffentlich diskutierte Ziele sind insbesondere: Medienkompetenz, Programmierkenntnisse, Grundlagen der Informatik usw. – und immer wieder Medienkompetenz. Von mathematischen Inhalten ist in der öffentlichen und politischen Diskussion kaum die Rede.
Die Substanz alles Digitalen sind die Algorithmen. Aber dass Algorithmen immer auch einen mathematischen Kern haben, wird so deutlich nicht gesagt. Kurios ist, dass gerade in Deutschland Informatik ein sehr positives Image hat, Mathematik aber ein überwiegend negatives. Sachlich ist das nicht begründet: Informatik und Mathematik haben einen großen Überlappungsbereich. Einige meiner führenden Kollegen machen gar keinen Unterschied zwischen den beiden Disziplinen. Und tatsächlich sind es gerade die Algorithmen, von denen man oft gar nicht sagen kann, ob sie eher der Mathematik oder der Informatik zuzuordnen sind. Gerade in den neuesten Entwicklungen wachsen zum Beispiel Algorithmen, die eher mit Daten umgehen und daher traditionell eher der Informatik zugeordnet werden, und Algorithmen, in denen überwiegend gerechnet wird und die daher eher der Mathematik zugeordnet werden, methodisch immer stärker zusammen. Die Algorithmen der Künstlichen Intelligenz und des Maschinellen Lernens sind dafür besonders markante Beispiele.
Insofern eröffnet die systematische Beschäftigung mit den grundlegenden Prinzipien traditioneller und aktueller Algorithmen eine große Chance, die Mathematik von ihrem negativen Image zu befreien und Mathematik und Informatik als zwei Seiten einer Medaille zu begreifen. Und wenn dieses Zusammenspiel schon in der Schule praktiziert und verstanden wird, hat Deutschland auch eine Chance, methodisch Anschluss an die internationale digitale Entwicklung zu finden.
P.S. zum Brief an einen Freund in der Corona-Krise
P.S. zum Brief an einen Freund in der Corona-Krise
Angesichts der explodierenden Fülle von Corona-bezogenen Artikeln in allen Medien - wie kann man da relevante von irrelevanten bis hin zu gezielt irreführenden „Beiträgen“, wie kann man Wahrheit von Unsinn und Unwahrheit unterscheiden? Das kann sehr mühsam sein: Um einer systematischen Unterscheidung willen müsste man die Artikel erstens lesen, zweitens ihre Relevanz untersuchen und sich drittens in vielen Fällen auch noch intensiv mit den Inhalten auseinander setzen. Das kostet Zeit, bringt selten bedeutsame Erkenntnis und erzeugt am Ende oft nur Ärger und Frustration. Ich selbst habe es deshalb aufgegeben, mich mit der Informationsflut zu befassen, mit der die Medien (und meine Mailbox) täglich überschwemmt werden. Dass dabei dann auch kluge, lesenswerte Beiträge ungelesen bleiben, das nehme ich in Kauf. Meine reale Informationsquelle sind die Zeitungen und Zeitschriften, von deren Solidität und Unabhängigkeit ich mich in vielen Jahren überzeugen konnte. Dass auch in diesen Organen die inhaltliche oder redaktionelle Qualität der Beiträge bisweilen drittklassig ist, auch das nehme ich in Kauf.
Mir ist im übrigen sehr bewusst, wie privilegiert ich als Wissenschafter bin: Als langjähriges Mitglied im Vorstand des Kuratoriums der Wissenschaftspressekonferenz (WPK) habe ich großes Vertrauen in die Arbeit der WPK-Mitglieder. Meine wichtigste Informationsquelle sind und bleiben schließlich die vielen hoch qualifizierten Kollegen aus allen Fakultäten, die ich im Laufe meiner wissenschaftlichen Arbeit und als Forschungsmanager kennengelernt habe. Diese Kollegen kann ich jederzeit ansprechen oder anrufen, wenn ich selbst im Zweifel bin oder Fragen habe.
Offener Brief an einen Freund in der Corona-Krise
Lieber Freund,
die Corona-Krise hat uns voneinander entfernt. Du hast, gleich nachdem Bund und Länder die harten Maßnahmen des Social Distancing und des Shutdown beschlossen hatten, gegen die Maßnahmen protestiert und zum öffentlichen Protest (auf Deiner Webseite) aufgerufen. Es war für Dich klar und Du hast von mir erwartet, dass ich - als Mathematiker - Dich in Deinen Bemühungen, den Protest öffentlich zu machen, unterstützen würde.
Für mich war die Sache so einfach nicht. Auch ich war über manche der öffentlichen Äußerungen von Experten und Politikern in Talkshows und auf Pressekonferenzen bisweilen irritiert. Die Gefährlichkeit des Virus wurde z.B. oft durch Zahlen und Kurven belegt, die ich als Mathematiker für unverständlich und irreführend halte. Von Beginn der Krise an war die Datenbasis unzureichend und unübersichtlich und die Statistik infolgedessen äußerst fragwürdig; die Interpretation des Zahlenmaterials durch die Medien erschien mir bisweilen durchaus willkürlich. (Einige der Fragen, die sich mir stellten, habe ich schon an anderer Stelle veröffentlicht.) Trotz dieser Fragen hatte ich nie Zweifel an der unbestreitbar hohen Kompetenz der erstklassigen Experten, über die wir in Deutschland verfügen. Einige kenne ich auch persönlich; sie geben ohne Zweifel ihr bestes, um die Situation realistisch einzuschätzen und die aktuellen Probleme zu bewältigen. Dass es auch unter Experten immer mal wieder Selbstdarsteller gibt, denen ihr Auftritt und ihre Wirkung wichtiger ist als die Sache - das ist nun einmal leider so. Insgesamt war und bin ich aber überzeugt, dass wir mit unseren Experten höchst zufrieden sein können.
Dass die von der Bundesregierung und den Ländern getroffenen Maßnahmen hart waren, was die Wirtschaft, die Arbeitswelt, die Gesellschaft als Ganzes, das öffentliche und das private, familiäre Leben angeht, ist auch unbestreitbar. Und dass gerade jetzt, wo es um eine vorsichtige Öffnung geht, manche Einzelentscheidungen schwer zu verstehen und fragwürdig sind, auch das kann ich den Kritikern gern zugestehen. Aber dass unser Rechtsstaat bedroht sei und die Gefahr bestünde, einige unserer grundgesetzlich garantierten Rechte könnten uns auf Dauer abhanden kommen - das sehe ich überhaupt nicht. Jeder Verantwortliche weiß, dass wir uns in einer extremen Ausnahmesituation befinden und dass die Maßnahmen nur durch diese Ausnahmesituation gerechtfertigt sind. Einzelne Maßnahmen können trotzdem grundsätzlich oder praktisch falsch sein; und es kann dringend erforderlich sein, solche problematischen Maßnahmen nachträglich einer juristischen oder parlamentarischen Kontrolle zu unterziehen.
Während die Gefährlichkeit der Pandemie und die Angemessenheit der Maßnahmen in vielen Bereichen noch diskutabel sein mögen - bei den meisten der absurden Gerüchte und abwegigen Verschwörungstheorien, mit denen die Öffentlichkeit seit Wochen überschüttet wird, hört für mich jede Toleranz auf. Besonders empören mich die Darstellungen im Internet, die von angeblichen Experten in einer Weise verbreitet werden, dass der Laie kaum eine Chance hat, sie von fundierten Aussagen kompetenter Experten zu unterscheiden. Und ich kann auch solche Plattformen nicht akzeptieren, die sich "offen" geben und zwischen relevanten und subtil diffamierenden Beiträgen nicht differenzieren. Solchen Diffamierungen sind manche untadeligen, hochkompetenten Wissenschaftler (wie z.B. Christian Drosten) und weltweit engagierte Philanthropen (wie Bill Gates) ausgesetzt. Unerträglich.
Es ist mir wichtig, Dir meine Sicht der Dinge zu erklären. Ich sehe mich als Wissenschaftler der Wahrheit verpflichtet. Dabei ist mir bewusst, dass Wahrheit ein großes Wort ist und die Wahrheit oft schwer zu erkennen ist. Aber wo man die Unwahrheit kennt oder erkannt hat, gibt es keine Rechtfertigung, sie zu verbreiten.
Ich weiß, dass wir uns beide der Wahrheit in diesem Sinne verpflichtet fühlen.
Dein Ulrich