Offener Brief an einen Freund in der Corona-Krise

Lieber Freund,

die Corona-Krise hat uns voneinander entfernt. Du hast, gleich nachdem Bund und Länder die harten Maßnahmen des Social Distancing und des Shutdown beschlossen hatten, gegen die Maßnahmen protestiert und zum öffentlichen Protest (auf Deiner Webseite) aufgerufen. Es war für Dich klar und Du hast von mir erwartet, dass ich - als Mathematiker - Dich in Deinen Bemühungen, den Protest öffentlich zu machen, unterstützen würde.

Für mich war die Sache so einfach nicht. Auch ich war über manche der öffentlichen Äußerungen von Experten und Politikern in Talkshows und auf Pressekonferenzen bisweilen irritiert. Die Gefährlichkeit des Virus wurde z.B. oft durch Zahlen und Kurven belegt, die ich als Mathematiker für unverständlich und irreführend halte. Von Beginn der Krise an war die Datenbasis unzureichend und unübersichtlich und die Statistik infolgedessen äußerst fragwürdig; die Interpretation des Zahlenmaterials durch die Medien erschien mir bisweilen durchaus willkürlich. (Einige der Fragen, die sich mir stellten, habe ich schon an anderer Stelle veröffentlicht.) Trotz dieser Fragen hatte ich nie Zweifel an der unbestreitbar hohen Kompetenz der erstklassigen Experten, über die wir in Deutschland verfügen. Einige kenne ich auch persönlich; sie geben ohne Zweifel ihr bestes, um die Situation realistisch einzuschätzen und die aktuellen Probleme zu bewältigen. Dass es auch unter Experten immer mal wieder Selbstdarsteller gibt, denen ihr Auftritt und ihre Wirkung wichtiger ist als die Sache - das ist nun einmal leider so. Insgesamt war und bin ich aber überzeugt, dass wir mit unseren Experten höchst zufrieden sein können.

Dass die von der Bundesregierung und den Ländern getroffenen Maßnahmen hart waren, was die Wirtschaft, die Arbeitswelt, die Gesellschaft als Ganzes, das öffentliche und das private, familiäre Leben angeht, ist auch unbestreitbar. Und dass gerade jetzt, wo es um eine vorsichtige Öffnung geht, manche Einzelentscheidungen schwer zu verstehen und fragwürdig sind, auch das kann ich den Kritikern gern zugestehen. Aber dass unser Rechtsstaat bedroht sei und die Gefahr bestünde, einige unserer grundgesetzlich garantierten Rechte könnten uns auf Dauer abhanden kommen - das sehe ich überhaupt nicht. Jeder Verantwortliche weiß, dass wir uns in einer extremen Ausnahmesituation befinden und dass die Maßnahmen nur durch diese Ausnahmesituation gerechtfertigt sind. Einzelne Maßnahmen können trotzdem grundsätzlich oder praktisch falsch sein; und es kann dringend erforderlich sein, solche problematischen Maßnahmen nachträglich einer juristischen oder parlamentarischen Kontrolle zu unterziehen.

Während die Gefährlichkeit der Pandemie und die Angemessenheit der Maßnahmen in vielen  Bereichen noch diskutabel sein mögen -  bei den meisten der absurden Gerüchte und abwegigen Verschwörungstheorien, mit denen die Öffentlichkeit seit Wochen überschüttet wird, hört für mich jede Toleranz auf. Besonders empören mich die Darstellungen im Internet, die von angeblichen Experten in einer Weise verbreitet werden, dass der Laie kaum eine Chance hat, sie von fundierten Aussagen kompetenter Experten zu unterscheiden. Und ich kann auch solche Plattformen nicht akzeptieren, die sich "offen" geben und zwischen relevanten und subtil diffamierenden Beiträgen nicht differenzieren. Solchen Diffamierungen sind manche untadeligen, hochkompetenten Wissenschaftler (wie z.B. Christian Drosten) und weltweit engagierte Philanthropen (wie Bill Gates) ausgesetzt. Unerträglich.

Es ist mir wichtig, Dir meine Sicht der Dinge zu erklären. Ich sehe mich als Wissenschaftler der Wahrheit verpflichtet. Dabei ist mir bewusst, dass Wahrheit ein großes Wort ist und die Wahrheit oft schwer zu erkennen ist. Aber wo man die Unwahrheit kennt oder erkannt hat, gibt es keine Rechtfertigung, sie zu verbreiten.

Ich weiß, dass wir uns beide der Wahrheit in diesem Sinne verpflichtet fühlen.

Dein Ulrich


Q8 Fingerübungen - Einfache Qubit Algorithmen ausprobiert

Wir wissen nun, was ein Qubit ist. Genauer, wie man ein Qubit modellieren kann - aber wir wollen uns ein wenig sprachliche Vereinfachung zugestehen, solange wir uns darüber im Klaren sind. Fassen wir noch einmal zusammen:

Ein Qubit ist ein Konstrukt, das einen Zustand hat, der durch Operatoren  beeinflusst wird, und der über ein Messverfahren einen binären Wert liefert (Bit). Der Zustand ist aus einer kontinuierlichen (unendlichen) Menge.  Wiederholte Messungen bei gleichem Zustand liefern eine Häufigkeitsverteilung über die binären Werte, die man als Wahrscheinlichkeitsverteilung dem Zustand zuordnen kann.

Wir legen fest, dass die Operatoren den Zustand determiniert beeinflussen, mathematisch also eine Abbildung darstellen. D.h. gleicher Operator angewendet auf gleichen Zustand liefert gleiches Ergebnis (neuer Zustand). Für das Messverfahren gilt das natürlich nicht. Wohl aber für die Zuordnung der Wahrscheinlichkeitsverteilung zu einem Zustand.

In diesem Sinne ist ein klassisches Bit auch ein Sonderfall eines Qubits. Wieso?

Für die konkrete Beschreibung von Qubits verwenden wir (einfache) mathematische Ausdrücke: Die Zustände beschreiben wir durch die Koordinaten (x,y) eines Punktes auf dem Einheitskreis in der x-y-Ebene. Die binären Messwerte bezeichnen wir mit 0 und 1. Für die Punkte, die einen Zustand repräsentieren, verwenden wir gelegentlich "Namen" anstelle der Koordinaten; das macht manchmal das Lesen einfacher. Insbesondere sind folgende Bezeichnungen in der Qubit-Welt üblich: |0> für (1,0), |1> für (0,1) - also für die Punkte des Einheitskreises, die auf den positiven Koordinatenachsen liegen. (Diese Zustände hatten wir beim ZBIT-Modell mit [00] und [11] bezeichnet. Die etwas ungewöhnliche | >-Schreibweise erklären wir später. ) Damit kann man einen Zustand (x,y) auch als Kombination von |0> und |1> schreiben:  x|0> + y|1>.

Ein typischer Sprachgebrauch in der Qubit-Welt ist z.B. "das Qubit |1>" an Stelle von  "das Qubit im Zustand |1>".  Kein Problem, wenn klar ist, was gemeint ist. "Namen" für die Qubits sind wie herkömmliche Variablen-Namen zu verstehen und werden in den Composer-Grafiken links vor die zugehörige Linie gestellt. Sie sind der Einfachheit halber durchnummeriert. Entweder als q0, q1, usw. oder im Stile von Python-Listen als q[0], q[1] usw., also mit eckigen Klammern.

Ein weiterer häufig anzutreffender Begriff für die x-y-Kombination der beiden Basiszustände ist "Superposition", übersetzt als "Überlagerung", von |0> und |1>. Ein leicht mysteriös klingender Begriff für die Kombination der beiden Zustände. Der stammt aus der Physik und wird in der Mathematik übrigens Linearkombination genannt.

Wie wir in Q7 gesehen haben, ist für x|0> + y|1> dann |y|²  die Wahrscheinlichkeit p(1) für den binären Wert 1 bzw. |x|²=1-|y|² die für 0 bei der Messung des Qubits in diesem Zustand.

Man kann damit den Messvorgang, genauer, den wiederholten Messvorgang, auch als einen Operator darstellen, der Zustände (x,y) in Häufigkeiten von Bits überführt:

M(x,y) = M(x|0> + y|1>) = ( |x|², |y|²).

Bei Mehr-Qubit-Zuständen wird das, wie wir sehen werden, eine hilfreiche Darstellung. Wir bezeichnen M nicht als Gate, weil wir Gates für Übergänge von Zustand zu Zustand reservieren wollen, ( |x|², |y|²) aber kein Qubit-Zustand ist, sondern Wahrscheinlichkeiten für Bit-Ergebnisse.

Woher wissen wir, in welchem Zustand sich ein Qubit befindet? Man wählt |0> als Ausgangszustand, herstellbar durch die Operation R. Wenn wir anschließend weitere Operatoren anwenden, liefert jeder einen determinierten Folgezustand. Wenn wir die Wirkung der Operatoren berechnen können, wie in Q7 für X, H usw., können wir die Zustände nachverfolgen, wissen also bei der Messung, welcher Zustand vorliegt - auch wenn die Messung selbst nur ein Bit (0 oder 1) liefert. Dies ist ein wichtiges Prinzip, um Algorithmen für Qubits formulieren zu können.

1-Qubit Beispiele

Das wollen wir im Folgenden für einige erste kleine Beispiele mit einem bzw. zwei Qubit(s) tun und diese gleich auch auf einem Qubit-Computer realisieren.

Für einen Qubit Computer (physikalisch oder als Simulator) müssen wir fordern, dass wir die physikalischen Entsprechungen der Qubit-Operatoren so konstruieren können, dass sie - in wiederholten Messungen -  Häufigkeiten eines binären Ergebnisses liefern, die der Wahrscheinlichkeit von 0 und 1 in dem Operator-generierten Zustand entprechen. Klingt kompliziert, ist es auch. Aber wir machen nichts falsch, wenn wir darauf vertrauen, dass die Quantencomputer-Konstrukteure dafür gesorgt haben.

In Q7 u.a. hatten wir schon einige 1-Qubit Algorithmen in der Form R --- X --- H --- M oder ähnlich formuliert. Diese Schreibweise kommt der grafischen Darstellung im "Composer" (Komponisten) der IBM Q Experience Umgebung schon sehr nahe. Wir probieren es einfach und lassen die "Partitur" vom Simulator ausführen. (Wie man Zugang zur IBM Quantencomputing-Umgebung bekommt, wird in diesem Blog beschrieben. Besser noch, man findet es selbst heraus. Hier ist der Link zum IBM Q Login.) Es ist wirklich zu empfehlen, diese Erfahrung "in echt" zu machen (s. Q2). Statt des Simulators kann man zur Ausführung auch einen der verfügbaren echten Quantencomputer auswählen!

1. R--- X --- H --- M

Algorithmus im Composer-Format
Ergebnis einer Serie von 1024 "Shots"

Das Ergebnis zeigt die Häufigkeiten von 0 und 1 (interpretiert als klassische Bits) bei einer Serie von 1024 Durchläufen.  Die Legende der State-Achse ist für die gleichzeitige Messung von 5 Qubits ausgelegt, daher die 5-stelligen Bit-Ketten. Das Bit rechts kommt aus der Messung des Qubit Nr. 0, dem obersten im Composer, wenn wir mehrere Qubits haben. Dass die Achse mit "state" (Zustand) bezeichnet wird, ist etwas verwirrend. Gemeint ist bestenfalls der "Ausgabezustand".

Nicht ganz zufällig gibt es die hier schon verwendeten Operatoren X und H auch beim Qubit-Composer. Im Qubit-Sprachgebrauch werden die Operatoren Gates genannt, zu deutsch Gatter. Die Gates werden auf Wires (Leitungen) positioniert. Und die "Partitur" wird  in der Qubit-Welt Circuit (Schaltung) genannt. Am Anfang eines Qubit-Wire ist das Qubit auf den Ausgangszustand |0> gesetzt. Das Symbol (Gate) dafür im Composer ist nicht R sondern einfach |0>. Die beiden Gates auf dem Wire von Qubit q[0] heißen X-Gate oder NOT-Gate, weil es den Qubit-Zustand umkehrt,  und Hadamard-Gate (H-Gate), benannt nach dem französichen Mathematiker J. Hadamard. Die Wirkung hatten wir in Q7 bereits formelmäßig definiert.

Als ein anderes Beispiel nehmen wir aus Q7 "Vorhersagen und Erklärungen" die Nummer 8.

2. R ---- G60 ---- H ---- H ---- M

Composer-Bild für Beispiel 8 in Q7
Ergebnis bei 1024 Wiederholungen. Vgl. Q7/8.

Es fällt auf, dass wir bei der QBIT-Box das Dreh-Feld mit G bezeichnet haben, im Composer aber ein neues Gate Ry(2*pi/3) verwendet haben. Mit G hatten wir in Q7 den Dreh-Operator vereinfacht. So wie wir G definiert hatten, entspricht dem das Rotations-Gate Ry mit dem Paramterwert θ=2*pi/3. Man sieht in der Tabelle am Ende von Q7, dass dieses θ dem Winkel w=60º entspricht. (Die Gates in den Composer- bzw. Programmier-Umgebungen orientieren sich an einer anderen Zustandsbeschreibung, die dazu führt, dass der Winkel, den wir für Drehungen auf dem x-y-Einheitskreis definieren, in der Composer-Beschreibung verdopplet werden muss.)

3. R --- G30 --- X --- M vergleichen wir mit R --- G30 --- M, um die Wirkung von X zu verifizieren. Hier müssen wir, wie eben erklärt, für G30 das Gate Ry mit pi/3 parametrisieren. Wir verzichten dabei auf die Histogramme und notieren stattdessen nur die Häufikeiten der Messergebnisse.

a) 30 Grad Drehung und X: 23.633% 0, 76.367% 1
b) 30 Grad Drehung ohne X-Gate: 75.00% 0, 25.00% 1

Man sieht also sehr schön den Effekt eines X-Gates aus der wiederholten Messung: Es vertauscht die Zustandskoordinaten. Für die Basis-Zustände ergibt sich daraus: X: |0> -> |1>, d.h. (1,0) -> (0,1), und umgekehrt. Wir merken an, dass wir hier wieder von den Messergebnissen (Bits) auf den Zustand (Qubit) nach Anwendung der Gates schließen. Die Messergebnisse sind nicht der Zustand!

4. R --- Gw --- M. Das Diagramm der QBIT-Box Experimente in Q7 (blaue Punkte) ist natürlich auf diese Weise (3b) entstanden! Das w durchlief alle Werte von 0º bis 360º (das entspricht θ=2*pi) in 15º-Schritten. Für jedes w wurde ein Cirquit der Form 3b) erzeugt, der jeweils 50 Mal durchlaufen wurde. Die Häufigkeiten von 1 (das entspricht dem L) wurden in die Grafik eingetragen. Das Ganze wurde natürlich in Form eines kleinen (Python-)Programms durchgeführt. Im Kern einer Schleife über die verschiedenen Winkel steht dabei das Python-Pendant zum Composer Circuit:

## Circuit definieren 
q_box = QuantumCircuit(q, c) 
rot = k*2*pi/m 
q_box.ry(rot,q) 
q_box.measure(q[0], c)

Etwas ausführlicher wird das Programm in einem Kommentar zu diesem Blog gezeigt.

2-Qubit Beispiele

Bevor wir uns theoretisch mit Zwei- und Mehr-Qubit Kombinationen befassen, probieren wir einfach einmal ein paar Beispiele mit dem Composer praktisch aus. Wir müßten dazu natürlich auch unsere einfache Schreibweise für Qubit-Algorithmen erweitern, etwa zwei Zeilen untereinander. Das stimmt aber ziemlich genau mit den Composer Grafiken überein, die wir bereits in Abschnitt Q2 erkundet hatten. Daher formulieren wir die kleinen Algorithmen gleich als Circuit.

5. Probieren wir es mal mit

und versuchen zu verstehen, was wohl als kombiniertes Messergebnis herauskommen wird. Der Ausgangszustand von Qubit 0 (q0-Wire) wird mit X zu |1> und dann gemessen. Qubit 1 (q1-Wire) wird sofort gemessen, bleibt also im Zustand |0>. Grundsätzlich gibt es 4 mögliche Messergebnisse, nämlich die vier 2-Bit Kombinationen 00, 01, 10, 11. Das Ergebnis hier ist natürlich 100% 01.

Zur Erinnerung (an Abschnitt Q2): Auf der c-Linie kommen die Messergebnisse an - in Form von klassischen Bits (c für classical). Die 5 deutet an, dass die c-Linie die Ergebnisse von bis zu 5 Qubits aufnimmt (s. Histogram nächstes Beispiel), auch wenn wir hier nur 2 Qubits verwenden.

6. Etwas schwieriger:

Hier wird q0 zunächst geswitcht und dann mit dem Hadamard-Gate transformiert. D.h. |0> wird zu 1/√2 (|0> - y|1>), oder in Koordinaten wie in Q7 zu 1/√2(1,1). Die Wahrscheinlichkeiten für 0 und 1 als Messergebnis sind damit 1/2. Für q1 wird nach H der Zustand 1/√2 (|0>+y|1>) gemessen, was die gleichen Wahrscheinlichkeiten für Qubit 1 ergibt. Was ist also das Gesamtergebnis (1024 "shots")?

 

 

 

 

Hier zählen nur die zwei rechten Bits, so dass also die experimentellen Häufigkeiten um den zu erwartenden Wert 0.25 schwanken. (Die Konvention ist, das Bit-Ergebnis von q0 immer ganz rechts zu schreiben.)

7. Das Hello Qubit World Beispiel aus Q2 sah als "Partitur" so aus:

Hier finden wir nach dem H ein neues Gate, das offenbar zwei Qubits miteinander in Beziehung bringt. Das ist das Controlled-Not-Gate, auch als CNOT oder CX bezeichnet. Es beeinflußt q1 - da, wo das + im Kreis steht - in Abhängigkeit vom Zustand des Qubit q0. Genauer: wenn q0 im Zustand |1> ist, kehrt sich q1 um - hier also von |0> nach |1>. Ansonsten bleibt der Zustand von q1 unverändert, also hier |0>.

Schauen wir uns das Ergebnis an (1024 shots).

Das Histogramm zeigt nur positive Werte für die 2-Bit Messergebnisse 00 und 11, zu jeweils ziemlich genau 50%. Die beiden anderen, 01 und 10, kommen bei Messungen nicht vor.  Das hat verschiedene Konsequenzen, auf die wir später noch eingehen werden. Hier stellen wir erst einmal fest, dass das CNOT-Gate offenbar die beiden Qubits "gleichschaltet". Aber Achtung - nur bezüglich der Messergebnisse! Beide sind nach diesem Circuit entweder 0 oder 1, und was, das bestimmt q0. Um über die Zustände zu sprechen, müssen wir wieder unser Modell bemühen.

Damit können wir das Ergebnis noch besser verstehen: durch das Hadamard-Gate geht der q0-Zustand in die Kombination von |0> und |1> über, jeweils mit Anteil 1/√2. Daher ergibt sich der neue Zustand von q1 nach der CNOT-Regel als Kombination von |0> (unverändert) und |1> (verändert) mit den entsprechenden Anteilen von 1/√2. Und q1 kann nur 0 ergeben, wenn sein Zustand sich nicht geändert hat, also wenn q0 das Ergebnis 0 liefert. Andernfalls hätte sich q1 umgekehrt und würde 1 liefern. Das erklärt - in Worten - warum 01 und 10 nicht als Messergebnis auftreten können. Im nächsten Blog werden wir das "nachrechnen".

Die "Gleichschaltung" der beiden Qubits durch diesen Circuit bedeutet u.a., dass wir wissen können, welchen Messwert das andere Qubit hat, wenn wir nur das eine gemessen haben. Wir können aus einer Messung das Ergebnis beider Messungen erschließen! Das wirkt zunächst einmal ungewöhnlich und führt zu teilweise "geheimnisvollen" Deutungen. Doch davon später.

Ein kleiner Ausflug: Die Wires sind so etwas wie die "Lebenslinien" der beiden Qubit-Variablen q0 und q1. Sie beginnen beide in einem Anfangszustand und "enden" durch Messung. Mit etwas Phantasie kann man auch klassische Algorithmen als Composer Diagramm darstellen.

Pythogoras-Algorithmus in Compser-Form

Zum Beispiel kann man die Berechnung der Hypothenusenlänge nach dem Satz des Pythagoras a²+b²=c² so in Composer-Form darstellen. Dabei sind a,b,c die Variablen, 3 ,4, 0 die Anfangszustände, Q ist die Quadrat-Operation, W die Wurzel, und das Konstrukt in der Mitte mit dem S auf dem c-Wire ist die Summenbildung der Variablen auf den beiden oberen Wires im aktuellen Zustand. Die Messoperation ist hier P, für print. Auch hier "beobachtet" man nur die Anfangszustände und die print-Ausgaben. Noch enger ist die Analogie, wenn man sich das P "destruktiv" vorstellt,  d.h. die Variablen werden nach Ausgabe "gelöscht" oder auf Null gesetzt. Insgesamt also eine schöne Algorithmen-Analogie zum Verständnis der Composer-Diagramme.

An dieser Stelle ist erst einmal wieder eine Pause fällig. Wir haben Beispiele für kleine 1- und 2-Qubit Algorithmen untersucht und mittels Quantencomputer-Simulator praktisch ausprobiert. Außerdem haben wir zwei neue Gates kennen gelernt: als Entsprechung für unser G (Dreh-Feld) bei der QBIT-Box das Ry-Gate und das CNOT, das zwei Qubits verbindet. Und eine ganze Reihe neuer Begriffe, die im Sprachgebrauch der Qubit-Algorithmik verwendet werden. Es ist wieder hilfreich, sich eine tabellarische Übersicht zu machen und im weiteren Verlauf zu ergänzen. Der Anfang sei hier gemacht.

Begriff englisch Begriff deutsch Bedeutung
Composer Composer Tool bzw. Form zur grafischen Darstellung von Qubit-Algorithmen
Circuit Schaltkreis Qubit-Algorithmus
Wire Wire (Leitungen) Algorithmische "Lebenslinie" eines Qubits
Gate Gatter Qubit-Operator in einem Algorithmus
Paramter Parameter Gates wie Ry können eine Parameter haben, z.B. einen Drehwinkel.
|0>, |1>, |a> |0>, |1>, |a> Schreibweise für Qubit-Zustände, alternativ zu Koordinaten
Basis Basiszustand Hier |0> oder |1>
Superposition Überlagerung (Linear-)Kombination von Qubit-Zuständen, meist von |0> und |1>
Hadamard-Gate H-Gatter Spezieller Superpositionsoperator
M Operator M Operator Mess-Operator, berechnet aus Qubit-Zuständen Wahrscheinlichkeiten von Bit-Ergebnissen
Classical Bit Klassisches Bit Messergebnisse werden als Bits / Bit-Ketten ausgegeben
c-Wire c-Wire Wire, das die Messergebnisse aufnimmt (Bit-Ketten)
Initial State Anfangszustand Jedes Qubit beginnt im Zustand |0>
Ry-Gate Ry-Gatter Eine bestimmte Art der Drehung, vergleichbar mit dem G im ZBIT-Modell
shots shots Anzahl Durchläufe eines Algorithmus für Ergebnis-Statistik

 

Bevor es nun weiter geht mit  Mehr-Qubit Registern, werden wir noch einige verblüffende Besonderheiten des Circuits aus Beipiel 7 untersuchen.

Stay tuned! Hier geht's weiter.



Zur Ausbreitung der Corona-Infektionen: Wachstumsmodelle

Die Corona-Krise, ihre Bewertung und die Maßnahmen zu ihrer Bewältigung sind seit Wochen das alles beherrschende Thema in den Medien. Dabei kommt neben den medizinischen, biologischen, wirtschaftlichen, gesellschaftlichen, rechtlichen und ethischen Fragen, die das Virus aufwirft, auch die Mathematik ins Spiel. Es sind mehrere Themenkomplexe, bei denen die Mathematik gefragt ist und adressiert wird: bei der Statistik der Datenerfassung und –auswertung, bei der Modellierung der Ausbreitung und der Ausbreitungsgeschwindigkeit der Infektionen, aber auch bei der Modellierung der wirtschaftlichen Auswirkungen des Shutdowns. Ferner spielen u.a. Methoden des Maschinellen Lernens bei der Suche nach einem Impfstoff oder nach Medikamenten eine wesentliche Rolle.

Wir wollen hier nur den Komplex der Ausbreitung der Infektionen ansprechen. In den Medien spielt dabei das Modell des exponentiellen Wachstums eine besondere Rolle. Außer von Virologen und Epidemiologen hören wir es von Vertretern aller Medien und von Politikern. Mathematiker kommen in der Öffentlichkeit kurioserweise kaum oder eher am Rande zu Wort.

Zur Charakterisierung der Ausbreitung der Infektionen werden in den Medien eine Vielzahl von Kurven gezeigt, oft erstaunlich nichtssagende Kurven, deren Sinn von Laien nicht und Experten nur mit Mühe verstanden werden können. Manche der Kurven werden in einem Achsenkreuz gezeigt, ohne dass die Achsen bezeichnet oder erläutert würden, so dass nicht klar wird, was die Kurven eigentlich veranschaulichen.

Zum Beispiel wurden in der anfänglichen Berichterstattung in den Medien zur Erklärung, warum eine Verlangsamung der Virus-Ausbreitung (durch Isolierung, Kontaktreduktion, soziale Distanzierung) medizinisch sinnvoll und notwendig ist, oft jeweils zwei Kurven gezeigt, deren Form an „Normalverteilungen“ aus der Statistik erinnern (eine spitze und eine flache Kurve). Zu diesen Kurven wird erklärt, dass sie einerseits die schnelle, ungebremste Ausbreitung (die spitze Kurve) und andererseits eine systematisch verlangsamte, zeitlich gedehnte Ausbreitung der Infektionen (die flache Kurve) beschreiben. Dabei soll eine waagerechte Linie, unter der die flache Kurve verläuft, die Kapazitätsgrenze für Intensivbehandlungen in deutschen Krankenhäusern charakterisieren. Diese Kurven haben aber keine präzise bezeichnete mathematische Bedeutung, sondern eher symbolischen Charakter.

Um etwas mehr Klarheit in die Vielfalt der Darstellungen zu bringen, wollen wir hier ein paar allgemeine Worte über „mathematische Wachstumsmodelle“ sagen. Dabei wenden wir uns ganz bewusst an den mathematisch nicht besonders versierten oder interessierten Leser.

Die drei wichtigsten Wachstumsmodelle sind das lineare, das exponentielle und das logistische Modell. Um sich einen Eindruck, eine Idee dieser drei Modelle zu verschaffen, braucht man nur einen Blick auf die Form der zugehörigen Wachstumskurven zu werfen:

Von diesen drei Modellen ist das lineare Wachstumsmodell das einfachste und alltäglichste. Trotzdem gehen wir hier zunächst auf das Modell des exponentiellen Wachstums ein, weil von diesem seit dem Beginn der Corona-Krise in den Medien fast ausschließlich die Rede ist.

Exponentielles Wachstum ist eigentlich leicht zu verstehen: Wenn sich z.B. irgendeine Menge täglich verdoppelt, dann haben wir es mit exponentiellem Wachstum im engsten Sinne zu tun. Sich vorstellen kann man das ja sofort. Verblüffend ist aber, wie schnell die Menge nach einer eher ruhigen Startphase anwächst.

Veranschaulicht wird dieses Anwachsen gern durch die indische Legende vom Schachbrett mir den Reiskörnern. Bei Verdoppelung der Anzahl der Reiskörner von einem Feld des Schachbretts zum nächsten sieht das Wachstum am Anfang harmlos aus. Aber am Ende, nachdem alle 64 Felder belegt sind, übersteigt die Menge der Körner alle Vorstellungen. Allein auf dem letzten Feld müssten die Reisernten der ganzen Welt von vielen hundert Jahren untergebracht werden.

Eine andere Geschichte, das Gleichnis vom Lilienteich, soll die Bedrohlichkeit des exponentiellen Wachstum deutlich machen: In einem Teich wächst eine Linie täglich auf die doppelte Größe an. In den ersten Tagen ist die Ausbreitung scheinbar völlig bedeutungslos, so geht es weiter, und auch am 29.Tag ist „nur“ der halbe See von Lilien bedeckt. Aber dann, am 30. Tag, ist der See vollständig zugewachsen, und alles Leben im See erstickt…

Nun muss es bei exponentiellem Wachstum nicht eine tägliche Verdoppelung der betreffenden Menge sein, es kann auch ein anderer Zeitraum sein, der zu einer Verdoppelung führt, z.B. eine Verdoppelung alle 4 Tage oder alle 10 Tage.

Nur am Rande sei erwähnt, dass wir es z.B. bei der Zinsesverzinsung von Kapital (wenn die Zinsen nicht abgeschöpft, sondern dem Kapital hinzugefügt werden) ebenfalls mit exponentiellem Wachstum zu tun haben: Bei einem Jahreszinssatz von zum Beispiel 5 % würde sich das Kapital bei Zinsesverzinsung ungefähr alle 14 Jahre verdoppeln.

Die Situation verändert sich aber grundlegend, wenn der Zeitraum, in dem die Verdoppelung stattfindet, nicht konstant ist, sondern sich laufend verändert. Wenn also z.B. der Verdoppelungszeitraum erst 4 Tage, dann – nach einigen Wochen – nur noch 6 Tage, dann – noch einige Wochen später – vielleicht nur noch 10 Tage beträgt usw.

In einem solchen Fall, wenn der Zeitraum, in dem die Verdoppelung stattfindet, sich dauernd verändert (vergrößert), haben wir es nicht mehr mit exponentiellem Wachstum im engeren Sinne zu tun, sondern mit einem möglicherweise deutlich komplizierteren Anwachsen. Über einen größeren Zeitraum betrachtet, sieht das Wachstum dann vielleicht eher wie lineares Wachstum aus. Konkret: Wenn sich der Zeitraum, in dem die Verdoppelung stattfindet, ebenfalls verdoppelt, also von 4 auf 8 Tage, dann auf 16, danach auf 32 Tage usw. anwächst – dann ist das global gesehen kein exponentielles, sondern lineares Wachstum.

Lineares Wachstum lässt sich schnell abhandeln: Es wird durch eine gerade Linie charakterisiert. Es ist das uns vertrauteste Wachstumsmodell: Der Preis einer Ware steigt in der Regel linear mit der Menge der Ware, der Arbeitslohn sollte linear mit dem Zeitraum anwachsen, in dem die Arbeit ausgeübt wird usw. Bei allem, was wir in der Schule und im Alltag mit dem Dreisatz-Prinzip ausgerechnet haben und ausrechnen können, haben wir es mit linearen Beziehungen, mit linearem Wachstum zu tun.

Logistisches Wachstum als alternatives Modell zu exponentiellem Wachstum

Wie im Beispiel der Schachbrettlegende wächst unbegrenzt exponentielles Wachstum schließlich dramatisch schnell an, es geht sehr schnell ins quasi „Unendliche“.

In der Wirklichkeit ist exponentielles Wachstum aber nur theoretisch unbegrenzt, es geht praktisch eigentlich immer in eine andere Form des Wachstums über. Neben dem gerade behandelten einfachen linearen Wachstum ist ein sehr wichtiges, besonders realistisches Wachstumsmodell das logistische Wachstum.

Die obige Kurve zum logistischen Wachstum zeigt (von links nach rechts) das Charakteristische des logistischen Wachstums: Zu Beginn, in der Startphase, verhält sich die Kurve wie beim exponentiellen Wachstum, ändert dann aber – an einem „Wendepunkt“ – ihre Richtung, wird flacher und nähert sich immer mehr einer waagerechten Geraden an. Das Wachstum wird durch diese Gerade begrenzt. In der Realität ist der Übergang vom exponentiellen Wachstum in begrenztes Wachstum in aller Regel dadurch bedingt, dass Ressourcen beschränkt sind und aufgebraucht werden

Auch auf die Corona-Ausbreitung bezogen, haben wir es langfristig mit logistischem Wachstum zu tun: Wenn die senkrechte Achse die Gesamtzahl aller Infizierten (einschließlich der bereits Genesenen) beschreibt, ist klar, dass weitere Infektionen spätestens dann ausgeschlossen sind, wenn alle Individuen infiziert sind oder waren (und eine zwei- oder mehrmalige Infektion ausgeschlossen ist). Nach den Erkenntnissen der Epidemiologie ist sogar zu erwarten, dass eine solche Begrenzung praktisch schon erreicht wird, wenn etwa 70% der Individuen infiziert sind oder waren. (Man spricht dann auch von „Herdenimmunität“.)

Die derzeitigen Maßnahmen zur Kontaktminimierung (im April 2020) zielen dagegen darauf ab, zu erreichen, dass die sogenannte Reproduktionszahl R (möglichst deutlich) kleiner als 1 ist, das heißt dass jedes Infizierte Individuum im Mittel (möglichst deutlich) weniger als ein weiteres Individuum mit dem Virus infiziert. . Wenn das gelingt, wird die Gesamtzahl der gleichzeitig Infizierten auf Dauer (deutlich) abnehmen. Wenn man die Reprodukionszahl R, ihre zeitliche Entwicklung und die dadurch bedingte Ausbreitung der Infektion durch Kurven veranschaulicht, haben diese Kurven eine andere Bedeutung als die oben diskutierten Kurven und Modelle, weil sich R nicht auf die Gesamtzahl der Infizierten, sondern nur auf die jeweils aktuell Infizierten (ohne die bereits Genesenen und Verstorbenen) bezieht. Selbst in solchen Fällen, bei denen die in den Medien präsentierten Kurven eine mehr oder weniger präzise Bedeutung haben, muss man also genau hinsehen und bei der Interpretation der Kurven vorsichtig sein.

Resumee

Für die Ausbreitung der Corona-Infektion ist also das exponentielle Modell immer nur kurzfristig oder für eine bestimmte Zeitspanne relevant: die Wachstumsraten ändern sich, insbesondere als Folge der getroffenen Maßnahmen, von Tag zu Tag. Global, auf lange Sicht gesehen, wird das Wachstum in ein logistisches Wachstum übergehen. Die getroffenen Maßnahmen zielen jedenfalls darauf ab, dass sich ein exponentielles Wachstum (z.B. in einer „zweiten Welle“) keinesfalls wieder einstellt.

Viele Fragen zum Corona-Virus, u. a. zu seiner Übertragbarkeit, zu seiner Gefährlichkeit, zu seiner Ausbreitungsdynamik, zu seiner Bekämpfung sind heute noch nicht oder nicht vollständig geklärt, und auch anerkannte Experten äußern sich nicht einheitlich über diese Fragen. Insbesondere die Corona-Datenerfassung ist unübersichtlich und uneinheitlich. Über die Gesamtzahl der Infizierten (die „Dunkelziffer“) wird viel spekuliert. Die zugehörige Statistik ist infolgedessen unsicher und oft fragwürdig. Im Hinblick auf die Aufklärung der Öffentlichkeit ist es umso wichtiger, dass das, was man sicher weiß, über die Medien klar und unmissverständlich kommuniziert und veranschaulicht wird, und möglichst nur das.

 


Zur Corona-Krise: Ist „Herdenimmunität“ ein realistisches Ziel?

Die Corona-Krise ist seit Wochen das beherrschende Thema in den Medien. Dabei kommt neben den medizinischen, biologischen, wirtschaftlichen, gesellschaftlichen, rechtlichen und ethischen Fragen, die das Virus aufwirft, auch die Mathematik ins Spiel. Es sind mehrere Themenkomplexe, bei denen die Mathematik gefragt ist und adressiert wird: bei der Statistik der Datenerfassung und –auswertung , bei der Modellierung der Ausbreitung und der Ausbreitungsgeschwindigkeit  der Infektionen,  aber auch bei der Modellierung der wirtschaftlichen Auswirkungen des Shutdowns. Daneben können z.B.  Methoden des Maschinellen Lernens bei der Suche nach einem Impfstoff oder nach Medikamenten genutzt werden.

Schon seit einigen Wochen werden in den offiziellen Verlautbarungen der Politik und der virologischen Experten im Wesentlichen zwei grundsätzliche Ziele und Strategien zur Überwindung der Krise genannt:

  1. Die Abflachung der Kurve der Corona-Infizierten insbesondere durch Isolierungsmaßnahmen. Damit soll erreicht werden, dass die Zahl der gleichzeitigen schweren Krankheitsverläufe jeweils (möglichst deutlich) unter der Gesamtkapazität der Intensivstationen der deutschen Krankenhäuser bleibt. Dadurch soll sichergestellt werden, dass es zu keiner Zeit zu Behandlungsengpässen in Krankenhäusern kommt und jeder Patient adäquat versorgt werden kann.
  1. Die „Durchseuchung“ der Gesamtbevölkerung zu etwa 70% mit der Corona-Infektion. Dabei gehen die Virologen davon aus, dass eine ca. „70%-Durchseuchung“ zu einer weitgehenden Immunität in der Bevölkerung („Herdenimmunität“) führen würde.In den ersten offiziellen Stellungnahmen, kurz nach Ausbruch der Krise, ist dieses Ziel  noch als durchaus erstrebenswert vertreten worden, u.a. von der Kanzlerin.

Offensichtlich – schon aus elementarmathematischen Gründen - vertragen sich diese beiden Ziele nicht gut mit einander: Während das Ziel 1 auf eine Minimierung der gleichzeitigen Infektionenund damit auf eine zeitliche Streckung  herausläuft, würde man das Ziel 2 „im Prinzip“  möglichst bald erreichen wollen, um damit die Krise zu überwinden. Praktisch kann man das Ziel 2 natürlich nicht auf Kosten der unkontrollierten Zunahme schwerer Krankheitsverläufe verfolgen.

Wenn man andererseits versuchen würde, beide Ziele miteinander zu kombinieren, müsste man eine sehr lange Zeit mit der Krise und entsprechenden Maßnahmen leben. Insofern bleibt nur die Hoffnung auf ein Medikament und auf einen Impfstoff.


Q2 Etwas ist anders! - Hello Qubit World

Schauen wir uns also als erstes einmal an, wie so ein Qubit-Algorithmus aussieht - auch ohne den schon zu verstehen.

Bekanntlich ist in der Welt der Informatiker, Programmierer, Hacker das erste, was man ausprobiert bei einem neuen System oder einer neuen Programmiersprache, ein "Hello World" zu erzeugen. Das allgemein anerkannte "Hello World" für Quantencomputer sieht allerdings schon etwas ungewöhnlich aus. Es liefert auch nicht die Grußformel, sondern ist nur so etwas wie das einfachste Qubit-Programm. (Natürlich kann man das Ergebnis daraus in der "normalen" Programmierwelt in ein "Hello World" umwandeln.) Wir werden sehen.

Und so sieht es aus, das "Hello World"  der Qubit-Welt:

Sieht eher aus wie ein Ausschnitt aus einer Partitur moderner Musik? Der Vergleich ist gar  nicht so unpassend. Dieser Ausschnitt "orchestriert"  quasi die "Instrumente" eines Quantencomputers, die Qubits.

Am liebsten würde man das Bild sofort erklärt bekommen, aber das heben wir uns für später auf. Man sieht erst mal, ein Q-Algorithmus wird ganz anders dargestellt als üblich. Und dies ist eine einfache Möglichkeit einen Q-Algorithmus als Qubit-Programm grafisch zu beschreiben. (Das ist so ähnlich wie bei Scratch oder Roberta, wo man ein Programm visuell aus einzelnene Bausteinen zusammensetzen kann.) Natürlich kann man statt in der grafischen Form einen Q-Algorithmus auch in Worten beschreiben, wobei man aber sorgfältig mit der Sprache umgehen muss. Oder durch eine Programmiersprache, z.B. Python. Wir probieren das nachher mal.

Versuchen wir mal zu erraten, was die Grafik bedeutet, quasi als Partitur: Es gibt offenbar 2 Instrumente, q1 und q2. Die haben ihre eigene "Linie", auf denen etwas passiert. Klar, das sollen zwei Qubits sein - wobei wir erst in einem späteren Blog erklären, was Qubits sein sollen. Auf den Linien geschieht etwas, nacheinander, mit den jeweiligen Qubits. Was auch immer H macht, es macht es nur mit q1. Danach kommt etwas, dass offenbar q1 und q2 zusammen betrifft.

Am Ende jeder Qubit-Zeile steht eine Art Anzeige-Symbol, wie bei einem Messgerät, mit einem Pfeil nach unten auf die Doppel-Linie C. Tatsächlich, hier wird ein Qubit "gemessen". Und das Messergebnis wird an die C-Linie übertragen. Das "C" steht übrigens für "classical" - nein, nicht "klassische Musik", sondern "klassiches Bit", im Gegensatz zum Quanten-Bit oder Qubit. Danach kommt nichts mehr, es ist Schluß, das "Musikstück" zuende.

Was bedeuten die Zahlen unten auf der C-Linie? Das ist einfach zu erraten: die 2 besagt, dass C die "Messwerte" von 2 Qubits aufnimmt. Die 0, klar, steht für: "Hier kommt der Messwert von Qubit q0." Und die 1 für Messwert von q1 - falls es in einer größeren "Partitur" mal unübersichtlich werden sollte. Und da das C für "classical bit" steht, kann man schon schließen, dass die Messergebnisse herkömmliche Bits sind.

Jetzt wissen wir, was die Teile bedeuten, aber immer noch nicht, was der ganze Qubit-Schaltkreis macht (so nennt man das Gebilde in Anlehnung an herkömmliche elektronische Schaltkreise).

Das liegt daran, dass wir nicht wissen was die beiden blauen Symbole machen. Mal sehen, ob wir das auch noch verstehen können, z.B. indem wir den Hello Qubit World Algorithmus in normaler Sprache formulieren.

Aber jetzt ist es erst mal genug. Pause. Dann weiter lesen.

Cliff-Hanger - Stay tuned

Und hier geht's weiter.

 


Künstliche Intelligenz III: Zukunft gestalten, Werte erhalten

Die rasante Entwicklung der Künstlichen Intelligenz (KI) wirkt sich auch in Deutschland auf alle Lebens- und Arbeitsbereiche aus – und wirft die Frage auf, wie sich der Wandel vorteilhaft und verantwortungsvoll zugleich gestalten lässt. Folge vier unserer Digitalserie liefert Antworten.

In der Diskussion über rechtliche und ethische Aspekte von KI vermischen sich berechtigte Anliegen mit unbegründeten Ängsten. Berechtigt sind zum Beispiel Fragen nach Sicherheitsvorkehrungen und Kontrollmechanismen, wenn KI-Algorithmen lebenswichtige Entscheidungen treffen, etwa im juristischen Bereich oder in der medizinischen Diagnostik. Wie schwer eine klare Antwort auf die Frage fällt, wer im Einzelfall die Verantwortung für fatale Entscheidungen übernehmen soll, wird in der Debatte über das autonome Fahren deutlich. Jeder kann sich eine Situation vorstellen, in der sich ein Unfall nicht mehr vermeiden lässt und das autonome Fahrzeug in Bruchteilen von Sekunden über das Leben
und den Tod von Verkehrsteilnehmern entscheiden muss. Nach welchen Prinzipien sollen solche Entscheidungen fallen? Eine verbindliche Antwort ist bislang nicht gefunden.

Eigene Daten schützen

Auch die Sorge um den Datenschutz und die Privatsphäre ist verständlich. Im Prinzip aber bilden in Deutschland das Grundgesetz, Gesetze und die Datenschutzgrundverordnung der EU einen sinnvollen, für die digitale Welt gültigen Rechtsrahmen. Gefährlich ist eher ein leichtfertiger Umgang von Nutzern mit ihren eigenen Daten. Und was ist von Prognosen zu halten, die für die fernere Zukunft die Weltherrschaft superintelligenter Maschinen voraussagen? Alle KI-Systeme lösen ausschließlich spezielle Aufgaben. Aber die Systeme selbst sind Maschinen oder Algorithmen. Sie haben keine Gefühle und kein Bewusstsein, sondern verfolgen nur Ziele, für die sie programmiert sind. Roboter, die nicht nur
Einzelaufgaben lösen, sondern der menschlichen Intelligenz in ihrer Breite nahekommen, sind auch für die nächsten Jahrzehnte eine Illusion.

Deutschlands Stärken nutzen

Oft ist von der Dominanz der vier US-amerikanischen Internet-Giganten Google, Facebook, Amazon und Apple die Rede. In den Hintergrund treten dabei die guten Voraussetzungen, die Deutschland durch seine Verbindung aus klassischem Ingenieurwissen, theoretischer Fundierung und hoher KI-Forschungskompetenz hat. "Wenn wir die neuen Möglichkeiten der KI mit den klassischen Stärken unserer Unternehmen kombinieren, können wir neue Chancen im internationalen Wettbewerb schaffen und den digitalen Wandel nach unseren Wertvorstellungen gestalten", sagt Professor Stefan Wrobel, einer der prägenden KI-Experten in Deutschland.

In der Tat hat KI das Potenzial, die Lebensqualität zu verbessern und der Menschheit bei der Überwindung von Krankheiten, Armut und Ungleichheit zu helfen. Ein solcher Fortschritt setzt Gestaltungswillen und politische Digitalkompetenz zwingend voraus. Die Politik darf die KI-technologischen Entwicklungen nicht einfach nur laufen lassen, sondern muss sie im Dialog mit führenden Experten fördern und gestalten. Andernfalls wird sie ihrer Verantwortung nicht gerecht.

Der dramatischste Nachholbedarf besteht jedoch im Bereich der digitalen Aufklärung und Bildung. Und da geht es nicht in erster Linie um die Ausstattung aller Schüler mit einem Tabletcomputer, sondern um die digitalen Kerninhalte des Unterrichts. Ohne diese Inhalte und ein Grundverständnis für algorithmische Prinzipien bleiben Medienkompetenz und
digitale Bildung substanzlos.

 

Link zum Artikel


Künstliche Intelligenz II: Aufs Lernen für die Praxis programmiert

Unter den Methoden, die bei der Künstlichen Intelligenz (KI) in der Praxis eingesetzt werden, spielt das "maschinelle Lernen" (ML) eine zunehmend wichtige Rolle. Den Kern von ML bilden sogenannte "lernende Algorithmen". Ihre Funktion beleuchtet – in der zweiten KI-Folge – der dritte Teil unserer Digitalserie.

Algorithmen sind aus unserem modernen Leben nicht mehr wegzudenken. Sie steuern sämtliche digitalen Prozesse und Geräte und liegen jedem Computerprogramm zugrunde. In ihrer klassischen Form umfassen sie eine Folge von Anweisungen und bestehen aus vielen genau definierten Einzelschritten.

"Maschinelles Lernen" (ML) wiederum basiert auf lernenden Algorithmen. Diese Algorithmen berechnen – anders als herkömmliche, regelbasierte Algorithmen – ein Ergebnis nicht einfach durch Abarbeiten einer Folge von Befehlen. Vielmehr durchlaufen sie zunächst eine "Trainingsphase". Dabei werden interne Zahlenwerte durch das Verarbeiten einer großen, oft riesigen Menge von Beispieldaten so verändert, dass der Algorithmus Muster einübt, neue Merkmale erkennt und sich seine Funktionsweise und damit auch seine Ergebnisse schrittweise verbessern. Man sagt, das System wird "trainiert", oder eben auch, der Algorithmus lernt.

Viele Einsatzbereiche

Verglichen mit dem menschlichen Lernen ist das maschinelle Lernen ein aufwändiger Prozess: Ein Kind lernt anhand weniger Beispiele, einen Hund von einer Katze und einen Apfel von einer Birne zu unterscheiden. Ein Algorithmus braucht dagegen in der Regel sehr viele Trainingsbeispiele, bis er ausschlaggebende Merkmale (Muster) erkannt hat und die
Unterscheidung sicher beherrscht.

Dafür sind aber die Anwendungsmöglichkeiten geradezu unbegrenzt: ML-Systeme werden trainiert, um Handschriften zu lesen, gesprochene Sprache zu verstehen und zu übersetzen, Spam-Mails auszusortieren und bei medizinischen Diagnosen krankes Gewebe zu identifizieren. Außerdem lernen sie, beim assistierten Fahren Verkehrsschilder
und Spurlinien zu erkennen, anspruchsvolle Spiele zu gewinnen, passende Partner zu vermitteln, Stimmungen in Gesichtern zu erkennen und im Internet Hass-Mails und Fake News zu identifizieren und auszusondern.

Zum Einsatz kommt ML-Software heute bereits auch bei der Bewertung der Kreditwürdigkeit von Bankkunden, der Festlegung von Versicherungskonditionen, der Vorauswahl in Bewerbungsverfahren und im Börsenhandel. Und wenn wir im Internet lesen "Das könnte Sie auch interessieren ..." , also bei personalisierten Kaufempfehlungen, ist ML im Spiel, ebenso wie bei Routenplanern, Sprachassistenten wie Alexa, Cortana, Siri, Google Assistant und vielen weiteren Apps, die täglich weltweit von vielen Millionen Menschen benutzt werden.

Die Liste solcher Anwendungen ließe sich beliebig fortsetzen, und ständig kommen neue hinzu. Bei manchen dieser Anwendungen funktioniert das Lernen schon sehr gut, bei anderen sind die Lernergebnisse noch stark verbesserungsbedürftig. Aber der Trend ist klar: Bei immer mehr Anwendungen werden immer überzeugendere Ergebnisse erzielt.

Wenn ML-Systeme Entscheidungen treffen, können Menschen davon unmittelbar betroffen sein. Wie kann man sicherstellen, dass solche "ML-Entscheidungen" kontrolliert und eventuell korrigiert werden können? Auf solche Fragen und die rechtlichen, gesellschaftlichen und ethischen Aspekte von Künstlicher Intelligenz geht die nächste Folge ein.

 

Link zum Artikel


Künstliche Intelligenz I: Von Menschen für Menschen geschaffen

Der Begriff ist sperrig, hat aber Potenzial, das Wort des Jahres zu werden: "Künstliche Intelligenz" ist in aller Munde. In drei Teilen der neuen Digitalserie beleuchtet prisma die praktischen Anwendungen, Perspektiven und auch Grenzen von KI.

Täglich wird in den Medien über "Künstliche Intelligenz" (KI) berichtet. Im Sommer 2018 unterhielt sich Bundeskanzlerin Angela Merkel auf einer Digital-Konferenz in Berlin mit "Sophia", einem mit KI ausgestatteten Roboter. Das Wissenschaftsjahr 2019 ist KI gewidmet. Das alles macht deutlich: Längst ist das Thema nicht mehr Science-Fiction,
sondern in der Gegenwart angekommen.

Und in der Tat: Die Anwendungsgebiete von KI sind enorm und reichen bereits heute von der Bild-, Gesichts- und Handschrifterkennung über die Sprachverarbeitung und das automatische Übersetzen von Texten bis zu automatisierten Diagnoseverfahren in der Medizin. KI und Algorithmen des sogenannten maschinellen Lernens spielen insbesondere bei den immer ausgefeilteren Fahrassistenten für Autos eine entscheidende Rolle – bis hin zum schließlich autonom fahrenden Auto.

Im Alltag angekommen

Allerdings fehlt eine einheitliche Definition von KI. Experten sprechen von KI, wenn ein technisches System – ein Roboter, ein Computer, ein Algorithmus – sich "intelligent" im Sinne menschlicher Intelligenz verhält. Eine präzise Beschreibung ist das aber nicht, weil die menschliche Intelligenz viele verschiedene Facetten hat – neben den kognitiven auch emotionale und soziale Komponenten. Ein vom Mathematiker Alan Turing im Jahre 1950 konzipiertes Gedankenexperiment, der sogenannte "Turing-Test", liefert bis heute einen Maßstab für die Nähe zwischen KI und menschlicher Intelligenz. Demnach hat ein KI-System den Test bestanden, wenn man dem System beliebige Aufgaben stellen kann und aus den Lösungen nicht geschlossen werden kann, ob man es mit künstlicher oder menschlicher Intelligenz zu tun hat.

KI ist seit Mitte des vorigen Jahrhunderts Gegenstand der Forschung und Entwicklung. In Deutschland gehört das 1988 gegründete "Deutsche Forschungszentrum für Künstliche Intelligenz" zu den Pionieren. Entscheidend für die enormen Erfolge mit KI in den letzten 20 Jahren war die enorme Leistungssteigerung von Computern. Heute rechnet bereits ein
Smartphone ungefähr so rasant wie der schnellste Computer der Welt vor 30 Jahren – und die Menge verfügbarer Daten wächst weltweit geradezu explosionsartig.

KI ist im Alltag angekommen und unterstützt uns – oft unbemerkt – in vielen Lebensbereichen. Längerfristig sollten KI-Systeme dem Menschen alle uninteressanten und gefährlichen Arbeiten abnehmen und ihm die Möglichkeit geben, sich kreativen Tätigkeiten zu widmen. Gleichzeitig verlangen die mit KI-Systemen verbundenen rechtlichen und ethischen Fragen nach Antworten, aus denen Leitlinien für den zukünftigen Umgang mit KI hervorgehen sollten. Grundsätzlich steht fest: Die KI-Entwicklung liegt in der Hand von Menschen, KI-Systeme sind Programme oder Maschinen – sie entwickeln sich nicht von selbst oder aus eigener Initiative.

 

Link zum Artikel


Algorithmen III: Intelligente Maschinen, böse Roboter

In Teil 1 und 2 unserer prisma-Serie haben wir uns dem Thema der Algorithmen ganz allgemein genähert. Die kontrovers diskutierte Frage, der wir uns im dritten und letzten Teil widmen wollen, lautet: Wohin führen uns Algorithmen, die Muster und Strukturen selbstständig erkennen, sich anpassen und verändern und ihrerseits neue Algorithmen entwickeln können?

Die Einschätzungen, auf die fernere Zukunft bezogen, reichen von phantastischen Perspektiven mit intelligenten Maschinen und Robotern, die für uns Menschen alles Unangenehme erledigen, bis hin zu düsteren Aussichten einer Beherrschung der Menschen durch sich selbstständig und unkontrollierbar weiterentwickelnde Maschinen. So weit sind wir allerdings noch lange nicht. Um zu einer realistischen Einschätzung zu kommen, schauen wir uns deshalb an, was heute schon möglich ist. Aktuelle Algorithmen des Maschinellen Lernens (ML) werden zum Beispiel zur Gesichts- und Spracherkennung eingesetzt.

Nehmen wir als leicht verständliches Beispiel die Unterscheidung weiblich/männlich bei der Gesichtserkennung. Als man dafür noch keine der neuen ML-Methoden verwendete, musste man im Algorithmus festlegen (einprogrammieren), anhand welcher charakteristischen Daten und biometrischen Werte die Unterscheidung vorgenommen werden sollte. Beim Maschinellen Lernen aber findet der Algorithmus anhand einer Fülle von Beispielen diese Kriterien selbst. Mit Millionen von Beispielen wird der Algorithmus trainiert. Nach dieser Trainingsphase trifft er die Unterscheidung dann selbst.

Neuronale Netze

Solche selbstlernenden Algorithmen sind Gegenstand der Forschung und Entwicklung in einer riesigen Fülle von Anwendungen in Technik, Biologie, Medizin und Wirtschaft. Bezogen auf Gesichter versuchen sie etwa, menschliche Stimmungen zu erkennen und Persönlichkeitsmerkmale zu erfassen – und angesichts des geradezu unbegrenzten Trainingsmaterials aus dem Internet sind die Analysemöglichkeiten atemberaubend. Bei einer aktuellen Methode des Maschinellen Lernens (beim "Deep Learning") werden dazu spezielle "neuronale Netze" benutzt, die durch eine große Anzahl von Beispielen trainiert werden und sich im Laufe des Trainingsprozesses so verändern und anpassen, dass schließlich (fast) alle vorgelegten Aufgaben selbstständig richtig gelöst werden.

Die Bezeichnung "neuronale Netze" deutet zwar auf eine Verwandtschaft mit dem Gehirn hin – tatsächlich handelt es sich aber um eine statistische Methode, die durch einfache Modelle biologischer Neuronen inspiriert wurde. Sind mit diesen atemberaubenden Perspektiven aber nicht auch die Möglichkeiten der Kontrolle und des Eindringens in die Privatsphäre atemberaubend beängstigend? Und wenn man nicht nur Gesichter in dieser Weise interpretiert, sondern die viel umfassenderen Informationen des Internets über seine Nutzer in die Analyse mit einbezieht? Und für gefilterte Informationen oder sogar für Entscheidungen (über Kreditvergabe oder Stellenbesetzungen) verwendet, die weit über Systeme wohlmeinender Empfehlungen hinausgehen? Dass totalitäre politische Systeme die umfassenden Kenntnisse und Einblicke in die Privatsphäre der Nutzer missbrauchen und sich der Kontroll- und Beeinflussungsmöglichkeiten zu bedienen versuchen, ist zwar naheliegend, aber nicht akzeptabel. Politische Systeme, für die Grund rechte, Persönlichkeitsrechte und der Schutz der Privatsphäre konstitutiv und fundamental sind, müssen und können die technischen und algorithmischen Entwicklungen und deren Anwendungen so begrenzen, dass diese Rechte nicht verletzt werden.

Sicherheit und Freiheit

Die Politik muss auch hier die richtige Balance finden zwischen Sicherheit und angemessener, begrenzter Überwachung auf der einen und Freiheit und Schutz der Privatsphäre auf der anderen Seite – und durch eine adäquate Gesetzgebung gestalten. Doch dazu müssen die Politik, das Parlament und die Rechtsprechung die digitalen, algorithmischen Entwicklungen und Gefährdungen verstehen – nicht im Detail, aber im Prinzip.

Bloß: Wie kann dieses Verständnis erreicht werden? Es besteht immer die Gefahr, dass die Politik und die Gesetzgebung zu spät kommen und den technologischen Entwicklungen hinterherlaufen. Der Dialog zwischen Politikern und Technologen ist in Bezug auf die digitale Entwicklung beides: äußerst wichtig und äußerst mühsam. Alle Parteien, viele Politiker reden über die "Digitalisierung". Aber wissen sie, was sie damit meinen? Nach Jahren ernüchternder Bemühungen, die Politik zu beraten, halten viele Experten die algorithmische Aufklärung der politischen Instanzen, der Medien und der allgemeinen Öffentlichkeit für überaus dringend und überfällig.

Und diese Aufklärung muss, womit wir wieder bei unserem Einstiegsbeispiel vom kleinen Einmaleins wären, in der Schule anfangen: Zur Medienkompetenz der Schülerinnen und Schüler gehören Basiskenntnisse über die technologischen Grundlagen des Digitalen und ein fundiertes Verständnis für die Möglichkeiten und Grenzen, Chancen und Gefahren der aktuellen algorithmischen Entwicklungen, insbesondere im Bereich der Künstlichen Intelligenz.

 

Link zum Artikel


Algorithmen II: Auf dem Weg zur künstlichen Intelligenz

In der vergangenen Woche haben wir uns ganz allgemein mit Algorithmen beschäftigt. Doch wie werden Algorithmen konstruiert? Wie sind sie aufgebaut? Das wollen wir an Hand von zwei Anwendungen erläutern und in Teil 2 unserer prisma-Serie deutlich machen, dass man sich algorithmisches Verständnis und eine algorithmische Denkweise recht einfach zu eigen machen kann.

Ein praktisches Beispiel für die Arbeit von Algorithmen ist das Sortieren. Jeder Mensch hat eine intuitive Vorstellung davon, wie Objekte sortiert werden können, seien es Spielkarten, Namen oder Zahlen. Wir stellen jetzt unserem Computer die Aufgabe, die Bücher in einem Regal alphabetisch nach Autorennamen zu sortieren. Klingt einfach. Ist es eigentlich auch.

Dazu brauchen wir einen Algorithmus. Als Erstes muss der beim Vergleich von zwei Namen entscheiden können, welcher Name vor dem anderen platziert wird. Dann können wir wie folgt verfahren: Wir fangen vorne an, vergleichen den ersten mit dem zweiten Namen, ordnen sie alphabetisch, vergleichen dann den (eventuell neuen) zweiten mit dem dritten Namen, ordnen sie alphabetisch, vergleichen den (eventuell neuen) dritten mit dem vierten und fahren so fort, bis wir das Ende der Liste erreicht haben.

Die neue Liste ist nun noch nicht vollständig alphabetisch, aber wir stellen fest, dass der letzte Name wirklich der alphabetisch gesehen letzte ist. Dass das so sein muss, ist eine kleine Denksportaufgabe: Wem diese Überlegung zu mühsam ist, der probiert es einfach aus – etwa mit Namenskärtchen oder Spielkarten. Nun muss der Algorithmus mit der Liste wieder vorne anfangen. Er vergleicht und sortiert den ersten und den zweiten Namen, den zweiten und den dritten und so weiter, bis er am vorletzten Namen angekommen ist: Der ist dann auch der vorletzte im Alphabet – mit der gleichen Überlegung wie oben. Im dritten Durchlauf ergibt sich dann als drittletzter Name der alphabetisch richtige. Und so geht es weiter, Durchlauf für Durchlauf, bis am Ende nur noch der erste mit dem zweiten Namen verglichen und eventuell vertauscht wird. Damit ist der Algorithmus beendet – und die Liste ist vollständig sortiert.

Googles berühmter “PageRank”

Die Erfahrung zeigt, dass Schüler diesen Algorithmus (in der Informatik als “Bubblesort” bekannt) schon in der Grundschule verstehen können und dass ihn meist einige von ihnen sogar selbst “erfinden”. In der Praxis aber spielt er keine große Rolle, weil es bessere, schnellere Algorithmen für die gleiche Aufgabe gibt. Bubblesort ist aber geeignet, eine Ahnung von der algorithmischen Denkweise zu vermitteln, und lässt sich mit einer Programmiersprache in wenigen Zeilen programmieren.

Ein weiteres Beispiel für einen Algorithmus ist der sogenannte “PageRank”. Gibt man bei Goo gle einen Begriff ein, sortiert der “Google-Algorithmus” die Seiten, die für diesen Begriff von Bedeutung sind. Doch wie wird die Reihenfolge der Suchergebnisse festgelegt? Natürlich kennen wir den “Page Rank”- Algorithmus nicht in all seinen Details, er ist ein von Google wohlgehütetes Betriebsgeheimnis. Aber einiges ist bekannt und plausibel – so plausibel, dass man durchaus selbst darauf kommen kann.

Zunächst ist plausibel, dass eine Seite umso wichtiger ist, je mehr andere Seiten auf sie verweisen, mit anderen Worten: Die Anzahl der “In-Links” ist wesentlich. Nun sind aber sicher nicht alle In-Links gleich wichtig, sondern wiederum sind die “Links” als wichtiger zu bewerten, die ihrerseits von einer “wichtigen” Seite ausgehen. Hier kommt etwas ins Spiel, das die Informatiker “Rekursion” nennen, wodurch die Angelegenheit unübersichtlich zu werden scheint: Die Wichtigkeiten hängen voneinander ab – und werden von den Wichtigkeiten einer möglicherweise riesigen Anzahl vernetzter Seiten mitbestimmt. Macht man sich klar, dass es mittlerweile viele Milliarden von in Frage kommenden Seiten gibt, kann man sich vorstellen, dass man es mit einem extrem großen System von bewerteten Links zu tun hat. Mit diesem System, das sich zudem wegen der Dynamik des Internets dauernd verändert, muss ein brauchbarer Algorithmus fertig werden.

Auch Algorithmen können lernen

Die Annahmen, die wir hier gemacht haben, sind stark vereinfacht. Die tatsächlichen Algorithmen berücksichtigen eine Vielzahl (Hunderte) weiterer Bedingungen (“Parameter”). Schließlich – und das ist faszinierend und in seinen Auswirkungen zugleich vielleicht nicht unbedenklich – berücksichtigen sie die Vorgeschichte, das individuelle Suchverhalten – und damit die Gewohnheiten und die vermuteten Interessen des Nutzers. Mit diesem Element der Individualisierung, das wir von der – vielleicht oft nützlichen, aber manchmal auch nervigen – Empfehlungsformulierung “Das könnte Sie auch interessieren …” kennen, gehört der entsprechend erweiterte PageRank-Algorithmus zu den sich anpassenden, “selbstlernenden” Algorithmen.

 

Link zum Artikel