Algorithmen III: Intelligente Maschinen, böse Roboter

In Teil 1 und 2 unserer prisma-Serie haben wir uns dem Thema der Algorithmen ganz allgemein genähert. Die kontrovers diskutierte Frage, der wir uns im dritten und letzten Teil widmen wollen, lautet: Wohin führen uns Algorithmen, die Muster und Strukturen selbstständig erkennen, sich anpassen und verändern und ihrerseits neue Algorithmen entwickeln können?

Die Einschätzungen, auf die fernere Zukunft bezogen, reichen von phantastischen Perspektiven mit intelligenten Maschinen und Robotern, die für uns Menschen alles Unangenehme erledigen, bis hin zu düsteren Aussichten einer Beherrschung der Menschen durch sich selbstständig und unkontrollierbar weiterentwickelnde Maschinen. So weit sind wir allerdings noch lange nicht. Um zu einer realistischen Einschätzung zu kommen, schauen wir uns deshalb an, was heute schon möglich ist. Aktuelle Algorithmen des Maschinellen Lernens (ML) werden zum Beispiel zur Gesichts- und Spracherkennung eingesetzt.

Nehmen wir als leicht verständliches Beispiel die Unterscheidung weiblich/männlich bei der Gesichtserkennung. Als man dafür noch keine der neuen ML-Methoden verwendete, musste man im Algorithmus festlegen (einprogrammieren), anhand welcher charakteristischen Daten und biometrischen Werte die Unterscheidung vorgenommen werden sollte. Beim Maschinellen Lernen aber findet der Algorithmus anhand einer Fülle von Beispielen diese Kriterien selbst. Mit Millionen von Beispielen wird der Algorithmus trainiert. Nach dieser Trainingsphase trifft er die Unterscheidung dann selbst.

Neuronale Netze

Solche selbstlernenden Algorithmen sind Gegenstand der Forschung und Entwicklung in einer riesigen Fülle von Anwendungen in Technik, Biologie, Medizin und Wirtschaft. Bezogen auf Gesichter versuchen sie etwa, menschliche Stimmungen zu erkennen und Persönlichkeitsmerkmale zu erfassen – und angesichts des geradezu unbegrenzten Trainingsmaterials aus dem Internet sind die Analysemöglichkeiten atemberaubend. Bei einer aktuellen Methode des Maschinellen Lernens (beim "Deep Learning") werden dazu spezielle "neuronale Netze" benutzt, die durch eine große Anzahl von Beispielen trainiert werden und sich im Laufe des Trainingsprozesses so verändern und anpassen, dass schließlich (fast) alle vorgelegten Aufgaben selbstständig richtig gelöst werden.

Die Bezeichnung "neuronale Netze" deutet zwar auf eine Verwandtschaft mit dem Gehirn hin – tatsächlich handelt es sich aber um eine statistische Methode, die durch einfache Modelle biologischer Neuronen inspiriert wurde. Sind mit diesen atemberaubenden Perspektiven aber nicht auch die Möglichkeiten der Kontrolle und des Eindringens in die Privatsphäre atemberaubend beängstigend? Und wenn man nicht nur Gesichter in dieser Weise interpretiert, sondern die viel umfassenderen Informationen des Internets über seine Nutzer in die Analyse mit einbezieht? Und für gefilterte Informationen oder sogar für Entscheidungen (über Kreditvergabe oder Stellenbesetzungen) verwendet, die weit über Systeme wohlmeinender Empfehlungen hinausgehen? Dass totalitäre politische Systeme die umfassenden Kenntnisse und Einblicke in die Privatsphäre der Nutzer missbrauchen und sich der Kontroll- und Beeinflussungsmöglichkeiten zu bedienen versuchen, ist zwar naheliegend, aber nicht akzeptabel. Politische Systeme, für die Grund rechte, Persönlichkeitsrechte und der Schutz der Privatsphäre konstitutiv und fundamental sind, müssen und können die technischen und algorithmischen Entwicklungen und deren Anwendungen so begrenzen, dass diese Rechte nicht verletzt werden.

Sicherheit und Freiheit

Die Politik muss auch hier die richtige Balance finden zwischen Sicherheit und angemessener, begrenzter Überwachung auf der einen und Freiheit und Schutz der Privatsphäre auf der anderen Seite – und durch eine adäquate Gesetzgebung gestalten. Doch dazu müssen die Politik, das Parlament und die Rechtsprechung die digitalen, algorithmischen Entwicklungen und Gefährdungen verstehen – nicht im Detail, aber im Prinzip.

Bloß: Wie kann dieses Verständnis erreicht werden? Es besteht immer die Gefahr, dass die Politik und die Gesetzgebung zu spät kommen und den technologischen Entwicklungen hinterherlaufen. Der Dialog zwischen Politikern und Technologen ist in Bezug auf die digitale Entwicklung beides: äußerst wichtig und äußerst mühsam. Alle Parteien, viele Politiker reden über die "Digitalisierung". Aber wissen sie, was sie damit meinen? Nach Jahren ernüchternder Bemühungen, die Politik zu beraten, halten viele Experten die algorithmische Aufklärung der politischen Instanzen, der Medien und der allgemeinen Öffentlichkeit für überaus dringend und überfällig.

Und diese Aufklärung muss, womit wir wieder bei unserem Einstiegsbeispiel vom kleinen Einmaleins wären, in der Schule anfangen: Zur Medienkompetenz der Schülerinnen und Schüler gehören Basiskenntnisse über die technologischen Grundlagen des Digitalen und ein fundiertes Verständnis für die Möglichkeiten und Grenzen, Chancen und Gefahren der aktuellen algorithmischen Entwicklungen, insbesondere im Bereich der Künstlichen Intelligenz.

 

Link zum Artikel


Algorithmen II: Auf dem Weg zur künstlichen Intelligenz

In der vergangenen Woche haben wir uns ganz allgemein mit Algorithmen beschäftigt. Doch wie werden Algorithmen konstruiert? Wie sind sie aufgebaut? Das wollen wir an Hand von zwei Anwendungen erläutern und in Teil 2 unserer prisma-Serie deutlich machen, dass man sich algorithmisches Verständnis und eine algorithmische Denkweise recht einfach zu eigen machen kann.

Ein praktisches Beispiel für die Arbeit von Algorithmen ist das Sortieren. Jeder Mensch hat eine intuitive Vorstellung davon, wie Objekte sortiert werden können, seien es Spielkarten, Namen oder Zahlen. Wir stellen jetzt unserem Computer die Aufgabe, die Bücher in einem Regal alphabetisch nach Autorennamen zu sortieren. Klingt einfach. Ist es eigentlich auch.

Dazu brauchen wir einen Algorithmus. Als Erstes muss der beim Vergleich von zwei Namen entscheiden können, welcher Name vor dem anderen platziert wird. Dann können wir wie folgt verfahren: Wir fangen vorne an, vergleichen den ersten mit dem zweiten Namen, ordnen sie alphabetisch, vergleichen dann den (eventuell neuen) zweiten mit dem dritten Namen, ordnen sie alphabetisch, vergleichen den (eventuell neuen) dritten mit dem vierten und fahren so fort, bis wir das Ende der Liste erreicht haben.

Die neue Liste ist nun noch nicht vollständig alphabetisch, aber wir stellen fest, dass der letzte Name wirklich der alphabetisch gesehen letzte ist. Dass das so sein muss, ist eine kleine Denksportaufgabe: Wem diese Überlegung zu mühsam ist, der probiert es einfach aus – etwa mit Namenskärtchen oder Spielkarten. Nun muss der Algorithmus mit der Liste wieder vorne anfangen. Er vergleicht und sortiert den ersten und den zweiten Namen, den zweiten und den dritten und so weiter, bis er am vorletzten Namen angekommen ist: Der ist dann auch der vorletzte im Alphabet – mit der gleichen Überlegung wie oben. Im dritten Durchlauf ergibt sich dann als drittletzter Name der alphabetisch richtige. Und so geht es weiter, Durchlauf für Durchlauf, bis am Ende nur noch der erste mit dem zweiten Namen verglichen und eventuell vertauscht wird. Damit ist der Algorithmus beendet – und die Liste ist vollständig sortiert.

Googles berühmter “PageRank”

Die Erfahrung zeigt, dass Schüler diesen Algorithmus (in der Informatik als “Bubblesort” bekannt) schon in der Grundschule verstehen können und dass ihn meist einige von ihnen sogar selbst “erfinden”. In der Praxis aber spielt er keine große Rolle, weil es bessere, schnellere Algorithmen für die gleiche Aufgabe gibt. Bubblesort ist aber geeignet, eine Ahnung von der algorithmischen Denkweise zu vermitteln, und lässt sich mit einer Programmiersprache in wenigen Zeilen programmieren.

Ein weiteres Beispiel für einen Algorithmus ist der sogenannte “PageRank”. Gibt man bei Goo gle einen Begriff ein, sortiert der “Google-Algorithmus” die Seiten, die für diesen Begriff von Bedeutung sind. Doch wie wird die Reihenfolge der Suchergebnisse festgelegt? Natürlich kennen wir den “Page Rank”- Algorithmus nicht in all seinen Details, er ist ein von Google wohlgehütetes Betriebsgeheimnis. Aber einiges ist bekannt und plausibel – so plausibel, dass man durchaus selbst darauf kommen kann.

Zunächst ist plausibel, dass eine Seite umso wichtiger ist, je mehr andere Seiten auf sie verweisen, mit anderen Worten: Die Anzahl der “In-Links” ist wesentlich. Nun sind aber sicher nicht alle In-Links gleich wichtig, sondern wiederum sind die “Links” als wichtiger zu bewerten, die ihrerseits von einer “wichtigen” Seite ausgehen. Hier kommt etwas ins Spiel, das die Informatiker “Rekursion” nennen, wodurch die Angelegenheit unübersichtlich zu werden scheint: Die Wichtigkeiten hängen voneinander ab – und werden von den Wichtigkeiten einer möglicherweise riesigen Anzahl vernetzter Seiten mitbestimmt. Macht man sich klar, dass es mittlerweile viele Milliarden von in Frage kommenden Seiten gibt, kann man sich vorstellen, dass man es mit einem extrem großen System von bewerteten Links zu tun hat. Mit diesem System, das sich zudem wegen der Dynamik des Internets dauernd verändert, muss ein brauchbarer Algorithmus fertig werden.

Auch Algorithmen können lernen

Die Annahmen, die wir hier gemacht haben, sind stark vereinfacht. Die tatsächlichen Algorithmen berücksichtigen eine Vielzahl (Hunderte) weiterer Bedingungen (“Parameter”). Schließlich – und das ist faszinierend und in seinen Auswirkungen zugleich vielleicht nicht unbedenklich – berücksichtigen sie die Vorgeschichte, das individuelle Suchverhalten – und damit die Gewohnheiten und die vermuteten Interessen des Nutzers. Mit diesem Element der Individualisierung, das wir von der – vielleicht oft nützlichen, aber manchmal auch nervigen – Empfehlungsformulierung “Das könnte Sie auch interessieren …” kennen, gehört der entsprechend erweiterte PageRank-Algorithmus zu den sich anpassenden, “selbstlernenden” Algorithmen.

 

Link zum Artikel


Algorithmen I: Die DNA unserer digitalen Welt

Algorithmen sind in aller Munde, sie steuern unsere gesamte Elektronik – vom Smartphone bis zum Atomkraftwerk. Und: Sie gelten als übermächtig, für manche sogar als manipulativ und gefährlich. Doch was sind Algorithmen eigentlich? Welchen Nutzen haben sie – und welche Risiken bergen sie? Das klären wir in unserer neuen, dreiteiligen prisma-Serie.

Wie man multipliziert, addiert oder dividiert, wissen wir noch aus der Schule. Addition, Multiplikation und Division sind Rechenverfahren, die jeder kennt. Und genau solche einfachen Rechenverfahren sind typische Beispiele von Algorithmen. Das mag verwundern, weil sich viele darunter etwas viel Komplizierteres, Unverständliches vorstellen. Vor allem macht vielen Menschen Angst, was man über "die Algorithmen" liest: Sie wissen alles, sie beherrschen uns, treffen lebenswichtige Entscheidungen, ohne dass wir es merken, sie kennen unsere Vorlieben und Schwächen und wissen viel mehr über uns als unsere Partner. Sie können Handlungen vorhersagen, und natürlich sind sie bei weitem intelligenter als wir. Kurz: Algorithmen wird eine ungeheure Macht zugeschrieben. Und schon das Wort "Algorithmus" ist vielen irgendwie unheimlich. Aber stimmt dieses Bild? Da gibt es doch die vielen digitalen Geräte, die unser Leben bequemer und sicherer machen, uns Arbeiten abnehmen, Kommunikation ermöglichen, Wissen zugänglich machen, Fragen beantworten. Wir haben Zugriff auf eine Fülle von Apps, die uns begleiten, unsere Schritte zählen, uns den günstigsten Weg weisen, auf unsere Gesundheit und unsere Ernährung aufpassen, uns unterhalten, informieren, uns Einkaufsmöglichkeiten, Hotels und Flüge, aber auch passende Partner empfehlen. Und auch hier sind es Algorithmen, die – als Computerprogramme – im Inneren der Geräte und Apps dafür sorgen, dass uns alle Funktionen jederzeit zur Verfügung stehen. Sind das nicht erfreuliche Entwicklungen, die wir nicht mehr missen möchten? Also was denn nun? Sind diese unsichtbaren, geheimnisvollen Algorithmen überwiegend hilfreich oder doch eher gefährlich und bedrohlich? Und: Was sind Algorithmen denn nun überhaupt?

Befehlsketten für Computer

Das Wort "Algorithmus" geht auf den Namen des Universalgelehrten Al-Chwarizmi zurück, der um 800 nach Christus in Bagdad lebte und unter anderem Rechenmethoden lehrte. Etwas vereinfacht sind Algorithmen Vorschriften dafür, wie man eine Aufgabe in Einzelschritten lösen kann, meist eine festgelegte Reihe von Anweisungen, die einem Computer sagen, was er tun soll. Oder genauer: Ein Algorithmus ist eine präzise, eindeutige, aus endlich vielen Einzelanweisungen bestehende Handlungsvorschrift zur Lösung eines Problems oder einer Gruppe von Problemen, die "terminiert" – was bedeutet, dass die Handlung auf jeden Fall zu einem Ende kommt und nicht endlos weitergeht. In diesem Sinne ist auch ein detailliertes Kochrezept ein Algorithmus (nicht aber eine bloße Zutatenliste), ebenso eine bildliche Aufbauanleitung für ein Regal oder eine eindeutige Wegbeschreibung.

Ohne Algorithmen geht nichts

Doch welche Rolle spielen Algorithmen bei der "digitalen Transformation" oder Revolution, die mit Schlagworten wie Big Data, Industrie 4.0, Smart City, Internet der Dinge oder Künstliche Intelligenz beschrieben wird? Diese Transformation bezieht sich erstens auf die Computer, zweitens auf die Verbindungsnetzwerke zur Datenübertragung, drittens auf die Datenbestände und viertens auf die Algorithmen: Computer werden immer schneller und leistungsfähiger – ein Smartphone ist heute ungefähr so leistungsfähig wie der schnellste Computer vor 30 Jahren.

Bei den Datennetzen besteht in Deutschland zwar noch Nachholbedarf, die Bundesregierung verspricht für die nächsten Jahre aber Durchbrüche dank Glasfasernetzen. Auch die unermesslichen Datenbestände wachsen explosiv; mit allem, was wir tun, hinterlassen wir Datenspuren, etwa wenn wir ein Smartphone benutzen oder es auch nur bei uns haben. Und die Algorithmen laufen unsichtbar und lautlos im Innern der digitalen Geräte und steuern alles: Ohne Algorithmen geht digital nichts. Und es ist die ständig anwachsende Datenfülle, aus der mit Hilfe immer besserer Algorithmen weitestgehende Schlüsse gezogen werden können – über unser gesamtes Leben, das öffentliche und das privateste.

Diese "intelligenten" Algorithmen gelten – insbesondere in den Medien – deshalb als übermächtig, als in ihren Auswirkungen nicht mehr beherrschbar. Und sofort stellt sich die Frage nach Gut oder Böse. Dazu ganz grundsätzlich: Diese Frage lässt sich für Algorithmen genauso wenig beantworten wie die Frage nach der Gut- oder Bösartigkeit einer mathematischen Formel oder eines Werkzeugs – es ist mit den Algorithmen wie mit dem Messer, das so nützlich und unverzichtbar im Alltag ist, aber auch als Mordinstrument verwendet werden kann. Dem entspricht, dass der gleiche Algorithmus sowohl für humane als auch für ungesetzliche, menschenverachtende Zwecke eingesetzt werden kann. Nehmen wir als Beispiel einen Bild erkennungsalgorithmus, der, je nachdem, auf welche Daten er angewendet wird, zur gesetzwidrigen, unsere Privatsphäre missachtenden Ausspähung oder zur lebensrettenden Erkennung von Krankheiten eingesetzt werden kann.

 

Link zum Artikel