MAGAZINE

Künstliche Intelligenz | Was soll das denn sein?!

Dem Volksglauben nach wurde der Golem im 16. Jahrhundert als Homunkulus dargestellt, der in Zeiten der Verfolgung als Beschützer des Volkes fungierte. Heute und in der modernen Literatur wird der Homunkulus Paracelsus (um 1530) als dämonischer Helfer zugeschrieben. Laut dem polnischen Science-Fiction-Autor Stanislaw Lem müssen Maschinen nicht unbedingt etwas produzieren oder die ganze Welt zerstören. Gemeinsam ist ihnen, dass es sich um künstliche Maschinen (oder menschenähnliche Gebilde) handelt, die das bisher für unmöglich Gehaltene Wirklichkeit werden lassen, intelligent sind, denken können und manchmal sogar Gefühle haben. Fast so, wie wir uns heute die Zukunft der künstlichen Intelligenz vorstellen.

Im Sommer 1956 wurde der amerikanische Wissenschaftler John McCarthy zu einer Konferenz am Dartmouth College in Hanover, New Hampshire, eingeladen. Unter dem Projektnamen „Dartmouth Summer Research Project on Artificial Intelligence“ trafen sich führende Mathematiker zu einem sechswöchigen Workshop, um über die Möglichkeiten der Künstlichen Intelligenz nachzudenken. Die Diskussion ging als der Urknall der KI in die Geschichte ein. Ein neuer Begriff war geboren: Künstliche Intelligenz, und der Rest ist, wie man so schön sagt, Geschichte.

Aber die „Geschichte“ begann schon viel früher. Mathematik, Methoden und Systematik werden seit Hunderten von Jahren entwickelt und gelten heute als Grundlage der Algorithmen. Damals waren die Gründe für die Entwicklung ganz andere. Alle anerkannten Größen von Bernoulli über Leibniz bis Newton waren an der entsprechenden Forschung beteiligt.

Jakob Bernoulli entwickelte im 16. Jahrhundert eine Methodik, um Wahrscheinlichkeiten mathematisch auszudrücken. Er beschrieb die Bernoulli-Zahlen mit Hilfe seiner Potenzreihen und brachte damit die erste mathematische Wahrscheinlichkeitsrechnung zum Ausdruck. Viel später und lange nach seinem Tod sollte diese Methode wieder auftauchen. Eigentlich hatte er ein ganz einfaches Ziel. Er wollte das beliebte Würfelspiel mathematisch ausdrücken und damit gewinnen können.

Leibnitz hingegen entwickelte zur gleichen Zeit wie Newton die Differentialrechnung. Zu ihrer Zeit galt sie als mathematische Revolution. Ohne diesen Scharfsinn hätten viele der heutigen Rechensysteme nicht existieren können, vor allem nicht als Variante bei der Implementierung und Anwendung neuronaler Netze, der Grundlage dessen, was wir heute künstliche Intelligenz nennen. Leibnitz aber war seiner Zeit weit voraus. Er gilt als Pionier seines Fachs, denn er war einer der ersten, der den Begriff der denkenden Maschine erdachte. Er legte sozusagen den Grundstein und grenzte sich zum ersten Mal von der literarischen und philosophischen Welt ab, die den Golem ans imaginäre Tageslicht brachte.

Was versteht man unter Lernen? Ein kleiner Vergleich aus der Informatik

Wenn ein dreijähriges Kind einen Ball auf den Boden wirft, muss es warten, bis der Ball vom Boden zurückprallt, um ihn aufzufangen. Diese Erfahrung wurde spielerisch gemacht, und auch wenn das Kind nicht versteht, dass die grundlegenden Axiome von Isaac Newton für diese Aktion verantwortlich sind, wird es die Aktion-Reaktion in der Praxis testen. Diese Erfahrung, die es gemacht hat, wird es nicht im Stich lassen. Der Ball wird zurückprallen; dafür braucht man die physikalischen Regeln nicht zu kennen.

Der erste ernsthafte Schachcomputer wurde 1979 von Ken Thompson und Joe Condon in den Bell Laboratories in New Jersey entwickelt. Belle war eine fest verdrahtete Maschine und konnte mit der damals verfügbaren Computerleistung 180.000 Stellungen pro Sekunde erzeugen. Zur gleichen Zeit arbeitete Robert Hyatt an Blitzen. Im Jahr 1979 erhielt er die Möglichkeit, sein Programm auf der Cray-1 zu testen. Der Cray-1 war zu dieser Zeit der schnellste Computer der Welt, konnte Belle aber trotzdem nicht schlagen.

Hier haben wir einige elementare Faktoren: Die Fähigkeiten des Algorithmus konnten nicht durch die Rechenleistung eines schwächeren Programms geschlagen werden. Alle diese Spielcomputer arbeiteten auf einer regelbasierten Grundlage. Sie wurden nach den Regeln des Spiels programmiert. Obwohl dies in Wirklichkeit intelligent erscheinen mag, hat es nichts mit dem zu tun, was wir heute unter „künstlicher Intelligenz“ verstehen.

Anderes Spiel, andere Zeit: Go

Im September 2015 hat AlphaGO, ein Computer von Google DeepMind, das chinesische Brettspiel Go in einer Partie gegen den Europameister Fan Hui gewonnen. Hier muss ich darauf hinweisen, dass AlphaGO die Regeln von Go nicht kennt, da seine Programmierung anders funktioniert. Es basiert auf der Erfahrung aus Millionen von Go-Spielen, die der Computer durch das Spielen gegen sich selbst verbessern konnte. AlphaGO erreichte eine erstaunliche Vorhersagequote von 57%. Der Computer arbeitet also mit Erfahrungen, die aus einem Datenspeicher stammen. Im Bereich der künstlichen Intelligenz würden wir dies als „Grundwahrheit“ bezeichnen – eine Sammlung von Daten, die sich als richtig erwiesen hat. Die Spielregeln wurden für den Computer irrelevant, da er das Spiel durch Beobachtung und Anwendung dieser Erfahrungen lernte. Erinnern Sie sich an das Beispiel des Kindes mit dem Ball? Hier zeigt sich, wie alles zusammenhängt. Das Kind weiß nichts über Physik, aber es weiß instinktiv, wie sich der Ball verhalten wird. Das heißt, es lernt.

2016 gewann ein Computer von Google DeepMind vier von fünf Spielen in einem verteilten Computernetzwerk gegen den amtierenden Weltmeister in GO. Das System bestand aus 1202 CPUs und 176 GPUs.

Das iPhone1 aus dem Jahr 2007 hatte die gleiche Rechenleistung wie das gesamte Hardwaresystem, mit dem die Menschheit zum ersten Mal den Mond erreichte. Künstliche Intelligenz ist möglich, weil wir die Rechenleistung haben und die Daten in das System einspeisen können. Die mathematischen Grundlagen dafür sind schon seit Hunderten von Jahren bekannt. Wenn wir heute Begriffe wie „evolutionäre Algorithmen“ hören, ist es nicht der Algorithmus, der lernt, indem er sich verändert, sondern die Datenbank und seine Ausgangsposition. Der Rest ist eine Anwendung bekannter mathematischer Prinzipien in einer spektakulär hohen Zahl. Es ist nicht mehr, aber auch nicht weniger.

 

 Jürgen Schmidt

You may also like

Subscribe To Our Newsletter

Get notified about new articles