Warum plötzlich alles anders ist: Die Digitalisierung führt zu einer Phase rapider Innovationen und Marktumwälzungen. In unserer Essay-Reihe blickt Philipp Bouteiller auf die dahinter liegenden Trends und Technologien und beleuchtet, was diese für die Menschen bedeuten. Im vierten Akt dreht sich alles um Schach, menschenrettende Roboter und um Maschinen, die sich selber Dinge beibringen.
„Artificial Intelligence“ (AI) oder „Künstliche Intelligenz“ (KI) ist der vermutlich ambivalenteste Teil dieser Betrachtung. In jüngster Zeit hat es verblüffende Fortschritte gegeben, die „intelligente“ Maschinen in greifbare Nähe rücken lassen.
Von 2012 bis 2015 gab es einen großen Robotik Wettbewerb der Amerikanischen Militärforschungsbehörde DARPA. Dabei ging es um den Einsatz von Robotern in Katastrophengebieten, und die Roboter sollten in der Lage sein, im Katastrophenfall erforderliche Dinge zu tun, wie mit einem Auto zu fahren, über Geröll zu gehen, eine Tür zu öffnen, einen Schlauch an einen Hydranten anzuschließen. Es gibt sehr kurzweilige Videozusammenschnitte auf YouTube, die eindrücklich das Scheitern der meisten Roboter an diesen scheinbar simplen Aufgaben demonstrieren.
Damals dachten viele, wir seien noch weit entfernt von der nächsten Generation wirklich intelligenter Roboter. Doch mittlerweile gibt es dramatische Fortschritte und Laborexperimente aus den Bereichen Robotik und Künstliche Intelligenz, die uns das Gegenteil beweisen. So hat beispielsweise Boston Dynamics die „Next Generation“ der Robotik ausgerufen, die mit den Kinderkrankheiten ihrer Vorgänger nichts mehr gemein hat.
Großartige technische Fortschritte, sicher, doch kann diese Entwicklung auch nachdenklich stimmen. Wir wissen, dass jede Technologie, die missbraucht werden kann, mittelfristig auch missbraucht werden wird. Das führt uns in einen Bereich ethischer Betrachtung, der schon Science-Fiction Autoren wie Isaac Asimov Mitte des letzten Jahrhunderts ins Grübeln brachte: Wie stellen wir sicher, dass sich Maschinen nicht gegen Menschen wenden, wenn sie uns irgendwann mal überlegen sein werden? So entstanden die Asimov’schen „Robotergesetze“, die seither Grundlage unseres Denkens geworden und auch in vielen Science-Fiction-Filmen präsent sind:
1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Jeder militärische Roboter wird aber vorsätzlich gegen diese Gesetze verstoßen, wird zwischen Freund und Feind unterscheiden. So werden wir bei zukünftigen Robotern möglicherweise nicht mehr sicher sein können, ob sie sicher sind.
Deshalb gibt es ernstzunehmende Stimmen aus dem Zentrum der Zukunftsentwicklung, wie z.B. von Elon Musk, dem visionären Gründer von Space-X und TESLA Automotive, Steve Wozniak, einem Mitgründer von Apple, aber auch Astrophysikern wie dem kürzlich verstorbenen Stephen Hawking, die davor warnen, zukünftig alle Entscheidungen Maschinen zu überlassen. Grundsatzentscheidungen muss immer der Mensch treffen, die Maschine darf dabei lediglich unterstützend wirken, z.B. durch die Analyse komplexer Daten. Man stelle sich nur eine Drohne vor, die autonom fliegt und eigenständig Menschen tötet, ohne dass ein autorisierter Soldat dazu den Befehl gegeben hätte. Dazu darf es nicht kommen – und wir sind nicht mehr weit davon entfernt. Das stellt uns vor drängende normative Herausforderungen.
Computer besiegen inzwischen die weltbesten Spieler im Schach und sogar dem wesentlich komplexeren chinesischen Spiel Go. War das Unterliegen Garri Kasparows im Schach gegen „Deep Blue“ 1996 noch dem Computergiganten IBM und dessen Großrechnerkapazitäten geschuldet, hat sich mittlerweile einiges geändert.
Das ist auch ein paar Computerwissenschaftlern aus London zu verdanken, die vor einigen Jahren eine Firma gegründet haben, die inzwischen von Google (Alphabet) gekauft wurde: DeepMind. Die KI-basierten „Deep-Learning“ Algorithmen haben eine neue Phase der Künstlichen Intelligenz eingeläutet: Die Maschine trainiert sich selber und findet, basierend auf simplen Regeln, immer klügere Wege, ein Spiel zu gewinnen. Das funktioniert zwar noch nicht bei allen Spielen, ist aber trotzdem beeindruckend.
Auch die computerbasierte Bilderkennung wird immer besser. Facebook nutzt neuerdings auf neuronalen Netzen basierende Systeme, die in der Lage sind, die bunten Pixel (Bildpunkte) eines Fotos so zu interpretieren, dass sie einem Blinden per Sprachausgabe beschreiben können, was auf dem jeweiligen Foto zu sehen ist. Das erscheint zunächst nicht revolutionär, erkennt doch jeder Mensch sofort, was auf einem Foto abgebildet ist. Wie aber kann eine Maschine aus bunten Punkten Bedeutung generieren? An diesem hoch komplexen Problem brüten Forscher seit Jahrzehnten, und auch hier sind es wieder die letzten Jahre, die zu Durchbrüchen geführt haben.
Es ist kein Zufall, dass viele dieser Ansätze beinahe zeitgleich auftauchen. Es ist die Folge der eingangs beschriebenen enorm gesteigerten Rechenkapazitäten und des intensiven Austauschs von Informationen innerhalb der wissenschaftlichen Zunft, die diese beachtlichen Fortschritte ermöglichen. Genau deshalb verweisen viele Forscher, Philosophen und Politiker auf das bevorstehende Zeitalter der Künstlichen Intelligenz, und genau deshalb gibt es mittlerweile ernsthafte Stimmen, die uns vor unserer Ausrottung durch von uns selbst geschaffenen Systemen warnen.
Noch sind wir aber nicht ganz so weit. Computer sind nach wie vor nicht originär kreativ, sie können auch nicht überzeugend Gespräche führen, die über simple Aufgaben wie eine Terminbuchung im Restaurant hinausgehen. Ihnen fehlen Empathie und Emotionalität, echter Humor und die Schlagfertigkeit und Offenheit, die wir an unseren Freunden so schätzen.
Und doch sind sie inzwischen in der Lage, unsere Stimmung anhand weniger gesprochener Sätze so präzise zu erfassen, dass Suizidgefährdung recht zuverlässig erkannt werden kann. In der Diagnose einfacher Krankheiten sind sie schon besser als Allgemeinärzte, die Bilddiagnostik im radiologischen Bereich wird immer besser, Hautkrebs kann schon jetzt zuverlässiger automatisch erkannt werden als vom Hautarzt. Es gibt Hotels, die inzwischen nur noch Roboterbutler für den Zimmerservice haben. Im Pflegebereich werden immer mehr Roboter eingesetzt, derzeit noch, um die Pfleger bei ihrer Arbeit zu unterstützen. Investmententscheidungen, die von Maschinen getroffen werden, sind schon jetzt oftmals besser als die ihrer menschlichen Kollegen.
So wirklich weit sind wir also vielleicht doch nicht mehr entfernt von den intelligenten Maschinen.
Der 5. Akt der Essay-Reihe erscheint in 2 Wochen.