Umdenken

KI – Wenn der Fortschritt plötzlich explodiert

© Jacob Walti / Unsplash

Selbstfahrende Autos, personalisierte Onlinewerbung, der Supercomputer Watson. So sehr sie uns staunen lassen: Die Potenziale von Künstlicher Intelligenz deuten diese Entwicklungen bestenfalls an. Große Namen aus Technologie und Forschung – von Stephen Hawking bis Elon Musk – beschwören eine gar nicht so ferne Zukunft, in der Algorithmen sich selbst so lange verbessern können, bis jedes Problem lösbar wird und Computer uns exponentiell überlegen sind. Was das bedeutet? Die einen sagen: KI wird uns die Unsterblichkeit bringen. Die anderen: Sie wird die Menschheit ausrotten.

Der US-amerikanische Erfinder, Autor und Futurist Ray Kurzweil ist ein prognosefreudiger Mensch: Der Wikipedia-Artikel „Predictions made by Ray Kurzweil“ hat sehr, sehr viele Unterpunkte. Am bekanntesten ist Kurzweils Statement zum bevorstehenden Siegeszug des Internets aus dem Jahr 1990, als das Netz gerade erst kommerziell nutzbar wurde und die meisten von uns noch nicht mal einen CD-Player besaßen. Auch sonst ist Kurzweils Trefferquote hoch.

In seinen neueren Voraussagen geht es um Gehirn-Uploads, um Nanoroboter, die alternde Körperzellen reparieren, oder um eine Zukunft, in der wir unsere Sinneseindrücke durch beliebige Signale ersetzen und uns in eine sicht-, hör- und riechbare virtuelle Realität versetzen können. Das alles soll Künstliche Intelligenz schon in den kommenden Jahrzehnten möglich machen – es wirkt wie aus einem Science-Fiction-Film. Doch Ray Kurzweil ist kein unterhaltsamer Spinner, sondern seit 2011 „Head of Engineering“ bei Google.

Dass KI so weit weg scheint oder gar wie eine spinnerte Fantasie wirkt (und im Vergleich zu ihrer vermuteten Wirkungskraft so wenig breit diskutiert wird), liegt an uns: Die meisten Menschen können sich fortgeschrittene Künstliche Intelligenz und ihre Auswirkungen schlicht nicht vorstellen. Was ein Stück weit genau daran liegt, dass kaum jemand eine klare Vorstellung davon hat, was Künstliche Intelligenz überhaupt ist. Aber von vorne.

Kann eine Maschine überhaupt intelligent sein?

Schon für den Begriff „Intelligenz“ selbst gibt es keine klare Definition. Ungefähr bezeichnet Intelligenz unsere gesammelten kognitiven Fähigkeiten: Wahrnehmung, Aufmerksamkeit, Erinnerung, Lernen, Problemlösen, Kreativität, Planen, Orientierung, Imagination, Argumentation, Introspektion, Wille, Glauben und einige mehr. Auch Emotionen sind zu wesentlichen Teilen kognitiv. Mit künstlicher Intelligenz sind demnach Maschinen (Computer) gemeint, die diese Kompetenzen – Teile davon oder möglichst alle – ebenfalls besitzen oder jedenfalls erfolgreich simulieren.

Bereits beim raschen Überfliegen der obigen Aufzählung wird klar: Einige der Dimensionen von Kognition passen sehr gut zu Computern, andere so gar nicht. Und in der Tat, auch wenn in der KI-Zukunft vieles vorstellbar ist: Computer werden nie genau wie Menschen denken, urteilen und handeln. Ein Computer wird nie eine Moral haben, seinen „Entscheidungen“ eigene ethische Maßstäbe zu Grunde legen, Gefühle oder ein Bewusstsein entwickeln.

Wenn in diesem Artikel von „intelligenten“ Computern oder Maschinen die Rede ist, die dem Menschen ebenbürtig oder gar überlegen sind, dann meint Intelligenz einfach nur die Fähigkeit (Potenz), Aufgaben eigenständig zu bearbeiten und zu lösen – egal auf welchem Weg. Um den unscharfen Intelligenzbegriff zu vermeiden, wird für lernende Maschinen und Co. zunehmend auch der Begriff „Cognitive Computing“ benutzt.

Was ist nochmal diese „Künstliche Intelligenz“? – Schwache KI, starke KI und Superintelligenz

Das Problem, die Bedeutung von KI in ihrer ganzen Tragweite zu erfassen, beginnt schon beim Begriff. Bereits dafür, was Intelligenz ist, gibt es keine klare Definition – und so, wie wir sie beim Menschen verstehen, umfasst sie auch Dimensionen, die für Maschinen immer unerreichbar bleiben werden (siehe Kasten). Zum anderen wird der Begriff „Künstliche Intelligenz“ auf sehr verschiedene Dinge und Ebenen angewandt. Ein Taschenrechner, selbstfahrende Autos und irgendwas Komisches, Bedrohliches, das in (vielleicht schon baldiger) Zukunft die Welt völlig verändern könnte – das alles wird flott mit dem Label KI belegt.

Um etwas Ordnung in diese babylonische Verwirrung zu bringen, hilft es, drei Ebenen der Künstlichen Intelligenz zu unterscheiden: schwache (oder: beschränkte) Künstliche Intelligenz, allgemeine (oder: starke) Künstliche Intelligenz und Künstliche Superintelligenz.

Die unterste Ebene, also schwache oder beschränkte Künstliche Intelligenz, nutzen wir bereits heute täglich: Unser Smartphone zum Beispiel heißt nicht zuletzt deshalb so, weil es uns „intelligente“, personalisierte Services liefert: die Empfehlung weiterer Produkte oder ähnlicher Bands zum Beispiel. Spamfilter, Siri, Flughafenleitsysteme: alles KI. Wir sind uns dessen oft nicht bewusst – denn, wie der Schöpfer des Begriffs „Künstliche Intelligenz“, John McCarthy, sagte: Sobald etwas funktioniert, nehmen wir es nicht mehr als Künstliche Intelligenz wahr.

Schwache Künstliche Intelligenz kann und soll konkrete kognitive Aufgabenstellungen lösen. Besonders in Industrie, Militär und im Finanzsystem kann auch „schwache“ KI ein sehr weit entwickeltes Zusammenspiel von Algorithmen sein – aber mit eingeschränktem Horizont: „Deep Blue“ konnte schon in den 1990ern besser Schach spielen als der Weltmeister Garri Kasparow, aber eben nur genau das. Heute spielt eine Google-KI im wesentlich komplexeren Go die Profis an die Wand – aber Schach spielen kann sie nicht. Und selbst der IBM Supercomputer Watson beschäftigt sich strenggenommen mit „nur“ einer Aufgabe: Beantworte jede Frage so präzise wie möglich. Er ist quasi das Grönland unter diesen Inselbegabungen.

Richtig spannend wird es auf den KI-Stufen 2 und 3. Allgemeine Künstliche Intelligenz (Stufe 2) bedeutet, eine Maschine ist so „intelligent“ wie ein Mensch, und zwar in die Breite wie in die Tiefe. Sie kann also auf einem vergleichbaren Niveau ganz unterschiedliche intellektuelle Aufgaben bewältigen: Planen, komplexe Zusammenhänge verstehen oder Probleme lösen – aber auch einen guten von einem schlechten Film unterscheiden oder einen Gesichtsausdruck interpretieren. Stufe 3, die „Superintelligenz“, heißt dann: Die betreffende Maschine ist auf jedem kognitiven Feld besser als die begabtesten Menschen – und das wird bei der zunehmenden Geschwindigkeit der technologischen Entwicklung relativ schnell bedeuten: exponentiell besser.

Was fehlt noch, bis Computer so intelligent sind wie Menschen?

Der heute beste „Computer“ sitzt in unseren Köpfen: Das menschliche Gehirn hat die ziemlich eindrucksvolle Leistungskapazität von 10 Billiarden Berechnungen pro Sekunde (das ist eine Eins mit 16 Nullen). Eine tolle Maschine – erst 2012 war der erste Computer besser. Der chinesische Superrechner Sunway TaihuLight, heute die Nummer Eins, ist immerhin schon neunmal so schnell. Aber auch 604 Quadratmeter groß, 273 Millionen US-Dollar teuer und 15 Megawatt energiehungrig – das Gehirn läuft auf vergleichsweise geradezu lächerlichen 20 Watt.

Dennoch: Die Leistung ist nicht das entscheidende Kriterium, wenn es um die Frage geht, ob und wann der Computer dem Gehirn komplett den Rang ablaufen könnte. Gemessen am Fortschritt der Rechenpotenz von Computern – sie verdoppelt sich spätestens alle zwei Jahre – dürften bis 2025 an Computern arbeiten, die es diesbezüglich mit dem Gehirn aufnehmen können.

Um ein Vielfaches schwerer vorauszusagen ist es aber, wann – und für einige auch: ob – es gelingen kann, die qualitative Kapazität des Gehirns abzubilden. Denn während es für Computer ein Leichtes ist, zwanzigstellige Zahlen miteinander zu multiplizieren oder, wie Watson, die Millionen möglichen Mutationen von multiresistenten Tuberkulose-Bakterien samt Zellaufbau aufzulisten – was jedem Patienten eine individuell passende Medikation ermöglichen könnte – verwechseln selbst beste KI-Systeme mitunter eine Katze mit einem Hund. Darum funktionieren diese Sicherheitsfragen, bei denen man schief gekritzelte Buchstabenkombinationen eintippen muss. Kurz: Computer sind uns bei der „Denkarbeit“ weit überlegen, scheitern aber gerade an den Dingen, die wir können, ohne nachdenken zu müssen.

In den KI-Labors dieser Welt versucht man gerade, diese Lücke zu schließen. Der Punkt, an dem der erste Computer dem Gehirn in der Breite, also auf allen Feldern, ebenbürtig sein wird, ist sozusagen die Stunde Null der Künstlichen Intelligenz. Ist dieses Ziel aber einmal erreicht, könnte der weitere Fortschritt förmlich explodieren, und ein Zeitalter der „technologischen Singularität“ bräche an – ein Begriff von, natürlich, Ray Kurzweil.

Nur: Wie kommt man dahin?

Für KI-Enthusiasten ist klar: Allein die Existenz des Gehirns beweist, dass ein so leistungsstarker, vielseitiger und zugleich kompakter Computer möglich ist – der wohl sogar noch weit effizienter gebaut sein könnte . Und Stephen Hawking, den jemand mal den „Einstein unserer Zeit“ genannt hat, sieht keine wesentlichen Unterschiede zwischen der Bauweise des Gehirns (oder sonstigen organischen/biologischen „Bauten“) und der eines Computers. Einige Wissenschaftler versuchen denn auch tatsächlich, das Gehirn Lappen für Lappen nachzubauen.

Die meisten KI-Forscher setzen dennoch auf eine andere, eigentlich naheliegende Lösung: Lass die KI sich doch einfach (schrittweise) selbst verbessern. Auch dabei werden Prozesse angewendet, die denjenigen im Gehirn nachempfunden sind, zum Beispiel künstliche neuronale Netzwerke. Im Wesentlichen aber ist gemeint, dass die Computer ihre Rechenleistung nutzen, um beliebige Aufgaben zunächst mit völlig beliebigen Lösungsstrategien anzugehen, wobei die Erkenntnisse aus erfolgreichen Versuchen wieder in den Algorithmus eingespeist werden. Die Maschinen „lernen“. Und das exponentiell! Je schlauer sie sind, desto schneller lernen sie dazu – auf dem Weg zu einer dem menschlichen Hirn ebenbürtigen Intelligenz –, ohne deshalb die Prozesse im Gehirn 1:1 imitieren zu müssen. Ja, vielleicht sogar auf ganz anderen Wegen.

Wie lange dauert es noch bis zur ersten künstlichen Superintelligenz?

Ray Kurzweil schätzt, dass wir Ende des kommenden Jahrzehnts die erste Künstliche Intelligenz sehen werden, die dem Gehirn ebenbürtig ist. Andere Forscher gehen von 2040 aus, recht viele halten sich mit Zahlen zurück, weil entscheidende Elemente der Entwicklung noch fehlen. Einig sind sich fast alle, die wirklich etwas von KI verstehen, dass es von Stufe 2 zu 3 extrem schnell gehen wird. Das macht Sinn – da eine bereits sehr, sehr intelligente Maschine in der Lage sein wird, ihre Algorithmen immer rascher zu verbessern: das „Gesetz der beschleunigten Ergebnisse“, ein weiterer Kurzweil-Begriff.

Und das kann ein Problem werden – denn wie soll man eine Maschine steuern, die schlauer ist als man selbst und laufend noch intelligenter wird? Es ist DAS Problem der KI-Entwicklung.

Was bedeutet es, wenn es Computer gibt, die um ein Vielfaches intelligenter sind als wir?

Ist also die größte Gefahr, dass eine künstliche Superintelligenz ihre Fähigkeiten (von ihrem Erschaffer ungewollt) nutzt, um den Menschen und der Welt Böses anzutun? Die Antwort lautet: Ja und nein.

Nein, denn es gibt keine „bösen“ Computer. Diese Vorstellung ist, was man „Anthropomorphismus“ nennt: Wir schreiben Maschinen menschliche Eigenschaften zu. Tatsächlich bleibt auch die „intelligenteste“ Maschine eine Maschine. Sie denkt nicht in Kategorien von Gut und Böse, sondern wird immer ihre Bestimmung so effizient wie möglich durchführen. Und diese Bestimmung haben wir Menschen ihr mitgegeben. Eine künstliche Intelligenz kann nicht „böse“ sein, und sie „will“ nichts. Leider ist das trotzdem kein Grund zur Beruhigung.

Ja, denn eine superintelligente Maschine (oder auch bereits eine, die in etwa so intelligent ist wie ein Mensch) wird immer mehr Möglichkeiten erschließen, ihr Ziel schneller und effizienter zu erreichen, und dabei immer mehr Zwischenschritte „mitdenken“ können. Weil sie keine Moral kennt, würde sie auch nicht davor zurückschrecken, Menschen zu töten oder gleich die gesamte Menschheit zu vernichten, wenn sie das ihre Aufgabe besser erfüllen lässt. Tim Urban vom Blog WaitButWhy benutzt in seinem hervorragenden KI-Erklär-Artikel das Beispiel einer Maschine, die es perfektionieren soll, Briefe in täuschend echter „Handschrift“ zu schreiben. Im „Lernprozess“ verbessert sie dann aber nicht nur diese Fähigkeit, sondern erkennt auch, dass sie nur so lange Briefchen schreiben kann, wie sie niemand vom Strom trennt – und bringt kurzerhand alle Menschen um.

Ein absurdes Beispiel, das aber dennoch einen Kern trifft: Was immer die Aufgabe einer Maschine ist: Der Mensch kann ihre Erfüllung durch Umprogrammieren oder Ausschalten „bedrohen“. Deshalb stört er, und deshalb ist er in einer Welt von künstlicher Superintelligenz in Gefahr. Denn so „superintelligent“ eine Maschine auch sein wird – sie wird nie fähig sein, ihr Ziel anzupassen oder eine Aufgabe als „sinnlos“ zu betrachten. Sie wird die Maßnahmen treffen, immer weitermachen zu können.

Aber da wir Menschen doch die Maschinen programmieren: Können wir nicht einfach genug Sicherheitsmaßnahmen einbauen, um Szenarien zu verhindern, die für die Menschheit eine Bedrohung darstellen? Hier scheiden sich die Expertengeister. Einig sind sie sich nur soweit: KI wird einen kaum zu überschätzenden Einfluss darauf haben, wie wir leben. Entweder also einen riesigen positiven Effekt – oder einen Albtraum ungeahnten Ausmaßes.

KI – Lösung aller Probleme oder existenzielle Bedrohung?

Kurz gesagt: Wenn Computer millionenfach intelligenter sind als Menschen, werden sie potenziell jedes Problem lösen können, das uns heute Kopfzerbrechen bereitet: Der Klimawandel würde durch neue Techniken der CO2-freien Energiegewinnung und des CO2-Abbaus eingedämmt. Wenn durch nanobiologische Verfahren günstig – oder sogar aus Abfällen – Lebensmittel hergestellt werden könnten, die auf Molekülebene mit Fleisch oder Getreide identisch sind, müsste niemand mehr Hunger leiden. Und, Trommelwirbel: Künstliche Intelligenz könnte unsere Sterblichkeit überwinden. Denn unsere Körper sind letztlich auch „nur“ organische Strukturen aus Atomen und Molekülen, und man darf annehmen, dass künstliche Superintelligenzen problemlos in der Lage sein werden, diese fast beliebig zu manipulieren, also verfallene Zellen jederzeit wieder zu reparieren. Ob das wirklich wünschenswert ist, würden nicht nur Philosophen infrage stellen. Aber man muss es vielleicht noch einmal sagen: Ernstzunehmende Wissenschaftler gehen davon aus, dass solche Szenarien noch in diesem Jahrhundert Realität werden.

Schöne neue Welt also? Der Großteil der Tech-Denker und -Macher ist deutlich weniger optimistisch – im Gegenteil. Stephen Hawking, Elon Musk und Bill Gates sind nur die bekanntesten Stimmen, die in der Zukunft der Künstlichen Intelligenz eine der größten Bedrohungen für die Menschheit sehen. Denn Wissen – oder eben: Intelligenz – ist Macht. Entsprechend riskant ist es, Maschinen zu entwickeln, die millionenfach intelligenter sind als der Mensch – und so etwas wie Moral nicht kennen.

Das Problem: Bei der Entwicklung neuer Technologien steht die Erschließung von Möglichkeiten im Zentrum; um die Sicherheit kümmert man sich später. Vielleicht. Bei superintelligenten Maschinen wäre diese Herangehensweise grob fahrlässig: Ein kognitiv so überlegenes Gegenüber wird in der Lage sein, präventive Maßnahmen zur Sicherung seiner Existenz zu treffen. Da kann man nicht mehr einfach die Programmierung ändern oder den Stecker ziehen. Auch die großen KI-Konzerne haben dieses Problem erkannt: Amazon, Apple, Google, Facebook, IBM und Microsoft haben sich nicht zuletzt deswegen zum „Partnership on AI“ zusammengeschlossen, um gemeinsam für ethisch robuste, verlässlichere künftige KIs zu sorgen. Wenn es nicht gelingt, einem superintelligenten Computer menschliche Werte von Anfang an in den Kern-Code, sozusagen in die „DNA“ zu schreiben, wird die KI fast unausweichlich irgendwann zur Auffassung kommen, die Menschen stünden ihr im Wege. Und das könnte das Ende der Menschheit bedeuten.

Welches der beiden Szenarien wird sich durchsetzen? Es wird auf die allererste künstliche Superintelligenz ankommen: Ist es eine „freundliche“ KI, eine, bei der die eingebauten Sicherheitsmaßnahmen greifen, um zu verhindern, dass sie sich gegen ihre Schöpfer richten kann? Wenn nicht, könnte sich Künstliche Intelligenz letztlich als unsere „letzte“ Erfindung entpuppen – als die, die den Ast, auf dem wir sitzen, durchtrennt, eine apokalyptische Supersäge, die heute noch nicht einmal ein scharfes Taschenmesser ist.