Hat KI bereits eine Art Bewusstsein entwickelt? Forscher streiten darüber

Der Gründer von OpenAI behauptet, KI habe in einzelnen Fällen bereits Bewusstsein erlangt. Das ist vielleicht nicht so weit hergeholt, wie viele meinen.

In Pocket speichern vorlesen Druckansicht 294 Kommentare lesen
Artificial,Intelligence,With,Virtual,Hanging,Head,On,Podium.,Global,World

(Bild: Andrey Suslov/Shutterstock.com)

Lesezeit: 4 Min.

Was immer man von Ilya Sutskever, dem leitenden Wissenschaftler von OpenAI halten mag, der Mann hat ein Gespür für gute PR: Mit einem scheinbar beiläufigen Tweet befeuerte Sutskever eine Diskussion neu, die eigentlich schon längst als abgehakt galt: Die Frage, ob eine Künstliche Intelligenz jemals so etwas wie ein eigenes Bewusstsein haben kann. Es könne durchaus sein, twitterte Sutskever, dass die heutigen großen neuronalen Netze "ein bisschen Bewusstsein haben“ – dieses Ziel also zumindest zum Teil längst erreicht sei.

OpenAI – das Sutskever zusammen mit Elon Musk und dem derzeitigen CEO der Gruppe, Sam Altman, mitbegründet hat – ist eine Organisation, deren erklärtes Ziel es ist, eine "Artificial General Intelligence", eine menschenähnliche künstliche Intelligenz zu schaffen, die dem Wohle der Menschheit dienen soll. Auf der anderen Seite ist OpenAI aber mittlerweile auch ein Unternehmen, das Geld verdienen muss. Und dessen Produkte, wie das große Sprachmodell GPT-3 einerseits nicht unumstritten sind – die aber auf der anderen Seite auch unter erheblichem Konkurrenzdruck stehen. Eine Neuauflage der Debatte über bewusste KI verschafft dem Unternehmen also zumindest wieder eine Menge Aufmerksamkeit.

Führende KI-Forscher kritisierten die Äußerung jedoch erwartungsgemäß als falsch. Der Deep-Learning-Pionier Yann LeCun etwa twitterte, die Behauptung sei "nicht einmal für große neuronale Netze" und "ein bisschen Bewusstsein" richtig, denn für so etwas wie Bewusstsein brauche es "eine spezifische Form der Makro-Architektur", die keines der existierenden neuronalen Netze derzeit besitze.

Andere, wie der Informatiker Toby Walsh von der Universität Sydney beklagten sich über die Auswirkungen solch einer Diskussion auf die Öffentlichkeit. "Jedes Mal, wenn solche spekulativen Äußerungen an die Öffentlichkeit gelangen, sind monatelange Bemühungen erforderlich, um die Diskussion wieder auf die realistischeren Chancen und Gefahren der KI zu lenken", schrieb er.

Der MIT-Informatiker Tamay Besiroglu stellte sich allerdings gegen den Trend und verteidigte Sutskever. Besiroglu wies auf eine Preprint-Studie hin, in der er gemeinsam mit Kollegen ermittelt hatte, dass sich die Intelligenz von Modellen des maschinellen Lernens seit 2010 alle sechs Monate etwa verdoppelt habe. In einem Diagramm, das diesen Fortschritt illustriert, zeichnete er eine Linie, an der, wie er sagte, die Modelle "vielleicht ein wenig bewusst" geworden sind.

Interessanterweise spielt die Frage, was genau eigentlich mit "Bewusstsein" gemeint ist, in der aktuellen Diskussion jedoch keine Rolle. Die könnte aber hilfreich sein. Die Formulierung "ein bisschen bewusst" passt nämlich zumindest leidlich zu der Theorie des "phänomenologischen Bewusstseins", das sich nach Ansicht einiger Forscher "aus der Interaktion eines autonomen Agenten mit seiner Umgebung" ergibt, im Unterschied zur "Access Consciousness", die dem Agenten ermöglicht, über seine Sinneseindrücke und Erfahrungen zu reflektieren.

Andere, wie der Philosoph Philip Goff, ein sogenannter Panpsychist, vertreten die Auffassung, dass Bewusstsein ein integraler Bestandteil der physikalischen Realität ist. Was auf den ersten Blick skurril erscheint, ist tatsächlich die Grundlage der "Integrated Information Theory" – der einzigen Theorie, die Bewusstsein mit einer mathematischen Formel beschreibt. Denn die Grundidee dieser Theorie ist, dass in jeder Form von hochintegrierter Materie, die Informationen verarbeitet, eine Art kritische Schwelle überschritten wird, zu dem, was wir unter Bewusstsein verstehen. Der Hirnforscher Christof Koch ist nicht nur davon überzeugt, dass an dieser Theorie etwas dran ist, sondern, dass sie grundsätzlich auch ermöglicht, Bewusstsein zu vermessen.

Tatsächlich hat der Hirnforscher Marcello Massimini auf der Basis dieser Theorie ein Verfahren entwickelt, um aus aufgezeichneten Gehirnwellen eine Maßzahl für das Bewusstsein von Koma-Patienten zu berechnen. Diese Zahl zwischen 0 und 1 – der sogenannte Pertubation Complexity Index (PCI) – soll darüber Aufschluss geben, ob eine Person bei Bewusstsein ist. Die Forscher haben dabei einen Grenzwert von 0,31 errechnet, der 2016 bei einer Studie tatsächlich unbewusste und bewusste Zustände gesunder und hirngeschädigter Probanden unterscheiden konnte. Er stellt die genaueste Bewusstseinsmessung dar, die es je in der Medizin gab. Nur schade, dass neuronale Netze keine Hirnwellen erzeugen, die man messen kann.

(wst)