Was künstliche Intelligenz von menschlicher unterscheidet

Meine Empfehlung: Eine Zusammenfassung von und viele Gedanken zu Stephen Wolframs Thesen über künstliche Intelligenz und die Zukunft der Zivilisation

tl;dr: Der grundlegende Unterschied zwischen KI und Menschen ist: Menschen formulieren Ziele und verfolgen Absichten, Software kann das heute nicht. Allerdings können Menschen nicht erkennen, hinter welchen Phänomenen eine Instanz mit Zielen und Absichten steht und hinter welchen nicht. Es ist also alles doch etwas komplizierter.

Darum ganz lesen: Stephen Wolfram ist Physiker, Softwareentwickler, Mathematiker, vor allem aber einer der wenigen Universalgelehrten unserer Zeit. Dieser Essay veranschaulicht wunderbar, wie inspirierend wirklich wildes, fächerübergreifendes Denken sein kann und wie flach im Vergleich so manche Vision bekannter Internetkonzerne wirkt. Wolfram beginnt mit der Frage, was heutige künstliche Intelligenz von Menschen unterscheidet und endet bei Geschichte, Kultur, Gott und dem Universum als Rechner.

Menschen definieren Ziele, KI hilft beim Umsetzen

Wolframs grundlegende These ist: Die Menschheit hat eine Geschichte und basierend darauf entwickelt jeder Mensch Vorstellungen von Zielen und Absichten. Künstliche Intelligenz kann die Verwirklichung dieser Ziele und Absichten teilweise übernehmen. Doch sie zu definieren, ist Menschen vorbehalten.

Aus dieser grundlegenden Annahme und entwickelt Wolfram einige interessante Gedankenstränge. Zum Beispiel diesen: Wir werden in absehbarer Zeit Teile der Programmierung automatisieren können. Wolfram skizziert den Weg dahin so: Software wählt durch Testen und Trainieren aus der Vielzahl möglicher Programme jene aus, die die definierten Ziele besser erreichen. Daraus leitet Wolfram ab, dass es andere Programmiersprachen braucht. Sprachen, die es leichter machen, abstrakte Ziele zu beschreiben.

Wir können nicht klar bestimmen, hinter welchen Phänomenen Absicht steckt

18869429790_c2615e01ae_kIn der zweiten Hälfte nimmt der Essay eine überraschende Wendung. Eigentlich scheint alles klar: Menschen setzen sich Ziele und formen Absichten, KIs tun das nicht. Alles weitere folgt daraus. Und dann fragt Wolfram: Wie erkennen wir eigentlich zielgerichtetes Handeln? Gar nicht so leicht. Wolfram erzählt die Geschichte des Physik-Nobelpreisträgers Guglielmo Marconi und der Erfinder Nikola Tesla:

»Back in the early 1900s, Marconi and Tesla were both listening to radio transmissions from away from the Earth. Marconi had a yacht in the middle of the Atlantic, where he could hear these weird sounds that sounded a little bit like whale songs, but they’d come from radio. Tesla was very much, »this is the Martian signaling us.« How does one tell? In fact, it was some modes of the ionosphere. These were hydrodynamic phenomena—just physics.«

Ein Gedankenspiel zur Veranschaulichung: Forscher beobachten, dass ein Pulsar Primzahlenfolgen sendet. Ist das der Kontaktversuch eine Zivilisation? Braucht es eine Zivilisation, die Mathematik und Funk entdeckt und anwendet, um diese Zahlenfolgen zu senden? Oder kann ein physikalischer Prozess dasselbe Ergebnis haben?

Wir können nicht erkennen, ob eine Software Ziele setzt

Dasselbe Gedankenspiel lässt sich auf eine KI übertragen. Wolfram kommt am Ende zum Ergebnis, dass seine so eindeutig scheinende Unterscheidung letztlich gar nicht so eindeutig ist. Es kann sein, dass wir am Verhalten einer KI nicht erkennen, dass sie Ziele und Absichten setzt und verfolgt. Wolfram hat keine Antwort und das ist nicht weiter überraschend, weil seit Aristoteles viele solche Fragen nach dem Ziel und Sinn mit demselben Ergebnis gestellt haben. Was ist das Ziel hinter dem Wetter, dem Pulsar, dem Universum? Es könnte ja sein – und da streift Wolfram religiöse Fragen -, dass da etwas Ziele und Absichten verfolgt, die wir nicht erkennen, weil wir sie nicht erkennen können. Aber immerhin bleibt uns das, und so schließt Wolfram: Jeder Mensch ist geprägt von Jahrhunderten menschlicher Geschichte, der durch Wahrnehmung der Welt und durch den Austausch darüber geprägten Konzepten.

Drei Fragen zum Weiterdenken:

Chandra's image shows the drama of star formation and evolution as it is being played out in a nearby galaxy. At least 11 extremely massive stars with ages of about 2 million years are detected in the bright star cluster in the center of the primary image (left panel). The brightest source in this region is Mk 34, a 130 solar-mass star located slightly to the lower left of center. On the lower right of this panel is the supernova remnant N157B, with its central pulsar. Two off-axis ACIS-S chips (right panel) show the large shell-like supernova remnant SNR N157C. In the image, lower energy X-rays appear red, medium energy green and high-energy are blue.

Dass Wolframs Text bei allen Umwegen und Schleifen etwas Besonderes ist, merke ich daran, dass am Ende des Essays das eigene Denken angeregt aufdreht. Mir stellen sich nach dem Text sofort diese Fragen:

(1) Die Kulturgeschichte als Alleinstellungsmerkmal muss nicht von Dauer sein. Die Menschheit hatte irgendwann einmal keine Sprache und keine Geschichte. Diese Entwicklung kann sich also wiederholen. Und warum sollte nicht irgendwann etwas von der Menschheit lernen? Wir sind ja gerade dabei, große Teile des aktuellen Zeitgeschehens im Großen wie im Kleinen, Zwischenmenschlichen, digital abzubilden oder gar digital abzuwickeln. All die Reaktionen, Debatten, Äußerungen und Absichtserklärungen in Suchanfragen Foren und sozialen Netzwerken sind heute Trainingsmaterial für künstliche neuronale Netze. Sie könnten aber auch irgendwann der Stoff sein, über den sich Software die Geschichtsprägung verschafft, von der Wolfram spricht.

(2) Einmal angenommen es gibt einen Schöpfer – er könnte ähnlich ratlos vor der Menschheit stehen wie Tesla und Marconi vor den Signalen aus dem All und ein Mensch vor Wolframs hypothetischer Ziele definierender KI. Hat es Bewusstsein?

(3) Wolfram sieht Assistenzsysteme als die grobe Entwicklungsrichtung von KI-Anwendungen der nächsten Jahrzehnte. Er stellt sich das so vor:

»What will happen, more to the point, is that there will be an AI that knows our history, and knows that on this menu, you’re probably going to want to order this, or you’re talking to this person, you should talk to them about this. I’ve looked at your interests, I know something about their interests, these are the common interests that you have, these are some great topics that you can talk to them about. More and more, the AIs will suggest what we should do, and I suspect most of the time people will just follow what the AIs tell them to do. It would probably be better than what they figured out for themselves.«

Ich frage mich dabei: Wenn das Assistenzsystem als Trainingsdaten das Verhalten eines Menschen ohne Assistenzsystem nutzt: Wie soll das funktionieren, wenn solche Systeme einmal eine Generation lang auf dem Markt und weit verbreitet sind? Wenn es Standard sein wird, KI-Assistenten so zu nutzen wie Wolfram es beschreibt, wird es kaum noch menschliches Handeln ohne KI-Einfluss geben. Wie soll man eine KI an die Interessen, Vorlieben und an die Persönlichkeit eines Menschen anpassen, wenn es kaum noch Handeln dieser Person gibt, das nicht von einer KI beeinflusst worden ist?