drei Roboter, angelehnt an die 3 Affen, Nichts sehen, Nichts hören, Nichts sagen
3D Rendering, Robots speaking no evil, hearing no evil, seeing no evil [ Rechtehinweis: picture alliance/Westend61 ]
Anna Huber/Westend61/dpa Picture-Alliance
Was, wenn der Roboter frech wird?
Stecker ziehen hilft irgendwann auch nicht mehr, sagt Jürgen Schmidhuber. Er gilt als ein führender Entwickler der sogenannten Künstlichen Intelligenz.
Tim Wegner
01.02.2019

chrismon: Smartphones entschlüsseln gesprochene Wörter, Großrechner weisen Gesichter Personen zu, Bordcomputer identifizieren Gefahrenquellen im Verkehr und steuern Autos, die wiederum von ­Robotern zusammengebaut werden. Was kommt als Nächstes?

Jürgen Schmidhuber: Die gegenwärtigen kommer­ziellen Anwendungen der Künstlichen Intelligenz wie Sprachsoftware auf den Smartphones beruhen vor allem auf passiver Mustererkennung. Das ist aller-dings eine sehr eingeschränkte Form von KI, denn sie kann die Welt nicht durch Handlungen gestalten. Das nächste große Ding aber wird eine Welle von ­intelligenten Maschinen sein: Roboter, die lernen, etwas herzustellen – und zwar nur durch Zuschauen und Zuhören.

German computer scientist Juergen Schmidhuber poses after a conversation during the 71st Locarno International Film Festival, Friday, August 10, 2018, in Locarno, Switzerland. The Festival del film Locarno runs from 1 to 11 August. (KEYSTONE/Alexandra Wey) [ Rechtehinweis: picture alliance/KEYSTONE ] cp_02_19, Interview, chrismon plus Februar 2019Alexandra Wey/dpa Picture-Alliance

Jürgen Schmidhuber

Jürgen Schmid­huber, Jahrgang 1963, ist wissenschaftlicher Direktor am Dalle-Molle-Forschungsinstitut für KI in Lugano in der Schweiz, Professor für KI an der Universität Lugano und Chefwissenschaftler einer Firma, die KI-Systeme entwickelt.

Wie soll das funktionieren?

Die rückgekoppelten künstlichen neuronalen Netzwerke, die ich mit meinen Studenten entwickelt habe, sind dem menschlichen Gehirn nachempfunden. Am Anfang ist so ein Netzwerk dumm wie ein Baby. Aber mit der Zeit lernt es, immer bessere Ergebnisse zu produzieren. Meist muss es dabei heute noch einen Lehrer imitieren, der ein bestimmtes Ziel vorgibt. Viel interessanter wird es aber, wenn nur noch Schmerz- oder Belohnungssensoren die Maschine steuern, die auf diese Weise Erfahrungen sammelt und umsetzt. Sie lernt dann wie ein kleines Kind.

Sie vergleichen Rechner mit Menschen und ­sprechen von "dummen" Maschinen, die "lernen". Aber ­Menschen fühlen – und technische Systeme rechnen. Kann man das gleichsetzen?

Wir haben längst mit Künstlicher Intelligenz ausgestattete Roboter oder Agenten, die emotional ­reagieren. So ein kleiner Roboter mit Schmerzsensoren zum Beispiel, der immer wieder mit Schlägen traktiert wird, versucht irgendwann, das zu vermeiden. Der versteckt sich dann zum Beispiel hinter einem Vorhang, wenn er seinen Peiniger erkennt. Das heißt, er hat eine vorhersagende Angst entwickelt und setzt das in seinem Verhalten um. Das ist extrem natürlich und eine ­Konsequenz rationalen Handelns. Es sieht aber von außen so aus, als fühle er die Angst auch.

"Das Wesen der Künstlichen Intelligenz ist das automatische Problemlösen"

Könnte man sagen: Menschen handeln oft irra­tional, Maschinen nicht?

Nein, die kleinen künstlichen Agenten in unserem ­Labor handeln ja auch sehr oft irrational. Die scheitern ja ständig. Sie lernen aber aus dem Scheitern.

Sie sagen Künstliche Intelligenz. Wie definieren Sie Intelligenz bei Maschinen?

Der Philosoph Karl Popper hat einmal gesagt, dass alles Leben Problemlösen sei. Da hat er recht. Wer ­intelligent ist, kann besser Probleme lösen als andere. Das Wesen der Künstlichen Intelligenz ist das automatische Problemlösen, insbesondere das automatische Erlernen des Lösens neuer Probleme.

Zur menschlichen Intelligenz gehören aber auch ­eine Absicht und ein Bewusstsein.

Bewusstsein hat mit dem Nachdenken über sich selbst zu tun. Schon seit Jahrzehnten bauen wir ­simple kleine Systeme, die das tun. Ein rückgekoppeltes neuronales Netzwerk lernt durch Erfahrung und Training, Scheitern und Belohnung und versucht beständig, mehr Erfolge zu erzielen. Ein zweites rückgekoppeltes neuronales Netzwerk beobachtet die ­Aktionen des ­ersten und versucht, ihre Konsequenzen vorherzu­sagen. Diese Vorhersagen haben einen Kompressionseffekt: Was man vorhersagen kann, muss man nicht speichern. Vorhersagen über alles, was häufig passiert, werden in kleinen Unternetzwerken repräsentiert, die automatisch entstehen. Das erste Netzwerk kann auf diese Unternetzwerke zugreifen und damit planen und mit den Vorhersagen über sich selbst arbeiten. Jedes Mal, wenn es das tut, denkt es über sich selbst nach.

Klingt kompliziert. Geben diese neuronalen Netzwerke, die sie da beschreiben, ihrem Handeln auch einen Sinn?

Ja, nämlich den Sinn, die Summe der Schmerz­signale zu minimieren und die Summe der Belohnungen zu maximieren. Das ganze Leben entfaltet sich dabei in immer komplexeren Problemlösungs­strategien.

Menschliches Bewusstsein entwickelt sich aber auch durch körperliche Erfahrungen.

Klar. Genau das ist der Grund, warum wir seit 30 ­Jahren kleine verkörperte Roboter oder Agenten ­bauen, mit Sensoren, die ihre Erfahrungen sammeln. Körperlichkeit ist da für uns zentral.

"Keiner hat Zugang zu allen Steckern"

Wenn Sie meinen, Roboter hätten eine Persönlichkeit, müssen wir dann etwa über Roboterpersönlichkeiten sprechen, die eigene Rechte und Pflichten haben?

Eine meiner Lieblings-Science-Fiction-Geschichten ist die "Waschmaschinentragödie" von Stanislaw Lem. Im Konkurrenzkampf zweier Waschmaschinenhersteller werden die Maschinen immer intelligenter und irgendwann den Menschen sehr ähnlich. Dies entfacht eine Diskussion darüber, ob sie Menschenrechte bekommen sollen. Eher zufällig stellt sich heraus, dass fast alle Diskussionsteilnehmer in Wirklichkeit verkleidete Waschmaschinen sind. Also, wenn Künstliche Intelligenz mal so clever ist wie Menschen, sollte sie dann nicht auch dieselben Rechte und Pflichten haben? Warum nicht!

Ein anderer Science-Fiction-Autor, William Gibson, erzählt in seiner Romantrilogie "Neuromancer" von einer ­Polizei, die KIs abschaltet, wenn sie zu intelligent werden. Und auch der Erfinder des Computers, Konrad Zuse, hat gesagt: "Wenn Computer zu frech werden, zieht ihnen die Stecker."

Das wird langfristig nicht funktionieren. Es gibt ­immer mehr Künstliche Intelligenz auf der Welt und keiner hat Zugang zu allen Steckern. Und ver­schiedene Menschen haben ja ganz verschiedene Ideen davon, wann welche Stecker gezogen werden sollten. Und ­einige werden fasziniert davon sein, KIs ohne Stecker zu bauen.

"Künstliche Wesen werden zusammenarbeiten"

Fehlen nur noch Roboter, die lieben können.

Wenn wir unseren kleinen KI-Agenten eine Aufgabe geben, die sie nur gemeinsam bewältigen können, dann lernen sie im Laufe der Zeit, zu kooperieren und sich gegenseitig zu helfen.

Ist das Liebe?

Das ist zumindest schon mal ein guter Ansatz. Vor 2000 Jahren gab es einen großen Vereinfacher: ­Jesus von Nazareth. Der hat gesagt, wir kompri­mieren die Zehn Gebote auf eine einzige Regel: Liebe ­deinen Nächsten wie dich selbst! Eine Gesellschaft, die ­diesem Gesetz folgt, hat rational einen Vorteil gegen­über ­anderen. Denn eine Gesellschaft, in der alle ­zusammenarbeiten und sich gegenseitig lieben – oder sich wenigstens nicht gegenseitig umbringen –, ist viel stärker als eine, in der Streit und Gewalt herrschen. Gleiches gilt aus rein rationalen Gründen auch für ­Gesellschaften künstlicher Wesen.

Permalink

Wie können Sie es sich, wo doch Theologen in der Redaktionsleitung sitzen, erlauben, die Sätze "Vor 2000 Jahren gab es einen großen Vereinfacher: Jesus von Nazareth. Der hat gesagt, wir komprimieren die Zehn Gebote auf eine einzige Regel: Liebe deinen Nächsten wie dich selbst!" unkommentiert stehen zu lassen! Ich bin vor Empörung vom Esstisch aufgesprungen und musste mich erstmal wieder beruhigen, bevor ich direkt zur Tastatur gegriffen habe, um diese Zeilen zu schreiben. Die erste Hälfte des sog. "Höchsten Gebots" wegzulassen ist so, als würde man nur die zweite Tafel der mosaischen Gesetze für geboten erachten. Dass ich als Vikar nicht gegen dieses übermächtige Fehlurteil in den Köpfen (auch von Theologen) ankomme, dass Jesus ein Gutmensch gewesen sei und Nächstenliebe gepredigt habe und die Welt besser aussähe, wenn wir Menschen uns nur genügend anstrengen würden, kann ich ja noch verstehen. Aber dass Sie mit Ihrer einflussreichen Zeitschrift diesem Fehlurteil nicht entgegentreten, schockiert mich dann doch. Die Gebote Jesu sind doch nicht einfacher als die Moses. Ich zumindest halte es für schwieriger, seinen Bruder nicht nur nicht zu töten, sondern nicht einmal "Du Narr" zu ihm sagen zu dürfen. Und dass jemand Gott liebt von ganzem Herzen, von ganzer Seele, von ganzem Gemüt und mit all seiner Kraft, das ist mir auch noch nirgends begegnet.
Ich würde ja nicht so durch die Decke gehen, wenn es sich hier einfach nur um ein harmloses bibelkundliches Missverständnis handeln würde. Aber es geht hier nicht um irgendein Gebot, sondern um das höchste. Da ist auch höchste Empörung am Platz, wenn sich hier Missverständnisse einschleichen. Und ich bin überzeugt, dass dieses Missverständnis zu viel mehr Unheil in der Welt geführt hat und noch führen wird, als wir durch Nächstenliebe oder die Entwicklung von künstlicher Intelligenz je wieder gut machen werden können.
Wo ich schon dabei bin, noch eine weitere Anmerkung: Es gibt viel Grund zur Klage über die grassierende Angst vor KI. Sci-Fi-Filme und Ihr Interview mit Herrn Schmidhuber springen auf diesen Zug auf und verdienen Geld damit. Dabei gibt es meines Erachtens, und hier widerspreche ich als Nicht-Informatiker dem Experten Herrn Schmidhuber, nicht den geringsten Grund zu der Angst, dass Maschinen irgendwann ein Bewusstsein entwicklen könnten. Wenn der Mensch solche Maschinen bauen kann, dann kann er auch Menschen bauen, denn verglichen mit dem neuronalen Netz ist der Rest des menschlichen Körpers so kompliziert wie ein Lego-Baukasten. Herr Schmidhuber versteht unter Bewusstsein anscheinend die Fähigkeit, durch Erfahrung zu lernen. Das aber kann jeder Hund und jede Eintagsfliege. Ein Netzwerk, das Handlungen vorhersagen kann, denkt nicht über sich selbst nach, sondern über Handlungen. Also: Kein Grund zur Sorge oder zur Euphorie, der Mensch wird immer Herr über die Maschinen bleiben. Egal, wie viele dystopische oder romantische Sci-Fi-Filme noch gedreht werden.

Sehr geehrter Herr Bergfelder,

schön, dass sich auch in Ihnen Widerstand geregt hat. Das bestätigt unsere Vermutung: Unsere Leserinnen und Leser durchschauen, wie weit die Anpreisungen der sogenannten KI durch Herrn Schmidhuber wirklich tragen. Die Interviewfragen sind entsprechend kritisch, und es ist ja nicht unsere Aufgabe, die Antworten von Interviewten zu bewerten.

Mit freundlichen Grüßen

Burkhard Weitz

Verantwortlicher Redakteur für die Aboausgabe chrismon plus

Permalink

Herr Schmidhuber wird sich wahrscheinlich verwahren, mit seinen Entwicklungen der künstlichen Intelligenz in die Nähe der nationalsozialistischen Ideen vom „arischen höherwertigen“ Menschen in Verbindung gebracht zu werden. Aber ein Ansatz zum „Supermenschen“ klingt schon durch, wenn Herr Schmidhuber sagt. „Eine Gesellschaft, die diesem Gesetz (Liebe deinen Nächsten wie dich selbst) folgt, hat rational einen Vorteil gegenüber anderen.“ Dahinter steht doch die Idee, einen besseren Menschen zu schaffen, der eben nach dem Willen seines Schöpfers, Jürgen Schmidhuber nur lieben kann.

Permalink

Die Aussagen von Jürgen Schmidthuber im Interview zu Künstlicher Intelligenz (KI) haben mich geärgert. Suggeriert er doch mit Sätzen wie "Die rückgekoppelten künstlichen neuralen Netzwerke sind dem menschlichen Gehirn nachempfunden" eine Äquivalenz von Mensch und Maschine. Auch ein Bagger hat Bauteile, die wir "Gelenke" nennen; dennoch würde hier niemand eine Äquivalenz suggerieren.

Ich habe vor über 30 Jahren begonnen, mich mit KI zu beschäftigen. KI-Systeme werden, wie Bagger, mit ingenieursmäßigen Methoden entwickelt und in mühsamer Arbeit für einen Zweck optimiert. Keine der von mir und meinen Teams entwickelten KI-Systeme hat sich jemals außerhalb des Rahmens verhalten, der durch die Hardware und Software vorgegeben ist. Gerne kann mir Kollege Schmidthuber einzelne Programmzeilen erläutern, wo dieses angebliche Wunder geschehen soll.

Dennoch gilt weiterhin: Chrismon ist meine Lieblingszeitschrift - seit vielen Jahren!

Neuen Kommentar hinzufügen

Der Inhalt dieses Feldes wird nicht öffentlich zugänglich angezeigt.

Plain text

  • Keine HTML-Tags erlaubt.
  • Zeilenumbrüche und Absätze werden automatisch erzeugt.
Wählen Sie bitte aus den Symbolen die/den/das LKW aus.
Mit dieser Aufforderung versuchen wir sicherzustellen, dass kein Computer dieses Formular abschickt.