Künstliche Intelligenz als menschliches Gesicht
Fast menschlich? Künstliche Intelligenz als virtuelles Wesen, dargestellt in Binärcode
Yuichiro Chino/Getty Images
KI-Sicherheit
KI-Forschung muss transparenter werden
Regierungen sollten gemeinsam mit Forschern ethische Leitplanken erstellen, um die Entwicklung von Künstliche Intelligenz einzuhegen
Tim Wegner
06.04.2023
3Min

Seitdem das amerikanische Entwicklerstudio OpenAI seinen Sprachbot ChatGPT veröffentlicht hat, ist die Welt in Aufruhr. Die Künstliche Intelligenz versteht den semantischen Inhalt von Fragen und Aussagen und kann auch komplexe Instruktionen entgegennehmen. Sie kann Ideen, Perspektiven und Konzepte zu praktisch jedem Thema abwägend vorstellen und auch größere Textmengen verfassen. Wie akkurat die Antworten des Programmes sind, hat Fachleute überrascht.

Tim Wegner

Tobias Müller

Tobias Müller ist seit August 2022 Redakteur und zuständig für chrismon.de. Zuvor arbeitete er mehrere Jahre als Junior bei der "Frankfurter Allgemeinen Zeitung". Dort war er vor allem für die Redakteur*innen vom Dienst im "FAZ.NET"-Newsroom und die Audio/Video-Redaktion tätig. Im Bachelorstudium hat er sich mit dem digitalen Wandel des Journalismus befasst. Neben seinem Beruf studiert er Friedens- und Konfliktforschung im Master.

Der Erfolg von ChatGPT spornt die Tech-Riesen an. Alphabet, Microsoft und Meta sind im Begriff, noch komplexere KI-Systeme zu entwickeln. Höchste Zeit, der KI und ihren Machern Regeln aufzuerlegen.

Ende März haben rund 1000 renommierte Forscherinnen und Entrepreneure, darunter auch der Elektroauto-Pionier Elon Musk, einen offenen Brief auf der Internetseite der amerikanischen Denkfabrik "Future of Life Institute" veröffentlicht. Mittlerweile haben ihn über 10.000 Menschen unterzeichnet. Die Herausgeber fordern eine sechsmonatige Pause für die Entwicklung aller KI-Systeme, die leistungsfähiger sind als ChatGPT. Sie warnen davor, dass der Lernprozess moderner KI immer intransparenter werde.

KIs lernen wie Kinder

Solche Blackbox-Modelle können schnell ein Eigenleben entwickeln. Wie Menschen im Kindesalter, so lernen auch KIs durchs Ausprobieren. Dass sich diese Systeme dabei auch negative Eigenschaften aneignen, beispielsweise das Lügen als attraktive Option erachten, ist nicht ausgeschlossen und kann vor allem nicht im Detail überprüft werden.

"Sollen wir nichtmenschliches Bewusstsein erschaffen, das eines Tages größer und schlauer ist als wir?", fragen die Briefschreiber*innen um Elon Musk. Ihre Antwort lautet nicht Nein. Vielmehr fordern sie, den Fokus der Forschung zunächst darauf zu legen, KI akkurater, interpretierbarer, robuster und loyaler zu machen. Das ist eine verständliche Forderung, denn KI könnte künftig auch Teil von Cyberwaffen werden.

Cyberwaffen nutzen heute schon Schwachstellen in der Software von Behörden, Krankenhäusern oder Energieversorgern aus. Regierungen weltweit geben Unsummen dafür aus, Wissen über solche Schwachstellen in der eigenen Software, und auch in der Software anderer Länder einzukaufen. Weil Cyberwaffen in unserer vernetzten Welt prinzipiell jedes elektronische Gerät infizieren können, sind die Folgen eines Angriffs nicht berechenbar und müssen auf eine Stufe mit Massenvernichtungswaffen gestellt werden. Ein Waffensystem, das Krankenhäuser lahmlegen und Atomreaktoren kontrollieren kann und sich eines Tages bewusst gegen seine Entwickler wenden könnte, würde eine existenzielle Bedrohung für die Menschheit darstellen.

Ob nun militärisch oder zivil: Künstliche Intelligenz birgt enormes technologisches Potenzial. Um dieses Potenzial zu kontrollieren, müssen sich Politik und Wissenschaft umfassend mit der Einhegung von KI und ihrer Forschung beschäftigen. Es müssen ethische Leitplanken für die Entwicklung von KI und ihre Anwendungsmöglichkeiten definiert und von staatlicher Seite durchgesetzt werden. Ein sechsmonatiges Moratorium wäre dafür dringend nötig.

Auf globaler Ebene lässt sich ein solches Vorhaben aber kaum umsetzen, weil der politische Wille fehlt. Viele Länder, einschließlich die USA, setzen auf KI für ihre (Cyber-)Streitkräfte und wollen ihre Erforschung ungebremst vorantreiben. Welche internationale Organisation verfügt über die Sanktionsmöglichkeiten, um die Regierungen aller Länder zu einem solch einschneidenden Schritt zu bewegen? Deshalb wird der offene Brief des "Future of Life Institute" kaum Wirkung haben. Seine Mahnung sollten wir dennoch ernst nehmen.

Permalink

Wenn diese Welt- und "Werteordnung", gegen eine OHNE wettbewerbsbedingte Symptomatik getauscht würde, dann könnten wir den "Individualverkehr" sogar auf Niedervoltschienen elektrisch-transformiert die Straßen entlang befahren, was sehr viel umweltschonender und menschenwürdiger wäre. Doch leider ist diese Vernunft so garnicht im Sinne des zeitgeistlich-reformistischen Kreislaufes im imperialistisch-faschistischen Erbensystem!?

Permalink

Die internationale der KI hat errechnet, dass es global noch 5 weitere Typen gab/gibt wie mich. Männlich, verh., BMI  24,8, ethnisch identische Gesundheitsdaten, Alter, Ernährung, IQ, Sport, etc.. Von denen sind 3 mit 85-86 und ähnlichen Ursachen gestorben. Die KI sagt für mich das Gleiche voraus. Lebe ich mit 87 noch, habe ich bei Erfassung der Daten gelogen. Todesstrafe

Neuen Kommentar hinzufügen

Der Inhalt dieses Feldes wird nicht öffentlich zugänglich angezeigt.

Plain text

  • Keine HTML-Tags erlaubt.
  • Zeilenumbrüche und Absätze werden automatisch erzeugt.
Wählen Sie bitte aus den Symbolen die/den/das Auto aus.
Mit dieser Aufforderung versuchen wir sicherzustellen, dass kein Computer dieses Formular abschickt.