Chaos Computer Club: Wie ChatGPT unseren Alltag verändert

"Es wird vielen auch Spaß machen"
CHAOS COMPUTER CLUB: WIE CHATGPT UNSEREN ALLTAG VERÄNDERN WIRD

Getty Images/iStockphoto/Galeanu Mihai

Auch wenn KI-Programme intelligent wirken: Es ist keine Intelligenz im menschlichen Sinne. Ihnen fehlt das Verständnis dafür, was sie programmieren oder wozu sie etwas generieren.

Chat GPT concept. Business person chatting with a smart AI using an artificial intelligence chatbot development. Artificial intelligence system support is the future

KI-Programme wie ChatGPT verändern die Arbeitswelt. Welche Berufe sind besonders betroffen? Ein Interview mit Constanze Kurz vom Chaos Computer Club.

Frau Kurz, was kann ChatGPT und was können solche großen KI-basierten Sprachprogramme nicht?

Constanze Kurz: Ich sehe große Potenziale in den Fähigkeiten der KI zu programmieren. Man kann Quellcodes aller Art damit bearbeiten und Fehler finden. Das zweite große Potenzial sehe ich im Zusammenfassen von Text. Man muss sich aber klarmachen, dass diese Programme keine Semantik kennen. Ihnen fehlt also das Verständnis dafür, was sie programmieren oder wozu sie etwas generieren. Auch wenn die Illusion, dass sie es verstehen, relativ stark ist. Sprachmodelle wie ChatGPT bleiben ein prachtvoller bunter Papagei! Deshalb ist die Kontrolle durch den Menschen sehr wichtig.

Constanze Kurz

Constanze Kurz, Jahrgang 1974, ist promovierte Informatikerin und veröffentlichte schon im Jahr 2013 das Buch: "Arbeitsfrei: Eine Entdeckungsreise zu den Maschinen, die uns ersetzen". Sie war Sachverständige der Enquête-Kommission "Internet und digitale Gesellschaft" des Bundestags, ist Sprecherin des Chaos Computer Clubs e.V., der größten europäischen Hackervereinigung, und Mitglied der Redaktion von netzpolitik.org e.V. Sie ist außerdem Mitglied des Aufsichtsrates des Gemeinschaftswerks der Evangelischen Publizistik.
PR

Katharina Müller-Güldemeister

Katharina Müller-Güldemeister hat Geografie, Kommunikationswissenschaft und Germanistik in Bamberg studiert, die Reportageschule in Reutlingen besucht und arbeitet als freie Journalistin von Berlin aus. Zu ihren Schwerpunkten gehören Reportagen und Porträts, Menschen, die das Radfahren lieben, Natur, Umgang mit der Klimakrise, Zusammenwachsen von Ost und West und auch das Lebensende. 2016 fuhr sie mit dem Fahrrad nach Teheran.
Privat

Werden die KI-Programme irgendwann so viel gelernt haben, dass sie weniger Fehler machen?

Kurz: Ich glaube eher, dass die Menschen besser einschätzen lernen, wo typische Fehler auftauchen. Ich halte es daher für sehr wichtig, dass der Umgang mit Sprachmodellen in den Schulunterricht integriert wird. Man muss einfach lernen, dass es hier nicht um Intelligenz im menschlichen Sinne geht. Denn Schülern wird es oft so vorkommen, als ob sie mit etwas Intelligentem sprechen. Diese Programme können aber weder Fakten bewerten noch Probleme lösen, auch wenn es so aussieht.

ChatGPT wird auch die Arbeitswelt verändern. In welchen Berufen sollten sich Menschen schon mal über einen Jobwechsel Gedanken machen?

Kurz: Es gibt Berufe, die sich ganz doll verändern werden oder sich im letzten Jahrzehnt schon verändert haben. Ein Beispiel dafür ist die Arbeit von Übersetzerinnen und Dolmetschern: Die Softwareprodukte machen beim Übersetzen immer weniger Fehler. Sie können mittlerweile sogar gesprochene Sprache in gesprochene Sprache übersetzen. Das begann aber nicht erst mit ChatGPT, es passiert nur jetzt auf einer anderen Ebene und dringt aktiver in die öffentliche Debatte ein.

In welchen Berufen zum Beispiel?

Kurz: Ein Beispiel ist die automatisierte Berichterstattung, etwa die Sportberichterstattung. Es gibt auch Wirtschaftsunternehmen, die ihren Quartalsbericht automatisiert herausgeben. Das heißt noch lange nicht, dass ganze Berufe wegfallen, aber das Profil dieser Berufe ändert sich.

Sind es eher niedrig, mittel oder hoch qualifizierte Jobs, die sich verändern werden?

Kurz: Tendenziell eher niedrig und mittel qualifizierte Jobs. Denn für hoch qualifizierte Arbeit braucht es oft einen Erfahrungsschatz, und ich glaube, das werden solche Programme in naher Zukunft nicht leisten, weil ihnen dafür ja das Verständnis fehlt. Aber natürlich werden sich auch hoch qualifizierte Jobs verändern. Auch ein Teil der Softwarejobs werden durch diese Modelle übernommen werden. Aber es wird absolut notwendig sein, dass eine qualifizierte Person über die Arbeit der KI drüberschaut.

Sind kreative Berufe eher sicher?

Kurz: Es wird viele Bereiche in der Kreativität geben, die eine Maschine nicht ersetzen kann. Aber die Maschine wird zum Beispiel in der Unterhaltungsmusik sicherlich einiges übernehmen. Ich nehme bei den Kreativen auch schon eine Menge Angst wahr. Da wird es noch einige Kämpfe geben, etwa um das Urheberrecht. Die erste KI-komponierte Musik gibt es bereits. Die Frage ist: Inwieweit dürfen kreative Werke benutzt werden, um KI zu trainieren?

KI spielt bei der Personalauswahl in Unternehmen eine große Rolle

Sind Sie eher neugierig oder besorgt?

Kurz: Als jemand, die Technik gern mag, bin ich immer beides. Ich bin unglaublich neugierig und probiere viel aus. Ich glaube auch, dass es den meisten Menschen ein bisschen Spaß machen wird, mit diesen KI-Chatbots zu sprechen, sie zu piesacken und ihre Fehler zu finden. Aber natürlich muss man auch besorgt sein, denn KI kann auch für kriminelle Zwecke eingesetzt werden. Außerdem leben wir in einer Welt, in der Tracking und Profiling von Menschen enorm verbreitet ist. Und das wird auch nicht als so unethisch angesehen, wie ich es empfinde.

Ein Beispiel?

Kurz: Einige große amerikanische Städte versuchen jetzt schon, über Social Scoring Straftaten vorherzusehen. Das Software-Unternehmen Palantir hatte beispielsweise mehrere Jahre lang Zugang zu polizeilichen Datenbanken in New Orleans, um ein KI-System zur Vorhersage von Straftaten zu testen. Palantir bietet zum Beispiel an, dass die KI große Mengen an Daten vorsortiert und versucht, Prognosen zu erstellen. Im Falle von polizeilichen Daten sind das Prognosen über künftige Straftaten oder Bereiche, in denen gehäuft Straftaten auftreten. Die Gefahr ist, dass ganze Personengruppen durch die Software stigmatisiert oder kriminalisiert werden, zum Beispiel Menschen, die in prekären Verhältnissen leben oder einen Migrationshintergrund haben.

Wie ist das in Deutschland?

Kurz: Bei uns gibt es einige rechtliche Schranken. So hat das Bundesverfassungsgericht erst kürzlich strenge Vorgaben für den Einsatz von Software wie die von Palantir in der Polizeiarbeit formuliert. Aber auch wir haben eine Debatte über Racial Profiling, die aktuell zum Beispiel anhand des Bundespolizeigesetzes geführt wird. Die Möglichkeit, Entscheidungen über Menschen zu treffen, ist auch hier längst Alltag. Wir bemerken es nur oft nicht.

Was übersehen wir noch?

Kurz: Zum Beispiel, wie sehr jetzt schon KI bei der Personalauswahl in Unternehmen eine Rolle spielt. Die KI entscheidet zwar noch nicht über die Auswahl, wird aber genutzt, um sie vorzubereiten. Aber die Wahrheit ist: Viele Personalchefs hinterfragen die KI-gestützten Ergebnisse nicht.

Wozu führt das?

Kurz: Zu einer Fortführung von Diskriminierung. Dazu, dass die großen Sprachmodelle Vergangenes reproduzieren, das wir vielleicht als falsch oder ungerecht empfinden.

Würden Sie eine Kennzeichnungspflicht befürworten, wenn KI-basierte Software beteiligt war?

Kurz: Auf jeden Fall! Und wer von einer KI-Entscheidung betroffen ist, sollte die Möglichkeit bekommen, mit dem zuständigen menschlichen Entscheider zu sprechen. Ich glaube, das ist die einzige Möglichkeit, wie wir mit Fehlentscheidungen und Diskriminierungen durch KI-Software umgehen können. Ausreichend ist aber eine Kennzeichnungspflicht nicht, sie ist nur die minimale Anforderung für den künftigen Umgang mit KI-Entscheidungen.

Neue Lesermeinung schreiben

Wir freuen uns über einen anregenden Meinungsaustausch. Wir begrüßen mutige Meinungen. Bitte stützen Sie sie mit Argumenten und belegen Sie sie nachvollziehbar. Vielen Dank! Damit der Austausch für alle ein Gewinn ist, haben wir Regeln:

  • keine werblichen Inhalte
  • keine Obszönitäten, Pornografie und Hasspropaganda
  • wir beleidigen oder diskriminieren niemanden
  • keine nicht nachprüfbaren Tatsachenbehauptungen
  • Links zu externen Webseiten müssen zu seriösen journalistischen Quellen führen oder im Zweifel mit einem vertretbaren Prüfaufwand für die Redaktion verbunden sein.

Die Redaktion behält sich das Recht vor, Beiträge zu bearbeiten, macht dies aber stets kenntlich. Wir zensieren nicht, wir moderieren.
Wir prüfen alle Beiträge vor Veröffentlichung. Es besteht kein Recht auf Publikation eines Kommentars.

Lesermeinungen

Was es alles gibt!
Die KI bestimmt unser Leben und hat als "Die Internationale der Künstlichen Intelligenz" (IKI) errechnet, dass es global noch 5 weitere Typen wie mich gab und gibt. Männlich, verh./verw. , BMI  24,8, identische Daten zu Gesundheit, Ernährung, IQ, Sport, etc.. Von denen sind 3 durch ähnliche Ursachen mit 85-87 gestorben. Die KI sagt für mich das Gleiche voraus. Lebe ich mit 87 noch, habe ich bei Erfassung der Daten gelogen. Mit der KI kann man nicht verhandeln. KI-Vollzug mit der Todesstrafe

Schon jetzt kann der Otto- Normalbürger kaum zwischen Wahrheit und Fake unterscheiden. Er verliert sich ohnehin in der Informationsflut von Medien und gut gemeinten Suchmaschinen, die oft genug nur Schwarzweißdenken fördern! KI wird dazu führen, dass gar nicht mehr selbst reflektiert wird, weil sie doch offensichtlich von "höchster"
Stelle abgesegnet sein muss. Das ist ein großer Irrtum!!
Unsere Dichter- und Denkerkultur wird zwangsläufig untergehen. Schade! Sehr schade!