Der Soziologe Nils Klowait hat ChatGPT angewiesen, ein Computerspiel zu programmieren und wissenschaftliche Aufsätze zusammenzufassen. Seinen Eindruck von ChatGPT und welche Chancen und Risiken das System mit Künstlicher Intelligenz (KI) für die Gesellschaft birgt, beschreibt er im Interview. Klowait forscht als wissenschaftlicher Mitarbeiter im Projekt Ö „Fagen zu erklärbaren Technologien“ des TRR 318 sowie in der Arbeitsgruppe „Technik und Diverstiy“ unter Juniorprofessorin Dr. Ilona Horwath an der Universität Paderborn.
TRR 318: Wie kann ChatGPT die Art und Weise verändern, wie Menschen und Computer miteinander interagieren?
Nils Klowait: Jede*r kann ChatGPT ohne spezielle Kenntnisse nutzen. Wer weiß, wie ein Chat funktioniert, kann voraussichtlich auch ChatGPT verwenden. Der Chatbot ist nicht nur in der Lage, komplexe Anfragen zu analysieren, sondern versteht auch Nachfragen oder Korrekturen. Ich habe ChatGPT kürzlich gebeten, mir einen Programmcode für ein Spiel zu schreiben, in dem eine Katze Hotdogs ausweichen muss – und tatsächlich habe ich einen funktionierenden Code zurückbekommen. ChatGPT konnte mir auf Anweisung auch eine kleine Spielwelt mit Bäumen im Hintergrund bauen. Das Ergebnis war ein mausgesteuertes Spiel, erstellt von ChatGPT. Ich selbst habe so gut wie keine Ahnung vom Programmieren und hätte sicherlich Stunden dafür gebraucht, was ChatGPT in nur wenigen Minuten erstellt hat.
Auch wenn mein Beispiel etwas skurril ist, so zeigt es doch, wie Menschen in gewöhnlicher Sprache mit künstlich intelligenten Systemen kommunizieren können. ChatGPT ist ein relativ ausgereiftes Beispiel für ein System, das uns bei unserer Arbeit unterstützen kann, da es in der Lage ist, mit einem Maß an menschlicher Komplexität umzugehen – es ist reaktionsfähig und kooperativ. Wir haben es also mit einer Technologie zu tun, die sich leicht in menschliche Arbeitsabläufe integrieren lässt, vom Bildungssektor bis hin zur politischen Analyse auf höchster Ebene. Die Zukunft der Arbeit und des Lernens muss mit Blick auf KI neu strukturiert werden.
TRR 318: Welche Probleme und Chancen könnten auftreten, wenn ChatGPT in zentralen Bereichen unserer Gesellschaft eingesetzt wird?
NK: Die Technologie, die dahintersteckt, kann sich leicht als Expertin ausgeben, schnell Fake News produzieren und Millionen von Menschen durch Kommentare, E-Mails und subtil veränderte Wikipedia-Artikel manipulieren. Nur, wenn wir in KI-Kenntnisse investieren und den Nutzer*innen beibringen, die Funktionsweise und die Grenzen von KI-Systemen zu verstehen, werden wir in der Lage sein, auf diese Herausforderungen zu reagieren. Selbst wenn wir von einer KI-kundigen Bevölkerung ausgehen, bräuchten wir trotzdem einen starken, flexiblen und reaktionsfähigen Rechtsrahmen als Ergänzung. Kurz gesagt, wir müssen die Infrastruktur für eine demokratische und ethische KI-Bürgerschaft aufbauen.
Wenn wir von diesem Rahmen ausgehen, haben ChatGPT-ähnliche Technologien ein enormes Potenzial, die Welt zu verändern. Wir machen einen großen Schritt in die Richtung, dass die riesige Datenmenge des Internets für normale Menschen zugänglich wird, nicht nur für Unternehmen wie Microsoft oder Google. Immer mehr Menschen könnten damit komplexere, abstraktere und spezialisierte Aufgaben erledigen. Es baut sprachliche und berufliche Barrieren ab und kann bisher benachteiligten Gruppen eine kreative Stimme geben. Aber: Die Systeme sind nicht öffentlich zugänglich – sie gehören mächtigen Unternehmen, die jederzeit beschließen können, den Zugang zu ihren Systemen auf bestimmte Gruppen zu beschränken. Es muss ein größeres Bewusstsein für die Art und Weise geschaffen werden, wie diese Systeme undurchsichtigen Interessen dienen können, und wie das Design dieser sprechenden intelligenten Systeme die Art und Weise prägen kann, wie wir in naher Zukunft arbeiten, lernen und kommunizieren werden.
TRR 318: Kann Chat GPT auch das Vertrauen in KI stärken?
NK: ChatGPT ist nicht perfekt. Die jüngsten Skandale um die Implementierung von ChatGPT in die Suchmaschine „Bing“ zeigen das: Es kann nachweislich falsche Behauptungen über die Welt aufstellen, und es kann manchmal sogar verbal ausfällig werden, wenn bestimmte Fragen gestellt werden. Viele Nutzer*innen haben wahrscheinlich bereits erkannt, dass ChatGPT nicht zuverlässig ist. Ich habe es zum Beispiel gebeten, eine mir bekannte wissenschaftliche Abhandlung zusammenzufassen und es hat eine bewundernswerte Arbeit geleistet und den Text genau und prägnant zusammengefasst. Als ich es jedoch angewiesen habe, einen Aufsatz eines Kollegen zusammenzufassen, erfand ChatGPT die Zusammenfassung sowie die unterstützenden Zitate. Ich kann nur vermuten, was die Gründe dafür sind.
Daran sieht man: Die größte Stärke von ChatGPT ist auch seine Schwäche: Die einzige Möglichkeit, mit dem System zu interagieren, besteht darin, es als Gesprächspartner zu behandeln und Fragen zu stellen. Aber wie kann ich den Erklärungen eines Systems vertrauen, das sich als unzuverlässig und inkonsequent erwiesen hat? Auch wenn die Vermenschlichung das System vertrauenswürdiger erscheinen lässt, ist es den Nutzer*innen gegenüber nicht rechenschaftspflichtig, und ich bezweifle, dass sein Gesprächscharakter derzeit als ein Schritt in Richtung Transparenz angesehen werden kann. Allerdings ist bereits zu erkennen, dass sich die Branche des Problems bewusst ist: Microsoft versucht nun in der eigenen Suchmaschine „Bing“ die Schritte zu den Suchergebnissen aufzuzeigen. Von einer zufriedenstellenden Lösung sind wir jedoch noch weit entfernt. Ich empfinde eine vertrauenswürdig erscheinende KI, die Unwahrheiten produziert, als problematischer als ein System, das für alle offensichtlich nicht zuverlässig ist.
Weitere Informationen:
- Link zum Spiel "Cat dodges falling Hot Dogs"