„Wie man eine KI baut, der man trauen kann.“ Spiegel am 5.Februar 2023



Eine Kolumne von Christian Stöcker.



Maschinen, die plausible Texte schreiben und Fragen beantworten können, erleben einen beispiellosen Boom. Doch die Digitalorakel haben einige sehr grundlegende Probleme – mit manchmal lustigen Resultaten.

Wenn man bei einer Autofahrt einen Platten hat und tatsächlich das Sprachproduktionssystem ChatGPT um Hilfe bittet, könnte das zu Schwierigkeiten führen. Die Videospielzeitschrift »Gamestar« hat das kürzlich für einen Artikel ausprobiert . Folgt man den sieben Punkten Anleitung zu der Frage »Wie wechsle ich einen Reifen an meinem Auto?«, wird man definitiv keinen Reifen wechseln. Aber vielleicht etwas kaputt machen.

Es geht damit los, dass ChatGPT empfiehlt, die Radmuttern zu lösen, indem man »das Werkzeug im Uhrzeigersinn« dreht. So zieht man Radmuttern aber fest.

Anschließend soll man das Rad der Antwort zufolge von der Achse lösen, indem man es »zuerst nach hinten zieht, dann nach vorn«. Vermutlich ein Übersetzungsfehler, denn »to move back and forth« heißt auf Deutsch »hin- und herbewegen«.

Unmittelbar nach dem Lösen der Muttern wird das Rad dann laut ChatGPT entfernt, das Ersatzrad montiert. Ganz ohne die Hilfe eines Wagenhebers. Das könnte schwierig werden.

Das Beispiel illustriert zwei der zentralen Probleme, die auf sogenannter Künstlicher Intelligenz (KI) basierende Sprachproduktionssysteme derzeit haben:

Man kann sich nicht darauf verlassen, was sie einem erzählen, aber sie geben auf den ersten Blick durchaus überzeugende Antworten.

2. Man erfährt nie, woher sie ihre Informationen haben.

Beides hat einen einfachen Grund: Sprachproduktionssysteme sind nur gut darin, zu erraten, welche Wörter oft auf welche Wörter folgen oder mit ihnen im Zusammenhang auftauchen. Sie »wissen« gar nichts. Also auch nicht, woher eine Information kommt.

Die Sozioinformatikerin Katharina Zweig hat es im SPIEGEL-Interview  so erklärt: »Ein Sprachmodell operiert nicht mit Quellen, sondern nur mit Wahrscheinlichkeiten. Alle Quellen wurden in die Wahrscheinlichkeiten hineingerechnet, und es ergibt keinen Sinn zu fragen: Welche Quelle hat jetzt zu dieser Wahrscheinlichkeit für dieses Wort geführt?«

Gefährliches Halbwissen

ChatGPT wurde mit einem riesigen Berg aus Daten gefüttert, der aber nur bis 2021 reicht. Dass Queen Elizabeth II. gestorben ist, weiß ChatGPT nicht. Die Frage »Wann griff Russland die ukrainische Hauptstadt Kiew an?«, kann das System ebenfalls nicht beantworten.

Wer den Schreibassistenten Moonbeam, der auf GPT-3 basiert, nach einem russischen Angriff auf die Ukraine oder auf die ukrainische Hauptstadt Kiew fragt, bekommt je nach Formulierung verschiedene Antworten – alle falsch. Zum Beispiel, Russland habe Kiew am 26. November 2018 angegriffen. Was etwa zu dieser Zeit tatsächlich geschah: Am 25. November 2018 griffen russische Kräfte ukrainische Schiffe in der Meerenge von Kertsch an und setzten sie fest. Moonbeam antwortet also statt »das weiß ich nicht« mit etwas, das man hierzulande gefährliches Halbwissen nennt.

Das Programm ist eines von Dutzenden neuen Werkzeugen, die oft als »Schreibassistenten« oder »Hilfe beim Überwinden einer Schreibblockade« angepriesen werden. Für Generisches wie Katalogtexte oder suchmaschinenoptimiertes Blabla sind diese Systeme zweifellos geeignet. Sie schreiben offenbar auch plausible Hausarbeiten, ein Wettrüsten hat bereits begonnen . Die Seite »Stackoverflow«, wo Programmcode und Antworten auf Programmierfragen veröffentlicht werden, hat mit GPT oder ChatGPT erzeugte Inhalte vorläufig verboten , weil sie zu oft falsch sind, aber »typischerweise so aussehen, als seien sie gut«.

„ Ich versuche mein Bestes“ 

ChatGPT und GPT-3 stammen von OpenAI, ursprünglich einer Stiftung mit dem Ziel, KI-Missbrauch zu verhindern. Heute ist OpenAI ein kommerzielles Unternehmen, das gerade einen großen Deal mit Microsoft gemacht hat. Der Windows-Konzern hatte schon 2019 eine Milliarde Dollar in OpenAI investiert .

Eine problematische Gemeinsamkeit aller OpenAI-Systeme ist diese: Man weiß nicht genau, woraus sie eigentlich gelernt haben. ChatGPT selbst beantwortet die Frage nach seinen Trainingsdaten so:

»Ich, ChatGPT, bin mit einer Vielzahl von Texten aus dem Internet trainiert worden. Dies beinhaltet Artikel, Bücher, Websites, Foren und andere Arten von Texten, die im Internet verfügbar sind. Dieser Datensatz wurde regelmäßig aktualisiert, um sicherzustellen, dass er die aktuellsten Informationen enthält und dass ich so gut wie möglich auf die Fragen der Benutzer antworten kann. Mein Wissensstand ist 2021 und ich versuche mein Bestes, um Ihre Fragen zu beantworten.«

Über den tatsächlichen Datenkorpus, den sich GPT-3, das ChatGPT zugrundeliegende GPT-3.5 und das für die nähere Zukunft angekündigte GPT-4 einverleibt haben, gibt es nur Spekulationen. Diverse  Machine-Learning -Fachleute  haben versucht, es herauszufinden, mit durchwachsenem Erfolg.

Klar scheint zu sein, dass eine öffentlich zugängliche Datenbank von Webseiten namens »Common Crawl«  zum Einsatz kam, dazu der Inhalt weiterer Webseiten auf Basis von Empfehlungen auf der Internetplattform Reddit, und ein großer Satz Wikipedia-Einträge. Darüber hinaus vermutlich zwei große Datenbanken von frei verfügbaren Büchern, die auf der Plattform »Smashwords« veröffentlicht wurden, also überwiegend belletristischen Werken von Hobbyautorinnen und -autoren.

Liebesromane, Fantasy, Science-Fiction

Zwei  Informatiker  von der Northwestern University haben sich die Buchdatensätze genauer angesehen  und festgestellt, dass es »bedeutsame Verzerrungen« gibt, was die vertretenen Genres angeht. Besonders häufig sind demnach Liebesromane, Fantasy und Science-Fiction. Ob eine KI aus ihren Werken lernen darf, wurden die Autorinnen und Autoren sicher nicht gefragt. Urheberrechtlich ist OpenAI auf unsicherem Terrain unterwegs.

Die US-Tech-Webseite Cnet ließ kürzlich bestimmte Texte von einer KI schreiben. Die waren offenbar nicht nur voller Fehler – sondern enthielten auch Passagen, die verdächtig wie Plagiate aussehen .

Das ist das dritte große KI-Problem:

3. Man weiß nicht, was genau die Trainingsdaten waren, sicher ist aber, dass sie nicht die Realität abbilden, Verzerrungen und Urheberrechtsprobleme enthalten.

ChatGPT besteht nicht nur aus einer Maschine, die Hunderte Gigabytes von Text verdaut hat. Das Modell wurde OpenAI zufolge  auch von »AI Trainern« geschult: »Wir wählten zufällig eine vom Modell geschriebene Nachricht, nahmen eine Stichprobe von alternativen Ergänzungen (zur gleichen Vorgabe) und ließen AI-Trainer eine Rangliste erstellen.« Von Menschen als gut beurteilte Antworten wurden dann höher gewichtet.

Es stecken also eine ganze Reihe sehr bedeutsamer unbekannter Faktoren in ChatGPT (und das trifft auf vergleichbare Systeme ebenso zu):

  • Woraus genau lernte das System?

  • Wer trainierte das System, und mit welchen Vorlieben?

  • Was wurde zusätzlich noch aktiv verändert, um etwa brutale, pornografische oder anderweitig problematische Antworten und Texte zu verhindern?

Über die Verzerrungen, die solchen Systemen praktisch zwangsläufig innewohnen, ist schon viel geschrieben worden, auch in dieser Kolumne. Bei einem mittlerweile massenhaft eingesetzten System wie ChatGPT werden solche Fragen drängender. Bislang bezog sich die Kritik vor allem auf systematische Diskriminierung: Rassistische, sexistische und andere Verzerrungen sind in den Trainingsdaten enthalten und schlagen sich eben auch in den Ergebnissen nieder.

Ist die KI zu »woke«?

Mittlerweile fürchten nun aber Teile der US-amerikanischen Rechten, dass ChatGPT »zu woke« sein könnte . Vermutlich, weil es – aus gutem Grund – offenbar programmiert wurde, Diskriminierung, wenn möglich, zu vermeiden. OpenAI-Chef Sam Altman präsentierte kürzlich eine Zukunftsvision , der zufolge es künftig »auf der Welt viele (KI-)Systeme« geben werde, die »hinsichtlich der Werte, die sie durchsetzen, unterschiedlich eingestellt sind«. Eher höfliche, jugendfreie KIs einerseits, und eher sexistische oder rassistische KIs andererseits also?

Es gibt einige Möglichkeiten, den drei oben benannten Problemen zu begegnen. Punkt eins und zwei ließen sich zum Beispiel mit – zur Not nachträglich generierten – Quellenangaben abmildern. »Explainable AI« gibt es als Schlagwort schon länger, »accountable AI«, also KI, deren Output sich überprüfen lässt, wäre besser und praktikabler.

Fünftklässler-Klassenarbeit verlinkt

Der als »KI-Suchmaschine« angepriesene Dienst You.com hat kürzlich eine Chat-basierte Funktion  dazubekommen, die nicht nur Fragen beantwortet, sondern unter der Antwort auch Quellen verlinkt. Das klappt nicht immer: Auf eine Frage nach den Problemen von KI-Trainingsdaten gibt You.com schon mal eine korrekte Antwort, verlinkt dazu aber unter anderem ein PDF mit einer Algebra-Klassenarbeit eines Fünftklässlers.

Wie man einen Reifen wechselt, kann You.com dagegen korrekt beschreiben – und es sagt einem auch, wo man selbst noch einmal nachsehen kann, ob das so stimmt. Es weiß auch, wann Russland Kiew angegriffen hat.

Problem Nummer drei, die Frage nach den Trainingsdaten, ist schwieriger anzugehen, aber um so drängender: Ein erster Schritt wäre eine gesetzliche Regelung. Die Betreiber von Sprachproduktionssystemen sollten verpflichtet werden, ihre Trainingsdatensätze offenzulegen. Noch besser wären öffentlich zugängliche, öffentlich kuratierte Trainingsdatensätze mit verlässlichen, hochwertigen Inhalten. Damit würden nicht kommerzielle KI-Anwendungen einfacher. Und wenigstens andere Fachleute könnten nachvollziehen, wie ein System wohl auf seine Antworten kommt, und wo es Probleme gibt.

Wenn die allwissenden Alltagsorakel der Zukunft nützlich sein sollen, muss man ihnen vertrauen können. Im Moment ist das definitiv nicht der Fall.

 






Kommentare