„Die Ursuppe, aus der sich ChatGPT bedient.“

Patrick Beuth im Spiegel am 3.02.2023 über ChatGPT. 

Der auf künstlicher Intelligenz (KI) basierende Textroboter hat halluziniert, wie das in der Fachsprache heißt. ChatGPT greift auf keine Datenbank zu, in der schon Antworten auf Fragen von Nutzerinnen und Nutzern gespeichert sind. Stattdessen erzeugt der Chatbot Antworten jedes Mal aufs Neue. Sein Maßstab sind dabei statistische Zusammenhänge zwischen Wörtern und Wortgruppen, die er in seinen Trainingsdaten erkannt hat. Sein Modus Operandi basiert auf der Frage: Welches Wort folgt wahrscheinlich auf die vorangegangenen?

Als Trainingsdaten wiederum dient ein Großteil der bis 2021 im Internet veröffentlichten Texte mit insgesamt über 200 Milliarden Wörtern. Es bildet die Ursuppe, aus der sich ChatGPT bedient. Eine Antwort der Software lässt sich daher nie auf einen einzigen Text zurückführen, sondern auf alle. Weil die Wörter Zetsche, Kaeser, Hopp und Plattner wahrscheinlich in Zusammenhängen wie Automobilbau, Transformation, Erfolg oder IT auftauchen, erzeugt ChatGPT daraus Titel, die inhaltlich plausibel klingen. Darüber hinaus hat das Modell aus seinen Trainingsdaten offenbar gelernt, wie Titel von Biografien typischerweise aufgebaut sind. Die Information, ob ein solches Werk wirklich existiert, kann die Software nirgends abfragen.

Das klingt erst mal nach einem Rückschritt. Denn wahrscheinlich hätte eine andere KI die Frage nach einer Zetsche-Biografie schon 2011 korrekt beantwortet. Watson, die künstliche Intelligenz von IBM, gewann damals die Quizshow »Jeopardy!«, weil sie so gut darin war, korrekte Informationen zu reproduzieren.

Doch die Technologie hinter beiden Ansätzen unterscheidet sich grundlegend. »Watson ist eine Art Google, auf das noch etwas heraufgebaut wurde«, sagt Chris Biemann, Professor für Sprachtechnologie an der Universität Hamburg. »Das System zerlegt eine Frage in Suchbegriffe, die es in so etwas Ähnliches wie eine Suchmaschine eingibt, um dort relevante Textstücke zu finden, in denen die gesuchte Information im besten Fall drinsteckt.« Was den kreativen sprachlichen Umgang mit dem jeweiligen Ergebnis angeht, sei Watson allerdings ziemlich beschränkt.

ChatGPT hingegen ist ein sogenanntes Sprachmodell. Diese waren anfangs nur in der Lage, beim Erzeugen von Texten ein paar vorangegangene Wörter daraufhin zu analysieren, welches Wort wohl als Nächstes folgen müsste. Inzwischen könne das Sprachmodell von ChatGPT sogar mehrere Absätze berücksichtigen, »deswegen wird das Ergebnis semantisch immer kohärenter«, sagt Biemann, »aber es hat keine Faktizität«. Mit anderen Worten: ChatGPT ist aufgrund jahrelanger Forschungsarbeit sehr viel eloquenter, als Watson je sein könnte, generiert aber zugleich mehr Unwahrheiten, die nur mehr oder weniger überzeugend klingen. Die Halluzinationen, glaubt der KI-Forscher, werden »in absehbarer Zeit« nicht verschwinden. In den nächsten ein bis zwei Jahren werde es dazu sicher viel Forschungsarbeit geben. Bis das Problem der fantasierenden KI wirklich gelöst sei, würden eher noch drei bis fünf Jahre vergehen.

Einige Entwickler sind da zuversichtlicher. Sie glauben, dass es sich nur um KI-Kinderkrankheiten handelt. Forscherinnen und Forscher von Google, der Carnegie Mellon University und der UC Irvine hatten schon kurz vor der Veröffentlichung von ChatGPT einen Faktencheck- und Korrekturautomatismus für Sprachmodelle  entwickelt. Die Firma Writesonic behauptet, ihr eigener Bot namens Chatsonic habe die Limitierungen von ChatGPT dank einer Anbindung an Google sogar schon überwunden und könne »akkurate Antworten« zu jedem Thema erzeugen.

Die Frage nach den Autobiografien deutscher CEOs beantwortet Chatsonic allerdings mit einem Hinweis auf Otto Waalkes. Otto, der Chief Executive Ottifant?

OpenAI und Microsoft, Google, Baidu: Das Wettrennen läuft

Die von Biemann prognostizierten drei bis fünf Jahre werden große Technikkonzerne jedenfalls nicht hinter verschlossenen Türen experimentieren. Microsoft wird die Technik von OpenAI wohl schon bald  in einige  seiner Produkte integrieren. Der chinesische Konzern Baidu will seinen ChatGPT-Konkurrenten angeblich  schon im März in seine Suchmaschine einbauen. Google hat US-Medien zufolge  die internen Tests von Apprentice Bard intensiviert, ebenfalls eine direkte Antwort auf ChatGPT. Die Google-Tochter DeepMind wiederum hat mit Sparrow einen Chatbot entwickelt , der Faktenfehler einer KI ausbügeln und noch dieses Jahr in eine halböffentliche Testphase gehen soll. Das Wettrennen läuft.



Kommentare