5 Gründe, warum ChatGPT (oft) nicht die Lösung ist

Johannes Stiehler
Technologie
#TextKI
#LargeLanguageModels
#ChatGPT
#Suchvervollständigung
Cover Image for 5 Gründe, warum ChatGPT (oft) nicht die Lösung ist

Nach der Veröffentlichung von GPT-4 stänkern sich unkritische Fans und KI-Weltuntergangspropheten auf sozialen Medien mit neuem Enthusiasmus an.
Höchste Zeit, einen abwägenden Blick auf die Technologie und ihre Einsetzbarkeit für Consumer-Anwendungen zu werfen.

Im Folgenden werden einige Begriffe verwendet, die vielleicht nicht jedem klar sind:

ChatGPT: Eine Variante von GPT, die für Konversationen, also mehrschrittige Interaktionen mit Nutzern ausgelegt ist.

GPT: "Generative Pre-Trained Transformer", ein Large Language Model, dass Textausgabe erzeugen kann und für viele Anwendungsfälle ohne zusätzliches Training einsetzbar ist.

(Large) Language Model: Eine digitale Repräsentation einer oder mehrerer natürlicher Sprachen. Im Wesentlichen besteht seine Funktion in der Vorhersage der plausibelsten Fortsetzung eines Eingabetextes.

Deep Learning: Ein Ansatz für maschinelles Lernen, der viele früher separate Prozesse (z.B. Feature Engineering und Abstraktionen der Eingabedaten) zusammenfasst und “mitlernt”. Neuronale Netze, insbesondere Transformer-Architekturen sind der aktuell erfolgreichste Ansatz hierzu.

Diese Begriffe beinhalten einander: ChatGPT ist ein GPT ist ein Large Language Model ist eine Deep Learning Anwendung.

1. ChatGPT ist Anti-UX

Ein Online-Auftritt lebt von Nutzerführung.

ChatGPT-Konversationen werden vom Nutzer geführt.

So einfach ist das.

Wie in anderen Posts beschrieben, ist ChatGPT primär “hilfreich um jeden Preis”. Man könnte sogar von einer gewissen Unterwürfigkeit sprechen.

Inwiefern ist das ein Problem?

Auf meinem Online-Angebot, sagen wir z.B. einem News-Portal möchte ich die Kontrolle über das Nutzungserlebnis behalten. Ich will Technologien verwenden, die einerseits den Besuchern schnelle Bedürfnisbefriedigung ermöglichen, aber andererseits auch erlauben, das Verhalten der Nutzer in bestimmte Richtungen zu steuern.

Beispiel: Eine Autocomplete-Funktionalität erspart dem Nutzer Tipparbeit und mentale Anstrengung (Wie schreibt man nochmal “Wolodymyr Selenskyj”?), erlaubt aber gleichzeitig auch, bestimmte Produkte oder Artikel zu promoten.

Der Betreiber des Angebots hat in der Hand, wohin er Besucherströme lenken möchte.

Eine Chat-KI hingegen ist notorisch schwer überhaupt einzuschränken, sie lässt sich vollständig vom Nutzer steuern, im Falle von ChatGPT auch zu völlig abwegigen Inhalten. OpenAI gibt zwar ein paar windige Leitplanken vor, um Hassrede und andere Unarten einzuschränken. Für Integratoren gibt es aber keine Möglichkeit, ChatGPT dazu zu bringen, seine Unterhaltungen auf bestimmte Themen zu beschränken.

2. GPT ist immer noch voller Bias und Halluzinationen - wer übernimmt die Verantwortung?

Large Language Models haben im Kern nur einen Zweck:

Für eine Eingabe eine möglichst plausible Fortsetzung zu finden.

“Plausibel” heißt in diesem Falle insbesondere statistisch aus den Trainingsdaten (meist Webseiten und Wikipedia) ableitbar. Diese Fortsetzungen sind immer beeindruckend – zum Beispiel wenn ChatGPT ein ganzes Essay aus einem einfachen Prompt konstruiert – aber manchmal auch weltanschaulich fragwürdig (z.B. rassistisch) oder faktisch falsch.

Das heißt, Ausgaben von solchen Modellen müssen immer kritisch überprüft werden, bevor sie als “Wahrheit” präsentiert werden. In manchen Fällen kann man das dem Benutzer aufbürden (z.B. wenn eine Legal AI einen Vertragsentwurf für einen Anwalt erstellt), in vielen Fällen aber eben nicht, vor allem nicht im B2C Bereich.

3. Chat ist einer der langsamsten Formen der Nutzerinteraktion und GPT ist noch langsamer

Schon lange wird versucht, Chat-Interfaces als großartige Form der Nutzerinteraktion zu verkaufen. Im Gegensatz zu ChatGPT (siehe Punkt 1) lassen sich zwar viele ChatBots auch vom Betreiber so konfigurieren, dass eine echte Nutzerführung stattfindet.

Das ändert allerdings nichts daran, dass die meisten Nutzer lieber klicken als tippen, lieber schauen als lesen und möglichst wenig Zeit auf der Suche nach Informationen verbringen wollen.
Keine dieser Vorlieben wird mit einem ChatBot bedient.

Gerade, was den letzten Punkt betrifft, ist ChatGPT ein neuer Tiefpunkt: So lange habe ich schon lange nicht mehr auf einzelne Wörter gewartet.

Das zeigt sich besonders drastisch bei Bing Sydney:
Statt Suche -> Klick ist die Interaktion via ChatBot im Idealfall Tippen -> Warten -> Lesen -> Klick.

Der Weg zum ersten Suchergebnis ist deutlich länger, in vielen Fällen tröstet der von der KI erzeugte zusammenfassende Text darüber auch nicht hinweg.

4. Large Language Models sind Datenkraken

Bis vor kurzem behielt sich OpenAI das Recht vor, alle Nutzerdaten zur Verbesserung ihrer Dienste, spezifisch zum Training neuer Modelle zu verwenden. Ich denke, den meisten GPT-Enthusiasten war das nicht bewusst, während sie private und Unternehmensdaten in Interaktionen mit GPT-APIs verfüttert haben.

Diese Policy wurde nun zwar auf ein explizites Opt-In-Modell geändert, aber Copyright und Datenschutz bleiben weiterhin kritische Themen im Zusammenhang mit solchen Tools.

Schließlich werden Dall-E und ChatGPT auf im Netz verfügbaren Daten trainiert, deren Ersteller dafür keinerlei Zustimmung gegeben haben. Die erzeugten Ausgaben sind immer indirekte Derivate dieser Trainingsdaten. Copyright-Zuweisung is nur eines von vielen Problemen, die sich daraus ergeben.

5. Deep Learning ist eine Black Box ohne Zugang

In vielen Anwendungen ist es unumgänglich, Entscheidungen, die von einer Software getroffen wurden, nachvollziehbar zu machen. Das ist nur möglich, wenn Ausgaben auf relativ einfachem Wege direkt aus den Eingaben abgeleitet werden können.

Ich kann mich noch gut erinnern, wie ich versucht habe, Anwälten in Rahmen einer elektronischen Beweisaufnahme zu erklären, was eine “Support Vector Machine” ist und auf welchem Wege diese dazu kam, bestimmte Dokumente als verfahrensrelevant zu kennzeichnen und andere nicht.

Im Vergleich dazu sind mehrschichtige neuronale Netzen, wie sie eben auch für Large Language Models verwendet werden, mehrere Größenordnungen komplexer. Natürlich sind beide Technologien “Machine Learning”, im gleichen Maße wie ein Fahrrad und ein Space Shuttle beides Fortbewegungsmittel sind.

Für manche Anwendungen ist das ein absoluter “deal breaker”.

Nach der Veröffentlichung von GPT-4 bewegen sich die Beiträge auf LinkedIn und Twitter wieder auf die übliche Hype-Rezeptur zu:

  • eine Tasse unkritischer Jubel
  • eine Prise überlegte Kritik
  • ein Teelöffel Weltuntergangsfantasien und andere Horrorszenarien
  • ein Eimer Selbstvermarktung ohne wirklichen Bezug zum Thema

In kritischeren Beiträgen dreht sich die Diskussion primär um solche Dinge wie Bias und Halluzinationen, also die Tatsache, dass ich jedes Large Language Model dazu bringen kann, sowohl weltanschaulich fragwürdige als auch faktisch falsche Auskünfte zu geben.

Aber nehmen wir mal an, diese Probleme existierten nicht. Wäre ChatGPT dann die Wunderwaffe für jede Website? Sicher nicht, denn ChatGPT und ähnliche Tools sind ihrem Wesen nach kaum sinnvoll in eine aktive Nutzerführung integrierbar, erzeugen Ergebnisse, die auf jeden Fall noch durch einen menschlichen Benutzer auf Lügen und Tendenzen überprüft und freigegeben werden müssen und tun das alles ohne Transparenz oder Rücksicht auf geistiges Eigentum.

Johannes Stiehler
CO-Founder NEOMO GmbH
Johannes hat während seiner gesamten Laufbahn an Softwarelösungen gearbeitet, die Textinformationen verarbeiten, anreichern und kontextabhängig anzeigen.

Wir haben noch mehr zu bieten!

Unseren Newsletter abonnieren

Wenn Sie sich vom Twitter- und LinkedIn-Wahnsinn abkoppeln, aber trotzdem unsere Inhalte lesen möchten, freuen wir uns und haben genau das richtige für Sie: Unser Newsletter hält Sie über alles Wissenswerte auf dem Laufenden.

Bitte benutzen Sie das untenstehende Formular, um ihn zu abonnieren.

NEOMO GmbH ("NEOMO") verpflichtet sich, Ihre Privatsphäre zu schützen und zu respektieren, und wir werden Ihre persönlichen Daten nur dazu verwenden, Ihr Konto zu verwalten und die von Ihnen angeforderten Produkte und Dienstleistungen bereitzustellen.

Um Ihnen die gewünschten Inhalte zur Verfügung stellen zu können, müssen wir Ihre personenbezogenen Daten speichern und verarbeiten. Wenn Sie damit einverstanden sind, dass wir Ihre personenbezogenen Daten zu diesem Zweck speichern, markieren Sie bitte das unten stehende Kästchen.

Sie können sich jederzeit von diesen Mitteilungen abmelden. Weitere Informationen darüber, wie Sie sich abmelden können, über unsere Datenschutzpraktiken und darüber, wie wir Ihre Daten schützen und respektieren, finden Sie in unserer Datenschutzrichtlinie.

Folgen Sie uns für Einblicke, Ausblicke und Durchblicke.

Wann immer neue Inhalte verfügbar sind oder etwas Bemerkenswertes in der Branche passiert - wir halten Sie auf dem Laufenden.

Folgen Sie uns auf LinkedIn und Twitter, um Neuigkeiten zu erfahren, und auf YouTube für bewegte Bilder.

Teilen, wenn's gefällt

Wenn Ihnen unser Beitrag gefällt, helfen Sie uns bitte, ihn zu verteilen, indem Sie Ihr eigenes Netzwerk aktivieren.

Weitere Blogartikel

Image

ChatGPT „weiß“ gar nichts

Sprachmodelle tun sich notorisch schwer damit, Fakten verlässlich abzurufen. Leider antworten sie aber auch fast nie mit „Ich weiß nicht“. Die Last, zwischen Halluzination und Wahrheit zu unterscheiden, liegt also vollständig auf dem Anwender. Das bedeutet effektiv, dass dieser Anwender die Informationen aus dem Sprachmodell überprüfen muss – indem er den Fakt, den er sucht, gleichzeitig aus einer anderen, verlässlichen Quelle bezieht. Als Wissensspeicher sind LLMs also mehr als nutzlos.

Image

Rundify - lesen, verstehen, testen

Digitale Technologie hat die Menschen mit Informationen überladen, aber Technologie kann ihnen auch helfen, aus dieser Flut eine Wissensquelle zu machen. Large Language Models können – richtig eingesetzt – ein Baustein hierzu sein. Unser Tool "rundify" zeigt, wie so etwas aussehen könnte.

Image

ChatGPT und der Ölteppich

Wie schon beim Deep Learning bleiben Daten auch bei großen Sprachmodellen wichtig. Da das Basismodell jedoch von jemand anderem trainiert wurde, ist es in diesem Fall unmöglich zu sagen, welche Daten wirklich enthalten sind. Da das Fehlen von Daten zu Halluzinationen führt, hat diese Unwissenheit ziemlich schwerwiegende Folgen.