How to „AI“ - LLMs als Gebrauchs­gegenstand

Johannes Stiehler
Arbiträre Ausbrüche
#Projektdurchführung
#LargeLanguageModels
#Produktentwicklung
Cover Image for How to „AI“ - LLMs als Gebrauchs­gegenstand

Manche Software ist sehr teuer, manche ist billig und andere ist kostenlos. Und manche Arten von Software kosteten im Jahr 2005 noch bis zu mehrere Millionen und sind jetzt völlig umsonst zu haben.

Enterprise Search hat diese Reise hinter sich. Am Anfang war die schiere Leistung, ein skalierbares System hinzustellen, in das man Daten stopfen und aus dem man sie idealerweise auch wieder herausholen konnte, den Kunden Hunderttausende Euros wert. Und nochmal Zehntausende an Professional Services, damit das Ganze auch wirklich (manchmal) läuft.

Solr, OpenSearch und Vespa sind heute (und schon seit langem) im eigentlichen Sinne kostenlos und können das Gleiche oder mehr.

Verdient man deshalb kein Geld mehr mit Suche? Im Gegenteil, aber die Schwerpunkte haben sich drastisch verschoben. Kundenspezifische Anpassungen, Skalierung des Systems in heterogenen Umgebungen oder pfiffige Lösungen für Geschäftsprobleme stehen im Vordergrund und werden bezahlt. Die Entwicklung der Kernsoftware obliegt der Open Source Community.

Die Moral von der Geschichte: Die eigentliche Software ist (fast) nie auf Dauer ein Umsatzbringer, außer sie erschafft sich ein Quasi-Monopol. Forschung, Open Source, disruptive Konkurrenten, all das bringt früher oder später solche Lizenzmodelle zum Kollabieren.

Genauso sollte man auch schon heute weise darauf verzichten, ein Geschäftsmodell darauf zu bauen, dass man sich darauf versteht, LLMs (also Large Language Models) zu benutzen. Ein API-Wrapper um ChatGPT oder ein Service, der in Wirklichkeit nur Vicuna prompted, kann nicht lange Bestand haben. Selbst das wunderbarste LLM der Welt zu besitzen und gegen Geld verfügbar zu machen, ist vermutlich auf Dauer kein tragbares Geschäftsmodell. Zu groß ist die Konkurrenz verschiedener Modelle, von denen immer mehr frei verfügbar oder zumindest günstig zu benutzen sind.

Offensichtlich stört das die Infrastrukturanbieter wie Microsoft und Amazon eher wenig, sie können mit überteuerten GPU-Instanzen so oder so ordentlich Geld verdienen.
Aber wie kann man im Bereich generativer AI dauerhafte und einzigartige Mehrwerte schaffen?

Ich behaupte, das funktioniert ganz ähnlich wie bei Suchmaschinen, Dokumentenverwaltungssystemen und anderer Enterprise Software: Der Mehrwert kommt aus dem Wissen und den Daten, die die Nutzer der Software zur Verfügung stellen und der Art, wie man als Dienstleister damit umgeht.

Meine Top 4 Zutaten für einzigartige Lösungen, die auch in 5 Jahren noch ihr Geld wert sind:

  1. Technisches Verständnis
    Ja, man muss wissen, was man tut, wie man die entsprechenden Technologien benutzt, anpasst, ausrollt. Schon daran hapert es in Bezug auf LLMs gerade bei denen, die auf LinkedIn am lautesten sind.
  2. Problemverständnis
    Was ist das Problem, das wir lösen? Welcher Geschäftsprozess wird verbessert? Wie spart der Kunde Geld oder wie macht er Geld? Nicht das Problem zur Technologie suchen, sondern die Technologie zum Problem, ist hierbei die Devise.
  3. Die richtigen Daten in der richtigen Form
    „Daten sind das neue Öl." Das stimmt schon auch insofern als Daten der Antrieb und das Schmiermittel solcher Technologien sind. Mit welchen Daten kann man ein LLM finetunen, damit es zum Experten für europäischen Regularien wird? Was sind die besten Textabschnitte für Beispielprompts? All diese Schätze sind beim Kunden vorhanden und müssen in die richtige Form gebracht werden, damit die LLM-Technologie davon profitieren kann.
  4. Nutzerinteraktionen
    Eine große Chance von Machine-Learning-Algorithmen im Allgemeinen liegt darin, dass man Feedback-Schleifen zum Nutzer bauen kann. Eine Antwort gefällt dem Nutzer nicht? Sein „Daumen runter“ kann direkt zum Negativbeispiel für das nächste Finetuning werden. Ein Nutzer editiert die Ausgabe des LLM noch etwas? Prima, schon haben wir ein Positivbeispiel oder eine Erweiterung für den Prompt.

In „Dienstleisterkreisen“ wird gern und viel von „Innovation mit dem Kunden“ geredet. Diese Integration von technischem Sachverstand mit Datenschatz und Prozessverständnis des Kunden ist, wie wir das bei NEOMO verstehen.

Johannes Stiehler
CO-Founder NEOMO GmbH
Johannes hat während seiner gesamten Laufbahn an Softwarelösungen gearbeitet, die Textinformationen verarbeiten, anreichern und kontextabhängig anzeigen.

Wir haben noch mehr zu bieten!

Unseren Newsletter abonnieren

Wenn Sie sich vom Twitter- und LinkedIn-Wahnsinn abkoppeln, aber trotzdem unsere Inhalte lesen möchten, freuen wir uns und haben genau das richtige für Sie: Unser Newsletter hält Sie über alles Wissenswerte auf dem Laufenden.

Bitte benutzen Sie das untenstehende Formular, um ihn zu abonnieren.

NEOMO GmbH ("NEOMO") verpflichtet sich, Ihre Privatsphäre zu schützen und zu respektieren, und wir werden Ihre persönlichen Daten nur dazu verwenden, Ihr Konto zu verwalten und die von Ihnen angeforderten Produkte und Dienstleistungen bereitzustellen.

Um Ihnen die gewünschten Inhalte zur Verfügung stellen zu können, müssen wir Ihre personenbezogenen Daten speichern und verarbeiten. Wenn Sie damit einverstanden sind, dass wir Ihre personenbezogenen Daten zu diesem Zweck speichern, markieren Sie bitte das unten stehende Kästchen.

Sie können sich jederzeit von diesen Mitteilungen abmelden. Weitere Informationen darüber, wie Sie sich abmelden können, über unsere Datenschutzpraktiken und darüber, wie wir Ihre Daten schützen und respektieren, finden Sie in unserer Datenschutzrichtlinie.

Folgen Sie uns für Einblicke, Ausblicke und Durchblicke.

Wann immer neue Inhalte verfügbar sind oder etwas Bemerkenswertes in der Branche passiert - wir halten Sie auf dem Laufenden.

Folgen Sie uns auf LinkedIn und Twitter, um Neuigkeiten zu erfahren, und auf YouTube für bewegte Bilder.

Teilen, wenn's gefällt

Wenn Ihnen unser Beitrag gefällt, helfen Sie uns bitte, ihn zu verteilen, indem Sie Ihr eigenes Netzwerk aktivieren.

Weitere Blogartikel

Image

ChatGPT „weiß“ gar nichts

Sprachmodelle tun sich notorisch schwer damit, Fakten verlässlich abzurufen. Leider antworten sie aber auch fast nie mit „Ich weiß nicht“. Die Last, zwischen Halluzination und Wahrheit zu unterscheiden, liegt also vollständig auf dem Anwender. Das bedeutet effektiv, dass dieser Anwender die Informationen aus dem Sprachmodell überprüfen muss – indem er den Fakt, den er sucht, gleichzeitig aus einer anderen, verlässlichen Quelle bezieht. Als Wissensspeicher sind LLMs also mehr als nutzlos.

Image

Rundify - lesen, verstehen, testen

Digitale Technologie hat die Menschen mit Informationen überladen, aber Technologie kann ihnen auch helfen, aus dieser Flut eine Wissensquelle zu machen. Large Language Models können – richtig eingesetzt – ein Baustein hierzu sein. Unser Tool "rundify" zeigt, wie so etwas aussehen könnte.

Image

ChatGPT und der Ölteppich

Wie schon beim Deep Learning bleiben Daten auch bei großen Sprachmodellen wichtig. Da das Basismodell jedoch von jemand anderem trainiert wurde, ist es in diesem Fall unmöglich zu sagen, welche Daten wirklich enthalten sind. Da das Fehlen von Daten zu Halluzinationen führt, hat diese Unwissenheit ziemlich schwerwiegende Folgen.