Bleeding Edge - Fluch oder Segen?

Florian Lohmeier
Technologie
#LargeLanguageModels
#TextKI
Cover Image for Bleeding Edge - Fluch oder Segen?

Wir schreiben das Jahr 2001, gute sechs Jahre bevor das erste iPhone auf den Markt gekommen ist. Das Wireless Application Protocol (WAP) hatte sich gerade „etabliert“. Zu dieser Zeit wurden Mobiltelefone hauptsächlich noch zum Telefonieren oder als SMS-Messenger genutzt. An Browsen war eigentlich nicht zu denken. Dennoch arbeitete ich mit meinen damaligen Kolleginnen und Kollegen an einem „mobilen“ Auskunftsportal. Ich erinnere mich noch gut daran, wie uns unterschiedliche Display-Größen und WAP-Standards das Leben schwer machten. Spätestens bei der Integration der automatischen Lokalisierung zur Suche nach der nächsten Apotheke wussten wir, dass wir mit unserer Anwendung weit voraus waren. Weder Nutzer noch Unternehmen waren so weit, sich auf das WAP-Abenteuer einzulassen. Für mich aber war es wegweisend. Ich habe es genossen, mich von Anfang an mit bleeding edge Technologien befassen zu dürfen. Daran hat sich bis heute nichts geändert.

Für uns bei NEOMO hat künstliche Intelligenz nicht erst mit ChatGPT begonnen. Seit unserer Gründung in 2012 haben wir uns zum Ziel gesetzt, „unsere Erfahrungen aus verschiedenen Projekten in Konzernen und Start-Ups in sinnvolle Produkte und effektive Dienstleistungen zu verwandeln“. Damit verbunden ist stets der Drang, neue Technologien zu analysieren, bisher eingesetzte Lösungen zu hinterfragen und verfügbare Frameworks mit eigenen Modulen anzureichern.

Unsere ersten Anwendungen auf Basis von Large Language Models (LLM) entwickelten wir 2020 mit T5 (mehr dazu in unserer Erfolgsgeschichte). Mit der Verbreitung von weiteren Modellen und Interaktionsmöglichkeiten wie ChatGPT haben wir uns immer intensiver mit diesen Technologien und deren Einsatzbereichen in Unternehmen auseinandergesetzt. Auch in diesem Kontext haben wir weiterhin den Anspruch, unsere Kunden durch sinnvollen Einsatz von modernen Lösungen auf das nächste Level zu heben.

In Diskussionen mit Kunden oder Geschäftspartnern hören wir allerdings meist Sätze wie

„so weit sind wir noch nicht“

oder

„wir müssen erstmal die Basis aufräumen“

Warum aber ist das so? Warum gibt es erneut oder noch immer so eine enorme Diskrepanz zwischen moderner Technologie und dem tatsächlichen Softwarestand in Unternehmen? In einigen Fällen mag es an Vorstellungskraft fehlen, was durch Modernisierung einzelner Prozesse wirklich erreicht werden kann.

Genau an diesem Punkt setzen wir aktuell mit unserer Webinar-Reihe „KI: Tief integrieren oder sein lassen!“ an. Für uns gibt es nur den Weg nach vorne. Wir nehmen jede neue Technologie, jedes neue Modell oder Framework auseinander und verstehen es als unsere Aufgabe, unsere Kunden und Partner über die Vor- und Nachteile eines entsprechenden Einsatzes aufzuklären. Und wir reden hier nicht vom nächsten allgemeinen ChatBot. Wir fokussieren auf Geschäftsprozesse, die sich entweder erst durch den Einsatz von künstlicher Intelligenz realisieren oder skalieren lassen.

Nehmen wir zum Beispiel das Thema „Ausschreibungen“. Zahlreiche Unternehmen beantworten einen RFI, RFQ oder RFP nach dem anderen und setzen Unmengen an zeitlichen und personellen Ressourcen dafür an. Wir wissen, wovon wir sprechen, denn natürlich haben auch wir an der ein oder anderen Ausschreibung teilgenommen. Auf Dauer steht dieser Aufwand für unsere Unternehmensgröße allerdings nicht im richtigen Verhältnis. Daher haben wir begonnen, diesen Prozess unter zu Hilfenahme von künstlicher Intelligenz für uns selbst zu automatisieren.

Durch Crawlen von unterschiedlichen Ausschreibungen und den Einsatz unserer Extraktionsmodule sortieren wir relevante Kandidaten auf einfache Weise vor. Von uns trainierte GPT-Modelle kommen im Anschluss für die Ausarbeitung der Unterlagen zum Einsatz. Auf diese Weise konnten wir einen sinnvollen Geschäftsprozess aufsetzen, der sich auf herkömmliche Weise auf Dauer nicht hätte realisieren lassen.

Die Antwort auf die Frage wie wir bleeding egde gegenüberstehen sollte klar sein - es ist nach wie vor unser Sweetspot.

Florian Lohmeier
CO-Founder NEOMO GmbH
Florian hatte immer mit visuellen und UX-Themen zu tun mit starkem Fokus auf such-basierten Anwendungen.

Wir haben noch mehr zu bieten!

Unseren Newsletter abonnieren

Wenn Sie sich vom Twitter- und LinkedIn-Wahnsinn abkoppeln, aber trotzdem unsere Inhalte lesen möchten, freuen wir uns und haben genau das richtige für Sie: Unser Newsletter hält Sie über alles Wissenswerte auf dem Laufenden.

Bitte benutzen Sie das untenstehende Formular, um ihn zu abonnieren.

NEOMO verpflichtet sich, Ihre Privatsphäre zu schützen und zu respektieren und Ihre persönlichen Daten nur dazu verwenden, Ihr Konto zu verwalten und die von Ihnen angeforderten Informationen bereitzustellen. Um Ihnen die gewünschten Inhalte zur Verfügung stellen zu können, müssen wir Ihre personenbezogenen Daten speichern und verarbeiten.

Folgen Sie uns für Einblicke, Ausblicke und Durchblicke.

Wann immer neue Inhalte verfügbar sind oder etwas Bemerkenswertes in der Branche passiert - wir halten Sie auf dem Laufenden.

Folgen Sie uns auf LinkedIn und Twitter, um Neuigkeiten zu erfahren, und auf YouTube für bewegte Bilder.

Teilen, wenn's gefällt

Wenn Ihnen unser Beitrag gefällt, helfen Sie uns bitte, ihn zu verteilen, indem Sie Ihr eigenes Netzwerk aktivieren.

Weitere Blogartikel

Image

Im Moment ist KI wie ein 12-jähriger Kollege

Die Technologie muss im Prozess eingebettet und dem Prozess angepasst werden und nicht unverbunden daneben schweben. Das gilt auch für Large Language Models – obwohl sie aufgrund ihrer „Menschlichkeit“ den Eindruck erwecken, als könnte man sie wie einen Kollegen behandeln und nicht wie ein Tool. Aber in wie vielen Geschäftsbereichen bringt ein Kollege mit den intellektuellen Kapazitäten eines Zwölfjährigen einen großen Mehrwert?

Image

ChatGPT „weiß“ gar nichts

Sprachmodelle tun sich notorisch schwer damit, Fakten verlässlich abzurufen. Leider antworten sie aber auch fast nie mit „Ich weiß nicht“. Die Last, zwischen Halluzination und Wahrheit zu unterscheiden, liegt also vollständig auf dem Anwender. Das bedeutet effektiv, dass dieser Anwender die Informationen aus dem Sprachmodell überprüfen muss – indem er den Fakt, den er sucht, gleichzeitig aus einer anderen, verlässlichen Quelle bezieht. Als Wissensspeicher sind LLMs also mehr als nutzlos.

Image

Rundify - lesen, verstehen, testen

Digitale Technologie hat die Menschen mit Informationen überladen, aber Technologie kann ihnen auch helfen, aus dieser Flut eine Wissensquelle zu machen. Large Language Models können – richtig eingesetzt – ein Baustein hierzu sein. Unser Tool "rundify" zeigt, wie so etwas aussehen könnte.