This article is also available in English
Generative künstliche Intelligenz (Generative KI), insbesondere Large Language Models (LLMs) verändern die Art und Weise, wie Unternehmen Software entwickeln und bereitstellen. Was mit Chatbots und einfachen Automatisierungswerkzeugen begann, entwickelt sich zu etwas weitaus Mächtigerem — KI-Systeme, die tief in Softwarearchitekturen integriert sind und alles von Backend-Prozessen bis hin zu User Interfaces beeinflussen. Wir werden die Herausforderungen des nicht-deterministischen Black-Box-Charakters von LLMs untersuchen, Beispiele dafür geben, wie LLMs komplexe und maßgeschneiderte ML-Modelle ersetzen, und aufzeigen, wie KI-gestützte Funktionen Unternehmenssoftware neu gestalten können. Am Ende werden Sie ein klareres Bild davon haben, wie Sie KI in Ihren Software-Stack integrieren und ihr Potenzial nutzen können.
Die Chatbot-Welle: Ein kurzfristiger Trend
Derzeit konzentrieren sich Unternehmen darauf, Chatbots und maßgeschneiderte GPTs [1] für verschiedene Problemstellungen zu entwickeln. Diese KI-gestützten Werkzeuge zeichnen sich in zwei Bereichen besonders aus: Sie machen internes Wissen zugänglich und automatisieren den Kundenservice. Chatbots werden eingesetzt, um Antwortsysteme aufzubauen, die Mitarbeiter:innen einen schnellen Zugriff auf umfangreiche interne Wissensdatenbanken ermöglichen und dabei Informationssilos aufbrechen. Ob Richtlinien, technische Anleitungen oder Onboarding-Materialien – Chatbots ermöglichen den bedarfsgerechten Zugriff auf wichtiges Wissen, ohne dass Mitarbeiter:innen Datenbanken durchsuchen oder sich auf kontextarme, keyword-basierte Suchmaschinen verlassen müssen.
Im Kund:innen-Support erweisen sich Chatbots als unverzichtbar. Sie bearbeiten häufig gestellte Fragen, unterstützen bei der Fehlerbehebung und bieten Echtzeitunterstützung. Dadurch können Unternehmen ein hohes Anfragevolumen bewältigen, ohne ihre Teams zu überlasten. Dies reduziert die Betriebskosten und steigert die Kundenzufriedenheit durch sofortige Reaktionen auf Standardanfragen. Über die letzte Generation von Chatbots, die noch ohne LLMs auskommen mussten, müssen wir an dieser Stelle kein Wort mehr verlieren.
Diese Tools sind zwar nützlich, doch die rasante Verbreitung von Chatbots zeigt einen kurzfristigen Trend, der voraussichtlich abflachen wird. Viele Unternehmen stürzen sich in die Implementierung von Chatbots, ohne langfristige Ziele oder Skalierbarkeit zu berücksichtigen. Für die meisten erfüllen Chatbots eine taktische Funktion, indem sie unmittelbare Bedürfnisse adressieren, anstatt strategische Veränderungen in der KI-Integration über verschiedene Unternehmenssysteme hinweg voranzutreiben. Dieser überstürzte Einsatz von Chatbot-Lösungen kann zu einer Marktsättigung führen. Dabei werden KI-gestützte Assistenten zwar alltäglich, bieten jedoch aufgrund mangelnder Innovation oder Differenzierung einen sinkenden Mehrwert. Schließlich sind Chatbots oft schlicht und ergreifend unpassende Benutzeroberflächen, da es an Kenntnissen über bessere Alternativen zur Lösung bestimmter Probleme fehlt.
Wir erleben gerade die erste Welle der GenAI-Adoption. Während Chatbots durchaus ihren Nutzen haben, stellen sie nur die sichtbare Oberfläche dieser Technologie dar. Mit zunehmender Erfahrung erkennen Unternehmen, dass der tatsächliche Wert in der Integration von KI jenseits sichtbarer “schreib etwas und Du bekommst es”-Oberflächen liegt. Die Zukunft wird von tiefergehenden KI-Funktionen geprägt sein, die nahtlos in Softwareprodukte eingewoben sind, ohne für Endnutzer:innen offensichtlich zu sein.
Generative KI als allgegenwärtige Technologie
In den kommenden Jahren werden wir einen Wandel erleben. KI wird sich von einem expliziten, undurchsichtigen Werkzeug mit direkter Benutzerinteraktion zu einer nahtlos integrierten Komponente im Feature-Teppich entwickeln. Generative KI wird Funktionen wie dynamische Inhaltserstellung, intelligente Entscheidungsfindung und Echtzeit-Personalisierung ermöglichen, ohne dass Nutzer:innen direkt damit interagieren müssen. Dies wird sowohl das UI-Design als auch die Art und Weise, wie Nutzer:innen mit Software interagieren, grundlegend verändern.
Wir werden beobachten, wie klassische Bedienelemente wie Textfelder, Checkboxen und Schieberegler zunehmend durch flexiblere, KI-gestützte Texteingabebereiche ersetzt werden. In diesen Bereichen können Nutzer:innen ihre Anforderungen in natürlicher Sprache beschreiben, anstatt spezifische Parameter manuell einzugeben. Diese Entwicklung ermöglicht eine flüssigere Interaktion mit Anwendungen, wenn KI komplexe Anweisungen in konkrete Aktionen übersetzt. Ein prägnantes Beispiel dafür ist bereits in Werkzeugen wie Photoshop zu sehen. Dort erfordert die „Generative Fill“-Funktion keine manuelle Einstellung mehrerer Parameter mehr. Stattdessen können Nutzer:innen einfach beschreiben, womit sie einen ausgewählten Bildbereich füllen möchten. Dieser Trend zur Eingabe in natürlicher Sprache wird sich über Anwendungen hinweg ausweiten und die UX intuitiver und weniger durch traditionelle UI-Elemente eingeschränkt gestalten.
Wenn wir schon von Use Cases sprechen: Die Herausforderung liegt nicht im Mangel, sondern im Überfluss. Die eigentliche Schwierigkeit besteht darin, die vielversprechendsten Möglichkeiten zu identifizieren und zu priorisieren.
Der Commodity-Effekt von LLMs gegenüber speziellen ML-Modellen
Eine der bemerkenswertesten Veränderungen, die generative KI in der IT bewirkt hat, ist die Demokratisierung von KI-Fähigkeiten. Diese haben sich von spezialisierten zu standardisierten, leicht verfügbaren Ressourcen gewandelt. Das bietet hohen Komfort für Entwickler:innen, die zuvor keine Berührungspunkte mit Machine Learning hatten. Vor LLMs und Diffusionsmodellen mussten Unternehmen erhebliche Zeit, Aufwand und Ressourcen in die Entwicklung maßgeschneiderter Machine-Learning-Modelle investieren, um schwierige Probleme zu lösen. Diese individuellen Modelle erforderten spezialisierte Rollen und Teams für die Sammlung domänenspezifischer Daten, die Aufbereitung von Features, das Labeling, das Re-Training und den gesamten Lebenszyklus eines Modells [2]. Dieser Prozess ist kostenintensiv, zeitaufwändig und mit langen Entwicklungszyklen verbunden. Er schränkt die Innovationsgeschwindigkeit von Unternehmen ein, sofern keine spezialisierten Skills im Haus verfügbar sind.
LLMs verändern nun die Herangehensweise von Unternehmen an Problemstellungen, die algorithmisch schwer oder gar nicht zu lösen sind. Andrej Karpathy, ehemaliger KI-Chef von Tesla und Mitgründer von OpenAI, betont, dass der Begriff „Language“ in Large Language Models irreführend ist. Diese autoregressiven Modelle können letztlich alles verarbeiten, was sich gut in Tokens zerlegen lässt: Bild, Video, Ton, sogar Proteine. Unternehmen können diese vielseitigen Werkzeuge durch die RAG-Architektur (Retrieval-Augmented Generation) mit eigenen Daten anreichern. Dadurch wird ihr breites Fähigkeitsspektrum nutzbar. In vielen Fällen erübrigt sich damit der Bedarf an spezialisierten Teams, umfangreichem Daten-Labeling und komplexen Machine-Learning-Pipelines, die zuvor notwendig waren, um algorithmisch schwer zu lösende Probleme anzugehen. Das umfangreiche vortrainierte Wissen der LLMs ermöglicht es ihnen, selbst unstrukturierte Daten effektiv zu verarbeiten und zu interpretieren.
Ein wichtiger Aspekt dieser Demokratisierung ist die Verfügbarkeit von LLMs über leicht zu nutzende APIs. Heute weiß fast jede Entwicklerin und jeder Entwickler, wie man mit API-basierten Diensten arbeitet, was die Integration dieser Modelle in bestehende Software-Ökosysteme reibungslos macht. Unternehmen können LLMs über APIs nutzen und von leistungsstarken Modellen profitieren, ohne sich um die zugrundeliegende Infrastruktur kümmern zu müssen. Alternativ lassen sich etliche Modelle bei spezifischen Sicherheits- oder Datenschutzanforderungen auch on-premises betreiben. Hier müssen allerdings Abstriche im Vergleich zu den führenden Frontier Models gemacht werden.
Nehmen wir als Beispiel eine App zur Erfassung und Verwaltung von Reisekosten. Traditionell hätte eine solche Anwendung möglicherweise auf ein speziell trainiertes ML-Modell zurückgegriffen, um hochgeladene Belege in Buchungskategorien wie etwa nach DATEV einzuordnen. Das erforderte dedizierte Infrastruktur und idealerweise eine vollständige MLOps-Pipeline (für Modelltraining, -bereitstellung und -überwachung) zur Verwaltung der Datenerfassung, des Trainings und der Modellaktualisierungen. Heute kann solch ein ML-Modell einfach durch ein LLM ersetzt werden, das sein Weltwissen im Zusammenspiel mit einem guten Prompt für die Belegkategorisierung nutzt. Die multimodalen Fähigkeiten von LLMs machen optische Zeichenerkennung (OCR) in vielen Fällen überflüssig. Früher musste man externe OCR-Bibliotheken oder Dienste integrieren, um Belegbilder zu verarbeiten, aber jetzt kann ein LLM sowohl die Texterkennung als auch die Kategorisierung in einem einzigen System übernehmen. Das vereinfacht den Technologie-Stack erheblich. Müssen aus den Belegen auch noch Daten wie Netto- und Bruttopreise oder Steuersätze extrahiert werden? Auch das übernimmt ein LLM.
Dieser „Weltmodell“-Ansatz, bei dem LLMs ein breites Verständnis von Kontext und Sprache mitbringen, hat die Lösung von Problemen, die zuvor maßgeschneiderte ML-Lösungen erforderten, erschwinglich und zugänglich gemacht. Die Auswirkungen dieser Demokratisierung sind nicht zu unterschätzen. Sie ermöglicht es Unternehmen, schneller zu iterieren und Entwicklungskosten deutlich zu senken. Probleme, die einst tiefgehendes ML-Fachwissen erforderten, können jetzt mit vortrainierten Modellen gelöst werden, die „die Welt verstehen“. Das befreit Teams davon, sich auf spezialisierte Infrastruktur konzentrieren zu müssen, und ermöglicht es ihnen stattdessen, sich auf strategische und kreative Anwendungen von KI zu fokussieren.
KI-gestützte Funktionen, die bisher nicht möglich waren
Generative KI ermöglicht eine Vielzahl von Features, die zuvor zu komplex, zu teuer oder völlig außer Reichweite für die meisten Unternehmen waren. Funktionen, die früher Investitionen in maßgeschneiderte Machine-Learning-Lösungen oder komplexe Algorithmen erforderten. Betrachten wir einige konkrete Beispiele.
Stimmungs- und kontextbasierte Suche: Jenseits von Keywords
Eine der wegweisendsten Anwendungen von Generative KI in Unternehmenssoftware ist die Einführung der stimmungs- und kontextbasierten Suche (“vibe-based search”). Dieses Konzept stellt einen bedeutenden Fortschritt gegenüber traditionellen, keyword-basierten Suchsystemen dar, die seit Jahrzehnten die Informationssuche dominieren.
Keyword-basierte Suche vergleicht die Übereinstimmung spezifischer Wörter oder Phrasen einer Anfrage mit indizierten Inhalten, wie sie von Google und anderen Suchmaschinen bekannt ist. Während dieser Ansatz für viele Zwecke effektiv ist, stößt er oft an seine Grenzen, wenn Nutzer:innen komplexe, nuancierte Bedürfnisse haben, die sich schwer in wenigen Keywords ausdrücken lassen.
Die stimmungs- und kontextbasierte Suche, angetrieben durch Large Language Models, ermöglicht es Nutzer:innen, ihre Absicht in natürlicher Sprache auszudrücken und dabei nicht nur spezifische Begriffe, sondern auch den gesamten Kontext und die „Stimmung“ ihrer Anfrage zu erfassen. Betrachten wir den Unterschied zwischen diesen beiden Suchanfragen:
Traditionelle Keyword-Suche: „beste restaurants berlin“
Stimmungs- und kontextbasierte Suche: „Ich bin ein anspruchsvoller Connaisseur und liebe Weinbars, die auch Essen servieren, vorzugsweise mit regionalen Zutaten. Empfiehl mir Restaurants in Berlin Mitte und Kreuzberg. Bitte keine dogmatischen Naturweinbars.“
Im Fall der stimmungs- und kontextbasierten Suche kann ein LLM folgendes verstehen und verarbeiten:
- Die Selbstbeschreibung als „anspruchsvoller Genießer“
- Die Vorliebe für Weinbars mit zusätzlichem Speisenangebot
- Den Wunsch nach regionalen Zutaten
- Die spezifischen Stadtteilpräferenzen (Mitte und Kreuzberg)
- Die Unterscheidung zwischen gewöhnlichen Weinbars und „dogmatischen Naturweinbars“
Dieses Maß an Nuancierung und Kontextverständnis ermöglicht es der Suchfunktion, hochgradig personalisierte und relevante Ergebnisse zu liefern, die wirklich der Intention der Nutzer:innen entsprechen, anstatt nur Keywords abzugleichen.
Die Implementierung der stimmungs- und kontextbasierten Suche die UX in verschiedenen Anwendungen deutlich verbessern:
Interne Wissensdatenbanken: Mitarbeiter:innen können Informationen mit natürlichsprachlichen Anfragen finden, die ihre spezifische Situation oder ihren Bedarf beschreiben.
E-Commerce-Plattformen: Kund:innen können Produkte in ihren eigenen Worten beschreiben, auch wenn sie die exakte Terminologie nicht kennen.
Kundenservice-Systeme: Nutzer:innen können Probleme detailliert beschreiben. Das System kann daraufhin präzisere Lösungen anbieten oder an die zuständigen Support-Mitarbeiter:innen weiterleiten.
Content-Management-Systeme: Content-Redakteur:innen können nach Assets oder Inhalten mit beschreibender Sprache suchen, ohne sich auf aufwändiges Tagging oder Metadaten verlassen zu müssen. Genau das machen Apple und Google bereits mit den jeweiligen Foto-Apps auf ihren Smartphone-Betriebssystemen: „Fotos von meinem Hund, wie er mit dem roten Ball an einem Strand in Italien spielt.“
Intelligente Daten- und Inhaltsanalyse
Sentimentanalyse
Betrachten wir ein praktisches Beispiel: Ein internes System erlaubt es Mitarbeiter:innen, kurze Statusmeldungen über ihre Arbeit zu posten. Eine Führungskraft möchte die allgemeine Stimmung im Team in einer bestimmten Woche einschätzen. Früher wäre die Implementierung einer Sentimentanalyse dieser Beiträge mit einem maßgeschneiderten ML-Modell eine Herausforderung gewesen. Es hätte spezielles Training und eine sorgfältige Integration in die bestehende Infrastruktur erfordert. Mit LLMs reduziert sich diese Komplexität auf einen einfachen API-Aufruf. Das Ergebnis muss nicht einmal in menschenlesbarer Sprache ausgegeben werden. Es kann als strukturiertes JSON erfolgen, das das System zur Darstellung passender Icons oder Grafiken verarbeitet. Alternativ könnte das LLM auch einfach Emojis zur Darstellung der Stimmungen ausgeben. Natürlich würde eine solche Funktion nur mit Einwilligung der Mitarbeiter:innen implementiert werden.
Erkenntnisgewinnung aus komplexen Daten
Betrachten wir ein weiteres Beispiel, das die Leistungsfähigkeit von LLMs bei der Analyse komplexer Daten verdeutlicht: Alarmmanagement für Kühlsysteme. Traditionell konzentrierten sich diese Systeme auf:
- Ein grafisches Alarm-Dashboard mit Echtzeitdaten und Warnungen.
- Komplexe, filterbare tabellarische Darstellungen von Zeitreihendaten
Diese Funktionen sind zweifellos nützlich, erfordern jedoch oft erhebliche menschliche Interpretation, um aussagekräftige Erkenntnisse zu gewinnen. Hier können LLMs die Fähigkeiten des Systems erweitern, indem sie Rohdaten auf Zero-Shot-Basis ([3], [4]) in verwertbare Erkenntnisse umwandeln, ohne dass dafür spezielle Machine-Learning-Modelle erforderlich sind.
Das Alarmmanagement-System kann nun mit LLM-Integration folgende Features bieten:
- Automatische Berichtserstellung: LLMs können Zeitreihendaten analysieren und detaillierte Berichte in natürlicher Sprache generieren. Diese Berichte können Trends, Anomalien und wichtige Leistungsindikatoren hervorheben, die sowohl für Techniker:innen als auch für Manager:innen wertvoll sind. Etwa ein Bericht, der die Alarme der vergangenen Woche zusammenfasst, wiederkehrende Probleme identifiziert und Verbesserungsmöglichkeiten vorschlägt.
- Tiefgehende Analyse: LLMs können über die einfache Datendarstellung hinaus komplexe Muster in den Daten erkennen und erklären. Sie könnten beispielsweise Alarmsequenzen identifizieren, die auf größere Systemprobleme hinweisen – Erkenntnisse, die in einer traditionellen Tabellenansicht oder Diagrammen möglicherweise übersehen würden.
- Predictive Insights: Durch die Analyse historischer Daten können LLMs Vorhersagen über zukünftige Systemzustände treffen. Dies ermöglicht eine proaktive Wartung und hilft, potenzielle Ausfälle zu verhindern, bevor sie auftreten. Das System könnte beispielsweise Manager:innen auf ein Muster geringfügiger Temperaturschwankungen aufmerksam machen, das nach historischen Daten häufig einem größeren Systemausfall vorausgeht.
- Strukturierte Ausgaben: Neben Berichten in natürlicher Sprache können LLMs strukturierte Daten (z.B. JSON) ausgeben. Dies ermöglicht die Erstellung dynamischer, grafischer Benutzeroberflächen, die komplexe Informationen visuell darstellen. Ein einziger API-Aufruf könnte sowohl eine menschenlesbare Analyse als auch die Daten für ein interaktives Dashboard generieren.
- Natürlichsprachliche Abfragen: Techniker:innen können dem System Fragen in natürlicher Sprache stellen, wie zum Beispiel „Welche Geräte werden in den kommenden Wochen wahrscheinlich in den Failover-Modus wechseln?“ und sofort relevante Antworten und Visualisierungen erhalten. Dies senkt die Zugangshürden zur Datenauswertung und -interpretation deutlich. Warum nicht den Techniker:innen diese Funktion über einen Echtzeit-Sprachmodus auf ihren Handgeräten anbieten? Wir haben gesehen, welche immense Leistungsfähigkeit bereits ChatGPTs einfacher Sprachmodus bietet, ganz zu schweigen von der erweiterten Version, die derzeit ausgerollt wird. Diese Funktionalität ist nun bei OpenAI auch via Realtime API verfügbar.
Die multimodale Blackbox: Schreiben, Sprechen, Sehen und Hören
Multimodalität erweitert die Möglichkeiten von LLMs gewaltig. Modelle, die Text, Bilder, Ton und Sprache verarbeiten können, ermöglichen komplexe Featurekombinationen. Früher erforderte das mehrere Systeme, viele Mensch-in-der-Mitte-Interaktionen oder war schlicht und ergreifend nicht möglich. Ein Beispiel dafür wäre eine Anwendung, die Nutzer:innen hilft, komplexe visuelle Inhalte zu verarbeiten und sie textuell oder per Sprache aufzubereiten. Auch hier ist es wieder müßig, Use Cases aufzuzählen. Denn die Spannweite ist enorm: Ein Videoschwenk über ein Bücherregal befüllt eine Datenbank mit den erkannten Buchtiteln. Fremdtiere, die im Überwachungsvideo des Hühnerstalls auftauchen, werden identifiziert. Eine Schottin spricht Straßennamen in das Navigationssystem ihres Mietwagens in Deutschland ein.
Zuvor haben wir uns die stimmungs- und kontextbasierte Suche angesehen. Warum ermöglichen wir Nutzer:innen nicht einfach, ihrer Suchanfrage auch Fotos, Bilder oder eigene Sprachaufnahmen hinzuzufügen? Wir verlassen gerade das Zeitalter, in dem wir jede einzelne Anforderung an Software eintippen müssen.
Technische Einschränkungen und Lösungsansätze
LLMs haben bestimmte technische Einschränkungen. Eine der bedeutendsten ist das Kontextfenster – die Textmenge (genauer: die Menge an Tokens), die ein LLM in einem einzelnen Durchgang verarbeiten kann. Diese Einschränkung kann die Fähigkeit des Modells beeinträchtigen, große Eingaben zu verarbeiten oder den Kontext über längere Interaktionen hinweg aufrechtzuerhalten.
Herausforderung: Kontextfenster
Die meisten LLMs verfügen über ein begrenztes Kontextfenster, das typischerweise von einigen tausend bis zu mehreren zehntausend Tokens reicht. Das von GPT-4o umfasst bspw. 128.000 Tokens, während Gemini 1.5 Pro bis zu 2.000.000 Tokens verarbeiten kann. Auch wenn dies beträchtlich erscheinen mag, kann es schnell zum Engpass werden, wenn es um Eingabemengen wie Bücher oder lange Videos geht.
Model | Eingabe–Kontextfenster |
---|---|
GPT-4o | 128.000 Tokens |
Claude 3.5 Sonnet | 200.000 Tokens |
Gemini 1.5 Pro | 2.000.000 Tokens |
Llama 3.2 | 128.000 Tokens |
Mistral Large 2 | 128.000 Tokens |
Lösungsansätze
Glücklicherweise gibt es mehrere Strategien, um diese Einschränkung zu umgehen:
- Chunking (Segmentierung) und Zusammenfassung: große Dokumente werden in kleinere, handhabbare Segmente aufgeteilt, die in das Kontextfenster passen. Jedes Segment wird separat verarbeitet, und die Ergebnisse werden anschließend zusammengeführt. Bei noch größeren Eingaben kann ein hierarchischer Ansatz verwendet werden: Segmente werden zusammengefasst, und diese Zusammenfassungen werden dann gemeinsam verarbeitet, um ein übergeordnetes Verständnis zu schaffen.
- Retrieval-Augmented Generation (RAG): Kombiniert das „Weltwissen“ von LLMs mit privaten Wissensdatenbanken. Anstatt sich ausschließlich auf das (extrem breite) Wissen des Modells zu verlassen, werden relevante Informationen aus einer separaten Datenquelle abgerufen und in das Prompt eingebunden. Üblicherweise werden dazu Vektor-basierte oder herkömmliche Suchfunktionen verwendet. Dies ermöglicht dem Modell den Zugriff auf einen wesentlich größeren Informationspool, ohne das Kontextfenster zu überschreiten. Antworten können so auch mit Quellen und Referenzen versehen werden.
- Domänenanpassung: Das Fine-Tuning von LLMs für spezifische Domänen kann zwar die Verarbeitung fachspezifischer Konzepte verbessern, birgt aber Risiken für die allgemeine Sprachfähigkeit. Eine ausgewogenere Alternative bietet die Kombination von sorgfältigem Prompt-Engineering mit domänenspezifischen Wissensdatenbanken. Dieser Ansatz ermöglicht Fachexpertise, ohne die Vielseitigkeit des Modells einzuschränken.
- Sliding-Window-Technik: Für Aufgaben, die die Analyse langer Textsequenzen erfordern, wie bei Zeitreihendaten oder langen Dokumenten, kann ein gleitendes Fenster verwendet werden. Das Modell verarbeitet dabei überlappende Textabschnitte und behält einen Teil des Kontexts bei, während es sich durch das gesamte Dokument bewegt.
- Mehrstufiges Reasoning: Komplexe Probleme werden in eine Reihe kleinerer Schritte zerlegt. Jeder Schritt nutzt das LLM innerhalb seiner Kontextfenstergrenze, wobei die Ergebnisse vorheriger Schritte die nachfolgenden informieren. Dieser Ansatz ahmt menschliches Problemlösen nach und kann Aufgaben bewältigen, die sonst das Kontextfenster überschreiten würden.
- Hybride Ansätze: LLMs und klassische Algorithmen ergänzen sich gut. Traditionelle Information-Retrieval-Methoden wie TF-IDF und BM25 können relevante Textpassagen vorfiltern. Dies reduziert die Datenmenge für die anschließende LLM-Analyse deutlich und steigert so die Effizienz des Gesamtsystems.
Die Weiterentwicklung dieser Technologie verspricht größere Kontextfenster und effizientere Verarbeitung. Unklar ist, ob die Kontextfenster weiter so schnell wachsen, wie sie es bisher taten. Erfolg haben die, die die Möglichkeiten und Grenzen dieser Technologie verstehen.
Ausblick: Generative KI als Standardkomponente in Unternehmenssoftware
Unternehmen müssen generative KI als das begreifen, was sie ist: eine Allzwecktechnologie, die alles berührt. Sie wird Teil des Standard-Software-Development-Stacks, als auch integraler Enabler neuer oder bestehender Features. Die Zukunftsfähigkeit der eigenen Softwareentwicklung sicherzustellen erfordert nicht nur, KI-Tools für die Softwareentwicklung anzuschaffen, sondern auch Infrastruktur, Design-Patterns und Betriebsabläufe auf den wachsenden Einfluss der KI vorzubereiten.
Mit dieser Entwicklung wird sich auch die Rolle von Softwarearchitekt:innen, Entwickler:innen und Produktdesigner:innen weiterentwickeln. Sie werden neue Fähigkeiten und Strategien für den Entwurf von KI-Features, die Handhabung nicht-deterministischer Ausgaben und die nahtlose Integration in verschiedene Unternehmenssysteme entwickeln müssen. Soft Skills und die Zusammenarbeit zwischen technischen und nicht-technischen Rollen werden wichtiger denn je, denn reine Hard Skills werden günstiger und automatisierbarer.
Unternehmen, die diesen Wandel frühzeitig annehmen und lernen, auf allen Ebenen der Produktentwicklung mit KI zu arbeiten, werden Innovationsführer. Generative KI wird zu einem festen Bestandteil des Featureteppichs von Unternehmenssoftware. Sie wird Produktivität und User Experience auf eine Weise voranbringen, die wir gerade erst beginnen zu verstehen.
Danksagung
Besonderer Dank gilt Philipp Schirmacher und Marco Steinke für ihr wertvolles Feedback zu früheren Entwürfen dieses Artikels.
Referenzen
-
Ein ChatGPT Feature für vorgepromptete Chatbots. Man kann ihnen zusätzlich Dateien als Wissen bereitstellen. ↩
-
MLOps beschreibt die systematische Entwicklung und den Betrieb von Machine–Learning–Systemen in Produktivumgebungen. Weitere Informationen finden Sie unter https://ml-ops.org. ↩
-
Gruver, N., Finzi, M., Qiu, S., & Wilson, A. G. (2023). Large Language Models Are Zero–Shot Time Series Forecasters. ↩
-
Liu, H., Zhao, Z., Wang, J., Kamarthi, H., & Prakash, B. A. (2024). LSTPrompt: Large Language Models as Zero–Shot Time Series Forecasters by Long–Short–Term Prompting. ↩
Technology Briefing#1: Large Language Models und Commodity AI