Die Architektur zuverlässiger KI: RAG
Eine KI, die Dein Unternehmen nicht kennt, ist wie eine brillante Strategin, die nach Jahren im Koma aufwacht und feststellt, dass sie noch nie von Deiner Firma gehört hat. Kannst Du von ihr Insider-Tipps erwarten?
Wie können wir sicherstellen, dass KI-Systeme präzise, nachvollziehbar und stets auf dem neuesten Stand sind? Alle Large Language Models (LLMs) haben ein Cut-off-Datum, an dem ihr Weltwissen endet. Und über Unternehmensinterna wissen sie nichts. Dazu haben selbst die führenden Modelle noch Halluzinationsraten, die man nicht völlig ignorieren kann. Sie bieten aber gewaltiges Potenzial für Produktivität, Effizienz und Kreation.
Retrieval-Augmented Generation (RAG) setzt genau hier an: LLMs werden durch gezielte Informationsbeschaffung erweitert. In diesem Vortrag schauen wir uns die Architektur von RAG-basierten Systemen an. Wir besprechen die Integration in bestehende IT-Infrastrukturen und die Optimierung von Datenqualität und Kontext-Management. Wir lernen, wie RAG dazu beiträgt, Wissenslücken zu schließen und die Genauigkeit und Zuverlässigkeit von Anwendungen auf Basis von generativer KI verbessert.
- Date
- 2024-12-05
- Time
- 13:15 - 14:00
- Online Event
- INNOQ Technology Day 2024
Swipe for more
Scroll or use your arrow keys for more
Scroll for more
Use your arrow keys for more