TL;DR

Die Challenge

Die klassische Keyword-basierte Volltextsuche in Sprengnetter Books konnte zwar relevante Dokumente finden, war aber nicht in der Lage, aus dem Fachwissen eigenständig Antworten auf konkrete Fragen zu formulieren. Gesucht war eine Lösung, die das umfangreiche Wissen zur Immobilienbewertung versteht und Nutzer:innen natürlichsprachliche, präzise Antworten auf ihre spezifischen Fachfragen geben kann.

Unsere Lösung

Implementierung eines RAG-basierten (Retrieval-Augmented Generation) Assistenten, der moderne generative KI in Form des Large Language Models GPT-4o mit kontextbezogener Informationsextraktion verbindet. Die Lösung wurde in wenigen Monaten von einem kleinen INNOQ-Team entwickelt.

Das Ergebnis

Ein KI-gestütztes Chatsystem, das Abonnent:innen von Sprengnetter Books einen natürlichsprachlichen Zugang zum gesamten Wissensfundus ermöglicht, weit über die Möglichkeiten einer klassischen Suchfunktion hinaus.

Herausforderung: Antworten statt Suchergebnisse

Die Bewertung von Immobilien erfordert fundiertes Fachwissen aus verschiedensten Bereichen – von baurechtlichen Vorschriften über Bewertungsmethoden bis hin zu Marktanalysen. Dieses Wissen stellt Sprengnetter seinen Kund:innen in der digitalen Wissensdatenbank “Sprengnetter Books” zur Verfügung. Während die bestehende Volltextsuche Nutzer:innen zu relevanten Dokumenten führen konnte, fehlte die Fähigkeit, das enthaltene Wissen zu verstehen und daraus eigenständig Antworten zu formulieren. Nutzer:innen mussten die gefundenen Dokumente selbst durcharbeiten und interpretieren – ein zeitaufwändiger Prozess, besonders bei spezifischen Fachfragen.

Die Herangehensweise: Agil und fokussiert zum Ziel

In enger Abstimmung mit dem Sprengnetter-Team analysierte INNOQ zunächst die spezifischen Anforderungen und entwickelte einen Prototypen, der die Möglichkeiten moderner generativer KI demonstrierte. Das kleine, fokussierte Entwicklungsteam arbeitete dann in kurzen Iterationen an der Umsetzung der Lösung. So erhielt Sprengnetter auch einen niedrigschwelligen, direkten und begleiteten Einstieg in die Anwendung von generativer KI.

Die Zusammenarbeit mit INNOQ war von Anfang an sehr zielgerichtet. Das Team hat nicht nur technische Expertise mitgebracht, sondern auch ein tiefes Verständnis dafür entwickelt, wie unsere Nutzer:innen mit Fachinformationen arbeiten.

Tina UhligProduct Owner Sprengnetter Books

Der technische Ansatz: State-of-the-Art KI trifft Fachdatenbank

Das implementierte System basiert auf der RAG-Architektur (Retrieval Augmented Generation), die die Stärken großer Sprachmodelle mit präziser Informationsextraktion verbindet. Durch die Nutzung von OpenAI GPT-4o via API und MongoDB Atlas für Vektorsuche und PDF-Storage entstand eine Lösung, die den Nutzer:innen einen echten Mehrwert bei ihrer täglichen Arbeit bietet: präzise, quellenbasierte Antworten auf ihre fachlichen Fragen. GPT-4o besitzt als eines der aktuell führenden größten “Weltmodelle” die notwendige Generalisierungsfähigkeit, um im Zusammenspiel mit den gefundenen Quellen ein breites Spektrum von Fragen zu beantworten. Die Halluzinationsraten sind zudem deutlich geringer als bei kleineren Modellen.

Was ist RAG?

Die RAG-Architektur (Retrieval-Augmented Generation) löst ein zentrales Problem beim Einsatz von Large Language Models: Sie verhindert, dass das Modell Fakten “erfindet”, wenn es auf Wissenslücken stößt. Stattdessen durchsucht ein Retrieval-System zunächst die relevanten Dokumente nach passenden Informationen. Nur diese verifizierten Informationen dienen dann als Kontext für die Antwortgenerierung. Das Ergebnis: Das System kann die Ausdrucksstärke und die Fähigkeiten zur “Schlossfolgerung” des Language Models nutzen, bleibt aber streng an die vorhandene Wissensbasis gebunden.

Der Vorteil dieser Architektur liegt auf der Hand: Anders als beim direkten Einsatz eines Language Models oder einer traditionellen Volltextsuche erhalten Nutzer:innen präzise, quellenbasierte Antworten in natürlicher Sprache. Die RAG-Architektur verbindet so die Vorteile beider Welten – die Präzision einer dokumentenbasierten Suche mit der Fähigkeit, Zusammenhänge zu verstehen und verständlich zu kommunizieren.

Einen technischen Schnelleinstieg in die RAG-Architektur finden Sie in unserem kostenfreien Primer.

Eine besondere technische Herausforderung beim Einsatz von Large Language Models ist deren Tendenz zu “halluzinieren”, wenn sie Wissenslücken mit plausibel klingenden, aber faktisch falschen Aussagen füllen. Die implementierte Lösung begegnet diesem Problem mit einem strikten Grundsatz: Jede vom System generierte Aussage muss durch konkrete Quellenangaben aus Sprengnetter Books belegt sein. Diese systematische Rückbindung an die Wissensbasis stellt weitgehend sicher, dass das System ausschließlich verifizierbare, fachlich korrekte Antworten liefert.

Besonderes Augenmerk lag dabei auf der kontextsensitiven Aufbereitung der Fachinformationen: Das System versteht nicht nur die Fragen der Nutzer:innen, sondern kann auch die relevanten Informationen aus dem umfangreichen Wissensfundus gezielt extrahieren und in verständlicher Form aufbereiten. Sogar komplexe mathematische Formeln werden dargestellt.

Mit dem neuen KI-gestützten Assistenten haben wir einen Quantensprung in der Nutzbarkeit unserer digitalen Wissensdatenbank erreicht. Unsere Kund:innen können nun in einen echten Dialog mit unserem Fachwissen treten.

Andreas KadlerGeschäftsführer Sprengnetter Real Estate

Eingesetzte Technologien

Conclusion

Das Ergebnis: Mehr als eine intelligente Suche

Der neue Assistent transformiert die Art und Weise, wie Nutzer:innen mit dem Fachwissen in Sprengnetter Books interagieren. Statt sich durch Suchergebnisse zu klicken, können sie nun in natürlicher Sprache Fragen stellen und erhalten präzise, kontextbezogene Antworten. Das System versteht dabei auch komplexe Zusammenhänge und kann bei Bedarf nachfragen, um die Intention der Nutzer:innen besser zu verstehen. Besonders wertvoll für die praktische Arbeit: Jede vom System getroffene Aussage wird mit konkreten Quellenangaben belegt. Per Klick können Nutzer:innen direkt zur entsprechenden Stelle im Originaltext springen – sei es zur Verifikation der Antwort oder für tiefergehende Recherchen.

Die schnelle und erfolgreiche Umsetzung des Projekts in nur wenigen Monaten zeigt, wie effektiv generative KI eingesetzt werden kann, um echten Mehrwert für Nutzer:innen zu schaffen. Für Sprengnetter bedeutet dies nicht nur eine technologische Aufwertung ihres Produkts, sondern auch einen wichtigen Schritt in Richtung digitale Transformation der Wissensvermittlung in der Immobilienbranche.

Avatar of Christopher Stolle
Principal Consultant

We’d love to assist you in your digitalization efforts from start to finish. Please do not hesitate to contact us.

Get in touch!