Couchbase: Diese drei Maßnahmen helfen bei einer halluzinierenden KI
München, 14. November 2023 – Trotz riesiger Fortschritte stecken KI-Modelle wie ChatGPT noch in den Kinderschuhen. Ein Knackpunkt dabei: überzeugend formulierte, aber falsche Ergebnisse, die KIs frei erfunden haben. Couchbase, Anbieter einer Cloud-Datenbank-Plattform, kennt drei probate Gegenmittel bei halluzinierenden KIs.
Large Language Models (LLM) wie Google Bard oder ChatGPT brauchen Hilfe. Das Problem: Interpretieren die Chatbots Daten falsch oder verstehen die Frage nicht korrekt, beginnen sie zu „halluzinieren“. In der Praxis bedeutet das, sie verpacken Falschinformationen als gegebene Fakten in einem durchaus logischen Kontext. Dabei erfinden LLMs sogar Informationen sowie Quellen und stellen falsche Zusammenhänge auf den ersten Blick so wahrheitsgetreu dar, dass Anwender gar nicht merken, dass sie es mit den ausgedachten Antworten einer halluzinierenden KI zu haben. Einige dieser Abweichungen scheinen nachvollziehbar, interpretieren die Modelle doch lediglich Statistiken und Trainingsdaten – andere Ergebnisse scheinen völlig aus der Luft gegriffen zu sein. Auch wenn das Phänomen vermutlich nie gänzlich zu verhindern ist, nennt Couchbase drei effektive Gegenmaßnahmen, mit denen die Genauigkeit und Zuverlässigkeit von ChatGPT und Co. deutlich gesteigert werden kann.
- Feintuning. Die naheliegendste Herangehensweise an das Problem der falschen Informationsausgabe ist das erneute Trainieren des Modells anhand von spezifischen Daten, die für den jeweiligen Einsatzzweck des LLM relevant sind. Auch wenn die Verzerrungen auf diese Weise abgeschwächt werden können, ist die Methode aufgrund des zeitlichen und finanziellen Aufwandes aber nicht immer durchführbar. Das Finetuning ist darüber hinaus als Prozess zu betrachten, denn die zu Grunde liegenden Daten können ohne kontinuierliches Training schnell wieder veralten.
- Prompt Engineering. Ein sehr viel direkterer Ansatz als das Feintuning besteht in der Optimierung der textbasierten Eingaben über die Befehlszeile eines LLM. Je mehr kontextbezogene Informationen und konkrete Anweisungen der Input besitzt, desto weniger Abweichungen und Fehlinterpretationen hat der Output. Neben präzisen Formulierungen und zusätzlichen Informationen setzt das Prompt Engineering auch auf mehrere, aufeinanderfolgende Anweisungen an die KI, die das Ergebnis immer weiter präzisieren und etwaigen Halluzinationen vorbeugen.
- Retrieval Augmented Generation (RAG). Als vielversprechendes Framework gegen KI-Halluzinationen konzentriert sich das RAG-Konzept darauf, LLMs kontinuierlich mit aktuellen Daten zu versorgen. So können beispielsweise Unternehmen ihre Modell stetig mit kontextbezogenen und domainspezifischen Daten füttern, um einen exakten Output sicherzustellen und Verzerrungen zu minimieren.
„Die steigende Bedeutung von LLMs in unserem Alltag macht eine hohe Zuverlässigkeit und eine Minimierung der KI-Halluzinationen dringend notwendig“, betont Gregor Bauer, Manager Solutions Engineering CEUR bei Couchbase. „Vor allem RAG-Frameworks stellen ein wirkungsvolles Konzept zur Verfügung, das sein volles Potenzial in der Kombination mit einer hochverfügbaren Datenbank entfaltet, die große Mengen an unstrukturierten Daten speichern und mit Hilfe einer semantischen Suche abfragen kann.“
Über Couchbase
Moderne Kundenerfahrungen benötigen eine flexible Datenbank-Plattform für alle Arten von Anwendungen, von der Cloud bis zu Edge Computing. Couchbase hat es sich zur Aufgabe gemacht, für Software-Entwickler und -Architekten die Entwicklung, die Bereitstellung und den Betrieb von Applikationen zu vereinfachen – unabhängig davon, wo sie gebraucht werden. Mit der schnellen und flexiblen Cloud-Database-Plattform Capella ermöglicht Couchbase Unternehmen die rasche Applikations-Entwicklung für optimale Kundenerlebnisse. Mehr als 30 Prozent aller Fortune-100-Unternehmen vertrauen für ihre modernen Applikationen auf Couchbase. Mehr Informationen unter https://www.couchbase.com
Kontakt
Couchbase
Julia Velde
CEUR Senior Field Marketing Manager
julia.velde@couchbase.com
PR-COM GmbH
Andrea Groß
Account Director
Sendlinger-Tor-Platz 6
80336 München
Tel.: 089/59997-803
andrea.gross@pr-com.de