Couchbase kündigt Vector Search für die Entwicklung KI-gestützter adaptiver Anwendungen an
München, 13. März 2024 – Couchbase kündigt als erster Anbieter einer Datenbank-Plattform Vector Search für Edge Computing an, reduziert damit die Komplexität bei der Entwicklung adaptiver Applikationen und unterstützt Entwickler mit LangChain- und LlamaIndex-Support.
Couchbase, Anbieter einer Cloud-Datenbank-Plattform, stellt heute Vector Search als neues Feature in Couchbase Server und dem DBaaS (Database-as-a-Service) Couchbase Capella vor. Damit wird die Entwicklung KI-gestützter adaptiver Anwendungen für kontextbezogene und hyperpersonalisierte Services vereinfacht und beschleunigt. Als erste Datenbank-Plattform bietet Couchbase Vector Search für verschiedenste Szenarien an, von Rechenzentren über Cloud und Mobile Computing bis zu IoT-Devices am Edge. Adaptive Anwendungen können so überall eingesetzt werden.
Typische Use Cases für adaptive Anwendungen sind beispielsweise Chatbots oder Semantic Search. Dafür werden hybride Suchfunktionen (Hybrid Search) benötigt, die unter anderem Texte, Vektoren, Tabellen und Lagerbestände durchsuchen. Vector Search ist in Verbindung mit Large Language Models (LLM) und Retrieval Augmented Generation (RAG) wichtig, um die Treffergenauigkeit zu erhöhen und Halluzinationen zu verhindern. Dafür reine Vector-Datenbanken einzusetzen, erhöht die Komplexität und beeinträchtigt die Performance der Applikationen. Couchbase beseitigt diese Einschränkungen durch die Integration von Vector Search in seine Multipurpose-Plattform und verbessert so die Qualität von LLM-Ergebnissen. Entwickler profitieren zudem von der Möglichkeit, SQL++-Queries für Vector Search bei der Applikations-Entwicklung zu nutzen.
Zusammen mit dem Columnar Service bietet Vector Search einen einzigartigen Ansatz zur Komplexitäts- und Kostenreduktion durch die Konsolidierung von Workloads in einer einzigen Cloud-Datenbank-Plattform und punktet unter anderem mit diesen Features:
- Similarity und Hybrid Search kombinieren und integrieren verschiedenste Text-, Vector-, Range- und Geo-Suchfunktionen.
- Der Einsatz von Retrieval Augmented Generation macht KI-gestützte Anwendungen exakter, sicherer und schneller verfügbar.
- Da die Suchfunktionen über einen einzigen Index laufen, verringern sich die Latenzzeiten und die Performance wird gesteigert.
Couchbase erweitert zudem das KI-Partnersystem durch den Support für LangChain und LlamaIndex. LangChain ermöglicht den Zugang zu LLM-Bibliotheken per API und LlamaIndex erhöht die Auswahlmöglichkeiten für LLMs bei der Entwicklung von adaptiven Anwendungen.
„Die Integration von Vector Search ist der nächste Schritt zur Unterstützung unserer Kunden bei der Entwicklung adaptiver Applikationen“, erklärt Scott Anderson, SVP Product Management and Business Operations bei Couchbase. „Damit ermöglicht Couchbase Vector Search und Echtzeit-Datenanalyse auf einer schnellen, einheitlichen und sicheren Plattform, von der Cloud bis zum Edge.“
Die neuen Features sollen im zweiten Quartal 2024 für Capella und Couchbase Server sowie als Beta-Version für mobil und Edge verfügbar sein.
Über Couchbase
Moderne Kundenerfahrungen benötigen eine flexible Datenbank-Plattform für alle Arten von Anwendungen, von der Cloud bis zu Edge Computing. Couchbase hat es sich zur Aufgabe gemacht, für Software-Entwickler und -Architekten die Entwicklung, die Bereitstellung und den Betrieb von Applikationen zu vereinfachen – unabhängig davon, wo sie gebraucht werden. Mit der schnellen und flexiblen Cloud-Database-Plattform Capella ermöglicht Couchbase Unternehmen die rasche Applikations-Entwicklung für optimale Kundenerlebnisse. Mehr als 30 Prozent aller Fortune-100-Unternehmen vertrauen für ihre modernen Applikationen auf Couchbase. Mehr Informationen unter https://www.couchbase.com.
Kontakt
Couchbase
Julia Velde
CEUR Senior Field Marketing Manager
julia.velde@couchbase.com
PR-COM GmbH
Andrea Groß
Account Director
Sendlinger-Tor-Platz 6
80336 München
Tel.: 089/59997-803
andrea.gross@pr-com.de