MongoDB, Inc. kündigte die allgemeine Verfügbarkeit von MongoDB Atlas Vector Search on Knowledge Bases für Amazon Bedrock an, um Unternehmen die Erstellung generativer KI-Anwendungsfunktionen mit vollständig verwalteten Foundation Models (FMs) zu erleichtern. MongoDB Atlas ist die weltweit am weitesten verbreitete Plattform für Entwicklerdaten und bietet Vektordatenbankfunktionen, die es Unternehmen ermöglichen, ihre operativen Echtzeitdaten nahtlos für generative KI-Anwendungen zu nutzen. Amazon Bedrock ist ein vollständig verwalteter Service von Amazon Web Services (AWS), der über eine einzige API eine Auswahl an leistungsstarken FMs von führenden KI-Unternehmen bietet, zusammen mit einem breiten Spektrum an Funktionen, die Unternehmen benötigen, um generative KI-Anwendungen mit Sicherheit, Datenschutz und verantwortungsvoller KI zu erstellen.

Kunden aus allen Branchen können jetzt die Integration mit ihren eigenen Daten nutzen, um einfacher Anwendungen zu erstellen, die generative KI nutzen, um komplexe Aufgaben autonom zu erledigen und aktuelle, genaue und vertrauenswürdige Antworten auf Anfragen von Endbenutzern zu liefern. Die neue Integration mit Amazon Bedrock ermöglicht Unternehmen eine schnellere und einfachere Bereitstellung von generativen KI-Anwendungen auf AWS, die auf von MongoDB Atlas Vector Search verarbeitete Daten reagieren können, um genauere, relevantere und vertrauenswürdigere Antworten zu liefern. Im Gegensatz zu Add-on-Lösungen, die nur Vektordaten speichern, unterstützt MongoDB Atlas Vector Search generative KI-Anwendungen, indem es als hochperformante und skalierbare Vektordatenbank fungiert und den zusätzlichen Vorteil bietet, dass es in eine global verteilte operative Datenbank integriert ist, die alle Daten eines Unternehmens speichern und verarbeiten kann.

Kunden können die Integration zwischen MongoDB Atlas Vector Search und Amazon Bedrock nutzen, um FMs wie Large Language Models (LLMs) von AI21 Labs, Amazon, Anthropic, Cohere, Meta, Mistral AI und Stability AI mit ihren Echtzeit-Betriebsdaten anzupassen, indem sie diese in Vektoreinbettungen zur Verwendung mit LLMs konvertieren. Mit Agents for Amazon Bedrock für Retrieval-Augmented Generation (RAG) können Kunden dann Anwendungen mit LLMs erstellen, die auf Benutzeranfragen mit relevanten, kontextualisierten Antworten reagieren, ohne dass ein manueller Code erforderlich ist. Ein Einzelhandelsunternehmen kann beispielsweise leichter eine generative KI-Anwendung entwickeln, die autonome Agenten für Aufgaben wie die Bearbeitung von Bestandsanfragen in Echtzeit oder die Personalisierung von Kundenrückgaben und Umtauschvorgängen einsetzt, indem sie auf der Grundlage des Kundenfeedbacks automatisch vorrätige Waren vorschlägt. Unternehmen können ihre generativen KI-Workloads mit MongoDB Atlas Search Nodes auch unabhängig von ihrer operativen Kerndatenbank isolieren und skalieren, um Kosten und Leistung mit bis zu 60 Prozent schnelleren Abfragezeiten zu optimieren.

Mit vollständig verwalteten Funktionen ermöglicht diese neue Integration gemeinsamen AWS- und MongoDB-Kunden, generative KI mit ihren eigenen Daten sicher und in vollem Umfang im gesamten Unternehmen zu nutzen und den Geschäftswert schneller zu realisieren - mit weniger betrieblichem Aufwand und weniger manueller Arbeit.