Neue Version von Red Hat OpenShift AI steigert Skalierbarkeit und Anpassungsfähigkeit von KI-Modellen
Red Hat OpenShift AI 2.15 liefert verbesserte Performance und optimierte Workflows für KI-Innovationen
München, 20. November 2024 – Red Hat, der weltweit führende Anbieter von Open-Source-Lösungen, hat die neueste Version von Red Hat OpenShift AI angekündigt. Die auf Red Hat OpenShift aufbauenden KI- und Machine-Learning-Plattform hilft Unternehmen dabei, KI-gestützte Anwendungen im großen Maßstab in der Hybrid Cloud zu entwickeln und bereitzustellen. Red Hat OpenShift AI 2.15 wurde mit dem Ziel entwickelt, mehr Flexibilität und Funktionen für das Tuning und Tracking anzubieten. Unternehmen sind damit in der Lage, KI- und ML-Innovationen schneller voranzutreiben und eine gleichbleibende operative Effizienz sowie verbesserte Sicherheit über die Public Cloud, Rechenzentren und Edge-Umgebungen hinweg sicherzustellen.
Laut dem Marktforschungsunternehmen IDC werden Unternehmen der Forbes Global 2000, die größten börsennotierten Firmen der Welt, mehr als 40 Prozent ihrer IT-Ausgaben in KI-Projekte investieren (1). Zudem prognostiziert IDC, dass Unternehmen bis 2026 mit generativer KI (GenAI) und Automatisierungen Produktivitätssteigerungen in Höhe von einer Billion US-Dollar erzielen werden (2). Red Hat ist der Ansicht, dass dieses Investitionsniveau eine KI/ML-Plattform erfordert, die gleichzeitig die Lebenszyklen der Modelle effizient verwaltet und GenAI-Anwendungen entwickelt, während sie außerdem flexibel genug ist, um sie neben traditionellen Workloads und Anwendungen in der Hybrid Cloud zu betreiben.
Red Hat OpenShift AI 2.15 zielt darauf, Unternehmen dabei zu helfen, die aufkommenden Anforderungen von KI-Workloads neben den Anforderungen der geschäftskritischen, Cloud-nativen Anwendungen zu erfüllen. Zu den erweiterten Funktionen der neuesten Version von Red Hat OpenShift AI gehören:
- Model Registry als zentrale Anzeige und Verwaltung registrierter Modelle ist aktuell als Technology Preview verfügbar. Die Registry bietet eine einfache und strukturierte Möglichkeit, um prädiktive sowie GenAI-Modelle, Metadaten und Modell-Artefakte gemeinsam zu nutzen, zu versionieren, bereitzustellen und zu tracken. Auch sind mehrere Modelle gleichzeitig registrierbar. Red Hat hat das Model-Registry-Projekt auch der Kubeflow-Community als Unterprojekt zur Verfügung gestellt.
- Data Drift Detection überwacht Änderungen in der Verteilung von Eingabedaten für bereits ausgerollte ML-Modelle. So können Data Scientists feststellen, wenn die Live-Daten, die für die Modellvorhersagen verwendet werden, erheblich von den Trainingsdaten abweichen. Data Drift Detection hilft, die Zuverlässigkeit des Modells zu überprüfen, indem sie die Eingabedaten kontinuierlich überwacht, das Modell an die realen Daten anpasst und so die Genauigkeit der Vorhersagen sicherstellt.
- Bias Detection unterstützt Data Scientists und KI-Engineers dabei, ihre Modelle fair und unvoreingenommen zu entwickeln – ein entscheidender Faktor für die Vertrauenswürdigkeit eines Modells. Die Tools geben nicht nur Aufschluss darüber, ob die Modelle auf der Grundlage der Trainingsdaten unvoreingenommen sind, sondern überwachen auch die Fairness der Modelle in der Praxis. Bias Detection wird von der TrustyAI-Open-Source-Community bereitgestellt, die ein vielfältiges Toolkit für die verantwortungsvolle Entwicklung und den Einsatz von KI bietet.
- Effizientes Fine-Tuning mit LoRA (Low-Rank-Adapter), um die effiziente Feinabstimmung von LLMs wie Llama 3 zu realisieren. Auf diese Weise können Unternehmen KI-Workloads skalieren und gleichzeitig Kosten und Ressourcenverbrauch senken. Durch die Optimierung des Modelltrainings und des Fine-Tuning in nativen Cloud-Umgebungen verbessert diese Lösung sowohl die Leistung als auch die Flexibilität und macht die KI-Bereitstellung leichter zugänglich und skalierbar.
- Unterstützung für NVIDIA NIM beschleunigt mit einer Reihe von benutzerfreundlichen Schnittstellen-Microservices die Bereitstellung von KI-Anwendungen. Die Integration von NIM, Teil der NVIDIA AI Enterprise Software Platform, verbessert das Deployment von GenAI-Anwendungen und unterstützt eine breite Palette von KI-Modellen, um skalierbare Inferenzen vor Ort oder in der Cloud über Anwendungsprogrammierschnittstellen (APIs) bereitzustellen.
- Unterstützung für AMD-GPUs ermöglicht den Zugriff auf ein AMD ROCm Workbench Image zur Verwendung von AMD-GPUs für die Modellentwicklung. Die neue Funktionalität ermöglicht auch den Zugriff auf Images, die für Serving- und Trainings-/Tuning-Anwendungsfälle mit AMD-GPUs einsetzbar sind. Damit stehen Unternehmen zusätzliche Optionen für den Einsatz von GPUs zur Verbesserung der Leistung bei rechenintensiven Aktivitäten zur Verfügung.
Verbessertes Model Serving
Als umfassende KI- und ML-Plattform bietet Red Hat OpenShift AI 2.15 ebenfalls neue Funktionen für das GenAI Model Serving – inklusive der vLLM-Serving-Laufzeit für KServe. Damit erhält die Plattform eine populäre Model Serving Runtime für LLMs auf Open-Source-Basis. Die Flexibilität und Leistung von vLLM ist eine optimale Ergänzung zu den derzeit von der Plattform unterstützten Laufzeiten. Anwender können aber auch, je nach Anforderung, ihre präferierten Alternativen hinzuzufügen.
Die neueste Version von Red Hat OpenShift AI bietet außerdem Unterstützung für KServe Model Cars, das Repositories der Open Container Initiative (OCI) als Option für die Speicherung und den Zugriff von containerisierten Modellversionen hinzufügt. Darüber hinaus können Unternehmen mit der Auswahl privater/öffentlicher Routen für Endpunkte in KServe die Sicherheit eines Modells verbessern, indem sie es bei Bedarf gezielt an interne Endpunkte leiten.
Erweiterte Optionen für KI-Training und -Experimente
Red Hat OpenShift AI 2.15 bietet Verbesserungen für Data-Science-Pipelines und das Tracking von Experimenten. Data Scientists können damit Pipeline Runs, die in einer logischen Struktur gruppiert sind, einfacher verwalten, vergleichen und analysieren. Die neue Version fügt außerdem Hyperparameter-Tuning mit Ray Tune hinzu. Damit stehen erweiterte Algorithmen zur Verbesserung der Genauigkeit und zum effizienteren Trainieren von prädiktiven GenAI-Modellen zur Verfügung. Die Basis-Container-Images für Ray-Cluster sind ebenfalls in der neuesten Version von Red Hat OpenShift AI enthalten. Trainings- und Tuning-Aufträge können über verteilte Workloads im Cluster geplant werden, um Aufträge zu beschleunigen und die Knotenauslastung zu maximieren.
Verfügbarkeit
Red Hat OpenShift AI 2.15 wird ab Mitte November 2024 allgemein verfügbar sein. Weitere Informationen zu zusätzlichen Funktionen, Verbesserungen, Fehlerbehebungen und zum Upgrade auf die neueste Version finden sich hier.
Zitate
Joe Fernandes, Vice President und General Manager, AI Business Unit, Red Hat
„Während Unternehmen die neuen Möglichkeiten von KI-gestützten Anwendungen und Workloads ausloten, erwarten wir, dass das Interesse und die Nachfrage nach den entsprechenden Plattformen steigen, sobald konkrete Strategien entwickelt werden. Dabei ist es entscheidend, dass die Unternehmen eine Rendite auf ihre Investitionen erzielen – und zwar durch eine zuverlässige, skalierbare und flexible KI-Plattform, die überall dort läuft, wo sich ihre Daten in der Hybrid Cloud befinden. Die neueste Version von Red Hat OpenShift AI bietet erhebliche Verbesserungen bei Skalierbarkeit, Leistung und Betriebseffizienz und dient als zentrale Grundlage für den gesamten Modell-Lebenszyklus. So können IT-Teams die Vorteile einer leistungsstarken KI-Plattform nutzen und gleichzeitig flexibel in der Umgebung arbeiten, die am besten zu den individuellen Anforderungen ihres Unternehmens passt.“
Justin Boitano, Vice President, Enterprise AI Software, NVIDIA
„Unternehmen sind auf der Suche nach schlanken Lösungen für die schnelle Bereitstellung von KI-Anwendungen. Die Integration von NVIDIA NIM in Red Hat OpenShift AI 2.15 verbessert die Full-Stack-Performance sowie die Skalierbarkeit in hybriden Cloud-Umgebungen. Damit hilft sie Entwicklungs- sowie IT-Teams, ihre GenAI-Implementierungen effizient und sicher zu verwalten und zu beschleunigen.“
(1) Quelle: IDC FutureScape Webcast: Worldwide Artificial Intelligence and Automation 2024 Predictions, (#US51901124), March 2024.
(2) Quelle: IDC, FutureScape: Worldwide Future of Work 2024 Predictions (#US49963723), 2023
Weiterführende Links
- Alles über KI bei Red Hat
- Wie Open Source KI besser nutzbar macht
- Red Hats Zusammenarbeit mit TrustyAI
- Entwicklung von KI-Lösungen mit LoRA
- Alle Informationen über das Climatik-Projekt
- Alle News im Red Hat KubeCon + CloudNativeCon North America 2024 Newsroom
- Red Hat Executive Guide: Navigating the Era of Constant Change
Weitere Informationen zu Red Hat
- Erfahren Sie mehr über Red Hat
- Lesen Sie Neuigkeiten und Presseinformationen im Red Hat Newsroom oder im Red Hat Blog
- Folgen Sie Red Hat auf X, Facebook, YouTube und LinkedIn
Über Red Hat, Inc.
Red Hat, der weltweit führende Anbieter von Enterprise-Open-Source-Lösungen, folgt einem von der Community getriebenen Ansatz, um zuverlässige und leistungsstarke Linux-, Hybrid-Cloud-, Container- und Kubernetes-Technologien bereitzustellen. Red Hat unterstützt Kunden bei der Integration neuer und bestehender IT-Anwendungen, der Entwicklung Cloud-nativer Applikationen, der Standardisierung auf unserem branchenführenden Betriebssystem sowie der Automatisierung, Sicherung und Verwaltung komplexer Umgebungen. Preisgekrönte Support-, Trainings- und Consultingleistungen machen Red Hat zu einem vertrauenswürdigen Berater für Fortune-500-Unternehmen. Als strategischer Partner von Cloud-Providern, Systemintegratoren, Applikationsanbietern, Kunden und Open-Source-Communities kann Red Hat Unternehmen bei der Vorbereitung auf die digitale Zukunft unterstützen. Weitere Informationen: https://www.redhat.com/de.
Forward-Looking Statements
Except for the historical information and discussions contained herein, statements contained in this press release may constitute forward-looking statements within the meaning of the Private Securities Litigation Reform Act of 1995. Forward-looking statements are based on the company’s current assumptions regarding future business and financial performance. These statements involve a number of risks, uncertainties and other factors that could cause actual results to differ materially. Any forward-looking statement in this press release speaks only as of the date on which it is made. Except as required by law, the company assumes no obligation to update or revise any forward-looking statements.
###
Red Hat, the Red Hat logo and OpenShift are trademarks or registered trademarks of Red Hat, Inc. or its subsidiaries in the U.S. and other countries.
Pressekontakt
PR-COM GmbH
Natascha Hass
Senior Account Manager
Sendlinger-Tor-Platz 6
D-80336 München
Tel. 089-59997-700
natascha.hass@pr-com.de