Kunden-News

24. Feb. 2026

Red Hat veröffentlicht mit Red Hat AI Enterprise eine einheitliche KI-Plattform​

Die neue Plattform schließt die Lücke zwischen KI-Infrastruktur und produktiv einsetzbaren Agenten, indem sie den KI-Lebenszyklus auf Basis der branchenführenden Lösungen Red Hat Enterprise Linux und Red Hat OpenShift vereinheitlicht​

München, 24. Februar 2026 – Red Hat, der weltweit führende Anbieter von Open-Source-Lösungen, hat mit Red Hat AI Enterprise eine integrierte KI-Plattform für die Bereitstellung und Verwaltung von KI-Modellen, -Agenten und -Anwendungen in der Hybrid Cloud angekündigt. Sie ergänzt das KI-Portfolio von Red Hat, zu dem Red Hat AI Inference Server, Red Hat OpenShift AI und Red Hat Enterprise Linux AI gehören. Red Hat stellt darüber hinaus Red Hat AI 3.3 vor, das umfangreiche Updates und Erweiterungen für das gesamte KI-Portfolio bringt. Gemeinsam bieten die neuen Lösungen einen umfassenden „Metal to Agent“-Stack, der die zugrunde liegende Linux- und Kubernetes-Infrastruktur mit fortschrittlichen Inference- sowie agentenbasierten Funktionen verbindet und Unternehmen unterstützt, fragmentierte KI-Experimente in geregelte, autonome betriebliche Abläufe zu überführen.

Die KI-Landschaften in Unternehmen verändern sich rasch und entwickeln sich von simplen Chat-Interfaces zu hochdichten, autonomen agentenbasierten Workflows weiter, die eine tiefgehende Integration in den gesamten Technologie-Stack erfordern. Viele Unternehmen stecken jedoch aufgrund fragmentierter Tools und inkonsistenter Infrastrukturen in der „Pilotphase“ fest. Red Hat AI Enterprise löst dieses Problem, indem es die Lebenszyklen von Modellen und Anwendungen vereinheitlicht. IT-Teams sind somit in der Lage, KI wie andere standardisierte Enterprise-Systeme zu verwalten – und nicht mehr als siloartige Projekte. Die Bereitstellung von KI erfolgt damit genauso zuverlässig und wiederholbar wie die Bereitstellung klassischer Enterprise-Software.

Red Hat AI Enterprise als Basis für den produktiven KI-Einsatz​

Red Hat AI Enterprise liefert Kernfunktionen für den produktiven KI-Einsatz, darunter leistungsstarkes KI-Inferencing, Tuning und Anpassung von Modellen sowie Bereitstellung und Verwaltung von Agenten – und das mit der Flexibilität, jedes Modell auf jeder Hardware in beliebigen Umgebungen nutzen zu können. Red Hat AI Enterprise baut auf Red Hat OpenShift auf, der branchenführenden, auf Kubernetes basierenden Hybrid-Cloud-Anwendungsplattform, und bietet eine hochskalierbare, konsistente Nutzererfahrung mit hoher Sicherheit und mit vertrauten Tools und Frameworks. Für die KI-Infrastrukturen von NVIDIA haben NVIDIA und Red Hat gemeinsam die neue Red Hat AI Factory with NVIDIA entwickelt, die Red Hat AI Enterprise mit NVIDIA AI Enterprise kombiniert und Unternehmen hilft, den Produktiveinsatz von KI schneller voranzutreiben und KI einfacher zu skalieren.

Zu den wichtigsten Vorteilen von Red Hat AI Enterprise zählen:

  • Schnelles, kosteneffektives und skalierbares KI-Inferencing durch die Nutzung der Inference Engine vLLM und des Frameworks llm-d für verteilte Modelle, sodass die Bereitstellung von GenAI-Modellen in hybriden Umgebungen optimiert werden kann.
  • Integrierte Funktionen für Überwachung und Lifecycle Management, die helfen, KI über ihren gesamten Lebenszyklus hinweg zu kontrollieren und Risiken zu reduzieren. Die Plattform bietet einen vollständig integrierten, getesteten und interoperablen Stack für Enterprise-KI.
  • Flexibilität in hybriden Clouds, da Unternehmen unterstützt von vertrauenswürdigen Plattformen von Red Hat sämtliche KI-Modelle, -Agenten und -Anwendungen konsistent dort bereitstellen und verwalten können, wo ihre Geschäftsanforderungen es erfordern.

Größere strategische Flexibilität und Effizienz mit Red Hat AI 3.3​

Red Hat konzentriert sich mit Red Hat AI darauf, Stabilität für geschäftskritische Workloads und eine Basis für wegweisende Innovationen auf einer Plattform zu vereinen. Die neueste Version erweitert die Modellauswahl, verbessert die Unterstützung für Chips der nächsten Generation und bietet mehr betriebliche Konsistenz beim Einsatz von Frontier-Modellen.

Zu den wichtigsten neuen Features und Verbesserungen zählen:

  • Erweiterung des Modell-Ökosystems um validierte, produktionsreife komprimierte Versionen von Mistral-Large-3, Nemotron-Nano und Apertus-8B-Instruct. Diese sind über den OpenShift AI Catalog verfügbar. Darüber hinaus ermöglicht die neue Ausgabe die Bereitstellung von State-of-the-art-Modellen wie Ministral 3 und DeepSeek-V3.2 mit dem Optimierungsmechanismus „Sparse Attention“ und bietet multimodale Verbesserungen, darunter eine dreifache Beschleunigung für Whisper, Geodaten-Unterstützung, verbesserte spekulative Decodierung mit EAGLE und erweiterte Tool-Aufrufe für agentenbasierte Workflows.
  • Self-Service-Zugang zu KI-Modellen mit einer technischen Preview von Models-as-a-Service (MaaS). IT-Teams können über ein API-Gateway einen Self-Service-Zugriff auf selbst-gehostete Modelle bereitstellen. Dieser zentralisierte Ansatz stellt sicher, dass KI bei Bedarf für interne Nutzer verfügbar ist und unterstützt den Aufbau einer „Ready to go“-Basis, die die Einführung privater und skalierbarer KI im Unternehmen unterstützt.
  • Erweiterte Hardware-Unterstützung inklusive einer technischen Preview des GenAI-Supports von CPUs, angefangen mit Intel-CPUs für ein kosteneffektives Inferencing mit Small Language Models (SLMs). Darüber hinaus ist die Plattform nun auch für NVIDIAs Blackwell Ultra zertifiziert und erweitert den Support für AMDs MI325X-Beschleuniger.
  • Einheitlicher Data-to-Model Lifecycle mit dem neuen Red Hat AI Python Index. Dabei handelt es sich um ein vertrauenswürdiges Repository mit gehärteten, unternehmenstauglichen Versionen wichtiger Tools, darunter Docling, SDG Hub und Training Hub. Diese unterstützen Teams dabei, fragmentierte KI-Experimente hinter sich zu lassen und wiederholbare, sichere Produktionspipelines aufzubauen.
  • Umfassende KI-Überwachung und -Sicherheit mit größerer Sichtbarkeit hinsichtlich Modellgesundheit, -performance und -verhalten. Unternehmen erhalten Echtzeit-Telemetrie zu KI-Workloads, llm-d-Deployments, MaaS-Clustern und Modellnutzung. Hinzu kommt eine technische Preview der integrierten NeMo Guardrails, mit denen Entwickler betriebliche Sicherheit und die Einhaltung von Vorgaben bei KI-Interaktionen durchsetzen können.
  • On-Demand-Zugriff auf GPU-Ressourcen, sodass Unternehmen eigene, interne GPU-as-a-Service-Funktionen bereitstellen können. Eine intelligente Orchestrierung und gepoolter Hardware-Zugriff mit automatisiertem Checkpointing zum Sichern des Status länger laufender Trainings-Jobs verhindern, dass Trainingsfortschritte verloren gehen, und sorgen für planbare Compute-Kosten, auch in hochdynamischen oder kurzlebigen Umgebungen.

Zitat

Joe Fernandes, Vice President and General Manager, AI Business Unit, Red Hat

„Damit KI einen echten geschäftlichen Mehrwert bieten kann, muss sie als Kernkomponente in den Software-Stacks von Unternehmen statt als eigenständiger Silo operationalisiert werden. Red Hat AI Enterprise wurde entwickelt, um die Lücke zwischen Infrastruktur und Innovationen mit einer einheitlichen ‚Metal to Agent‘-Plattform zu schließen. Durch die Integration fortschrittlicher Tuning- und agentenbasierter Fähigkeiten und auf Basis der branchenführenden Plattformen Red Hat Enterprise Linux und Red Hat OpenShift liefern wir einen vollständigen Stack – von der Unterstützung GPU-beschleunigter Hardware bis hin zu den Modellen und Agenten, die das Business vorantreiben. Darüber hinaus können Unternehmen mit Red Hat AI 3.3 fragmentierte Pilotprojekte in geregelte, wiederholbare und hochperformante KI-Workflows über die gesamte Hybrid Cloud hinweg überführen.“

Weitere Informationen

Weitere Informationen zu Red Hat​

Über Red Hat, Inc.

Red Hat ist der führende Anbieter von Open-Hybrid-Cloud-Technologien und bietet damit eine vertrauenswürdige, konsistente und umfassende Grundlage für transformative IT-Innovationen und KI-Anwendungen. Das Portfolio an Cloud-, Entwickler-, KI-, Linux-, Automatisierungs- und Applikationsplattform-Technologien ermöglicht den Einsatz jeder Anwendung an jedem Ort – vom Rechenzentrum bis zum Edge. Als weltweit führender Anbieter von Enterprise-Open-Source-Softwarelösungen investiert Red Hat in offene Ökosysteme und Communities, um die IT-Herausforderungen von morgen zu bewältigen. In Zusammenarbeit mit Partnern und Kunden unterstützt Red Hat beim Aufbau, der Vernetzung, der Automatisierung, der Sicherung und der Verwaltung von IT-Umgebungen, unterstützt durch Consulting-Services und preisgekrönte Trainings- und Zertifizierungsangebote.

Forward-Looking Statements

Except for the historical information and discussions contained herein, statements contained in this press release may constitute forward-looking statements within the meaning of the Private Securities Litigation Reform Act of 1995. Forward-looking statements are based on the company’s current assumptions regarding future business and financial performance. These statements involve a number of risks, uncertainties and other factors that could cause actual results to differ materially. Any forward-looking statement in this press release speaks only as of the date on which it is made. Except as required by law, the company assumes no obligation to update or revise any forward-looking statements.

###

Red Hat, Red Hat Enterprise Linux, the Red Hat logo, and OpenShift are trademarks or registered trademarks of Red Hat, LLC. or its subsidiaries in the U.S. and other countries. Linux® is the registered trademark of Linus Torvalds in the U.S. and other countries.

Pressekontakt

PR-COM GmbH
Melissa Gemmrich
Senior Account Manager
Sendlinger-Tor-Platz 6
D-80336 München
Tel. 089-59997-759
melissa.gemmrich@pr-com.de