Kunden-News

3. Dez. 2025

Red Hat liefert verbesserte KI-Inferenz über AWS​

Red Hat AI auf AWS-KI-Chips Trainium und Inferentia bietet Unternehmen mehr Auswahl, Flexibilität und Effizienz für KI-Workloads in der Produktion

München, 3. Dezember 2025 – Red Hat, der weltweit führende Anbieter von Open-Source-Lösungen, gibt eine erweiterte Zusammenarbeit mit Amazon Web Services (AWS) bekannt, in deren Rahmen generative KI (GenAI) für Unternehmen auf AWS mit Red Hat AI und AWS AI Silicon bereitgestellt wird. IT-Entscheidungsträgern soll so die Flexibilität gegeben werden, hochperformante, effiziente KI-Inferenz in großem Maßstab auszuführen, unabhängig von der zugrunde liegenden Hardware.

Das Aufkommen der generativen KI und der damit verbundene Bedarf an skalierbarer Inferenz zwingen Unternehmen dazu, ihre IT-Infrastruktur neu zu bewerten. IDC prognostiziert dabei, dass „bis 2027 40 % der Unternehmen maßgeschneiderte Siliziumchips, darunter ARM-Prozessoren oder KI/ML-spezifische Chips, einsetzen werden, um den steigenden Anforderungen an Performanceoptimierung, Kosteneffizienz und spezialisierte Rechenleistung gerecht zu werden“ (1). Dies unterstreicht den Bedarf an optimierten Lösungen, die die Rechenleistung verbessern, die Kosten minimieren und schnellere Innovationszyklen für leistungsstarke KI-Anwendungen ermöglichen.

Die Zusammenarbeit von Red Hat mit AWS ermöglicht Unternehmen eine Full-Stack-Gen-AI-Strategie, indem die umfassenden Plattformfunktionen von Red Hat mit der AWS-Cloud-Infrastruktur und den AI-Chipsätzen AWS Inferentia2 und AWS Trainium3 kombiniert werden. Zu den wichtigsten Aspekten der Zusammenarbeit gehören:

  • Red Hat AI Inference Server auf AWS-KI-Chips: Der Red Hat AI Inference Server, der auf vLLM basiert, wird auch mit AWS-KI-Chips wie AWS Inferentia2 und AWS Trainium3 nutzbar sein, um eine gemeinsame Inferenzschicht bereitzustellen, die jedes KI-Modell unterstützen kann. Damit können Unternehmen eine höhere Performance, geringere Latenz und Kosteneffizienz für die Skalierung von KI-Produktionsbereitstellungen erzielen – mit einer um 30 bis 40 % besseren Preis-Leistungs-Bilanz als bei aktuellen, vergleichbaren GPU-basierten Amazon-EC2-Instanzen.
  • Bereitstellung von KI auf Red Hat OpenShift: Red Hat arbeitete mit AWS zusammen, um einen AWS Neuron Operator für Red Hat OpenShift, Red Hat OpenShift AI und Red Hat OpenShift Service auf AWS zu entwickeln. Eine umfassende und vollständig verwaltete Anwendungsplattform auf AWS bietet Unternehmen einen nahtlosen, unterstützten Weg, ihre KI-Workloads mit AWS-Beschleunigern auszuführen.
  • Einfacher Zugriff und leichte Bereitstellung: Durch die Unterstützung von AWS-KI-Chips bietet Red Hat seinen Kunden auf AWS einen verbesserten und einfacheren Zugriff auf stark nachgefragte Beschleuniger mit hoher Kapazität. Darüber hinaus hat Red Hat kürzlich die amazon.ai Certified Ansible Collection für Red Hat Ansible Automation Platform veröffentlicht, um die Orchestrierung von KI-Services auf AWS zu ermöglichen.
  • Beitrag zur Upstream-Community: Red Hat und AWS arbeiten gemeinsam an der Optimierung eines AWS-KI-Chip-Plugins, das an vLLM weitergeleitet wird. Als führender kommerzieller Mitwirkender an vLLM setzt sich Red Hat dafür ein, vLLM auf AWS zu unterstützen, um die KI-Inferenz- und Trainingsfunktionen für Benutzer zu beschleunigen. vLLM ist auch die Grundlage von llm-d, einem Open-Source-Projekt, das sich auf die Bereitstellung von Inferenz in großem Maßstab konzentriert und jetzt als kommerziell unterstützte Funktion in Red Hat OpenShift AI 3 verfügbar ist.

Red Hat blickt auf eine lange Historie der Zusammenarbeit mit AWS zurück, um Kunden vom Rechenzentrum bis zur Edge zu unterstützen. Dieser jüngste Meilenstein zielt nun darauf ab, den sich wandelnden Anforderungen von Unternehmen gerecht zu werden, die KI in ihre Hybrid-Cloud-Strategien integrieren, um optimierte, effiziente Ergebnisse im Bereich der generativen KI zu erzielen.

Informationen zur Zusammenarbeit von Red Hat und AWS erhalten Interessierte auch auf der Konferenz AWS re:Invent 2025 am Stand 839.

Verfügbarkeit​

Der AWS Neuron Community Operator ist jetzt im Red Hat OpenShift OperatorHub für Kunden verfügbar, die Red Hat OpenShift oder Red Hat OpenShift Service auf AWS verwenden. Die Unterstützung von Red Hat AI Inference Server für AWS-AI-Chips wird voraussichtlich im Januar 2026 in der Entwicklervorschau verfügbar sein.

Zitate​

Joe Fernandes, Vice President und General Manager, AI Business Unit, Red Hat
„Durch die Kombination von unserem für Unternehmen konzipierten Red Hat AI Inference Server, der auf dem innovativen vLLM-Framework basiert, mit AWS-KI-Chips ermöglichen wir Nutzern die Bereitstellung und Skalierung von KI-Workloads mit verbesserter Effizienz und Flexibilität. Aufbauend auf der Open-Source-Tradition von Red Hat zielt diese Zusammenarbeit darauf ab, generative KI in Hybrid-Cloud-Umgebungen zugänglicher und kostengünstiger zu machen.“

Colin Brace, Vice President, Annapurna Labs, AWS
„Unternehmen benötigen Lösungen, die außergewöhnliche Performance, Kosteneffizienz und operative Flexibilität für geschäftskritische KI-Workloads bieten. AWS hat seine Trainium- und Inferentia-Chips entwickelt, um leistungsstarke KI-Inferenz und -Trainings zugänglicher und kostengünstiger zu machen. Unsere Zusammenarbeit mit Red Hat bietet Kunden einen unterstützten Weg zur Bereitstellung generativer KI in großem Maßstab, indem sie die Flexibilität von Open Source mit der AWS-Infrastruktur und speziell entwickelten KI-Beschleunigern kombiniert, um die Time-to-Value vom Pilotprojekt bis zur Produktion zu verkürzen.“

Jean-François Gamache, Chief Information Officer und Vice President, Digital Services, CAE
„Die Modernisierung unserer kritischen Applikationen mit Red Hat OpenShift Service auf AWS ist ein wichtiger Meilenstein in unserer digitalen Transformation. Diese Plattform unterstützt unsere Entwickler dabei, sich auf hochwertige Initiativen zu konzentrieren – sie treibt Produktinnovationen voran und beschleunigt die KI-Integration in unseren Lösungen. Red Hat OpenShift bietet die Flexibilität und Skalierbarkeit, die es uns ermöglichen, echte Ergebnisse zu erzielen, von umsetzbaren Erkenntnissen über virtuelles Live-Coaching bis hin zu einer deutlichen Reduzierung der Bearbeitungszeiten für Probleme, die von Benutzern gemeldet werden.“

Anurag Agrawal, Gründer und Chief Global Analyst, Techaisle
„Angesichts steigender Kosten für KI-Inferenz priorisieren Unternehmen neben der Performance auch die Effizienz. Diese Zusammenarbeit ist ein Beispiel für die Strategie ‚Jedes Modell, jede Hardware‘ von Red Hat, bei der die offene Hybrid-Cloud-Plattform mit den deutlichen wirtschaftlichen Vorteilen von AWS Trainium und Inferentia kombiniert wird. Damit können CIOs generative KI in großem Maßstab operationalisieren und von kostenintensiven Experimenten zu einer nachhaltigen, kontrollierten Produktion übergehen.“

(1) IDC FutureScape: Worldwide Cloud 2025 Predictions, 28. Oktober 2024, Doc #US52640724

Zusätzliche Informationen​

Weitere Informationen zu Red Hat​

Über Red Hat, Inc.

Red Hat ist der führende Anbieter von Open-Hybrid-Cloud-Technologien und bietet damit eine vertrauenswürdige, konsistente und umfassende Grundlage für transformative IT-Innovationen und KI-Anwendungen. Das Portfolio an Cloud-, Entwickler-, KI-, Linux-, Automatisierungs- und Applikationsplattform-Technologien ermöglicht den Einsatz jeder Anwendung an jedem Ort – vom Rechenzentrum bis zum Edge. Als weltweit führender Anbieter von Enterprise-Open-Source-Softwarelösungen investiert Red Hat in offene Ökosysteme und Communities, um die IT-Herausforderungen von morgen zu bewältigen. In Zusammenarbeit mit Partnern und Kunden unterstützt Red Hat beim Aufbau, der Vernetzung, der Automatisierung, der Sicherung und der Verwaltung von IT-Umgebungen, unterstützt durch Consulting-Services und preisgekrönte Trainings- und Zertifizierungsangebote.

Forward-Looking Statements​

Except for the historical information and discussions contained herein, statements contained in this press release may constitute forward-looking statements within the meaning of the Private Securities Litigation Reform Act of 1995. Forward-looking statements are based on the company’s current assumptions regarding future business and financial performance.  These statements involve a number of risks, uncertainties and other factors that could cause actual results to differ materially. Any forward-looking statement in this press release speaks only as of the date on which it is made. Except as required by law, the company assumes no obligation to update or revise any forward-looking statements.

###​

Red Hat, the Red Hat logo and OpenShift are trademarks or registered trademarks of Red Hat, Inc. or its subsidiaries in the U.S. and other countries.​

Pressekontakt

PR-COM GmbH
Thu Hang Hoang
Sendlinger-Tor-Platz 6
D-80336 München
Tel. 089-59997-808
thuhang.hoang@pr-com.de