Kunden-News

7. Mai 2024

Red Hat bietet mit Red Hat Enterprise Linux AI leicht zugängliche, generative Open-Source-KI-Innovation

  • Erstes Angebot, das unterstützte, freigestellte und Open-Source-lizenzierte IBM Granite LLMs im Rahmen des flexiblen und bewährten Subskriptionsmodells von Red Hat für Unternehmen bereitstellt
  • Erweitert die weltweit führende Enterprise-Linux-Plattform um die Open-Source-Modell-Alignment-Tools von InstructLab, um das Experimentieren mit generativen KI-Modellen und das Alignment-Tuning zu vereinfachen
  • Bietet eine unterstützte, unternehmenstaugliche Modell-Laufzeitumgebung für AMD-, Intel- und NVIDIA-Plattformen, um KI-Innovationen auf Basis von Open Source voranzutreiben​

DENVER – RED HAT SUMMIT – 7. Mai 2024 – Red Hat, der weltweit führende Anbieter von Open-Source-Lösungen, kündigt mit der Einführung von Red Hat Enterprise Linux AI (RHEL AI) eine grundlegende Modellplattform an, mit der Anwender generative KI-Modelle (GenAI) nahtlos entwickeln, testen und einsetzen können. RHEL AI vereint die Open-Source-lizenzierte Large-Language-Model (LLM)-Familie Granite von IBM Research, InstructLab-Modell-Alignment-Tools, die auf der Methode Large-Scale Alignment for ChatBots (LAB) basieren, und einen Community-getriebenen Ansatz zur Modellentwicklung durch das InstructLab-Projekt. Die gesamte Lösung ist als optimiertes, bootfähiges RHEL-Image für individuelle Server-Implementierungen in der Hybrid Cloud paketiert und auch als Teil von OpenShift AI, der hybriden Plattform für Maschinelles Lernen (MLOps) von Red Hat, für die Ausführung von Modellen und InstructLab in verteilten Cluster-Umgebungen enthalten.

Der Launch von ChatGPT hat ein enormes Interesse an GenAI geweckt, und das Innovationstempo hat sich seitdem weiter beschleunigt. Unternehmen sind von der Evaluierung von GenAI-Services zur Entwicklung KI-gestützter Anwendungen übergegangen. Ein schnell wachsendes Ökosystem offener Modelloptionen hat die KI-Innovation weiter vorangetrieben und gezeigt, dass es nicht nur ein Modell für alle Anforderungen geben wird. Die Nutzer werden von einer Reihe von Wahlmöglichkeiten profitieren, um spezifischen Aufgaben gerecht zu werden, was durch einen offenen Innovationsansatz noch beschleunigt werden kann.

Die Umsetzung einer KI-Strategie erfordert mehr als nur die Auswahl eines Modells. Unternehmen benötigen das Fachwissen, um ein bestimmtes Modell auf ihren spezifischen Anwendungsfall abzustimmen und die erheblichen Kosten einer KI-Implementierung in den Griff zu bekommen. Der Mangel an Data-Science-Kenntnissen geht daher mit erheblichen finanziellen Anforderungen einher:

  • die Beschaffung von KI-Infrastruktur oder Inanspruchnahme von KI-Dienstleistungen
  • der komplexe Prozess des Tunings von KI-Modellen für spezifische Geschäftsanforderungen
  • die Integration von KI in Unternehmensanwendungen
  • die Verwaltung des Lebenszyklus von Anwendungen und Modellen.

Um die Eintrittsbarrieren für KI-Innovationen wirklich zu senken, müssen Unternehmen den Kreis derjenigen erweitern, die an KI-Initiativen mitarbeiten können, und gleichzeitig die Kosten unter Kontrolle bringen. Mit den InstructLab-Alignment-Tools, Granite-Modellen und RHEL AI will Red Hat die Vorteile echter Open-Source-Projekte – frei zugänglich und wiederverwendbar, transparent und offen für Beiträge – auf GenAI anwenden, um diese Hindernisse zu beseitigen.

KI-Entwicklung im offenen Raum mit InstructLab​

IBM Research hat mit der Technik Large-Scale Alignment for ChatBots (LAB) einen Ansatz für die Modellanpassung entwickelt, bei dem eine Taxonomie-geleitete synthetische Datengenerierung und ein neuartiges mehrstufiges Tuning-Framework zum Einsatz kommen. Dieser Ansatz macht die Entwicklung von KI-Modellen offener und für alle Nutzer zugänglicher, indem er die Abhängigkeit von kostenintensiven menschlichen Annotationen und proprietären Modellen verringert. Mit der LAB-Methode können Modelle verbessert werden, indem die mit einer Taxonomie verbundenen Fähigkeiten und Kenntnisse spezifiziert, synthetische Daten aus diesen Informationen in großem Umfang für die Modelle erzeugt und die erzeugten Daten für das Modelltraining verwendet werden.

Nachdem IBM und Red Hat erkannt haben, dass die LAB-Methode zu einer erheblichen Verbesserung der Modell-Performance beitragen kann, haben sie InstructLab ins Leben gerufen, eine Open-Source-Community, die auf der LAB-Methode und den Open-Source-Granite-Modellen von IBM aufbaut. Das InstructLab-Projekt zielt darauf ab, die LLM-Entwicklung in die Hände von Entwicklern zu geben, indem es den Aufbau und die Erstellung eines LLMs sowie den Beitrag dazu so einfach macht wie den Beitrag zu jedem anderen Open-Source-Projekt.

Im Rahmen der Einführung von InstructLab hat IBM auch eine Familie von ausgewählten Granite-English-Language- und Code-Modellen veröffentlicht. Diese Modelle werden unter einer Apache-Lizenz mit Transparenz über die zum Training dieser Modelle verwendeten Datensätze veröffentlicht. Das englische Sprachmodell Granite 7B wurde in die InstructLab-Community integriert, in die Endbenutzer ihre Fähigkeiten und ihr Wissen einbringen können, um dieses Modell gemeinsam zu verbessern, so wie sie es auch bei jedem anderen Open-Source-Projekt machen würden. Eine ähnliche Unterstützung für Granite-Code-Modelle innerhalb von InstructLab wird in Kürze verfügbar sein.

Open-Source-KI-Innovation auf einem zuverlässigen Linux-Backbone​

RHEL AI baut auf diesem offenen Ansatz für KI-Innovationen auf und enthält eine unternehmenstaugliche Version des InstructLab-Projekts sowie Granite-Sprach- und Codemodelle zusammen mit der weltweit führenden Enterprise-Linux-Plattform, um den Einsatz in einer hybriden Infrastrukturumgebung zu vereinfachen. Dies schafft eine grundlegende Modellplattform, um Open-Source-lizenzierte GenAI-Modelle in Unternehmen zu bringen. RHEL AI umfasst:

  • Open-Source-lizenzierte Granite-Sprache und Code-Modelle, die von Red Hat unterstützt und sichergestellt werden
  • eine unterstützte, im Lebenszyklus befindliche Distribution von InstructLab, die eine skalierbare, kosteneffiziente Lösung für die Verbesserung der LLM-Fähigkeiten bietet und Wissen und Fähigkeiten für einen viel größeren Kreis an Benutzern zugänglich macht
  • optimierte bootfähige Modell-Runtime-Instanzen mit Granite-Modellen und InstructLab-Tooling-Paketen als bootfähige RHEL-Images über den RHEL Image Mode, einschließlich optimierter Pytorch-Laufzeitbibliotheken und von Beschleunigern für AMD Instinct MI300X, Intel und NVIDIA GPUs sowie NeMo Frameworks
  • den umfassenden Enterprise-Support- und das Lifecycle-Versprechen von Red Hat, das mit einer vertrauenswürdigen Produktdistribution für Unternehmen, einem 24×7-Produktionssupport und einem erweiterten Lifecycle Support verbunden ist.

Wenn Unternehmen mit neuen KI-Modellen auf RHEL AI experimentieren und sie optimieren, können sie diese Workflows mit Red Hat OpenShift AI skalieren, das RHEL AI enthalten wird. Zudem können sie die Kubernetes-Engine von OpenShift nutzen, um KI-Modelle in großem Umfang zu trainieren und bereitzustellen, und die integrierten MLOps-Funktionen von OpenShift AI zur Verwaltung des Modelllebenszyklus verwenden. Das watsonx.ai Enterprise Studio von IBM, das heute auf Red Hat OpenShift AI aufbaut, wird von der Verfügbarkeit von RHEL AI in OpenShift AI profitieren und zusätzliche Funktionen für die Entwicklung von Unternehmens-KI, das Datenmanagement, die Modell-Governance und eine verbesserte Preis-Performance mit sich bringen.

Die Cloud ist hybrid. Das gilt auch für KI.​

Seit mehr als 30 Jahren sorgen Open-Source-Technologien für schnelle Innovationen, stark reduzierte IT-Kosten und niedrigere Innovationsbarrieren. Red Hat ist seit fast ebenso langer Zeit führend in diesem Bereich – von der Bereitstellung offener Enterprise-Linux-Plattformen mit RHEL in den frühen 2000er Jahren bis hin zur Entwicklung von Containern und Kubernetes als Fundament für die Open Hybrid Cloud und Cloud-natives Computing mit Red Hat OpenShift.

Dieser Trend setzt sich fort, indem Red Hat KI-/ML-Strategien in der offenen Hybrid Cloud vorantreibt, sodass KI-Workloads dort ausgeführt werden können, wo die Daten liegen, sei es im Rechenzentrum, in mehreren Public Clouds oder an der Edge. Die Vision von Red Hat für KI umfasst nicht nur die Workloads, sondern auch das Modelltraining und -tuning, um Einschränkungen in Bezug auf Datensouveränität, Compliance und betriebliche Integrität zu überwinden. Die Konsistenz, die die Plattformen von Red Hat über diese Umgebungen hinweg bieten, unabhängig davon, wo sie ausgeführt werden, ist entscheidend, um KI-Innovationen voranzutreiben.

RHEL AI und die InstructLab-Community tragen zur Verwirklichung dieser Vision bei, indem sie viele Hürden für das Experimentieren mit und den Aufbau von KI-Modellen abbauen und gleichzeitig die Tools, Daten und Konzepte bereitstellen, die für die nächste Welle intelligenter Workloads benötigt werden.

Verfügbarkeit

Red Hat Enterprise Linux AI ist jetzt als Developer Preview verfügbar. Aufbauend auf der in der IBM Cloud verfügbaren GPU-Infrastruktur, die zum Trainieren der Granite-Modelle und zum Support von InstructLab verwendet wird, wird IBM Cloud nun auch RHEL AI und OpenShift AI unterstützen. Diese Integration wird es Unternehmen ermöglichen, generative KI einfacher in ihren geschäftskritischen Applikationen einzusetzen.

Red Hat Summit

In den Keynotes des Red Hat Summit gibt es neueste Informationen von Executives, Kunden und Partnern von Red Hat:

Zitate

Ashesh Badani, Senior Vice President und Chief Product Officer, Red Hat
„GenAI stellt einen revolutionären Fortschritt für Unternehmen dar, aber nur, wenn sie in der Lage sind, KI-Modelle tatsächlich so einzusetzen und zu nutzen, dass sie ihren spezifischen Geschäftsanforderungen entsprechen. RHEL AI und das InstructLab-Projekt, gekoppelt mit Red Hat OpenShift AI, sind darauf ausgelegt, viele der Barrieren, die GenAI in der Hybrid Cloud entgegenstehen – von begrenzten Data-Science-Fähigkeiten bis hin zu den benötigten Ressourcen –, zu überwinden und gleichzeitig Innovationen sowohl in Unternehmensimplementierungen als auch in Upstream Communities voranzutreiben.“

Ramine Roane, Corporate Vice President, AI Group, AMD
„KI ist einer der wichtigsten technologischen Umbrüche der letzten 50 Jahre. Um die Verbreitung von KI zu beschleunigen, müssen die Modelle und Tools, die zur Entwicklung von KI-Anwendungen verwendet werden, für Unternehmen zugänglich gemacht werden. RHEL AI basiert auf einem vertrauenswürdigen Linux-Backbone mit Open-Source-Tools und Open-Source-lizenzierten Modellen und ist eine der Plattformen, die dies bieten kann. Wir freuen uns, die Bemühungen von Red Hat, KI im Unternehmen voranzutreiben, mit unseren AMD-Technologien zu unterstützen, darunter die Instinct-AI-Beschleuniger.“

Jeremy Foster, Senior Vice President und General Manager, Networking – Compute, Cisco
„Die KI-Bewegung stellt einen seismischen Wandel für Unternehmen dar und viele ringen dabei um den besten Weg in die Zukunft. Cisco arbeitet weiterhin eng mit Red Hat zusammen, um die Einführung von KI voranzutreiben. RHEL AI wird die Innovation beschleunigen, indem es Open-Source-basierte LLM-Modelle als Teil einer Enterprise-Linux-Plattform bereitstellt.“

Gil Shneorson, Senior Vice President, Solution Platforms, Dell Technologies
„Dell Technologies ist ein Pionier bei der Bereitstellung eines zuverlässigen und konsistenten Lebenszyklusmanagements für Infrastrukturen. Wir glauben, dass konsistente, zuverlässige und sichere System-Updates für den IT-Betrieb in Unternehmen unabdingbar sind, da sich die Systeme ständig weiterentwickeln. Neue Technologien, die Unternehmen die Möglichkeit bieten, Code-Updates auszuweiten und Bereitstellungszeiten zu verkürzen, werden wichtig sein, um den Innovationsfortschritt aufrechtzuerhalten.

Frances Guida, Director, Compute Solutions und AI, Hewlett Packard Enterprise
„Hewlett Packard Enterprise arbeitet seit zwei Jahrzehnten mit Red Hat zusammen, um branchenführende Lösungen anzubieten, die die HPE-Compute-Plattformen mit RHEL kombinieren. Eine offene Umgebung ist entscheidend für Innovationen in schnell wachsenden Technologiekategorien wie generativer KI. Wir freuen uns darauf, neue Bereiche der Zusammenarbeit mit RHEL AI und Red Hat zu erschließen, um HPE-Kunden zum Erfolg zu verhelfen.“

Darío Gil, Senior Vice President und Director, Research, IBM
„Echte Open-Source-Innovation in die Entwicklung von KI-Modellen zu bringen und die Kraft einer breiten Community zu nutzen, wird die Art und Weise verändern, wie Unternehmen über ihre Pläne für die Einführung und Skalierung von KI denken. IBM ist ein starker Befürworter von Open Source und unterstützt einflussreiche Communities wie Linux, Apache und Eclipse. Unsere Zusammenarbeit mit Red Hat ist ein Schritt nach vorne in unserem offenen Ansatz zur Entwicklung sicherer, verantwortungsvoller und effizienter KI. RHEL AI und InstructLab, kombiniert mit der Open-Source-Granite-Modellfamilie von IBM, werden einen neuen Wert und eine neue Auswahl für Kunden bieten, die auf der Suche nach zweckmäßigen Modellen sind, die ihre Anwendungsfälle mit ihren eigenen Daten adressieren und gleichzeitig die Kosten in einer vielfältigen Hybrid-Cloud-Umgebung minimieren.“

Hillery Hunter, CTO und General Manager of Innovation, IBM Infrastructure
„Viele Unternehmen wollen KI in ihre geschäftskritischen Anwendungen integrieren. Die Verfügbarkeit von RHEL AI und OpenShift AI auf IBM Cloud wird dazu beitragen, die Art und Weise zu verändern, wie die Community und Unternehmen generative KI entwickeln und nutzen. Wir ermöglichen eine offene Zusammenarbeit, vereinfachen die Modellanpassung und bieten unterstützte Modelle und Tools für die Integration von KI in jeder Anwendung.“

Justin Hotard, Executive Vice President und General Manager, Data Center & AI Group, Intel
„Um die Einführung von KI voranzutreiben, muss sie vollständig quelloffen sein, sodass die Mitglieder der Community dazu beitragen und neue Applikationen und Anwendungsfälle schaffen können.  Durch die Einbeziehung der Open-Source-Granite-Modelle und des InstructLab-Projekts ist RHEL AI in der Lage, die Art und Weise erheblich zu verändern, wie wir mit KI-Modellen interagieren, sie optimieren und schließlich in der Produktion einsetzen.“

Kirk Skaugen, President, Lenovo ISG
„Unternehmen, die KI-gesteuerte Anwendungen einsetzen, müssen in der Lage sein, potenzielle Modelle auf einer vertrauenswürdigen, aber dennoch innovativen Plattform zu testen und zu erproben. Lenovo glaubt, dass die Zukunft der KI hybrid ist, und wir betrachten RHEL AI als einen entscheidenden Weg für die Verbreitung von hybriden KI-Innovationen und durch Red Hat OpenShift AI auch für die Produktionsskalierbarkeit. Wir freuen uns, mit Red Hat zusammenzuarbeiten, um diese hybride KI-Innovation durch gemeinsame Tests auf unseren ThinkSystem-8-GPU-Servern voranzutreiben und so eine vertrauenswürdige Hardwarebasis für den Einsatz von quelloffener KI zu schaffen.“

Justin Boitano, Vice President, Enterprise Products, NVIDIA
„Red Hat und NVIDIA arbeiten seit Langem eng zusammen, und Red Hat Enterprise Linux AI zeigt, dass wir uns gemeinsam darauf konzentrieren, den Entwicklern und Forschern, die die nächste Welle von KI-Technologien und -Anwendungen konzipieren, Full-Stack-Computing und Software zur Verfügung zu stellen.“

Zusätzliche Informationen

Weitere Informationen zu Red Hat​

Über Red Hat

Red Hat, der weltweit führende Anbieter von Enterprise-Open-Source-Lösungen, folgt einem von der Community getriebenen Ansatz, um zuverlässige und leistungsstarke Linux-, Hybrid-Cloud-, Container- und Kubernetes-Technologien bereitzustellen. Red Hat unterstützt Kunden bei der Integration neuer und bestehender IT-Anwendungen, der Entwicklung Cloud-nativer Applikationen, der Standardisierung auf unserem branchenführenden Betriebssystem sowie der Automatisierung, Sicherung und Verwaltung komplexer Umgebungen. Preisgekrönte Support-, Trainings- und Consultingleistungen machen Red Hat zu einem vertrauenswürdigen Berater für Fortune-500-Unternehmen. Als strategischer Partner von Cloud-Providern, Systemintegratoren, Applikationsanbietern, Kunden und Open-Source-Communities kann Red Hat Unternehmen bei der Vorbereitung auf die digitale Zukunft unterstützen. Weitere Informationen: https://www.redhat.com/de.

Red Hat Forward-Looking Statements

Except for the historical information and discussions contained herein, statements contained in this press release may constitute forward-looking statements within the meaning of the Private Securities Litigation Reform Act of 1995. Forward-looking statements are based on the company’s current assumptions regarding future business and financial performance. These statements involve a number of risks, uncertainties and other factors that could cause actual results to differ materially. Any forward-looking statement in this press release speaks only as of the date on which it is made. Except as required by law, the company assumes no obligation to update or revise any forward-looking statements.

###​

Red Hat, Red Hat Enterprise Linux, the Red Hat logo and OpenShift are trademarks or registered trademarks of Red Hat, Inc. or its subsidiaries in the U.S. and other countries. Linux® is the registered trademark of Linus Torvalds in the U.S. and other countries.​

Pressekontakt

PR-COM GmbH
Natascha Hass
Sendlinger-Tor-Platz 6
D-80336 München
Tel. 089-59997-700
natascha.hass@pr-com.de