Company News

24. Apr 2024

CGI: Vier hilfreiche Therapien gegen KI-Halluzinationen

Eschborn, 24. April 2024 – Generative KI wirkt manchmal übermotiviert. Ein ausgegebener Text mag zwar auf den ersten Blick schlüssig klingen, bei genauerem Hinschauen aber wird bisweilen klar, dass hier ins Blaue hinein formuliert wurde, nur um überhaupt etwas abzuliefern. CGI erklärt die wichtigsten Therapien gegen diese KI-Halluzinationen.

Generative KI (GenAI) liefert immer Antworten – und fast immer klingen sie sinnvoll. Aber oft genug sind sie es gar nicht und entpuppen sich bei näherem Hinsehen als frei erfundene, sogenannte KI-Halluzinationen. Häufigste Ursache dafür sind die Daten, mit denen die Large Language Models (LLMs) für GenAI-Applikationen trainiert werden. Sind sie falsch, veraltet, unverständlich oder unvollständig (Garbage In), kommen auch entsprechend fehlerhafte Sprachmodelle dabei heraus (Garbage Out).

Die in solchen Fällen angebrachte Antwort „Tut mir leid, darauf kann ich keine vernünftige Antwort geben“, ist im System jedoch nicht vorgesehen. Und so wird mangels brauchbarer Informationen eben halluziniert. Die Verbesserung der Datenqualität steht also bei der Optimierung von LLMs auf der Agenda ganz oben. Die kann jedoch kosten- und zeitaufwändig werden. Beides aber spielt bei der LLM-Entwicklung eine zentrale Rolle, denn die Entwicklung von GenAI-Anwendungen ist ebenso teuer wie zeitkritisch. Deshalb ist es wichtig, ergänzende Ansätze zur Optimierung von Sprachmodellen einzusetzen. CGI erklärt die wichtigsten Optionen:

  1. Der Aufbau von RAG-Pipelines: RAG steht für „Retrieval Augmented Generation“ und ist ein kostengünstiger Ansatz für die Nutzung zusätzlicher Daten in einem LLM. Das Sprachmodell wird dabei gezielt mit weiteren spezifischen Informationen gefüttert, ohne es damit zu trainieren und zu verändern. Es erhält stattdessen einfach Zugriff auf weitere Datenquellen, wie etwa themenspezifische Datenbanken, Data Warehouses oder Dokumenten-Pools, aus denen es sich bedienen kann. Das erweitert die Wissensbasis und steigert die Qualität der Antworten. So wird es möglich, ein LLM gezielt für bestimmte Anwendungen, Segmente oder Branchen ohne zusätzlichen Trainingsaufwand zu optimieren.
  2. Das Human-in-the-Loop-Prinzip: Mit „Human in the Loop“ (HITL) wird die Interaktion zwischen Menschen und Künstlicher Intelligenz bezeichnet, die zu einer Verbesserung der Sprachmodelle führen soll. Dieser Prozess, der auch als Reinforcement Learning bekannt ist, beschreibt eine spezifische Form der Arbeitsteilung zwischen Mensch und Maschine. In kontinuierlichen Feedback-Schleifen wird die KI ständig angeleitet und trainiert, eindeutige Entscheidungen zu fällen. Praktische Studien haben exemplarisch gezeigt, dass diese Form von Team-Work deutlich erfolgreicher sein kann als reine Mensch-Mensch- oder Maschine-Maschine-Konstellationen.
  3. Die Nutzung von Knowledge-Graphen: Mit der Graphentechnologie ist es möglich, heterogene Daten aus unterschiedlichen Quellen zusammenzuführen und ganzheitlich zu visualisieren. Ein Knowledge Graph verknüpft verschiedene Daten wie Personen, Orte und Konzepte sowie ihre Beziehungen zueinander und organisiert Wissen strukturiert und semantisch. Im Ergebnis entsteht ein umfassendes, kontextbezogenes Modell eines Wissensbereichs, das zudem leicht abfragbar ist. In einem Produktionsprozess beispielsweise können damit Montagelinien oder Lieferketten modelliert werden.
  4. Die Auswahl des richtige Sprachmodells: Großes Optimierungspotenzial liegt auch in der Entscheidung für den Einsatz eines bestimmten Sprachmodells. Jedes LLM hat seine eigenen Stärken und Schwächen – und seinen Preis. GPT 3.5 etwa ist weitaus günstiger als GPT 4. Ein weiterer wichtiger Punkt ist die Verfügbarkeit. Viele LLMs werden lediglich auf bestimmten Cloud-Plattformen bereitgestellt; OpenAI beispielsweise nur auf Azure. Für eine Reihe von Sprachmodellen werden zudem branchenspezifisch optimierte Varianten verfügbar sein (etwa Telco LLM). Letztlich gilt es, die Modelle mit den Anforderungen des jeweiligen Einsatzszenarios abzugleichen. Dabei kann sich dann herausstellen, dass ein günstiger Allrounder für den geplanten Zweck völlig ausreicht.

„Mit den richtigen Werkzeugen können GenAI-Applikationen schnell, kostengünstig und ohne zusätzlichen Trainingsaufwand für die Sprachmodelle optimiert werden“, erklärt Niklas Bläsing, Practice Head Data, Automation & AI bei CGI in Deutschland. „So können wir den Anteil an Fake-Informationen sukzessive immer weiter reduzieren. Es muss uns dabei aber auch klar sein, dass es selbst bei bestem Finetuning keine Garantie für völlige Fehlerfreiheit geben kann.“

Über CGI

Die 1976 gegründete CGI Group gehört zu den größten unabhängigen Anbietern von IT- und Geschäftsprozessdienstleistungen weltweit. Mit 90.500 Beratern und Experten weltweit bietet CGI ein breites Portfolio an Dienstleistungen – von strategischem IT- und Business-Consulting über Systemintegration, Managed IT und Business Process Services bis hin zu Intellectual-Property-Lösungen. Das von CGI verfolgte Prinzip der Kundennähe und das flexible globale Liefernetzwerk unterstützen Kunden dabei, Erfolge schneller zu erzielen und ihre Organisationsstrukturen zu digitalisieren. Der im Geschäftsjahr 2023 ausgewiesene Umsatz von CGI beträgt 14,3 Milliarden kanadische Dollar. CGI-Aktien sind an der TSX (GIB.A) sowie an der NYSE (GIB) notiert. Website: www.cgi.com/de

Über die KI-Kompetenzen von CGI

Künstliche Intelligenz wird zunehmend von Arbeitnehmern, Verbrauchern und Bürgern genutzt. CGI arbeitet mit einem Rahmenwerk aus menschenzentrierten KI-Prinzipien und verantwortungsbewussten Governance-Richtlinien, um für seine Kunden geschäftliche Mehrwerte zu erzielen, ihre KI-Vision zu entwickeln, ROI-orientierte Anwendungsfälle zu evaluieren und die Grundlagen für Wertschöpfung und operative Verantwortung zu schaffen.

Im Geschäftsjahr 2023 hat CGI Investitionen in Höhe von einer Milliarde Kanadischen Dollar angekündigt, die über einen Zeitraum von drei Jahren in die Entwicklung KI-basierter Angebote fließen werden. Damit sollen Go-to-Market-Strategien, die Rekrutierung und Weiterbildung von Talenten sowie der Einsatz von KI zur Steigerung der operativen Exzellenz gefördert werden. Mehr dazu erfahren Sie unter: https://www.cgi.com/de/de/kuenstliche-intelligenz/ki-intelligent-nutzen

Börsenkürzel

GIB (NYSE)
GIB.A (TSX)
de.cgi.com/presse

Pressekontakt

CGI Deutschland B.V. & Co. KG
Sabine Ernst
Media Lead Deutschland
T: +49-151-16360469
sabine.ernst@cgi.com
www.cgi.com | www.cgi.com/de

PR-COM
Anna v. Krockow
Senior Account Manager
Tel. +49-89-59997-750
anna.vonkrockow@pr-com.de
www.pr-com.de