Technologie und Märkte

Jedes Jahr überschwemmen technische Innovationen den Markt, ein gutes Produkt garantiert jedoch noch lange keinen Erfolg. Es gibt zahlreiche Gründe, warum ein Produkt floppt: Die Konkurrenz war schneller, der Preis zu hoch oder das Marketing nicht ausreichend. Häufig braucht es auch einfach ein Quäntchen Glück, um den Durchbruch zu schaffen. Als beispielsweise 1995 der erste Internet Explorer auf den Markt kam, hatte der Browser von Netscape bereits einen Marktanteil von 80 Prozent. Doch Netscape reagierte zu langsam auf die neue Konkurrenz, die den Internet Explorer einfach mit Windows koppelte. Ende der 1990er war der Explorer daher bereits der dominierende Browser. Dass Microsoft durch die Koppelung einen US-Kartellprozess und weitere Zivilklagen auf sich zog, hatte auf den Ausgang der Browserschlacht keinen Einfluss mehr.

Doch der Netscape Navigator ist nicht allein mit seinem Schicksal. Auf zahlreichen IT-Messen wie dem Mobile World Congress, der it-sa oder der Hannover Messe präsentieren Unternehmen Produkte, die unseren Alltag verschönern, verbessern und vereinfachen sollen. Häufig folgt auf einen anfänglichen Hype jedoch nur allzu schnell Ernüchterung, wie folgende Beispiele zeigen:

  1. Google+ war der Stern am Social-Media-Himmel, nachdem das soziale Netzwerk nach nur drei Monaten rund 40 Millionen registrierte Benutzer verzeichnete. Das schnelle Wachstum war jedoch lediglich der Tatsache geschuldet, dass ein Google+-Profil notwendig war, um YouTube oder den PlayStore im vollen Umfang zu nutzen. Als Google die Bindung des Gmail-Kontos an ein Google+-Profil beendete, begann auch der rasche Abstieg des Social-Media-Netzwerks. Nachdem 2018, sieben Jahre nach der Markteinführung, zwei Datenpannen kurzzeitig die persönlichen Informationen von rund 52 Millionen Nutzern offenlegten, ist das Netzwerk heute bereits für Privatnutzer- und Brand-Konten gesperrt.
     
  2. Kaum auf dem Markt, wurde auch schon das Ende von OpenDoc verkündet. Die Software sollte eine Arbeitsumgebung auf dem Computer schaffen, in der unabhängige Programmkomponenten individuell nach eigenen Kriterien kombiniert werden. Die Software-Plattform war allerdings sehr ressourcenhungrig und ließ sich nicht auf jedem Computer verwenden. Steve Jobs kommentierte das Aus gegenüber seinen Entwicklern folgendermaßen: „OpenDoc ist eine hervorragende Technik, aber der Rest der Welt hätte sie ohnehin nicht benutzt.“ Dem Visionär war klar, dass Erfolg nicht von der Qualität des Produktes abhängt.
     
  3. OS/2 sollte besser sein als Windows und das war die 1987 veröffentlichte Version 1.0 auch: Sie bot echtes, präemptives Multitasking, konnte in einer Emulation auch Windows-3.1-Programme ausführen, unterstützte Dateinamen bis zu 255 Zeichen und verhinderte mit einem Speicherschutz, dass eine fehlerhafte Anwendung das gesamte System in Mitleidenschaft zieht. Doch schlechtes Marketing führte dazu, dass das technisch exzellente Produkt Schiffbruch erlitt und heute praktisch nicht mehr existiert.

Natürlich könnte man hier noch einige Beispiele ergänzen: Bildtelefonie, Windows Vista oder Sonys MicroMV-Speicher. Manche Innovationen dominieren wie Virtual Reality immer wieder die Nachrichten, sodass man fast mitfiebert, ob der Durchbruch diesmal vielleicht gelingt; andere hingegen vermisst keiner – oder haben Sie Clippy vermisst, die kleine digitale Büroklammer von Microsoft? Nach 18 Jahren holt das Unternehmen sie dennoch zurück: Als Emoji in der Plattform Microsoft Teams darf die Kult-Büroklammer den Kollegen den Tag versüßen.

menuseperator

Bisher habe ich beim Thema KI immer den Eindruck gehabt, es gehe um Daten, sehr viele Daten. Manchmal auch mehr um schiere Quantität denn Qualität. Die KI wird es dann schon richten. Oder so. Und wer keine Daten hat, der hat das Nachsehen im Wettrüsten um die beste – oder vielmehr klügste – KI-Lösung. Doch diese Woche wurde ich eines Besseren belehrt und stolperte gleich mehrfach über dazu konträre und, wie ich finde, spannende Aussagen: diese besagen, dass die KI-Zukunft nicht allein durch einen unbegrenzten Datenhunger entschieden wird. Von Big Data soll die Entwicklung doch tatsächlich hin zu Small Data gehen. So zu lesen unter anderem in meinem neuen Lieblingsmagazin ada:

Es geht dabei um Systeme, die nicht nur nach Korrelationen in riesigen Datenmengen suchen, die Grundlage für das Machine Learning. Sondern solche, die mit viel weniger Daten klarkommen, weil sie zur Abstraktion fähig sind.

Es ist zudem vom „Slow Food für KI-Forscher*innen“ die Rede. Und auch ein aktueller Artikel von Harvard Business Review mit dem Titel „The Future of AI Will Be About Less Data. Not More“ beschäftigt sich mit dieser Aussage.

Companies considering how to invest in AI capabilities should first understand that over the coming five years applications and machines will become less artificial and more intelligent. They will rely less on bottom-up big data and more on top-down reasoning that more closely resembles the way humans approach problems and tasks.

Das bedeutet, dass es zu keinem Datenkollaps kommen muss und Data nicht automatisch Queen sind. Eine Chance für kleinere Player, die nicht die Möglichkeiten einer umfangreichen Datenerhebung haben oder die finanziellen Ressourcen, um Daten einzukaufen. Das zeichnet doch schon ein viel freundlicheres Bild der als datenhungrig verschrienen KI-Lösungen. Vielleicht macht der Gedanke, dass Maschinen intelligenter werden, einigen aber auch noch mehr Angst. Denn bisher kann von echter Intelligenz nicht die Rede sein.

Was wir jedenfalls brauchen, ist eine konstruktive Diskussion über Innovation und KI und nicht noch mehr Wasser auf die Mühlen von Zauderern und KI-Gegnern, die immer nur die schlechten Seiten der Technologie betonen und die Chancen gerne außen vor lassen. Daher finde ich es positiv, dass ein gesundes Augenmaß die „Höher-schneller-weiter-Mentalität“ auch bei der KI hier und da erreicht.

Über das wichtige Thema KI und Ethik dann hier ein andermal ...

menuseperator

Wir haben bereits über das Thema IT-Trends zum Jahresende berichtet. Da stets neue Prognosen veröffentlicht werden, lohnt es sich, immer wieder genauer hinzuschauen – auch wenn man sich zwischendurch fragt, ob es noch etwas Anderes neben Künstlicher Intelligenz (KI), MachineLearning (ML) und Co. gibt. Sogar das Thema Cloud schafft es nach ungefähr zehn Jahren oftmals noch in die Top-Trends. 

Bei manchen Prognosen handelt es sich nur um reine Auflistungen mit nur geringen Erläuterungen. Ohne Hintergrundinformationen ist einem aber nicht klar, warum etwas ein Trend sein soll. Erfreulicherweise gehen einige dann doch mehr in Tiefe. Wenn auf einmal ein Begriff wie Intelligent Digital Mesh fällt, horcht man auf. Der Leser weiß vermutlich, dass dahinter auch das Thema KI stecken muss, er wird dennoch neugierig. Hierbei handelt es sich nicht nur um eine simple Auflistung von Buzzwords. 

Doch was steckt genau hinter Intelligent Digital Mesh? Es handelt es sich um einen Trend, der von Gartner für 2019 prognostiziert wird. Aber was soll das sein? Also liest man weiter und siehe da, hinter dem Ausdruck verbergen sich zehn Untertrends. Diese werden aber nicht einfach aufgelistet, sondern den Kategorien IntelligentDigital und Mesh zugeordnet. Das mag jetzt verwirrend klingen, aber zum Glück war Gartner so schlau und hat die Trends in einer Grafik aufbereitet, so dass es für jeden überschaubar ist. Bei einem reinen Text würde man den Leser spätestens nach Trend zwei verlieren. Damit es noch verständlicher wird, stellt Gartner die Trends sogar in einem Video vor. Wenn das mal nicht kreativ ist. 

menuseperator

Waren früher noch zwei Drittel der Kollegen auf der CeBIT, um die zahlreichen Presse-Gespräche vor Ort zu betreuen, waren es in den letzten Jahren nur noch ein bis zwei Kollegen, die sich auf den Weg nach Hannover gemacht haben.

Die CeBIT war für uns daher schon lange nicht mehr DAS Highlight-Event, auf das sich alle PR-Aktivitäten fokussiert haben. Da gab es natürlich die CES, den Mobile World Congress oder die erstarkte IFA sowie diverse Fachkongresse.

Außerdem war festzustellen, dass viele große Konzerne, so auch einige unserer Kunden, den Fokus auf eigene Messen und Kundenveranstaltungen legten und somit das Zepter selbst in die Hand nahmen und zielgerichteter ihr Geld ausgaben. Dennoch kann ich mir nur der Aussage der w&v anschließen, die schreibt:

Nicht ganz unerwartet und am Ende doch überraschend

Das CeBIT-Aus schlägt seit gestern hohe Wellen, auch in eher branchenfremden Medien. Und ebenso macht sich bei uns eine gewisse Melancholie bemerkbar, wenn wir an die vielen schönen CeBIT-Momente zurückdenken. 

Meine aktuelle Lieblings-Headline zum Ende der Ära CeBIT stammt von SPON:

Die Messe ist gelesen

Ich beende diese Woche mit ein paar wehmütigen Gedanken an die guten alten CeBIT-Zeiten – freue mich aber schon auf frische neue Veranstaltungsformate, die sicherstellen, dass man sich zukünftig hoffentlich weiterhin persönlich und nicht nur virtuell trifft. Denn sind wir mal ehrlich, die besten Kontakte sind die, die man auf Messen und Events geknüpft hat, wo man sich bis spät abends bei einem Glas Wein oder dem ein oder anderen Bier über die persönlichen Highlights und Aufreger ausgetauscht hat.

menuseperator

Deutschland hat jetzt einen Plan für Künstliche Intelligenz. Mit der beschlossenen Strategie für Künstliche Intelligenz der Bundesregierung soll „KI ein Markenzeichen für Deutschland“ werden. Endlich, möchte man am liebsten jubeln. Ziel ist es, dass Deutschland zu einem führenden Standort für die Entwicklung und Anwendung von KI-Technologien werden soll. Dafür plant der Bund, bis 2025 drei Milliarden Euro zu investieren. 

Klingt doch erst einmal nicht schlecht. Aber warum erst jetzt, werden sich einige fragen. Sicherlich ist das ein wichtiges Signal der Regierung, es stellt sich allerdings die Frage, ob das reicht, um bis 2025 an die USA und auch China ranzukommen. 

Das Geld soll in erster Linie in die Forschung fließen und mehr als 100 Professuren sollen neu besetzt werden. Wie schnell ist das umzusetzen? So etwas passiert leider nicht von heute auf morgen. Es ist daher davon auszugehen, dass sich die angehenden „KI-Talente“ weiterhin für Universitäten wie Stanford, Berkeley oder Cambridge entscheiden, die in der Forschung schon viel weiter und etablierter sind. 

Und schaut man Richtung Osten, wirkt das Vorhaben im Vergleich mit China eher mickrig. Allein in Peking wird ein KI-Technikpark für rund zwei Milliarden gebaut. Dort sollen sich in näherer Zukunft 400 Unternehmen ansiedeln. Zudem ist eine Zusammenarbeit mit ausländischen Universitäten geplant, um ein Forschungslabor für Künstliche Intelligenz aufzubauen.

Verbände wie der Digitalverband Bitkom begrüßen insgesamt den Beschluss; ihnen geht dieser aber nicht weit genug. Was ihrer Meinung nach fehlt, ist ein "regulatorischer Rahmen, der neben der KI-Forschung auch Anwendungen der Technik ermöglicht“. Auch die Siemens AG teilt diese Meinung, da lediglich 15 Prozent der deutschen Firmen bislang KI einsetzen. KI biete enormes Potenzial – zum Beispiel habe industrielle KI das Potenzial, die Industrie 4.0 auf die nächste Stufe zu heben.

Zumindest sind sich aber alle einig, dass die Bundesregierung endlich die Notwendigkeit erkannt hat, in KI zu investieren. Wie schnell und erfolgreich die Strategie in die Realität umgesetzt werden kann, werden wir sehen. Denn selbst im Bundestag herrscht große Uneinigkeit darüber, ob die geplanten Maßnahmen ausreichend sind und in die richtige Richtung gehen.

menuseperator

Ja, es ist nur Werbung. Aber trotzdem muss die Frage erlaubt sein: Wie kommt die Faust durchs Loch?

Quelle: www.heise.de

menuseperator

So langsam kommen wir der Sache näher.

Als sich vor einiger Zeit Künstliche Intelligenz als Megathema herauskristallisierte und plötzlich alle begannen, über Machine Learning und lernende Algorithmen zu reden, herrschte erst einmal ein großes Durcheinander. Darüber, was lernende Algorithmen eigentlich genau sind, geisterten die unterschiedlichsten Vorstellungen durch die Medien – und damit auch durch unser Haus. Das ging von „das sind einfach nur regelbasierte Systeme“ bis hin zu „das sind Algorithmen, die sich selber umschreiben.“

Inzwischen hat sich der erste Pulverdampf verzogen und die Sicht klart auf. Nach einigen Recherchen, Diskussionen und Hintergrundgesprächen mit Kunden wird immer deutlicher, dass lernende Algorithmen im Grunde genommen nichts anderes sind als angewandte Statistik. Soweit die gute Nachricht. Die nicht ganz so gute Nachricht: Wir reden hier nicht über Prozentrechnung, sondern über echte, richtige Hardcore-Statistik.

Das zeigt das Beispiel der Support Vector Machine, oder Stützvektormaschine, das mir vor Kurzem begegnet ist. Dieser Algorithmus bildet ein mathematisches Verfahren ab, um Gemeinsamkeiten in Objekten zu erkennen, die Objekte darauf aufbauend zu klassifizieren und die Grenzen zwischen den einzelnen Klassen klar festzulegen. Damit eignet er sich unter anderem ideal für die automatische Textklassifikation. Nach einer Trainingsphase mit Beispieltexten ist der Algorithmus in der Lage, neue, unbekannte Texte eigenständig den richtigen Themenkategorien zuzuordnen.

Eine der mathematischen Formeln, die dieses Verfahren beschreiben, sieht laut Wikipedia so aus:

Alles klar? Also mich erinnert das ja an die Folge von The Big Bang Theory, in der die Gang um Sheldon Cooper bei einem Physikquiz mitmacht und eine hochkomplizierte Gleichung lösen soll. Die resignierende Reaktion von Howard Wolowitz: „It looks like something they found on the ship at Roswell“.

Aber mal im Ernst. Wollen wir die Funktionsweise von lernenden Algorithmen verstehen, so wie das Stimmen aus Politik und Gesellschaft ja immer wieder fordern, müssen wir vor allem die dahinterstehenden statistischen Verfahren verstehen. Natürlich können wir jetzt nicht einfach alle Statistikexperten werden. Andere Leute studieren sowas ja schließlich extra. Und das ist auch gar nicht nötig. Aber darum, uns mit ihren Grundlagen auseinanderzusetzen, werden wir wohl nicht herumkommen.

Dafür wünscht man sich doch glatt einen lernenden Algorithmus in den Kopf.

menuseperator

Mit Chatbots wurde schon jeder von uns konfrontiert. Gefühlt auf jeder Website ploppt irgendwo ein Chatfenster auf und Max oder Anna fragen, ob du Hilfe brauchst. Auch ein Blick in die Medienlandschaft zeigt, dass Chatbots als glorreiche Erfindung gelten und anscheinend ein Muss in der Kundenkommunikation geworden sind.

Gefühlt setzt also jedes Unternehmen auf Chatbots. Schließlich will keiner hinterherhinken und Kosten lassen sich ja auch einsparen, da nicht mehr so viele Mitarbeiter im Callcenter benötigt werden. Super Erfindung!

Das klingt alles wundervoll. Doch leider sieht die Realität anders aus. Einige Chatbots sind noch nicht ausgereift und bringen die Konsumenten zum Verzweifeln, da sie zum Beispiel keine passenden Antworten bekommen. Dass manche Anfragen eventuell zu komplex sind, um sie mit einem Chatbot zu klären, das erwartet man im Voraus. Wenn aber die einfachsten Fragen nicht beantwortet werden können, das ist peinlich.  

WhatsBroadcast hat ein paar Chatbots unter die Lupe genommen und einige kuriose Chaterlebnisse erlebt. Hier einige amüsante Beispiele im Überblick:

1. Kategorie: Chatbots auf dem Niveau einer Kaulquappe

Der Chatbot von David Guetta schafft es nicht, mehr als fünf Fragen zu beantworten. Selbst auf einfache Fragen weiß er keine Antwort:

„When will your new single be released?“
„I don’t understand.“

Nicht sehr zufriedenstellend. Es geht aber noch besser.

2. Kategorie: Wie sag’ ich es richtig

Der Chatbot Carlo von der Allianz scheint es zu begrüßen, wenn Kunden ihm mitteilen, dass sie zur Konkurrenz wechseln wollen.

„Na danke, ich geh glaub ich zu CosmosDirekt.“
„Das freut mich. Dann bist du ja schon in besten Händen.“

Und so schnell können Unternehmen Kunden verlieren. Und jetzt mein persönliches Highlight.

3. Kategorie: Schrei’ mich nicht an

Der Volvic-Chatbot ist sehr international unterwegs. Erkundigt sich ein deutscher Kunde nach Produkten, setzt der Bot voraus, dass er Französisch spricht.

„Ich möchte Produktinformationen zu Volvic Wasser.“
„Danke für dein Interesse, um mehr über dieses Thema zu erfahren, gehe einfach auf unsere Seite.“
„Volvic.fr“
„Die Seite ist aber auf Französisch? Ich spreche kein Französisch leider.“
„Lass dich nicht ablenken, dein Ziel ist so nah.“

Dieser Chatbot scheint sehr stur zu sein und ist der Überzeugung, dass er eine passende Antwort gegeben hat.

Applaus, Applaus, kann ich da nur sagen! Diese Beispiele zeigen deutlich, dass der Einsatz von unausgereiften Technologien nicht zielführend ist. Aber einige Unternehmen scheinen die Einstellung zu haben, Hauptsache wir schwimmen auf der Trendwelle mit und können mitreden. We don’t think so! Eine gut durchdachte Strategie und funktionierende IT-Lösungen tragen am Ende dann doch zum Erfolg bei. Mit einem Schnellschuss riskieren Unternehmen einen Imageverlust und möglicherweise finanzielle Einbußen, obwohl sie ursprünglich Kosten und Ressourcen einsparen wollten.

Ihr habt noch nicht genug? Diese und weitere skurrile Chatbot-Fails stellt WhatsBroadcast in einem Video vor.

menuseperator

KI ist eine Erfindung des 20. Jahrhunderts. Vorarbeiten und Vordenker aller Art gab es allerdings schon lange: Über Jahrhunderte hinweg wimmelte es in Legenden beispielsweise von Homunculi, dem Golem und anderen künstlichen Geschöpfen. Es gab aber auch Versuche, menschenähnliche Intelligenz in Form mechanischer Apparate zu produzieren. Ein vermeintlich technisches Wunderwerk seiner Zeit war der „Schachtürke“ aus dem Jahr 1770. Er spielte gegen Könige und Kaiser, und sogar der englische Mathematiker Charles Babbage verlor gegen ihn. Der Schachtürke war jedoch keine „KI-Meisterleitung“, sondern schlichter Betrug: In dem Automaten steckte ein Mensch. Auch heute noch versehen Anbieter in maßloser Übertreibung Computer oder Smartphones mit dem Etikett „KI“, weil sie über Sprachassistenten verfügen oder die Kamerafunktionen verbessern.

Was aber macht KI aus? Was unterscheidet echte Künstliche Intelligenz von Pseudo-KI? Das Herzstück der Künstlichen Intelligenz sind Algorithmen, die in riesigen Datenmengen Muster, Korrelationen und Trends aufspüren. Mit steigendem Datenvolumen werden Ergebnisse und Treffergenauigkeit immer besser. Bei intelligenten Fahrsystemen und beim autonomen Fahren trifft KI sogar völlig selbstständig die richtigen Entscheidungen – zumindest sind wir auf dem besten Weg dahin. 

Für die allermeisten Anwendungsszenarien ist KI jedoch nicht geeignet. Hier analysiert sie zwar die Daten und liefert Empfehlungen, etwa bei der medizinischen Diagnostik oder der Predictive Maintenance. Entscheiden muss letztendlich aber der Mensch. Manche sprechen daher in diesen Fällen von „erweiterter Intelligenz“, auch als Augmented Intelligence bekannt. 

menuseperator

Am gestrigen adesso digital day in der Motorworld Köln stand das Thema Customer Experience Management, kurz CEM, im Fokus. Unternehmen unterschiedlichster Branchen berichteten über ihre Erfahrungen – Herausforderungen wie Erfolge – beim Aufsetzen und Managen von CX-Projekten. Und in ergänzenden Workshops konnten sich die knapp 200 Teilnehmer inspirieren lassen und Ansätze für eigene Projekte mit nach Hause nehmen.

Auch wenn Customer Experience und der damit einhergehende Customer-Centricity-Gedanke gefühlt ein alter Hut sind, hapert es an der Umsetzung – je nach Branche – noch gewaltig. Das liegt unter anderem an den vielen Altsystemen, die nicht „miteinander sprechen“ und diese Datensilos gibt es in der Praxis mehr als genug. Aber auch an Mut, Digitalisierungsprojekte anzugehen und neuen Ideen genügend Raum zu geben, mangelt es.

Die Kunden haben immer höhere Anforderungen an die Interaktion mit Unternehmen: Stichwort „konsistentes Omnichannel-Erlebnis“. Sie wollen, dass ihre Bedürfnisse ernst genommen werden – und sie haben mehr denn je die Macht, ihre Wünsche bei Unternehmen durchzusetzen. Dank Social Media verbreiten sich schlechte Erlebnisse mit einer Marke oder einem Produkt rasant und erreichen viele potenzielle Interessenten, die so sicher nicht zu Kunden werden.

Damit sehen sich zwar hauptsächlich B2C-Unternehmen konfrontiert, aber auch im B2B-Umfeld müssen Unternehmen ihre Kundenkommunikation überdenken. Denn das, was wir im privaten Umfeld gewöhnt sind, erwarten wir im beruflichen ebenso. Der Anforderungshaltung an einen gewissen Grad der Individualisierung sehen sich auch B2B-Unternehmen gegenüber, die oft noch schlechter aufgestellt und weit davon entfernt sind, ihre Kundendaten möglichst zentral vorliegen zu haben.

Die Veranstaltung hat mir gezeigt, dass CX und insbesondere dessen Management eine der Herausforderungen für alle Branchen darstellt. Unternehmen, die hier den Anschluss verpassen, haben das Nachsehen, wenn sie mangels eines guten Daten-Managements und entsprechenden Individualisierungsgrades Cross- sowie Up-Selling-Chancen ungenutzt lassen oder die Kundenbindung gleich ganz auf der Strecke bleibt.

menuseperator

Pages

Subscribe to Technologie und Märkte