Technologie und Märkte

Auch in diesem Jahr sind sie wieder ein Thema auf der CES: der vernetzte Kühlschrank oder die aus der Ferne gesteuerte Waschmaschine.

Neu ist das allerdings alles nicht. Schon seit Jahren werden solche Lösungen wiederholt auf Messen wie der CES oder IFA vorgestellt, etwa von Samsung, LG oder Bosch. Und „Hallo, hier spricht der Kühlschrank“ titelte die Zeit bereits im Jahr 1998. Wie sieht heute aber die Wirklichkeit im deutschen Haushalt aus? Kennt jemand jemanden mit dem vernetzten Kühlschrank? Sicher nur die wenigsten.

Und woran liegt das? Sicherlich nicht daran, dass es keine Lösungen gibt. Nein, sondern vielmehr eher daran, dass nicht alles, was technisch machbar ist, auch sinnvoll ist. Es mag schön sein, die Waschmaschine komfortabel aus der Ferne per Smartphone steuern zu können. Doch wofür? Muss die Wäsche nicht nach wie vor händisch in die Trommel gebracht werden. Und ist das erst einmal erledigt, können bei einem halbwegs zeitgemäßen Gerät wohl auch der Start des Wasch- und Trocknungsvorgangs programmiert werden. Was bringt dann noch die Fernsteuerung? Vielleicht die Info, dass der Waschvorgang ordnungsgemäß in-time zu Ende gebracht wurde? Nun ja, der Nutzen bleibt fraglich.

Nicht in Abrede gestellt werden soll natürlich, dass es sich bei den Themen Heimvernetzung und Smart Home mit Sicherheit um zentrale Zukunftsmärkte handelt. Allerdings ist zu differenzieren zwischen sinnvollen Anwendungen und Gadgets, die keinen erkennbaren Mehrwert bieten. Zu den Ersteren zählen auf jeden Fall Applikationen für die Gebäudesicherung, Überwachung und Zugangskontrolle, Klimatisierung und Heizungssteuerung oder Lichtregulierung. Zu den Letzteren aber sicher Geräte wie Herd, Mikrowelle, Kühlschrank oder Waschmaschine mit Internetanbindung. 

menuseperator

Jedes Jahr ungefähr ab Mitte November geht es los: Viele Analysten-Häuser, aber auch zunehmend IT-Unternehmen, äußern sich zu den Technologie-Trends des kommenden Jahres. 

Dass Marktforschungsunternehmen wie Gartner oder Forrester das Jahresende nutzen, um einen Ausblick auf kommende Technologien zu geben, ist verständlich. Das ist schließlich Teil ihres Geschäftsmodells. Also aufzuzeigen, welche Technologien das Potenzial besitzen, einen signifikanten Einfluss auf Unternehmen zu haben. Dass sich dabei viele Hype-Themen aus 2013, wie beispielsweise Mobility, Cloud, Big Data oder das Internet der Dinge, in unterschiedlichen Ausprägungen in 2014 wiederfinden, verwundert auch nicht weiter.

Was meiner Ansicht nach zunimmt – aber womöglich bilde ich mir das auch ein – sind Prognosen von IT-Unternehmen. Generell spricht natürlich nichts dagegen, sich als Markt-Experte zu positionieren. Ganz im Gegenteil sogar, wir motivieren unsere Kunden von Fall zu Fall auch, dies zu tun. Was dabei allerdings wichtig ist, ist eine gewisse Neutralität zu wahren und eine echte Markteinschätzung abzugeben, die ­– und das ist der springende Punkt – über die Betonung des eigenen Geschäftsfeldes hinausgeht. So ist es meiner Ansicht nach wenig glaubhaft, wenn für einen Anbieter von Netzwerk-Lösungen einzig die WAN-Optimierung die Basis für Cloud Services im nächsten Jahr bildet oder, an anderer Stelle, ein Anbieter von Lösungen für Mobile Device Management den Top-Trend 2014 "Mobile Device Diversity and Management" von Gartner unterstreicht.

Somit bleibt im Grunde alles beim Alten: Die Marktforscher walten ihres Amtes mit wenig überraschend Neuem und die IT-Unternehmen reiten auf der Prognose-Welle mit. Letztere sollten dabei aber im Sinne der Glaubwürdigkeit auf echte Markteinschätzungen Wert legen.

menuseperator

Heute morgen hat mich bei Michael Krokers täglichem Blick in die IT-Welt ein Absatz irritiert:

… ist der Microsoft-Anteil aller ans Internet angeschlossenen Geräte zwischen 2009 und 2013 von gut 90 Prozent auf nunmehr unter 25 Prozent abgesackt – eine dramatisch gewachsene Irrelevanz von Microsoft, zumindest in der mobilen Welt der vernetzten Geräte.

In Bildern sieht es sogar noch dramatischer aus:

 

Eine "dramatische" Entwicklung, in der Tat. Aber das eigentliche Drama, das sich hier vor unser aller Augen vollzieht, ist doch, wie wenig Aufmerksamkeit dieser Absturz findet. Sicher, der eine oder andere IT-Blog nimmt es wahr, Fachmedien schon nur noch am Rande. Aber sonst? Hätte man so eine Entwicklung noch vor fünf Jahren halbwegs zuverlässig prognostizieren können, was hätte das für einen Bohey gegeben: Schlagzeilen, Titelstories, Wirtschaftspresse, FAZ, Spiegel, Schwarzwälder Bote, Autobild, Frau im Schatten. Und Anchorman Tom Buhrow hätte in einen ARD-Brennpunkt die Rückkehr von Bill Gates gefordert.

Mittlerweile reicht also ein Absatz in "Kroker's Look@ IT". Und der Hinweis des Kollegen, er hätte darüber auch "schon Mitte des Jahres" geschrieben, macht es nur noch schlimmer.

Sicher, wir alle haben Windows, Word und Excel in allen ihren Versionen so manches Mal verflucht, wir haben uns die Haare gerauft und in die Tischkante gebissen. Trotzdem: was da jetzt abläuft, diese vorsätzliche Missachtung, das geht denn doch zu weit. Es ist doch oft auch schön gewesen.

Zum Beispiel erst gestern wieder mal in der stationären Welt der vernetzten Geräte:

menuseperator

Fast jeder unserer Beratungskunden befasst sich aus unterschiedlichem Blickwinkel mit Big Data: den riesigen Datenmengen, der beeindruckenden Vielfalt strukturierter und semistrukturierter Daten, der oft rasanten Entstehung und Veränderung dieser Daten und schließlich – und da wird es spannend – mit der Analyse der Datenflut. Letztendlich geht es um handlungsrelevante Erkenntnisse, die noch immer von Menschen umgesetzt werden. Mehrmals pro Woche finden sich in meinem E-Mail-Eingang Tipps und Links zu Hintergrundinfos. Beim Stöbern bin ich dann auf Seiten gelandet wie „Why the big data systems of tomorrow will mirror the human brain of today“. Der BrightContext-CEO John Funge erläutert hier, warum Big Data noch am Anfang seiner Entwicklung steht, aber in Zukunft nach dem Vorbild des menschlichen Gehirns funktionieren würde. BrightContext aus Arlington im US-Bundesstaat Virginia ist auf Real-Time Big Data Stream Processing & Analytics spezialisiert. In den Worten von Funge: „Tomorrow, our smartest systems will instantly and masterfully oversee, optimize, manage and adapt processes that are as critical as they are complex, across a broad spectrum of industries, having taken their cues from the most ready example of a natural supercomputer we have: the human brain.“

Das erinnert mich dann sehr schnell an Ray Kurzweil, der vor einiger Zeit schon ähnlich argumentierte: IBMs Superrechner Watson steht für ihn am Anfang einer Entwicklung. Schon bald würden ähnliche Systeme so rasant rechnen können, dass sie die menschliche Intelligenz erreichen und sie schließlich übertreffen werden. Im Jahr 2045, so Kurzweil, werden die Computer klüger sein als die Menschen und bessere Entscheidungen treffen; nachzuhören etwa in diesem Video.

Alltagsbeobachtungen liefern Indizien dafür, dass das menschliche Gehirn keineswegs wie ein Supercomputer funktioniert. Zudem gibt es Grund zur Annahme, dass Computer nicht so wie Menschen denken können. Wir sollten aufhören, uns darauf zu konzentrieren, Computer – und damit auch Big Data – als Ersatz für das menschliche Gehirn anzusehen, sondern als nützliche Ergänzung. Es geht nicht um Artificial Intelligence sondern um Augmented Intelligence.

Im Übrigen: Je umfangreicher und komplexer der Regelsatz, den ein Big-Data-System nahezu mechanistisch anwenden und daraus Entscheidungen ableiten kann, als desto erfolgreicher gilt es. Für Menschen gilt manchmal genau das Umgekehrte: Sie sind am besten, wenn sie zumindest einige Regeln missachten. Das Ganze nennt sich dann Innovation.

menuseperator

Neues aus dem Land der unbegrenzten Möglichkeiten: Wie die Süddeutsche berichtet, hat die amerikanische Firma Backyard Brains ein Implantat entwickelt, mit dem sich Kakerlaken per iPhone fernsteuern lassen. Wischt man auf dem Smartphone mit dem Finger, wird der Schabe ein Stromstoß in ihren Fühler versetzt. Das Nervensystem der Kakerlake hält dies für ein Hindernis und das Tier macht eine Ausweichbewegung. Dieser „erste kommerziell erhältliche Cyborg“, so der Hersteller, ist für rund 100 Euro zu haben. Eine Schabe ist allerdings nicht dabei. Die muss man sich schon selber fangen – oder im Zwölferpack dazu bestellen.

Die Tiere dürften über das Produkt aber weniger erfreut sein als der Hersteller, denn für das Funktionieren des Implantats ist ein mittelschwerer Eingriff nötig. Man muss die Kakerlaken zunächst mit Eiswasser betäuben und ihren Rückenpanzer dann mit Schleifpapier bearbeiten, damit die Steuereinheit auch schön kleben bleibt. Ach ja, und um die Elektroden hineinzustecken, sind dann noch die Fühler entzwei zu schneiden.

Entsprechend dick ist der Hals der Tierschützer, die von „Folter und Verstümmelung“ reden. Backyard Brains versteht die ganze Aufregung aber nicht. Man habe das Implantat entwickelt, um Kinder möglichst früh für Neurowissenschaften zu begeistern. Doch die Kleinen wollen diesen Enthusiasmus nicht so recht teilen. Als der Firmengründer auf einer Konferenz einer Kakerlake live ein Bein amputierte, war bei den Kindern im Publikum jedenfalls keine Begeisterung festzustellen – sondern blankes Entsetzen. So Internet-Computerspiel-und-Gewaltvideo-abgehärtet wie immer gemutmaßt scheinen sie also doch nicht zu sein.

 

menuseperator

Im Rahmen der Konferenz „Cloud for Europe“ des Fraunhofer-Instituts für Offene Kommunikationssysteme (FOKUS) und dem Start des gleichnamigen EU-Projektes hat die EU-Kommissarin für die Digitale Agenda Neelie Kroes die Wichtigkeit eines europäischen Ansatzes in der aktuellen Cloud-Diskussion betont. Statt nationalen Lösungen befürwortet sie die Schaffung einer „europäischen Cloud“ – der „Cloud for Europe“.

„Cloud for Europe“ ist ein von der Europäischen Union gefördertes Projekt mit dem Ziel eines digitalen Binnenmarktes für Cloud Computing in Europa. Insgesamt nehmen 23 Partner aus elf Ländern daran teil, unter anderen das Bundesamt für Sicherheit in der Informationstechnik (BSI) und das bereits genannte Fraunhofer-Institut FOKUS.

Nach dem freien Warenverkehr, der Personenfreizügigkeit, der Dienstleistungsfreiheit und dem freien Kapital- und Zahlungsverkehr nun also der freie Fluss von Daten in den Mitgliedsstaaten der EU - quasi eine fünfte Grundfreiheit für die Bürger der Europäischen Union.

Besser als nationale Lösungen, wie das zurzeit diskutierte „Deutschland-Net“, ist der Ansatz allemal. Doch ähnlich wie bei der Liberalisierung des Binnenmarktes in den genannten Bereichen wird wahrscheinlich auch hier bis zur Vollendung noch einige Zeit ins Land gehen. Denn Sicherheit und Datenschutz sind eine Sache. Die unterschiedliche digitale Infrastruktur in den einzelnen europäischen Ländern eine andere.

Für die europäische Wolke müsse laut Neelie Kroes daher auch erst „ein rechtlicher und technischer Rahmen für den freien Fluss von Daten über die Grenzen einzelner Länder hinweg geschaffen werden“.

Als Ziel zur Vollendung des digitalen Binnenmarktes hat die Europäische Kommission 2015 ausgegeben. Das Projekt „Cloud for Europe“ endet im November 2016 – vor allem im Hinblick auf die rechtlichen Aspekte, die aufgrund aktueller Diskussionen wieder in den Vordergrund gerückt sind, ein ambitionierter Zeitplan.

 

menuseperator

Die Debatte geht in die nächste Runde: Trotz aller agilen Methoden und immer neuer Softwareentwicklungs-Tools, Technologien und Cloud Services sind nur rund 40 Prozent der Business-Entscheider in den Fachabteilungen der Meinung, dass die IT ihre Projekte zeit- und budgetgerecht abschließt. Zu dieser Erkenntnis kommt eine aktuelle Studie von Forrester Research unter dem Titel „Integrated Thinking: The Answer To Enterprise IT’s Perpetual Struggle“. Ein erschreckendes Ergebnis, wenn man bedenkt, dass passend dazu nur 43 Prozent der Business-Entscheider der Meinung sind, dass sich die IT aktiv an der Umsetzung der Geschäftsstrategie und von Innovationen beteiligt. Der schwarze Peter liegt bei der IT.

Oder doch nicht? Denn immerhin 56 Prozent der von Forrester befragten IT-Entscheider waren der Meinung, dass für sie die größte Herausforderung darin besteht, dass die Fachabteilungen immer neue Anforderungen stellen. Da fragt man sich doch: Reden die nicht miteinander? Kommen die von unterschiedlichen Planeten? Beide Seiten können und müssen sich auf den anderen einlassen, sonst verschärft sich die Spaltung zu Lasten der Anwender. Die Business-as-usual-Schaukämpfe führen nicht weiter. Die IT sollte nicht dasitzen und abwarten, ob den Business-Entscheidern endlich die Einsicht kommt. Vielmehr sollte sie ihre Lösungen so auslegen, dass sie ohne langwierige Änderungen jederzeit angepasst und erweitert werden können. Und die Fachabteilungen müssen lernen, dass nicht alles, was wünschenswert ist, auch zu wirtschaftlich akzeptablen Bedingungen realisiert werden kann.

 

menuseperator

Das Kölner Landgericht hat heute Medienberichten zufolge den Plänen der Telekom, ihre DSL-Flatrates nach dem Erreichen einer bestimmten Datenmenge zu drosseln, einen Dämpfer verpasst. Das Gericht erklärte eine entsprechende Klausel in den Festnetz-Verträgen der Telekom für unzulässig.

Gut so. Dass die Telekom Power-User stärker zur Kasse bitten will als Durchschnitts-Surfer, ist ja durchaus verständlich. Dann darf sie dies aber bitte nicht unter der Mogelpackung „Flatrate“ verkaufen.

menuseperator

Die Tage war ich mit dem CEO des weltweit führenden Anbieters für Open-Source-Unternehmenslösungen auf Pressetour, diesmal in der Schweiz. Die Redaktionen interessierten sich dabei immer wieder für den Nutzen von Open Source für Enterprises und welche Argumente wie zu gewichten beziehungsweise einzuschätzen seien. Grund genug auch für uns, die wir seit Jahren Kunden in diesem Bereich betreuen, die wichtigsten Punkte festzuhalten:

Kosten reduzieren: Wenn sich Unternehmen zum ersten Mal mit Open Source intensiver beschäftigen, steht dieses Argument zumeist an oberster Stelle. Neben den Hardware- und Lizenzkosten – letztere entfallen bei Open Source Software – sollten aber auch die Verwaltungs- und Wartungskosten mitbedacht werden. 

Sind Unternehmen bereits mit dem Thema enger vertraut, so zeigt die Erfahrung, dass andere Argumente prominenter in den Vordergrund rücken:

Offene Standards und Community: Offene Standards, offene Schnittstellen und die Tatsache, dass viele Entwickler über Communities an einer Software mitarbeiten, führen dazu, dass sie am Ende sehr leistungsfähig, im Sinne von ausfallsicher und skalierbar, aber auch sicher im klassischen Sinne wird: denn viele Augen sehen viel! Kriterien, die für den Unternehmenseinsatz oder auch für einen Anbieter-Wechsel – von proprietärer zu offener Software – wichtig sind.

Vendor-Lock-In: Open Source hilft durch die erwähnten offenen Standards und offenen Schnittstellen, dem berüchtigten Vendor-Lock-In vorzubeugen. Unternehmen machen sich damit unabhängig von einzelnen IT-Anbietern.

Kurze Innovationszyklen: Die in den Communities vorherrschenden Innovationszyklen sind für gewöhnlich kurz. Aktuelle Trendthemen wie Big Data, Virtualisierung, Cloud oder Mobility werden damit auch maßgeblich von Open Source vorangetrieben.

Somit profitieren Unternehmen: Von vergleichsweise niedrigen TCO (Total Cost of Ownership), offenen Standards/Schnittstellen, hoher Leistungsfähigkeit, Sicherheit und einer Anbieter-Unabhängigkeit.

Zu diesem Thema haben wir auch ein Video gemacht. Wer lieber Bewegtbild mag:

menuseperator

Mit Big Data lässt sich alles belegen oder gar beweisen. Dieser Eindruck kann bei einem Blick auf die nahezu unendlichen Einsatzgebiete von Datenanalysen leicht entstehen. Nach dem Motto „mehr ist besser“ wird beispielsweise unterstellt, dass der Erkenntnisgewinn mit der Menge der analysierten Daten wächst – Korrelationen sind besser ausgeprägt und Muster deutlicher zu erkennen. Und wenn ein Unternehmen die kennt, wissen die Entscheider im Marketing, Vertrieb oder Customer Service genau, was zu tun ist.

So weit so gut. Was aber, wenn die Grundannahmen über die vermeintlichen Zusammenhänge nicht stimmen? An einem einfachen Fall lässt sich das leicht illustrieren: dem angeblichen Zusammenhang zwischen der Zahl der Geburten und der Anzahl der Störche in einer bestimmten Region. An Zahlen dafür mangelt es nicht, aber das zeitliche Zusammentreffen ist kein Beweis für einen kausalen Zusammenhang. Nicht die Störche sind die Ursache für eine höhere Geburtenrate, sondern der Grad der Urbanisierung. Auf dem Land gibt es mehr Störche und die Geburtenrate, gemessen an der Einwohnerzahl, ist höher als in der Stadt, wo weniger Kinder geboren werden. In die gleiche Richtung geht die beliebte Aufgabe aus dem Grundkurs empirische Sozialforschung: Berechnen Sie die Korrelation zwischen dem Konsum von Eiscreme und der Zahl der bei Badeunfällen Ertrunkenen. Zahlengläubige lassen sich sehr schnell aufs Glatteis führen.

Der entscheidende Punkt hier: Ein (vielleicht zufälliges) Muster liefert noch keinen Ursache-Wirkungs-Zusammenhang, geschweige denn eine Handlungsanleitung. Nicht nur für Big Data gilt: Vorsicht vor den Fallstricken der Denkfigur aus der klassischen Logik „cum hoc ergo propter hoc“ (auf Deutsch: Es tritt zusammen auf, also hat es etwas miteinander zu tun).

Zu viel Zahlengläubigkeit ist fast immer der falsche Weg. Big Data ist nicht die neue Business-Religion oder ein magisches Werkzeug, das ohne eigenes Zutun und vor allem ein kritisches Hinterfragen automatisch den richtigen Weg weist. Big Data kommt ohne Intuition und die Prüfung alternativer Erklärungsmuster nicht aus. Gute Argumente dafür finden sich in einem Beitrag von Tim Leberecht für CNN: Why Big Data will never beat business intuition.

menuseperator

Seiten

Technologie und Märkte abonnieren