Blog

Auch im Gesundheitswesen ist die Digitale Transformation eine Pflichtaufgabe. Sie beginnt mit der Prävention und umfasst beispielsweise Gesundheits-Apps und Fitness-Armbänder sowie Apps, um Krankmeldungen und Arztrechnungen einzureichen; dazu kommen die elektronische Gesundheitskarte, die Unterstützung der Ärzte bei der Diagnostik und Therapie und nicht zu vergessen die medizinische Grundlagenforschung. Erstens geht es bei der Digitalen Transformation im Gesundheitswesen darum, die Gesundheit der Menschen zu fördern und zu erhalten. Zweitens steht die Gesundheitsbranche unter einem enormen Wettbewerbs- und Kostendruck – egal, ob Ärzte, Krankenhäuser oder gesetzliche und private Versicherungen.

Mit Gesundheits-Apps hat die große Mehrzahl der Bürger erste Erfahrungen gemacht. In der einfachsten Form sind das die Schrittzähler-Apps für iOS, Android und Windows 10 Mobile. Einen guten Überblick über das Angebot, das weit mehr umfasst als Schrittzähler, gibt die Bertelsmann Stiftung in ihrer Studie „Digital-Health-Anwendungen“; sie beschreibt insgesamt sieben Typen von Digital-Health-Anwendungen. Angetrieben wird die Entwicklung durch zwei Trends: den technischen Fortschritt und die steigenden Anforderungen der Patienten. Sie informieren sich im Internet, werden aktiver und dadurch vergrößert sich auch das digitale Angebot.

Das zeigt sich beispielsweise daran, dass in den letzten Jahren immer mehr Private Krankenversicherungen ihre Services zur papierlosen Einreichung von Arztrechnungen, Rezepten und Belegen erweitert haben. Kunden scannen die Dokumente ein und die App überträgt die Daten dann verschlüsselt an den Versicherer. Der Vorteil für Kunden: der Vorgang wird vereinfacht und die Kosten für das Porto entfallen.

Ein weiteres Anwendungsszenario für die Digitalisierung ist die Präzisionsmedizin wie sie in der Krebstherapie zum Einsatz kommt. Im Kern geht es bei dieser Big-Data-Anwendung darum, aus der Gendiagnostik und der Analyse weltweiter medizinischer Wissensdatenbanken Ärzte dabei zu unterstützen, eine passgenaue Therapie für Krebspatienten zu entwickeln.

Wie in vielen andern Branchen auch, gibt es im Gesundheitswesen eine Vielzahl von Initiativen und Ansätzen zur Digitalen Transformation; aktuelle Projekte finden sich vor allem dort, wo Patienten und Kunden der Krankversicherungen involviert sind. In den eigentlichen Kernprozessen der Privaten Krankenversicherungen, der Kassenärztlichen Vereinigungen und der Abrechnungsdienstleister steht eine umfassende Optimierung der Abläufe – und damit die Digitale Transformation – erst am Anfang. Hier geht es um grundlegende Fragen: Kann das vorhandene, langjährig genutzte Kernsystem überhaupt modernisiert werden oder ist eine komplette Neuentwicklung notwendig? Reicht die Evolution oder ist eine Revolution notwendig?

menuseperator

Der Mobile World Congress (MWC) in Barcelona vom 27. Februar bis 2. März 2017 wirft seine Schatten voraus. Wer die Vorberichterstattung verfolgt und sich beispielsweise für die neuesten Smartphones interessiert, kommt zu dem Schluss: Es gibt nichts wirklich Neues oder Innovatives. Die Hersteller verbessern ihre Geräte im Detail, etwas tatsächlich Revolutionäres ist nicht zu erwarten. Das Urteil der Kollegen von heise.de lautet: „Die vergleichsweise junge Gerätekategorie der Smartphones scheint zehn Jahre nach der Vorstellung des iPhone fertig.“ Zumindest stagniert die Entwicklung weitgehend, dem stimme ich zu. Spannend finde ich allerdings, was sich unter dem Stichwort „erweiterte Intelligenz“ beziehungsweise digitale Assistenten tut. Möglich, dass dies den Smartphones zu einem neuen Aufschwung verhilft. Denn seien wir einmal ehrlich: Als Steve Jobs im Januar 2007 das erste iPhone vorstellte, konnten nur die wenigsten sich vorstellen, dass ein Touch-Interface in kurzer Zeit alle anderen Bedienkonzepte auf Smartphones verdrängen würde. In der Zwischenzeit sind selbst die letzten noch verbliebenen Tastaturfans konvertiert.

Der Fokus auf Smartphones verstellt zudem den Blick darauf, dass der MWC weit mehr ist als eine Handymesse. Er ist eine Veranstaltung, auf der sich die Mobilfunkbranche trifft, sprich die Netzbetreiber und -ausrüster. Zum ersten Mal fand die Veranstaltung als GSM World Congress 1987 in London statt – dem gleichen Jahr, in dem GSM (Global System for Mobile Communications oder Groupe Spécial Mobile) zum Standard erkoren wurde. Dass sich in den letzten Jahren die Mobilfunkbranche – inklusive aller Markteilnehmer – massiv gewandelt hat, wird niemand bestreiten. Von den 2G-Mobilfunknetzen, die erstmals 1991 in Finnland den Betrieb aufnahmen, bis zur heutigen vierten Mobilfunkgeneration (LTE) oder gar der 4,5. Generation (LTE Advanced) war es ein langer und oft durchaus revolutionär verlaufender Weg. Und mit 5G steht schon die nächste Generation bereit, die bis 2020 Marktreife erlangen soll. Die Mobilfunkbetreiber testen 5G und bereiten den Aufbau von 5G-Infrastrukturen vor. Statt der bisherigen proprietären Hardwarekomponenten setzen Netzwerkausrüster auf Open-Source-Lösungen. Dies fällt durchaus in die Kategorie „schleichende Revolution“.

menuseperator

Das Internet hat in den letzten zwanzig Jahren zu einem massiven Produktivitätsschub bei der Büroarbeit beigetragen – heißt es. Ursächlich dafür seien unter anderem die höhere Rechenleistung der Endgeräte, mit denen gearbeitet wird, oder auch die Möglichkeit, mehrere Dinge gleichzeitig zu erledigen. Um diese Behauptung zu überprüfen, hilft ein einfacher Faktencheck.

Früher saß ein Angestellter am Schreibtisch und schrieb mit der Textverarbeitung (Wordstar, Wordperfect oder Word) einen Geschäftsbrief an den Lieferanten A mit einer Reklamation und anschließend eine neue Bestellung an den Lieferanten B. In der gleichen Zeit beginnt er heute seinen Arbeitstag damit, dass er seine E-Mails – die geschäftlichen und die privaten – checkt, einige Kommentare in Facebook schreibt und schnell noch zwei, drei Twitter-Tweets postet. Nach der ersten Korrespondenz führte der Angestellte früher mehrere Gespräche mit Kollegen, holte sich einen Kaffee und erfuhr in der Kaffeeküche den neuesten Stand zu einigen Ausschreibungen. Im Internetzeitalter guckt der Mitarbeiter in dieser Zeit die neuesten von Freunden empfohlenen YouTube-Videos. In der alten Welt ist es Montagmorgen und jetzt ist Zeit, um mit Kollegen die neuesten Ergebnisse der Fußball-Bundesliga zu diskutieren. Das Internet bietet dazu heute eine unendliche Fülle an Analysen und Heatmaps. Ein wunderbarer Use Case übrigens für Big Data.

Für Ablenkung am Arbeitsplatz, mit der Folge einer sinkenden Produktivität, war also immer schon gesorgt. Das Wort dafür heißt Prokrastination. Der Begriff stammt angeblich aus dem 16. Jahrhundert als das lateinische Verb „procrastinare“ Eingang ins Englische fand. Woher ich das weiß? Ich habe es während meiner Arbeitszeit gegoogelt und etwas dazugelernt. Siehe beispielsweise: http://campus.nzz.ch/studium/morgen-ist-ein-tag-zu-spaet oder http://hauptstadt.tumblr.com/post/242870141/prokrastination-substantiv-f-singularetantum. Anders gefragt: Kann das Internet die Produktivität fördern? Ja, wenn es als Werkzeug richtig eingesetzt wird.

menuseperator

Die Deutschen sind konservativ; nein, ich meine nicht ihre politische Einstellung, sondern ihr Einkaufsverhalten. Auf der einen Seite nutzen sie heutzutage das Internet für nahezu alle Angelegenheiten des täglichen Lebens – nur beim Einkauf von Lebensmitteln tun sie sich schwer. Die Marktforscher von Nielsen formulieren es etwas zurückhaltender, lassen aber gleichwohl keinen Zweifel aufkommen: „Die Deutschen sind Einkaufstraditionalisten“. Wo und wie Verbraucher einkaufen, hat sich in den letzten Jahren massiv verändert – bei Lebensmitteln aber scheint die Zeit stehen zu bleiben.

Woran scheitert es? Nielsen hat darauf die Antwort: „Die Lieferung nach Hause ist ein wichtiges Thema für die Deutschen, denn mehr als die Hälfte der Verbraucher (66 Prozent) lehnen es ab, online bestellte Waren bei einer Abholstelle ('Drive Through') abzuholen, wie es beispielsweise in Frankreich sehr beliebt ist.“ Im Übrigen klappt das mit den Abholstellen auch in der Schweiz sehr gut. Der Online-Supermarkt LeShop. Die Migros-Tochter sieht in der Schweiz Bedarf für rund 50 Abholstationen. In Frankreich sollen es bereits zirka 2.000 sein. Warum sollte so etwas nicht auch in Deutschland funktionieren?

Wo auf dem Land die Lebensmittelläden verschwanden, haben in den letzten Jahren Dorfläden aufgemacht; in der Zwischenzeit sollen es rund 200 sein. Die ersten schließen aber auch wieder, weil sie auf Dauer nicht rentabel arbeiten können. Abholstellen von Online-Supermärkten wären hier eine gute Alternative. Das würde Tante Emma zu einem zweiten Leben verhelfen.

menuseperator

Gartners Hype Cycle für Emerging Technologies hat Tradition. Seit 20 Jahren ordnen die Marktforscher Technologien kurvenförmig in Lebensabschnitte ein. Einen guten Überblick gibt es hier. Die Werte der y-Achse dokumentieren die öffentliche Aufmerksamkeit einer Technologie und die x-Achse die Zeitspanne, in der sie nach Einschätzung von Gartner verschiedene Phasen bis zu ihrer Marktreife durchläuft. Mitte der 1990er-Jahre waren übrigens „Intelligente Agenten“ und der „Information Superhighway“ die angesagten Themen.

Den „Gipfel der Erwartungen“ hat im diesjährigen Hype Cycle das Internet der Dinge erreicht. Ähnlich hoch angesiedelt sind „Natural- Language Question Answering“ und „Wearable User Interfaces“. Im Jahr 2013 stand übrigens „Big Data“ kurz vor dem „Gipfel der Erwartungen“. Nun ist es müßig, über die Eintrittswahrscheinlichkeit von Prognosen, und nichts anderes sind ja die Hype Cycles, zu streiten. Die Basistechnologien hinter Big Data, dem Internet der Dinge, Hybrid Cloud Computing und den In-Memory-Database-Management-Systemen sind so weit fortgeschritten, dass es heute viele Unternehmen weltweit gibt, die sie als Innovationsmotor nutzen. Wäre da nicht das berechtigte Thema „Sicherheit“ als begrenzender Faktor. Wie sieht es hier beim Internet der Dinge aus? Da bleiben noch viele Fragen offen. Ich persönlich bin kein Technikpessimist und davon überzeugt, dass es in absehbarer Zeit Lösungen für die Sicherheitsprobleme im Internet der Dinge geben wird. Hier eröffnet sich ein weites Feld für neue Ansätze.

menuseperator

In diesem Jahr soll es so weit sein. 2014 werden mindestens 25 Prozent der neuen Geschäftsapplikationen von sogenannten Citizen Developers stammen. So zumindest prophezeite es Gartner auf seinem Symposium/ITxpo im Oktober 2009. Noch bleiben fast neun Monate Zeit bis zum 31. Dezember, aber ich wage schon einmal die Prognose: Gartner wird danebenliegen. Statt von einer Prognose hätte Gartner – wie so oft – besser von einer Handlungsanleitung gesprochen: „Unternehmen sollten ...“ oder besser noch „Unternehmen müssen …“. Denn Gartner trifft einen wunden Punkt. Aus Sicht der Fachabteilungen dauert die Anpassung oder gar die Entwicklung selbst einer einfachen Applikation schlicht zu lange. Hier werden schnelle Lösungen benötigt, die manchmal – auch das muss man dazu sagen – schon nach wenigen Monaten wieder ausgemustert werden.

Wenn es um Citizen Developers geht, kommen die berühmten Power User der 1990er-Jahre wieder zum Zuge. Gemeint sind damit beispielsweise Excel- oder SAP-Anwender aus den Fachabteilungen, die sich hervorragend mit ihren täglich genutzten Applikationen auskennen und schnell neue Lösungen für aktuelle Anwendungsprobleme finden.

Vor allem das Marketing und der Vertrieb im Einzelhandel, angefangen von Bekleidung über Elektronik bis zu Kosmetik, Lebensmitteln, Möbeln, Spielzeug und Sportartikeln, sind auf immer neue Applikationen angewiesen, mit denen sie die Effizienz ihrer Aktivitäten besser planen, überwachen und steuern können. Genau dies ist das Betätigungsfeld der Citizen Developers. Sie erstellen schnell und unkompliziert die benötigten neuen Applikationen. Einen guten Überblick über die aktuell dazu verfügbaren Tools liefert Gartner in dem Report „Magic Quadrant for Enterprise Application Platform as a Service“

menuseperator

Anbietern proprietärer Systeme stehen stürmische Zeiten ins Haus. Open Source ist angetreten, eine der letzten Bastionen zu erobern, nämlich die IT-Systeme von Netzbetreibern. Auch dazu gab es übrigens wichtige Ankündigungen auf dem Mobile World Congress Ende Februar in Barcelona, etwa von Dell und von Alcatel-Lucent. Aber der Reihe nach: Ob Breitbandzugang, Fest- oder Mobilnetz, bislang besteht die große Mehrzahl der Netzelemente für Sprach- und Datendienste aus proprietärer Hardware und nahtlos damit verzahnter Software. Implementierung und Betrieb sind teuer und zeitraubend. Bei Network Functions Virtualization (NFV) hingegen, über das unter anderem Alcatel-Lucent, Dell und Red Hat in Barcelona sprachen, geht es um die Abkehr von dedizierter Hardware und die Umsetzung von Netzfunktionen in Software. Das Ganze läuft auf handelsüblichen x86-Servern unter Linux.

Wichtige Anregungen zu NFV kommen übrigens aus dem Open-Source-Projekt Open Daylight. Da ist der Name Programm. Mitglieder sind Netzwerkausrüster wie Juniper Networks und Huawei, aber auch Dell, Red Hat, Intel und einige andere. Alle Komponenten der Open-Daylight-Software stehen unter Open-Source-Lizenzen.

In der Finanzindustrie hat sich Linux bereits etabliert und für frischen Wind gesorgt. Als nächstes folgt die TK-Branche. Es gibt also genügend Gründe dafür, dass auch Unternehmen sich endlich von ihren Altlasten in den Rechenzentren befreien. Proprietären Systemen bleiben allenfalls Nischen, in allen anderen Bereichen wird Open Source für Innovationen sorgen.

menuseperator

Angefangen hat das Ganze völlig egoistisch: Vor fünf Jahren begann ein kleines Team von Facebook-Technikern mit den Arbeiten für ein besonders effizientes Rechenzentrum. 2011 ging Facebook-Chef Mark Zuckerberg dann mit den ersten Ergebnissen an die Öffentlichkeit. Parallel startete das Unternehmen das Open Compute Project (OCP) und legte die Baupläne und Spezifikationen für das von Facebook entwickelte Rechenzentrum offen. Dazu hat sich schnell eine beachtliche Bewegung Gleichgesinnter zusammengefunden, die sich Ende Januar dieses Jahres bereits zum dritten Mal im kalifornischen San Jose zu einem Summit trafen. In der Zwischenzeit entwickelten die OCP-Mitglieder mehrere Motherboard- und Server-Designs für Cloud-Projekte, die außer von Cloud-Betreibern vor allem von weltweit tätigen Finanzdienstleistern wie der Bank of America oder Goldmann Sachs aufgegriffen und umgesetzt wurden. Aber auch andere Branchen mit riesigem Rechenzentrumsbedarf zeigen Interesse, etwa die pharmazeutische Industrie oder die Telekommunikation.

Dem Open-Source-Gedanken zufolge sind die Hardware-Designs entsprechend einer Lizenz der Apache Software Foundation verfügbar. Vieles läuft bei OCP aktuell noch unter einer sogenannten Permissive-Lizenz, das heißt der Lizenznehmer kann Modifikationen der Designs vornehmen und die Ergebnisse werden dann „proprietär“. Um mehr Mitglieder zu gewinnen, will die OCP Foundation künftig eher zu einem GPL-ähnlichen Modell übergehen, wie es aus dem Open-Source-Software-Bereich rund um Linux bekannt ist. Hier kann jeder ein Design modifizieren. Wird das daraus entstehende Produkt verkauft, müssen die Änderungen der Community zugänglich gemacht werden.

Eines ist klar: Das Open-Source-Modell ist nicht länger auf Software beschränkt, sondern erobert weitere Anwendungsszenarien. Aus einer Community entstehen Produkte, deren Designs und die Weiterentwicklung mit anderen geteilt werden. Server-Designs sind nur ein Beispiel, längst wird auch an Switches gearbeitet.

Um noch einmal auf den Anfang zurückzukommen: Entstanden ist das OCP ja, weil Facebook mit den vorhandenen x86-Designs nicht zufrieden war und die Sache dann selbst in die Hand genommen hat. Offene Standards, konstitutiv für das Open-Source-Modell, werden so zu einem wichtigen Antreiber für schnellere Innovationen – und die sind nicht nur in der IT-Branche dringend notwendig. 

menuseperator

Facebook will seine mehr als eine Milliarde Nutzer besser verstehen. Dazu hat das Unternehmen vor Kurzem den Deep-Learning-Pionier Yann LeCun von der New York University engagiert. Deep Learning gehört zum Forschungsgebiet der Künstlichen Intelligenz und wird für die Analyse sehr umfangreicher Datenmengen eingesetzt. Forscher der Stanford University beispielsweise haben in diesem Umfeld zusammen mit Google ein Verfahren zur Gesichtserkennung entwickelt. Eine weitere Anwendungsmöglichkeit ist die sogenannte Phrasenerkennung. Hier geht es darum, ob zwei Sätze verschiedener Länge und Formulierung dieselbe Bedeutung haben. Nützlich ist das etwa, um Plagiate aufzufinden oder Texte zusammenzufassen.

Wenn Facebook Methoden der künstlichen Intelligenz einsetzt, machen sich einige Nutzer berechtigte Sorgen: Was passiert mit unseren Daten? Die einfachste Antwort darauf: Wer bei Facebook mitmacht, muss wissen, auf was er sich einlässt. Wer fürchtet, ausspioniert zu werden, sollte Facebook nicht nutzen. Nach allem was bekannt ist, wird Facebook maschinelles Lernen beispielsweise dazu einsetzen, um Prognosen zu treffen, welche Werbeanzeigen bei wem am besten ankommen. Ob Facebook dann in absehbarer Zeit klüger oder gar zu einem „intelligenten Wesen“ wird oder wie manche befürchten, die Nutzer besser ausspähen kann, sei dahingestellt.

Spannend finde ich Deep Learning auf jeden Fall. Eine Reihe interessanter Beispiele beschreibt Jürgen Schmidhuber, Leiter des Labors für Künstliche Intelligenz IDSIA in Lugano, auf seiner Homepage. Ob es in einigen Jahrzehnten Maschinen gibt, die den Menschen an Intelligenz übertreffen, kann heute niemand sagen. Aber Mitte der 1990er-Jahre konnte sich auch kaum jemand vorstellen, was wir heute alles mit unseren Smartphones, Tablets und all den verschiedenen Social-Media-Kanälen machen. Wichtig ist mitzuhelfen, dass Entwicklung und Umsetzung beim Deep Learning in gesellschaftlich akzeptablen Bahnen bleiben und der Schutz persönlicher Daten Vorrang hat.

menuseperator

Fast jeder unserer Beratungskunden befasst sich aus unterschiedlichem Blickwinkel mit Big Data: den riesigen Datenmengen, der beeindruckenden Vielfalt strukturierter und semistrukturierter Daten, der oft rasanten Entstehung und Veränderung dieser Daten und schließlich – und da wird es spannend – mit der Analyse der Datenflut. Letztendlich geht es um handlungsrelevante Erkenntnisse, die noch immer von Menschen umgesetzt werden. Mehrmals pro Woche finden sich in meinem E-Mail-Eingang Tipps und Links zu Hintergrundinfos. Beim Stöbern bin ich dann auf Seiten gelandet wie „Why the big data systems of tomorrow will mirror the human brain of today“. Der BrightContext-CEO John Funge erläutert hier, warum Big Data noch am Anfang seiner Entwicklung steht, aber in Zukunft nach dem Vorbild des menschlichen Gehirns funktionieren würde. BrightContext aus Arlington im US-Bundesstaat Virginia ist auf Real-Time Big Data Stream Processing & Analytics spezialisiert. In den Worten von Funge: „Tomorrow, our smartest systems will instantly and masterfully oversee, optimize, manage and adapt processes that are as critical as they are complex, across a broad spectrum of industries, having taken their cues from the most ready example of a natural supercomputer we have: the human brain.“

Das erinnert mich dann sehr schnell an Ray Kurzweil, der vor einiger Zeit schon ähnlich argumentierte: IBMs Superrechner Watson steht für ihn am Anfang einer Entwicklung. Schon bald würden ähnliche Systeme so rasant rechnen können, dass sie die menschliche Intelligenz erreichen und sie schließlich übertreffen werden. Im Jahr 2045, so Kurzweil, werden die Computer klüger sein als die Menschen und bessere Entscheidungen treffen; nachzuhören etwa in diesem Video.

Alltagsbeobachtungen liefern Indizien dafür, dass das menschliche Gehirn keineswegs wie ein Supercomputer funktioniert. Zudem gibt es Grund zur Annahme, dass Computer nicht so wie Menschen denken können. Wir sollten aufhören, uns darauf zu konzentrieren, Computer – und damit auch Big Data – als Ersatz für das menschliche Gehirn anzusehen, sondern als nützliche Ergänzung. Es geht nicht um Artificial Intelligence sondern um Augmented Intelligence.

Im Übrigen: Je umfangreicher und komplexer der Regelsatz, den ein Big-Data-System nahezu mechanistisch anwenden und daraus Entscheidungen ableiten kann, als desto erfolgreicher gilt es. Für Menschen gilt manchmal genau das Umgekehrte: Sie sind am besten, wenn sie zumindest einige Regeln missachten. Das Ganze nennt sich dann Innovation.

menuseperator

Die Debatte geht in die nächste Runde: Trotz aller agilen Methoden und immer neuer Softwareentwicklungs-Tools, Technologien und Cloud Services sind nur rund 40 Prozent der Business-Entscheider in den Fachabteilungen der Meinung, dass die IT ihre Projekte zeit- und budgetgerecht abschließt. Zu dieser Erkenntnis kommt eine aktuelle Studie von Forrester Research unter dem Titel „Integrated Thinking: The Answer To Enterprise IT’s Perpetual Struggle“. Ein erschreckendes Ergebnis, wenn man bedenkt, dass passend dazu nur 43 Prozent der Business-Entscheider der Meinung sind, dass sich die IT aktiv an der Umsetzung der Geschäftsstrategie und von Innovationen beteiligt. Der schwarze Peter liegt bei der IT.

Oder doch nicht? Denn immerhin 56 Prozent der von Forrester befragten IT-Entscheider waren der Meinung, dass für sie die größte Herausforderung darin besteht, dass die Fachabteilungen immer neue Anforderungen stellen. Da fragt man sich doch: Reden die nicht miteinander? Kommen die von unterschiedlichen Planeten? Beide Seiten können und müssen sich auf den anderen einlassen, sonst verschärft sich die Spaltung zu Lasten der Anwender. Die Business-as-usual-Schaukämpfe führen nicht weiter. Die IT sollte nicht dasitzen und abwarten, ob den Business-Entscheidern endlich die Einsicht kommt. Vielmehr sollte sie ihre Lösungen so auslegen, dass sie ohne langwierige Änderungen jederzeit angepasst und erweitert werden können. Und die Fachabteilungen müssen lernen, dass nicht alles, was wünschenswert ist, auch zu wirtschaftlich akzeptablen Bedingungen realisiert werden kann.

 

menuseperator

Mit Big Data lässt sich alles belegen oder gar beweisen. Dieser Eindruck kann bei einem Blick auf die nahezu unendlichen Einsatzgebiete von Datenanalysen leicht entstehen. Nach dem Motto „mehr ist besser“ wird beispielsweise unterstellt, dass der Erkenntnisgewinn mit der Menge der analysierten Daten wächst – Korrelationen sind besser ausgeprägt und Muster deutlicher zu erkennen. Und wenn ein Unternehmen die kennt, wissen die Entscheider im Marketing, Vertrieb oder Customer Service genau, was zu tun ist.

So weit so gut. Was aber, wenn die Grundannahmen über die vermeintlichen Zusammenhänge nicht stimmen? An einem einfachen Fall lässt sich das leicht illustrieren: dem angeblichen Zusammenhang zwischen der Zahl der Geburten und der Anzahl der Störche in einer bestimmten Region. An Zahlen dafür mangelt es nicht, aber das zeitliche Zusammentreffen ist kein Beweis für einen kausalen Zusammenhang. Nicht die Störche sind die Ursache für eine höhere Geburtenrate, sondern der Grad der Urbanisierung. Auf dem Land gibt es mehr Störche und die Geburtenrate, gemessen an der Einwohnerzahl, ist höher als in der Stadt, wo weniger Kinder geboren werden. In die gleiche Richtung geht die beliebte Aufgabe aus dem Grundkurs empirische Sozialforschung: Berechnen Sie die Korrelation zwischen dem Konsum von Eiscreme und der Zahl der bei Badeunfällen Ertrunkenen. Zahlengläubige lassen sich sehr schnell aufs Glatteis führen.

Der entscheidende Punkt hier: Ein (vielleicht zufälliges) Muster liefert noch keinen Ursache-Wirkungs-Zusammenhang, geschweige denn eine Handlungsanleitung. Nicht nur für Big Data gilt: Vorsicht vor den Fallstricken der Denkfigur aus der klassischen Logik „cum hoc ergo propter hoc“ (auf Deutsch: Es tritt zusammen auf, also hat es etwas miteinander zu tun).

Zu viel Zahlengläubigkeit ist fast immer der falsche Weg. Big Data ist nicht die neue Business-Religion oder ein magisches Werkzeug, das ohne eigenes Zutun und vor allem ein kritisches Hinterfragen automatisch den richtigen Weg weist. Big Data kommt ohne Intuition und die Prüfung alternativer Erklärungsmuster nicht aus. Gute Argumente dafür finden sich in einem Beitrag von Tim Leberecht für CNN: Why Big Data will never beat business intuition.

menuseperator

Der Weg ist das Ziel, ist man versucht zu sagen, wenn wieder einmal darüber diskutiert wird, was die IT von der industriellen Fertigung lernen kann. Aktueller Anlass dafür ist ein neues Fachbuch mit dem Titel „Der Weg zur modernen IT-Fabrik“ (Industrialisierung – Automatisierung – Optimierung; Herausgegeben von Ferri Abolhassan), das den Prozess der IT-Industrialisierung beschreibt; gemeint ist damit der Wandel von internen und externen IT-Dienstleistern zur IT-Fabrik. Die Forderung, dass die IT von der Fertigungsindustrie lernen sollte, ist so neu nicht. Sie taucht, zum Teil mit Recht, beispielsweise immer wieder dann auf, wenn die Fachabteilungen ihren Kollegen von der IT vorhalten, diese würden Termine und Budgets überziehen, Anforderungen unzureichend umsetzen und wären viel zu unflexibel. 

Im Grunde genommen geht es immer um das alte Kommunikationsproblem zwischen IT und Fachabteilung – oder auch zwischen externen IT-Dienstleistern und deren Auftraggebern. Fachabteilungen fühlen sich von der IT nicht verstanden, Frust auf beiden Seiten ist vorprogrammiert. Erschwert wird die Zusammenarbeit durch unterschiedliche Vorstellungen, Ziele und Arbeitsweisen. 

Schnell muss sich die IT dann anhören, man solle sich die Fertigungsindustrie als Vorbild nehmen. Denn dort wäre die Organisation neuer Produkte mustergültig gelöst. Vergessen wird dabei oft, dass sich auch beim großen Vorbild ständig alles in Bewegung befindet. Beispiel Automobilindustrie: Hier wird seit vielen Jahren mit Leitlinien wie Automatisierung, Fließbandfertigung, Kaizen, Rapid Prototyping, Total Quality Management u.v.a. mehr gearbeitet. Es werden Strategien entworfen, in der Praxis getestet und neu angepasst. Nicht so sehr das Verfahren an sich zählt, sondern wie schnell sich ein Unternehmen an geänderte Anforderungen anpassen kann. 

Die IT ist anders. Sie kann nicht erfolgreich werden, wenn sie die Verfahren und Methoden der Fertigungsindustrie einfach unkritisch übernimmt. Die IT muss ihren eigenen Weg gehen. Wichtige Ansätze dazu liefert das DevOps-Konzept, das Entwicklung, Implementierung und Betrieb als Einheit sieht. Dazu kommen die schnelle Reaktionsfähigkeit, die ergänzt wird um automatisierte Prozesse – im Fachjargon: „Continuous Integration and Delivery“.

menuseperator