Big Data

Kürzlich ist der Red Hat Summit 2017 zu Ende gegangen, eines der größten Open-Source-Events der Branche und veranstaltet von unserem Kunden Red Hat. Neben den üblichen Produktankündigungen standen auch Meinungs-Themen im Vordergrund.

Die Keynote von Jim Whitehurst, President and CEO von Red Hat, war dabei sicherlich eines der Highlights. Die Überschriften der anschließend dazu veröffentlichten Artikel beschäftigten sich dabei weniger mit Produkten oder Technologien, sondern zu lesen war die Headline „Planning is dead“.

Eine bemerkenswerte Aussagen in Zeiten, in denen immer noch Wochen-, Monats- oder Quartalspläne vorherrschen – meist verbunden mit fest vorgeschriebenen Aktivitäten und Zielvorgaben.

Das Zitat von Whitehurst dazu:

„In short, the world is moving too quickly; plans are outdated before they are even complete.“

Wohl nichts Neues für diejenigen, die in eben jenen festgeschriebenen Plänen festhängen, aber daran nichts ändern können.

Whitehurst betont weiter, dass Innovation nur selten durch langfristige Planung entsteht. Als Beispiel dafür nennt er unter anderem Hadoop und Big Data. Niemand hatte dafür einen langfristig angelegten Zehn-Jahres-Plan; stattdessen haben hunderte von Unternehmen Schritt für Schritt an diesem Community-Projekt gearbeitet und letztendlich die Nachfrage und einen großen Markt dafür geschaffen. Ähnliches gilt für das Thema Künstliche Intelligenz.

Whitehurst plädiert für einen agileren Ansatz, der dem DevOps-Modell ähnelt, welches bereits erfolgreich in der Software-Entwicklung eingesetzt wird. Wenn es nach ihm geht, lässt sich das neue Erfolgsmodell mit nur drei Worten beschreiben: „Try, Learn, & Modify.

menuseperator

Seit dem 13. April läuft in Hannover die weltweit wichtigste Industriemesse. Die Hannover Messe beschäftigt sich in diesem Jahr neben Energie- und Umwelttechnologien, Antriebs- und Fluidtechnik, industrieller Zulieferung, Produktionstechnologien und Dienstleistungen, Forschung und Entwicklung erneut mit dem Thema Industrie 4.0. 

Industrie 4.0 steht für die vernetzte Fabrik, in der Maschinen und Werkstücke miteinander permanent Informationen austauschen. Das funktioniert mit Hilfe von kleinen Computern und Sensoren, die sich zum Beispiel in den Maschinen befinden und zu einer Art Netzwerk (genauer einem cyber-physischen System) zusammengeschaltet werden. So ein cyber-physisches System kann zum Beispiel aus einer Cloud Daten ziehen. Wohin das künftig führen könnte, hat zum Beispiel Miele in Hannover mit einer Projektstudie gezeigt: Ein Herd mit Assistenzsystem, der die notwendigen Daten beziehungsweise die Einstellungen zum Gelingen eines Rezeptes über Microsoft Azure bezieht. Kunden können sich auf der Website von Miele für ein Gericht entscheiden. Nach der Auswahl des Gerichtes werden die notwendigen Zubereitungsstufen auf das Smartphone oder Tablet des Anwenders übertragen. Aber das ist noch nicht alles: Via Microsoft Azure kommt das entsprechende Automatikprogramm in den Backofen. Unter Berücksichtigung von Betriebsart, Temperatur, Kochzeit, Feuchtigkeit und anderen Faktoren soll das Wunschgericht dann gelingen. Rezepte wie Automatikprogramme werden in den Miele-Versuchsküchen auf die Geräte abgestimmt. Auch wenn das Projekt derzeit noch eine Studie ist, zeigt es, was mit dem Internet der Dinge und Cloud-Technologien künftig möglich ist. 

Trotz aller Euphorie lässt die wirkliche Revolution bei Industrie-4.0 aber noch auf sich warten. Eine aktuelle Studie des BITKOM zeigt, dass gut vier von zehn Unternehmen (44 Prozent) in den industriellen Kernbranchen bereits Industrie-4.0-Anwendungen nutzen. Der Automobilbau hat bei der Nutzung von Industrie-4.0-Anwendungen mit 53 Prozent einen Vorsprung vor den anderen Branchen. In der Elektrotechnik nutzen 48 Prozent Industrie 4.0-Anwendungen, in der chemischen Industrie sind es 42 Prozent, im Maschinen- und Anlagenbau lediglich 41 Prozent. Offenbar gibt es auch noch viele Bedenken: Fast 80 Prozent der Betriebe halten die eigene Branche für zu zögerlich, was die Umsetzung von Industrie 4.0 angeht. Ein Hindernis sind laut Umfrage die Investitionskosten. 72 Prozent der Befragten sagen, dass diese Investitionskosten gegen den Einsatz von Industrie-4.0-Anwendungen in ihrem Unternehmen sprechen. Für die Studie wurden dafür je 100 Unternehmen mit mindestens 100 Mitarbeitern aus der Automobilbranche, dem Maschinenbau, der chemischen Industrie sowie der Elektroindustrie befragt. 

Um den richtigen Rahmen für Industrie 4.0 zu schaffen, hat der Verband deutscher Maschinen- und Anlagenbau (VDMA) auch eine europäische Initiative für Industrie 4.0 gefordert. Laut VDMA-Präsident Dr. Reinhold Festge sollten Vertreter der EU-Kommission, des Europäischen Parlaments, der EU-Mitgliedstaaten und der Industrie in einer hochrangigen Arbeitsgruppe mit klar definierten Prozessen die Strategie für die digitale Produktion in Europa erarbeiten. Ein Schritt in die richtige Richtung, wie ich meine. Bleibt zu hoffen, dass das Thema Industrie 4.0 für die Politik nicht auch „Neuland" ist.

menuseperator

Hochleistungsrechner oder „High Performance Computing“ (HPC) sind heute nahezu in allen Bereichen der Natur- und technischen Wissenschaften zu finden; typische Anwendungsbereiche sind etwa Astro- und Teilchenphysik, Genetik, Quantenchemie und Strömungsmechanik. Darüber hinaus gibt es auch Anwendungen im kommerziellen Bereich wie Wettervorhersage, Crash-Test-Simulation, Strömungssimulation oder bei der Generierung von Animationsfilmen. Alles sehr spannende Themen, wo Unmengen von Daten anfallen, die es zu verarbeiten gilt. Das hier besondere Rechner zum Einsatz kommen, steht außer Zweifel. So ist es auch gar nicht verwunderlich, dass laut einer Umfrage, gerade einmal 5% des Mittelstands solche Lösungen nutzt. Scheint der Mittelstand hier doch gar nicht die richtige Zielgruppe zu sein. Doch genau da liegt der Fehler, denn auch kleine und mittelständische Betriebe können ihre Wettbewerbsfähigkeit mit HPC-Lösungen erheblich steigern. „Big Data“ ist in aller Munde und das rasante Wachsen von Datenvolumina ist kein Hype, sondern Realität. Warum diese Lösungen im Mittelstand noch kaum anzutreffen sind, ist somit verwunderlich. Viele der Befragten kannten den Begriff „HPC“ gar nicht. Weitere Ergebnisse der Umfrage hier: http://www.pr-com.de/de/pi/high-performance-computing-nachholbedarf-im-mittelstand

menuseperator

Gartners Hype Cycle für Emerging Technologies hat Tradition. Seit 20 Jahren ordnen die Marktforscher Technologien kurvenförmig in Lebensabschnitte ein. Einen guten Überblick gibt es hier. Die Werte der y-Achse dokumentieren die öffentliche Aufmerksamkeit einer Technologie und die x-Achse die Zeitspanne, in der sie nach Einschätzung von Gartner verschiedene Phasen bis zu ihrer Marktreife durchläuft. Mitte der 1990er-Jahre waren übrigens „Intelligente Agenten“ und der „Information Superhighway“ die angesagten Themen.

Den „Gipfel der Erwartungen“ hat im diesjährigen Hype Cycle das Internet der Dinge erreicht. Ähnlich hoch angesiedelt sind „Natural- Language Question Answering“ und „Wearable User Interfaces“. Im Jahr 2013 stand übrigens „Big Data“ kurz vor dem „Gipfel der Erwartungen“. Nun ist es müßig, über die Eintrittswahrscheinlichkeit von Prognosen, und nichts anderes sind ja die Hype Cycles, zu streiten. Die Basistechnologien hinter Big Data, dem Internet der Dinge, Hybrid Cloud Computing und den In-Memory-Database-Management-Systemen sind so weit fortgeschritten, dass es heute viele Unternehmen weltweit gibt, die sie als Innovationsmotor nutzen. Wäre da nicht das berechtigte Thema „Sicherheit“ als begrenzender Faktor. Wie sieht es hier beim Internet der Dinge aus? Da bleiben noch viele Fragen offen. Ich persönlich bin kein Technikpessimist und davon überzeugt, dass es in absehbarer Zeit Lösungen für die Sicherheitsprobleme im Internet der Dinge geben wird. Hier eröffnet sich ein weites Feld für neue Ansätze.

menuseperator

Zum Stichwort Big Data heute ein aktuelles Beispiel aus der Automobilbranche:

Ab 2015 sollen sämtliche Neuwagen in Europa mit dem Notfallsystem eCall ausgestattet werden, das im Falle eines Crashs per Mobilfunkverbindung automatisch Hilfe anfordert. Angesichts von jährlich 28.000 Toten auf europäischen Straßen eine einleuchtende Sache. Und zudem weitreichender als es auf den ersten Blick erscheinen mag: Denn der Einbau erfordert Technologie-Schnittstellen, beispielsweise zu LTE- und GPS-Systemen, die dann auch von anderen Connected-Car-Produkten, wie etwa vernetzten Sicherheitsfeatures und Fahrsicherheitskomponenten, genutzt werden können. Mit diesen eröffnet sich derzeit ein Milliardenmarkt - geschätztes jährliches Umsatzvolumen weltweit bis 2020 allein im Pkw-Segment rund 110 Milliarden Euro.

Datenschützer schlagen Alarm: Sie fürchten, dass mangelnde Datenschutzbestimmungen dem ungehemmten und unkontrollierten Datenverkehr auf europäischen Straßen sämtliche Bodenwellen ebnen. Autohersteller, Versicherungen und der ADAC streiten sich schon jetzt um die erhobenen Fahrerdaten. Es geht um lukrative Service- und Reparaturgeschäfte, Versicherungstarife, die sich am Fahrverhalten orientieren, Mahngelder für Raser, die aus Fernbeobachtungen resultieren und andere Anwendungsszenarien. Volker Lüdemann, Professor für Wirtschaftsrecht an der Hochschule Osnabrück, ist besorgt: „Hier wird unter dem Deckmantel der Lebensrettung die Grundlage für den gläsernen Autofahrer geschaffen – und zwar verpflichtend für alle Neuwagen.“ (ZEIT online, http://www.zeit.de/2014/29/datenschutz-unfallmelder-ueberwachung) Läuft es nun also Meter um Meter auf ein bereiftes Smart Device hinaus? „Natürlich hätte man das datenschutzrechtlich auch anders gestalten können“, so Lüdemann. „Dann wäre die korrekte Nutzung der Daten aber sehr kompliziert geworden – und wesentlich uninteressanter für die Wirtschaft.“

Wir sind gespannt, wie sich die Diskussion auf dem Informationsmarkt weiter entwickelt: Der gläserne Autofahrer – Sicherheit vs. Freiheit? Oder sollte es besser heißen: Milliardenmarkt contra Datenschutz?

menuseperator

Auf diesem Blog haben wir schon öfter eines der aktuellen IT-Trendthemen aufgegriffen: Big Data. Der Begriff steht – sehr vereinfacht gesagt –­ für die Sammlung, Strukturierung und Auswertung riesiger und hochkomplexer Datenmengen. Am Ende des Prozesses soll – wieder simplifiziert gesprochen – ein Erkenntnisgewinn stehen, aus dem sich Handlungen ableiten oder Strategien entwickeln lassen. Oftmals wird diese Datenanalyse eingesetzt, um genau ein Ziel zu erreichen: den Vorteil gegenüber der Konkurrenz. Egal, ob dies letztlich zur Absatzsteigerung von buntem Toilettenpapier oder zur Ausspähung ganzer Staatengebilde führt. Es geht um den Vorsprung vor den anderen, der nicht selten sogar entscheidend für den ganzen Unternehmenserfolg sein kann. Welches Potential strukturiert aufbereitete Daten haben, erkennen auch immer mehr deutsche Unternehmen. Fast die Hälfte der hierzulande ansässigen Firmen setzen bereits Big-Data-Lösungen ein oder haben dies zumindest ganz weit oben auf ihrer To-Do-Liste stehen.

Es gibt darüber hinaus aber auch andere, für die Allgemeinheit bedeutende Einsatzszenarien. Meine Kollegin Eva Kia-Wernard hat kürzlich ein paar Beispiele vorgestellt, wie Big-Data-Technologie zum Wohle der Menschheit eingesetzt werden kann.

Aus gegebenem Anlass wollen wir heute auf noch ein weiteres Anwendungsgebiet aufmerksam machen. Manch einer würde sogar sagen es handelt sich hierbei um das wichtigste Thema überhaupt: der Sport und hier vor allem König Fußball. Neben Training und körperlicher Kraftanstrengung spielt auch Big Data eine immer wichtigere Rolle im Leistungssport. Gesammelte Daten über Spielabläufe, Einzelspieler, Mannschaftsverhalten und vieles weitere mehr dienen als Grundlage für komplexe Analysen und können zur Darstellung von Zusammenhängen führen, über deren Existenz sich Trainer und Spieler bisher vielleicht noch nicht einmal bewusst waren. Auf diese Weise kann nicht nur die Konkurrenz noch besser unter die Lupe genommen werden, sondern auch die eigenen Stärken und Schwächen treten deutlicher hervor und können gewinnbringend für das Training eingesetzt werden.

Auch die deutsche Fußball-Nationalmannschaft bedient sich vermehrt der Möglichkeiten, die Big Data heutzutage bietet. Das erklärte der Manager der deutschen Nationalmannschaft, Oliver Bierhoff, auf der diesjährigen CeBIT. Mit Hilfe von speziellen Sensoren sollen die unterschiedlichsten Daten über die Spieler und deren Zusammenarbeit gesammelt und in Datenbanken einander gegenübergestellt werden, um so noch bessere Strategien und Taktiken erarbeiten zu können. Vorbei also die Zeit der Spickzettel vorm Elfmeterschießen? Wir werden es vielleicht schon in den kommenden Wochen sehen, wenn Jogis Jungs in Brasilien um die Weltmeisterschaft kämpfen. Doch wie auch immer dieses Turnier ausgeht, Big Data steht als ein Sieger schon heute fest.

menuseperator

Jedes zehnte deutsche Unternehmen hat mittlerweile Big-Data-Lösungen im Einsatz. Auch Microsoft-CEO Nadella hat letzte Woche auf der „Accelerate your insights“ in San Francisco eine verstärkte Fokussierung des IT-Riesen auf diesen Bereich angekündigt.

Für IT-Entscheider, die noch ratlos vor ihren Datenbergen stehen, hat der Branchenverband Bitkom gerade den neuen Leitfaden „Big Data Technologien – Wissen für Entscheider“ (PDF) herausgebracht. Dieser soll Orientierung geben, wie Unternehmen durch die intelligente Auswertung von Daten wichtige Informationen, zum Beispiel Erkenntnisse über Marktentwicklungen und Kundenbedürfnisse, gewinnen können. Der Leitfaden gibt unter anderem einen Überblick über die Möglichkeiten zur Speicherung großer Datenmengen und beschreibt Komponenten zur Verarbeitung (Analytik) und Aufbereitung (Visualisierung) von Ergebnissen. Ebenso werden konkrete Big-Data-Einsatzszenarien und Lösungsarchitekturen vorgestellt. Auch dem Thema Datenschutz ist ein Kapitel gewidmet.

Bei der Umsetzung ihrer Big-Data-Strategie lohnt es sich für Unternehmen auch, über Nadellas Begriff der „Datenkultur“ nachzudenken, die er in einem Blogpost beschreibt. Seiner Ansicht nach reicht der Einsatz von Technologie alleine nicht aus, um eine nachhaltige Datenkultur zu schaffen. Es gehe vielmehr darum, die Kultur zu verändern: alle Mitarbeiter von den vorhandenen Daten profitieren zu lassen, „damit jede Organisation, jedes Team und jeder Einzelne zu großen Dingen befähigt wird durch die Daten, die ihnen auf Knopfdruck zur Verfügung stehen“.

menuseperator
Big Data abonnieren