Technologie und Märkte

Das Thema BYOD traut man sich der Presse gegenüber ja schon fast nicht mehr anzusprechen, da dazu nun wirklich alles gesagt wurde und Vor- sowie Nachteile in epischer Breite von vielen Unternehmen analysiert wurden.

Auch Leitfäden und Studien zu dem Thema gibt es zuhauf, so beispielsweise von BITKOM, Computacenter/PAC, INTEL oder Oracle.

Fakt ist jedenfalls, dass deutsche Unternehmen BYOD sehr kritisch gegenüber stehen, weswegen es natürlich nahe liegt, diesen das Thema anderweitig schmackhaft zu machen. Und wie geht das besser als mit einem neuen „fancy“ Schlagwort. Wie wäre es denn beispielsweise mit CYOD (Choose Your Own Device)? Die Vorteile gegenüber BYOD liegen auf der Hand, beispielsweise die einfachere Administrierbarkeit der mobilen Geräte seitens der Unternehmens-IT.

Nein, auch schon wieder ein alter Hut?

Wie wäre es mit der Wortschöpfung LYOD, die scheinbar HP ins Gespräch bringen wollte? ... da fragt man sich doch, was das nun schon wieder sein soll. Oder kommt dabei nur mir spontan „Loose Your Own Device“ in den Sinn? Aber im Ernst, dahinter steckt nicht mehr als „Leave Your Own Device“. Aha. Reichen die aktuell kursierenden Abkürzungen nicht schon? Gemeint ist jedenfalls, dass die Erlaubnis für die private Nutzung eines Geschäftsgerätes gegeben wird. Was – am Rande erwähnt – CYOD auch nicht ausschließt. Was uns wiederum zu COPE bringen würde (Company Owned Personally Enabled)...

Ein Ende der xYOD-Kreativität scheint jedenfalls nicht in Sicht: Man stolpert auch über FYOD (Fix Your Own Device) und natürlich UYOD (Use Your Own Device). Ja, die Abgrenzung zu BYOD ist auch hier so eine Sache, da BYOD nicht unbedingt das Arbeiten von Zuhause ausschließt.

Diese Kuddelmuddel an Begrifflichkeiten zeigt wieder einmal, dass es manchmal doch ratsamer ist auf einen bekannten Zug aufzuspringen und mit neuen Blickwinkeln und unterschiedlichem Branchenfokus zu arbeiten, als auf Biegen und Brechen andere Wortschöpfungen zu kreieren, deren Neuigkeitswert bei genauerem Hinsehen nicht hält, was er verspricht.

menuseperator

In diesen Tagen wirft eine der für die Digitalbranche bedeutsamsten Messen wieder ihre Schatten voraus. Nein, hier geht es ausnahmsweise nicht um die IFA, sondern um die Dmexco, die Digital Marketing Exposition & Conference. Das Get Together der Online-Werbefachleute und Kommunikationsexperten feiert heuer seinen fünften Geburtstag und hat es innerhalb dieser relativ kurzen Zeit zu einer der führenden Messen für die digitale Marketingbranche gebracht. Über 800 Aussteller werden am 10. und 11. September in Köln ihre Technologien, Lösungen und Ideen dem Fachpublikum präsentieren.

Der ein oder andere Leser wird sich jetzt vielleicht denken: „Online-Marketing, was geht das mich an? Darum sollen sich die Vermarkter kümmern.“ Ein berechtigter Einwand – allerdings nur auf den ersten Blick. Denn die Messe verzeichnet Jahr für Jahr nicht nur ein deutliches Wachstum, sondern deckt auch immer mehr Themenbereiche ab, die für Unternehmen in Deutschland langsam aber sicher auf die IT-Agenda gehören. So wird die Dmexco in diesem Jahr unter anderem die Trends „Internet der Dinge“ und „Industrie 4.0“ aufgreifen. Hierfür haben die Organisatoren eigens eine World of Experience eingerichtet, wo den Besuchern anschaulich demonstriert wird, welchen Einfluss M2M auf die Internet-Nutzung haben kann und wie sich das Online-Marketing diesen Trend am besten zunutze macht.

Aber nicht nur die Ausstellerfläche bietet interessante Einblicke in die aktuelle und zukünftige digitale Welt. Auch die angegliederte Konferenz hat sich auf die Fahne geschrieben, weltweit führend und themensetzend zu werden. Die Besucher der Dmexco haben die Qual der Wahl und müssen unter den von 470 Sprechern angebotenen Vorträgen und Seminaren mit einem Gesamtvolumen von über 200 Stunden ihre persönlichen Highlights herauspicken. Und auch bei der Konferenz zeigt sich der immer breiter werdende Fokus der Veranstaltung sehr deutlich, denn neben Marketing- und Online-Strategen befinden sich auch einige Top-Manager von großen Unternehmen aus allen möglichen Branchen auf der Speaker-Liste, unter anderem von BMW, Facebook, IBM und Nestlé.

Unsere Empfehlung ist ganz klar: Ein Besuch der Dmexco lohnt sich und sollte für alle Unternehmen, die in der digitalen und vernetzten Welt am Puls der Zeit bleiben wollen, rot im Kalender angestrichen werden. Übrigens, der Eintritt ist nach vorheriger Registrierung kostenfrei.

menuseperator

Seit einigen Monaten arbeite ich verstärkt vom Home Office aus. In meinem Fall bedeutete dies: raus aus der Großstadt, ab aufs Land. Hier bekommt das Thema digitale Infrastruktur eine ganz andere Bedeutung, da viele Gemeinden nach wie vor im digitalen Dunkeldeutschland sitzen. Plötzlich wird die digitale Anbindung zur Standortfrage: denn ohne Internet ist es unmöglich, meinem Beruf nachzugehen. Die digitale Realität ist somit längst im Alltag angekommen. Sicherlich betrifft dies auch viele tausend Handwerker und Mittelständler, die in ganz Deutschland verteilt ihrem Job in mehr oder minder digital angebundenen Kommunen nachgehen.

Und Deutschland verliert weiter: Denn leider hinken wir in der flächendeckenden Abdeckung moderner Hochgeschwindigkeitsnetze anderen Ländern hinterher: Dies zeigt der State-of-the-Internet-Report des Cloud-Service-Anbieters Akamai regelmäßig. Im ersten Quartal 2014 rutschte Deutschland bei den durchschnittlichen Geschwindigkeiten im internationalen Vergleich von Platz 21 auf 26 ab.

Umso wichtiger ist der Beschluss des Bundeskabinetts zur „Digitalen Agenda 2014-2017“, der jetzt vorgelegt wurde und die Leitsätze für die nächsten Jahre diktiert: 1. Stärkere Erschließung des Innovationspotenzials unseres Landes für weiteres Wachstum und Beschäftigung, 2. Die Unterstützung beim Aufbau flächendeckender Hochgeschwindigkeitsnetze und die Förderung digitaler Medienkompetenz (...), 3. Die Verbesserung der Sicherheit und den Schutz der IT-Systeme und Dienste (...).

Aber wie realistisch ist eine flächendeckende Umsetzung? Die Politik muss sich letztlich daran messen lassen. Denn längst hängt das Wohl unserer Gesellschaft an einer möglichst raschen Umsetzung. Wir brauchen dringend Lösungen. Sicherlich ist das Thema nicht trivial, da viele Partikularinteressen involviert sind und oftmals ein Geschäftsmodell für gewinnorientierte Unternehmen gerade in ländlichen Gebieten nicht realisierbar ist. Aber gerade in einem solchen Fall muss der Staat in die Bresche springen und falls nötig für die entsprechenden Anschub-Investitionen sorgen. Denn längst zählt das Internet zur kritischen Infrastruktur. Und übrigens, es müssen nicht immer die kolportierten 50 Megabit pro Sekunde sein: Viele Firmen wären bereits froh, in akzeptabler Geschwindigkeit und ohne Verbindungs-Schwankungen im Netz unterwegs sein zu können. Und das jetzt, und nicht erst in Jahrzehnten!

menuseperator

Gartners Hype Cycle für Emerging Technologies hat Tradition. Seit 20 Jahren ordnen die Marktforscher Technologien kurvenförmig in Lebensabschnitte ein. Einen guten Überblick gibt es hier. Die Werte der y-Achse dokumentieren die öffentliche Aufmerksamkeit einer Technologie und die x-Achse die Zeitspanne, in der sie nach Einschätzung von Gartner verschiedene Phasen bis zu ihrer Marktreife durchläuft. Mitte der 1990er-Jahre waren übrigens „Intelligente Agenten“ und der „Information Superhighway“ die angesagten Themen.

Den „Gipfel der Erwartungen“ hat im diesjährigen Hype Cycle das Internet der Dinge erreicht. Ähnlich hoch angesiedelt sind „Natural- Language Question Answering“ und „Wearable User Interfaces“. Im Jahr 2013 stand übrigens „Big Data“ kurz vor dem „Gipfel der Erwartungen“. Nun ist es müßig, über die Eintrittswahrscheinlichkeit von Prognosen, und nichts anderes sind ja die Hype Cycles, zu streiten. Die Basistechnologien hinter Big Data, dem Internet der Dinge, Hybrid Cloud Computing und den In-Memory-Database-Management-Systemen sind so weit fortgeschritten, dass es heute viele Unternehmen weltweit gibt, die sie als Innovationsmotor nutzen. Wäre da nicht das berechtigte Thema „Sicherheit“ als begrenzender Faktor. Wie sieht es hier beim Internet der Dinge aus? Da bleiben noch viele Fragen offen. Ich persönlich bin kein Technikpessimist und davon überzeugt, dass es in absehbarer Zeit Lösungen für die Sicherheitsprobleme im Internet der Dinge geben wird. Hier eröffnet sich ein weites Feld für neue Ansätze.

menuseperator

Das Internet der Dinge (Internet of Things) – ein weiteres Schlagwort, ein weiterer Hype, der einem momentan in der Medienlandschaft oft begegnet, neben der allgegenwärtigen Cloud natürlich. Dabei ist der Terminus an sich nicht mehr neu: Bereits 1999 wurde der Begriff erstmals verwendet, und zwar von Kevin Ashton, dem Mitbegründer und damaligen Leiter des Auto-ID Center am Massachusetts Institute of Technology (MIT).

Doch wie so viele neue Technologien steckt auch das „Internet der Dinge“ noch voller Sicherheitslücken, wie eine aktuelle Studie von HP zeigt. Im Rahmen der Studie wurden zehn der beliebtesten Geräte getestet, unter anderem Webcams, Thermostate, Sprinkleranlagen-Controller, Türschlösser, Garagentüröffner und Hausalarmanlagen.

Wer bisher dachte, Garagentüröffner wären harmlos, wird hier eines Besseren belehrt: Im Schnitt hatte jedes Gerät 25 Schwachstellen, so dass bei der Studie insgesamt 250 Sicherheitslücken in den getesteten Geräten zum Vorschein kamen. Die häufigsten Lücken betreffen den Datenschutz, eine unzureichende Berechtigung und Verschlüsselung, unsichere Web-Schnittstellen und einen mangelhaften Schutz durch Software.

Gartner prognostiziert, dass bis zum Jahr 2020 26 Milliarden Geräte mit Bluetooth, WLAN und Co. ausgestattet sein sollen. Bis dahin gibt es für die Anbieter vernetzter Geräte wohl noch viel zu tun.

menuseperator

Zum Stichwort Big Data heute ein aktuelles Beispiel aus der Automobilbranche:

Ab 2015 sollen sämtliche Neuwagen in Europa mit dem Notfallsystem eCall ausgestattet werden, das im Falle eines Crashs per Mobilfunkverbindung automatisch Hilfe anfordert. Angesichts von jährlich 28.000 Toten auf europäischen Straßen eine einleuchtende Sache. Und zudem weitreichender als es auf den ersten Blick erscheinen mag: Denn der Einbau erfordert Technologie-Schnittstellen, beispielsweise zu LTE- und GPS-Systemen, die dann auch von anderen Connected-Car-Produkten, wie etwa vernetzten Sicherheitsfeatures und Fahrsicherheitskomponenten, genutzt werden können. Mit diesen eröffnet sich derzeit ein Milliardenmarkt - geschätztes jährliches Umsatzvolumen weltweit bis 2020 allein im Pkw-Segment rund 110 Milliarden Euro.

Datenschützer schlagen Alarm: Sie fürchten, dass mangelnde Datenschutzbestimmungen dem ungehemmten und unkontrollierten Datenverkehr auf europäischen Straßen sämtliche Bodenwellen ebnen. Autohersteller, Versicherungen und der ADAC streiten sich schon jetzt um die erhobenen Fahrerdaten. Es geht um lukrative Service- und Reparaturgeschäfte, Versicherungstarife, die sich am Fahrverhalten orientieren, Mahngelder für Raser, die aus Fernbeobachtungen resultieren und andere Anwendungsszenarien. Volker Lüdemann, Professor für Wirtschaftsrecht an der Hochschule Osnabrück, ist besorgt: „Hier wird unter dem Deckmantel der Lebensrettung die Grundlage für den gläsernen Autofahrer geschaffen – und zwar verpflichtend für alle Neuwagen.“ (ZEIT online, http://www.zeit.de/2014/29/datenschutz-unfallmelder-ueberwachung) Läuft es nun also Meter um Meter auf ein bereiftes Smart Device hinaus? „Natürlich hätte man das datenschutzrechtlich auch anders gestalten können“, so Lüdemann. „Dann wäre die korrekte Nutzung der Daten aber sehr kompliziert geworden – und wesentlich uninteressanter für die Wirtschaft.“

Wir sind gespannt, wie sich die Diskussion auf dem Informationsmarkt weiter entwickelt: Der gläserne Autofahrer – Sicherheit vs. Freiheit? Oder sollte es besser heißen: Milliardenmarkt contra Datenschutz?

menuseperator

Das Thema „Virtualisierung“ - und ganz speziell die Desktop-Virtualisierung - ist nun wirklich nicht mehr neu. Seit Jahren schon werden die besten Strategien und Lösungsansätze der Hersteller in der Fachpresse vorgestellt, diskutiert und analysiert. „Hier kann es doch bis auf weiteres nichts Bahnbrechendes zu berichten geben“, könnte man meinen.

Ganz falsch!

Es gab tatsächlich noch einen Bereich in der IT, in den die Virtualisierung bis vor kurzem noch nicht vordringen konnte, da die nötigen technologischen Voraussetzungen fehlten. Denn erst mit der Einführung der GRID-vGPU-Technologie Ende 2013 ist es möglich, gleichzeitig mehrere Nutzer von rechen- und grafikintensiven Applikationen von einer einzigen GPU in eine virtuelle Umgebung zu verlagern. Und nur damit keine Missverständnisse entstehen, wir sprechen hier tatsächlich von High-Performance-Anwendungen wie Videorendering oder CAD-Modell-Bearbeitung, für die bislang der Einsatz einer physischen Workstation unumgänglich war.

Anders gesagt: Die Hersteller betreten eine neue Stufe auf der Treppe des Fortschritts und können jetzt auch Workstation-Virtualisierung.

Das wird vor allem Anwender aus Branchen wie Ingenieurswesen, Konstruktion, Multimedia, Automotive oder auch Architektur freuen, um nur ein paar zu nennen. Sie mussten nämlich lange auf das verzichten, was für viele andere mittlerweile völlig normal ist: der Zugriff auf Arbeitsdaten und -projekte von quasi jedem Endgerät und beliebigem Ort aus. Das macht nicht nur vieles einfacher, sondern vor allem auch sicherer, da alle Daten auf einem virtuellen Desktop in einem geschützten Rechenzentrum liegen und nicht mehr auf dem Endgerät selbst.

Darüber hinaus bringt die Workstation-Virtualisierung natürlich noch weitere Vorteile mit sich. Wir haben Peter Beck, Systems Engineer Workstation bei unserem Kunden Dell und Experte auf diesem Gebiet, ein paar Fragen gestellt:

menuseperator

Stets auf dem neuesten Informationsstand zu sein, was den Status quo der extrem schnelllebigen und innovationsfreudigen IT-Branche angeht, ist schwierig. Dabei noch zwischen substanziellen Veränderungen des Marktgeschehens und Marketing-getriebenen, gehaltlosen Heraufbeschwörungen zu unterscheiden, ist noch schwieriger.

In diesem Zusammenhang muss auch die Frage nach der (vermeintlichen) Wirklichkeit rund um das Thema „Cloud Computing“ gestellt werden, begleitet uns die Wolke doch schon um einiges länger als andere (vermeintliche) IT-Trends. Oracle-Chef Larry Ellison sagte darauf bezogen noch 2008: „Die Computerindustrie ist die einzige Industrie, die noch stärker modegetrieben ist, als die Modeindustrie selbst. Vielleicht bin ich ein Idiot – ich habe keine Ahnung, worüber die Leute da reden. (...) Wann hört dieser Schwachsinn endlich auf.“ (Computerwoche 27/2014) Sechs Jahre später scheint dieses Statement wie aus der Zeit gefallen.

Die Fachleute sind sich in ihren Analysen zwar nicht völlig einig, was die Entwicklung der Cloud angeht und die Prognosen bleiben unscharf. Doch dass die Cloud grundsätzlich Bedeutung hat und weiter an Gewicht zunimmt, scheint unzweifelhaft. Mehr und mehr Unternehmen ersetzen lizenzierte Standardanwendungen durch Web-basierte SaaS-Lösungen, welche im Rahmen von Subskriptionsmodellen abgerechnet werden. Dazu kommt eine Entwicklung, wonach immer mehr Firmen vermeiden, ihre eigenen Rechenzentren aufzubauen, und stattdessen Rechenleistung aus dem Netz zuschalten. Forrester Research geht davon aus, dass der globale Cloud-Markt 2020 mit einem Volumen von 191 Milliarden rund ein Fünftel größer sein wird, als das Institut ursprünglich angenommen hatte. Und 2020 soll laut den Analysten bereits ein Viertel des weltweiten Applikationsgeschäfts auf das Konto von SaaS-Anwendungen gehen. Damit sei das Cloud Computing in eine Phase des Hyper-Wachstums eingetreten, so die Fachleute.

Nun mag es auch im Cloud Computing viel Marktgeschrei geben und unzweifelhaft werden auch hier Entwicklungen postuliert, die mit der Realität nur wenig gemein haben. Dass die Marketing-Abteilungen oft vorschnell Äußerungen treffen, welche die Produktentwickler nicht halten können oder die vom Markt nicht angenommen werden, soll ja nicht nur in der IT-Branche vorkommen. Zweifellos ist aber, dass das Cloud Computing kein Strohfeuer ist. Es wird weitere gewaltige Transformationen innerhalb der IT-Branche selbst geben, die ihre Business-Modelle hinterfragen muss. Und die deutsche Wirtschaft wird die IT völlig anders einzusetzen wissen und bestehende Paradigmen nach und nach über den Haufen werfen.

Und Larry Ellison wird es am Ende mit seiner Einschätzung vielleicht ähnlich gehen wie Bill Gates. Der bezeichnete das Internet einst als „Hype“, mit dem man nie Geld verdienen könne. So kann man sich täuschen. 

menuseperator

Auf Messen werden immer wieder Plagiate gefunden, die der heimischen Industrie zu schaffen machen. Besonders dreist ist es jedoch, wenn es bereits Plagiate von Neuentwicklungen gibt, die noch gar nicht offiziell vorgestellt worden sind. Das selektive Abgreifen von vertraulichen Daten ist ein lukrativer Trend in der Welt der Cyber-Attacken und dabei müssen es nicht immer die Mitarbeiter selbst sein, die diese Informationen nach außen geben. Die sogenannten Advanced Persistent Threats sind gezielte Hacker-Angriffe, die nicht mehr auf Masse aus sind, sondern zielgerichtet und sehr aufwendig gemacht sind.

Die aktuelle Ponemon-Umfrage „Roadblocks, Refresh and Raising the Human Security IQ“ zeigt, dass viele Sicherheitsverantwortliche in Firmen Advanced Persistent Threats und Daten-Exfiltration als größte Bedrohungen ansehen. Unternehmen stecken viel Geld in die IT-Sicherheit, für 2014 sollen sogar mehr Ausgaben geplant sein als im Vorjahr, so eine Umfrage von eco – Verband der deutschen Internetwirtschaft e.V. Da ist es doch verwunderlich, dass gemäß der Studie des Ponemon Institute erhebliche Mängel in der Kommunikation zwischen Sicherheitsverantwortlichen und Management herrschen. 31 Prozent der Befragten, die für den Bereich Cyber-Security zuständig sind, gaben an, nie mit dem Management über dieses Thema zu sprechen. 23 Prozent führten nur einmal im Jahr ein Gespräch und weitere 19 Prozent nur einmal im halben Jahr. Darüber hinaus haben nur 38 Prozent das Gefühl, dass ihre Unternehmen ausreichend in Personal und Technologien investieren, um Cyber-Security-Ziele zu erreichen. Immerhin gaben 49 Prozent an, in den nächsten zwölf Monaten Investitionen im Security-Umfeld zu tätigen. Die restliche Hälfte ist sich einig, dass erst in eine neue IT-Security-Lösung investiert werden würde, wenn ein Datendiebstahl-Vorfall zu beklagen wäre. Es bleibt nur zu hoffen, dass die Abteilungen vorher rechtzeitig miteinander sprechen, um größere Schäden zu vermeiden.

Zur Studie: Es wurden weltweit rund 5.000 Verantwortliche für IT-Sicherheit in 15 Ländern befragt, darunter England, Deutschland, Frankreich, Italien, die Niederlande, Schweden und die USA.

menuseperator

Der Mainframe feiert dieses Jahr seinen 50. Geburtstag. Ein wahrlich stolzes Alter, wenn man bedenkt, dass der IT-Dinosaurier eigentlich schon längst hätte ausgestorben sein sollen. Aber der Großrechner hält sich wacker und ist immer noch bei vielen Unternehmen im Einsatz. Denn in puncto Sicherheit, Stabilität und Performance ist er einfach nach wie vor unschlagbar.

Doch es gibt ein zentrales Problem: Die Fachkräfte fehlen.

Denn für junge Softwareentwickler gibt es in der Tat spannendere Projekte, als sich mit COBOL oder PL/1 zu beschäftigen. Und genau hier müssen die Unternehmen ansetzen. Sie müssen die neue mit der alten Welt verbinden und den Softwareentwicklern in diesem Umfeld die Tools und Entwicklungsumgebungen zur Verfügung stellen, die sie kennen. Und das egal auf welchem Endgerät.

Denn am Ende ist doch klar: Der Mainframe wird bleiben und die Unternehmen werden sich anpassen und vor allem überlegen müssen, wie sie den jungen Softwareentwicklern die Mainframes wieder schmackhaft machen können. Nicht nur die Fachkräfte müssen sich auf den Großrechner einstellen, sondern auch die Unternehmen auf die jungen Softwareentwickler.

Hierzu auch ein aktuelles Video unseres Kunden Micro Focus:

 

menuseperator

Seiten

Technologie und Märkte abonnieren