Blog

Cloud Computing wird vom Hype zur Realität. Mit OpenStack, einem Softwareprojekt, das eine freie Architektur für Cloud Computing zur Verfügung stellt, hat sich in den letzten Jahren quasi der Standard für hybride, herstellerunabhängige Cloud-Umgebungen entwickelt, die auch zunehmend „Enterprise-IT-ready“ sind. Interessant dabei ist, dass sich an dem Projekt viele führende IT-Technologieanbieter wie Red Hat, Dell, HP, IBM oder Cisco beteiligen, die viel Geld investieren und substanzielle Beiträge zur Community leisten.

Vor diesem Hintergrund ist spannend, wie sich das Rennen der führenden Technologieanbieter entwickelt, aber auch, warum sich Anwender mit dem Thema ernsthaft beschäftigen sollten.

Carlo Velten, Managing Director von Crisp Research, gibt in seinem Beitrag auf Computerwoche online „HP, IBM, Red Hat – wer gewinnt das OpenStack-Rennen?“ eine lesenswerte Einschätzung dazu ab: Hier weiterlesen...

menuseperator

Da hat sich aber jemand ein tolles Datum für die neue Verbraucherrechterichtlinie ausgedacht: Freitag der 13. Ein ungewollt passendes Datum. Insbesondere wenn man sich die Details dazu einmal genauer anschaut – vor allem, was die Übergangsfrist betrifft. Wobei: Übergangsfrist trifft es nicht so ganz...

Bei genauer Betrachtung zeigt sich das Dilemma: die alten Verbraucherrechte gelten bis zum 12. Juni, 23:59 Uhr (und 59 Sekunden) und müssen bis zu diesen Zeitpunkt so auch auf der Webseite des Online-Händlers zur Verfügung stehen. Ab dem 13. Juni, 0:00 Uhr gilt dann aber die neue Richtlinie, die natürlich so auch auf der Website zu finden sein muss.

Jetzt kommt die Krux an der Sache: Erst ab genau diesem Zeitpunkt dürfen die neuen Verbraucherrechte auf der Website des Online-Shops erscheinen. Man hat also gerade mal, wenn man wirklich ganz kulant ist, genau 1 Sekunde Zeit, seine Website dementsprechend anzupassen (und wenn man ganz genau ist, nicht einmal die).

Ist dies nicht der Fall, drohen teure Abmahnungen – und eines ist sicher: unsere Abmahn-Freunde werden das Web genau danach durchforsten.

Gerade kleine Händler dürften mit dieser nicht vorhandenen Übergangsfrist ein Problem haben, denn wenn man keine Agentur im Rücken hat, die man hiermit beauftragen kann und die für einen ein bisschen um Mitternacht herumzaubert, muss man selber ran.

Da stellt sich mir die Frage: Wer hat sich das denn ausgedacht?

PS: In meinem nächsten Blog beschreibe ich, wie Online-Shop-Muggles nach Hogwarts gelangen und wie man Harry Potter dazu bringt, seinen Zauberstab für einen guten Verbraucherrechterichtlinien-Zweck zu verleihen.

menuseperator

Nachdem wir uns vor einiger Zeit den deutschsprachigen Social-Media-Aktivitäten von – Endverbraucher-orientierten – Smartphone-Herstellern gewidmet haben, haben wir diesmal B2B-Anbieter unter die Lupe genommen, und zwar die führenden Softwarehersteller. Schon im Vorfeld hatten wir gemutmaßt, was das Ergebnis sein würde, und haben recht behalten: freundlich ausgedrückt verschenken auch diese Unternehmen ihr Social-Media-Potenzial.

Irgendwie betreiben alle untersuchten Hersteller Social Media, aber eben auch nur irgendwie. Wenigstens verlinken die meisten die Kanäle auf ihrer Homepage, das kann man schon fast als Fortschritt betrachten. Ansonsten sieht es eher mager aus: Inhalte werden oft 1:1 direkt aus Presseinformationen übernommen; anspruchsvolle, weil arbeitsintensive, Kanäle wie YouTube werden eher nachlässig behandelt, und ansonsten sieht alles eher lieblos denn professionell aus. Der Eindruck, der entsteht: Man gibt sich nicht viel Mühe. Der Geist von Social Media glänzt bei den meisten Anbietern mit Abwesenheit (rühmliche Ausnahme ist die DATEV, die einen hervorragenden Job macht).

Das alles ist keine neue Erkenntnis. Wir wundern uns seit vielen Jahren, warum große Unternehmen mit ausreichend Manpower und Budgets nicht in der Lage sind, ihre Kommunikation professionell zu gestalten – schlimmer noch: nicht mal das ABC der Kommunikation beherzigen. Gewiss, Social Media ist aufwändig, aber es gibt viele kleine Unternehmen, die es ganz gut auf die Reihe bekommen. Warum also nicht die Großen? Ich glaube und habe es schon oft wiederholt: Viele Unternehmen haben offenbar keinerlei Interesse an einem vollwertigen und mit weiten Befugnissen ausgestattenen Kommunikationsvorstand, aus welchen unerfindlichen Gründen auch immer. Der oft katastrophale Auftritt, von dilettantischen Inhalten bis zu widersprüchlichen Botschaften, ließe sich damit auf jeden Fall vermeiden. Der mäßige Social-Media-Auftritt ist nämlich nur die Spitze des Eisbergs.

menuseperator

In den letzten Wochen haben wir uns mit einigen ITK-Journalisten unterhalten und sie gebeten, uns ihre Einschätzung bezüglich der Performance von Pressestellen und PR-Agenturen mitzuteilen. Die Ergebnisse sind nicht repräsentativ, weil nur auf 29 Meinungen beruhend, aber sie entsprechen ziemlich genau unserer eigenen Erfahrung.

Es gibt Luft nach oben. Die Durchschnittsnoten, die unsere Medienkontakte vergeben haben, waren nämlich eher mager. Ihre allgemeine Zufriedenheit mit PR-Agenturen und Pressestellen von ITK-Unternehmen bewerteten sie mit 2,7 (Schulnotensystem), die Reaktionsgeschwindigkeit ihrer Ansprechpartner mit 2,8 und deren Zuverlässigkeit mit 2,1, immerhin.

Die Qualität von Texten, in der Regel Presseinformationen, war ihnen aber lediglich 2,9 wert, das ist schon fast beschämend für die Leistung sogenannter PR-Profis. Jetzt könnte man darauf erwidern, die Headquarters in den USA und die EMEA-Zentralen auf der Insel bestünden darauf, ihre Texte möglichst nah am Original übersetzt zu sehen. Das stimmt zwar meistens, ist allerdings auch nur die halbe Wahrheit. Die andere Hälfte wird durch die schlechteste Note unserer Umfrage reflektiert: 3,3. So kümmerlich bewerteten die Journalisten die ITK-Expertise ihrer Kontakte in den Agenturen.

Seit meiner Zeit als Redakteur und Chefredakteur von IT-Zeitschriften hat sich hier offensichtlich nicht viel geändert (und das ist wirklich lange her). Schon damals hatten wir in den Redaktionen, auf der anderen Seite des Schreibtischs sozusagen, viel zu oft mit schlechten Texten, fragwürdigen Inhalten und kläglicher Grammatik zu tun. Die Kompetenz vieler PR-Agenturen sahen wir im Grunde reduziert auf ihre Rolle als Durchlauferhitzer: Original-Texte irgendwie übersetzen und halbherzig an die Medien verteilen. Aber, das muss gesagt werden, es gab natürlich auch eine ganze Reihe guter Agenturen und hervorragender Pressestellen in den Unternehmen.

Die gibt es immer noch. Angesichts der mäßigen Noten der heutigen Journalisten repräsentieren sie aber wohl leider nicht die Mehrheit.

Manche Journalisten waren in den Gesprächen recht aufgebracht über ihre Kontakte in den Agenturen und Pressestellen, auch wenn sie hier und dort "gute und sehr gute Pressestellen und Agenturen" ausmachten. Sie bemängelten vor allem die schlechte Aufbereitung von Informationen, zu wenig Tiefgang, unzureichendes Bildmaterial, mäßig ausgebildete Kontaktpersonen und immer wieder die "kaum vorhandene ITK-Expertise" in manchen Agenturen. Vor allem diese mangelnde Expertise führt dazu, dass Original-Informationen von PR-Agenturen oft unreflektiert und unkritisch übernommen werden – mit all den unötigen Quotes, den ärgerlichen Superlativen und dem überflüssigen Marketing-Gebrabbel.

"Gehirn einschalten", brachte es ein Journalist zackig auf den Punkt, "Buzzword-Bingo und Spin-Doctoring meiden. Fliegt sowieso auf und schreckt ab". Hätte auch von mir sein können – damals.

 

29 Journalisten haben die Leistung von ITK-Agenturen und -Pressestellen bewertet. Das sind die Ergebnisse – nicht immer brillant (Quelle: PR-COM, Mai 2014)


In einem kurzen Video erläutert PR-COM-Geschäftsführer Alain Blaes die zentralen Ergebnisse:

 

 

menuseperator

Cyber-Kriminelle entwickeln immer raffiniertere Angriffsmethoden, um die Sicherheitssysteme von Unternehmen auszutricksen: Nicht zuletzt durch Trends wie BYOD, Mobility und Cloud Computing sind IT-Infrastrukturen in Unternehmen heute verschiedensten Bedrohungen ausgesetzt und effiziente, umfassende Sicherheitskonzepte unabdingbar.

Aber sind sich Unternehmen dessen wirklich bewusst und handeln sie entsprechend? Unser Kunde Dell Software hat in einer weltweiten Umfrage 1.440 IT-Entscheidungsträger in Unternehmen mit mehr als 500 Mitarbeitern, darunter 200 Unternehmen aus Deutschland, nach ihrer Einschätzung der IT-Sicherheit und künftiger Bedrohungen befragt.

Demnach verleihen lediglich 17 Prozent der befragten deutschen Unternehmen dem Thema IT-Sicherheit 2014 die höchste Priorität auf ihrer Agenda, doch Achtung: Zugleich betonen ganze 69 Prozent, IT-Sicherheit sei für sie Dauerbrenner und in jedem Jahr wichtig. Dies beschert deutschen Unternehmen die Pole-Position im internationalen Vergleich: Denn nur rund jedes zweite Unternehmen weltweit (48 Prozent) sieht die IT-Sicherheit als permanentes Top-Thema. In den USA wiederum zeichnet sich ein ganz anderes Bild – hier scheinen die Snowden-Affäre und ihre Folgen einen wahren Bewusstseinskick ausgelöst zu haben: Schreiben nur 22 Prozent der Unternehmen der IT-Sicherheit eine ständige Priorität zu, so sehen sie stolze 72 Prozent in diesem Jahr thematisch ganz vorne.

So weit, so gut. Aber bedeutet dies nun, dass deutsche Unternehmen in der Mehrheit bereits bestens gewappnet sind und sich entspannt zurücklehnen können?

Besser nicht! Sich hier auf sicherem Posten zu wähnen, könnte sich als trügerisch erweisen: Denn mit neuen Technologien und Nutzungsweisen gehen auch immer wieder neue Bedrohungen einher. Und neben verschiedenen Motiven wie Datenklau oder direkter Schädigung der IT-Systeme gibt es auch vielfältige andere Gefahrenquellen - Angriffe von außen, aber auch von innen, zum Beispiel durch unwissende oder schlampig handelnde Mitarbeiter.

So erlitten rund 66 Prozent der deutschen Unternehmen in den letzten zwölf Monaten Sicherheitsverletzungen - weltweit lag die Quote bei 74 Prozent, in den USA sogar bei 87 Prozent. Laut der Studie schlugen diese Sicherheitsvorfälle in den befragten Unternehmen durchschnittlich jeweils mit rund einer Million Dollar zu Buche. Proaktive Maßnahmen, bevor das Kind im Brunnen liegt bzw. der Hacker oder Schadcode in der Leitung sitzt, können hier einiges abwehren. Und: Nur 55 Prozent der befragten deutschen IT-Entscheidungsträger sehen sich gegen jegliche Art künftiger Bedrohungen gewappnet, weltweit sind es 60 Prozent.

Übrigens, ganze 64 Prozent der weltweit befragten Unternehmen meinen, die Frage laute nicht, ob sie Sicherheitsverletzungen zum Opfer fallen, sondern vielmehr wann

Die ausführliche Studie von Dell Software zum Herunterladen: http://software.dell.com/documents/protecting-the-organization-against-the-unknown-whitepaper-27396.pdf

Unser „Projekt Datenschutz“ zeigt die letzten Fälle von Datenpannen, -skandalen und
-missbrauch auf sowie alle Ereignisse rund um die Affäre Snowden: www.projekt-datenschutz.de

menuseperator

Heute haben wir für unseren Kunden Red Hat ein Marketing-Video umgesetzt. Daraus gewonnene Einzelstatements lassen sich auch für die Pressearbeit hervorragend nutzen: Zum Beispiel über eine Verlinkung in Form von Mailings für Interview-Pitches, Veranstaltungseinladungen oder auch als weiterführende Informationen in Pressemitteilungen. Der entscheidende Vorteil von Videos gegenüber geschriebenem Text: Sie transportieren Emotionalität durch die Visualisierung von Inhalten und Personen.

Impressionen vom Dreh:

  Kamera ab! (Bild: PR-COM, April 2014)  Studioaufbau (Bild: PR-COM, April 2014)

menuseperator

Jedes zehnte deutsche Unternehmen hat mittlerweile Big-Data-Lösungen im Einsatz. Auch Microsoft-CEO Nadella hat letzte Woche auf der „Accelerate your insights“ in San Francisco eine verstärkte Fokussierung des IT-Riesen auf diesen Bereich angekündigt.

Für IT-Entscheider, die noch ratlos vor ihren Datenbergen stehen, hat der Branchenverband Bitkom gerade den neuen Leitfaden „Big Data Technologien – Wissen für Entscheider“ (PDF) herausgebracht. Dieser soll Orientierung geben, wie Unternehmen durch die intelligente Auswertung von Daten wichtige Informationen, zum Beispiel Erkenntnisse über Marktentwicklungen und Kundenbedürfnisse, gewinnen können. Der Leitfaden gibt unter anderem einen Überblick über die Möglichkeiten zur Speicherung großer Datenmengen und beschreibt Komponenten zur Verarbeitung (Analytik) und Aufbereitung (Visualisierung) von Ergebnissen. Ebenso werden konkrete Big-Data-Einsatzszenarien und Lösungsarchitekturen vorgestellt. Auch dem Thema Datenschutz ist ein Kapitel gewidmet.

Bei der Umsetzung ihrer Big-Data-Strategie lohnt es sich für Unternehmen auch, über Nadellas Begriff der „Datenkultur“ nachzudenken, die er in einem Blogpost beschreibt. Seiner Ansicht nach reicht der Einsatz von Technologie alleine nicht aus, um eine nachhaltige Datenkultur zu schaffen. Es gehe vielmehr darum, die Kultur zu verändern: alle Mitarbeiter von den vorhandenen Daten profitieren zu lassen, „damit jede Organisation, jedes Team und jeder Einzelne zu großen Dingen befähigt wird durch die Daten, die ihnen auf Knopfdruck zur Verfügung stehen“.

menuseperator

Diese Nachricht können wir natürlich nicht unkommentiert passieren lassen:

Die Nachrichtenmaschine:
 Schwäbische Software schreibt aus Daten News

… und vermutlich ist diese etwas schiefe Headline schon ein erstes Anwendungsbeispiel. Gemeint ist Folgendes: 

Die Aexea GmbH aus Stuttgart […] hat nun erstmals eine Software vorgestellt, die mit Hilfe eines semantischen Modells Daten aus verschiedenen Quellen verknüpft und anschließend automatisiert nicht nur Headlines, sondern komplette hochwertige Nachrichtentexte formuliert.

Aexea fährt einiges auf: Semantische Modelle, generative Grammatik und ein narratives Gerüst; herauskommen sollen "leserorientierte, verständliche und lesenswerte Texte". Bei Twitter läuft sich schon der Panikgenerator warm:

  • "Software schreibt News: Willkommen in der gruseligen SEO-Zukunft"
  • "UNHEIMLICH: Aexea hat eine Software vorgestellt, die automatisiert komplette hochwertige Nachrichtentexte formuliert"           
  • "Horrorszenario oder Wunschtraum? In jedem Fall Realität"

Keine Panik! Ruhig Brauner! Man muss sich nämlich die Leistungen dieser Software mal etwas genauer anschauen:

"Es ist die intelligente semantische Logik, die es der Software ermöglicht, Texte zu schreiben, die nur das Sagenswerte und Sprechbare enthalten", erklärt Frank Feulner, Leiter Software Development/ Semantic Technologies bei der Aexea GmbH.

Im Ernst, wer will solche Texte haben? Texte, die nur das "Sagenswerte" enthalten? (Seltsam: mein Bloggenerator schlägt hier das "Lesenswerte" vor, das "Sprechbare" bleibt ohne Vorschlag.) Und sonst nichts? Am Ende ist die Logik womöglich so intelligent, dass sie genau das aussortiert, was der Phrasengenerator zuvor mühsam hineingepackt hat. Das ist doch nicht praxistauglich.

Außerdem eine halbe Sache. Was wir brauchen, ist eine innovative Software, die mit Hilfe einer evidenzbasierten semantischen Content-Logikfunktionalität in der Lage ist, Texte nicht nur zu verfassen, sondern auch zu lesen. Die Engine muss über ein intelligentes 7x24-Interface die Aexea-Texte nahtlos importieren, hochperformant rezipieren und anschließend rückstandslos archivieren. Auch auf mobilen Endgeräten. Machine-2-Machine Communication – so geht Effizienz. Engines unter sich – das zeitgemäße Texterlebnis. 

menuseperator

In diesem Jahr soll es so weit sein. 2014 werden mindestens 25 Prozent der neuen Geschäftsapplikationen von sogenannten Citizen Developers stammen. So zumindest prophezeite es Gartner auf seinem Symposium/ITxpo im Oktober 2009. Noch bleiben fast neun Monate Zeit bis zum 31. Dezember, aber ich wage schon einmal die Prognose: Gartner wird danebenliegen. Statt von einer Prognose hätte Gartner – wie so oft – besser von einer Handlungsanleitung gesprochen: „Unternehmen sollten ...“ oder besser noch „Unternehmen müssen …“. Denn Gartner trifft einen wunden Punkt. Aus Sicht der Fachabteilungen dauert die Anpassung oder gar die Entwicklung selbst einer einfachen Applikation schlicht zu lange. Hier werden schnelle Lösungen benötigt, die manchmal – auch das muss man dazu sagen – schon nach wenigen Monaten wieder ausgemustert werden.

Wenn es um Citizen Developers geht, kommen die berühmten Power User der 1990er-Jahre wieder zum Zuge. Gemeint sind damit beispielsweise Excel- oder SAP-Anwender aus den Fachabteilungen, die sich hervorragend mit ihren täglich genutzten Applikationen auskennen und schnell neue Lösungen für aktuelle Anwendungsprobleme finden.

Vor allem das Marketing und der Vertrieb im Einzelhandel, angefangen von Bekleidung über Elektronik bis zu Kosmetik, Lebensmitteln, Möbeln, Spielzeug und Sportartikeln, sind auf immer neue Applikationen angewiesen, mit denen sie die Effizienz ihrer Aktivitäten besser planen, überwachen und steuern können. Genau dies ist das Betätigungsfeld der Citizen Developers. Sie erstellen schnell und unkompliziert die benötigten neuen Applikationen. Einen guten Überblick über die aktuell dazu verfügbaren Tools liefert Gartner in dem Report „Magic Quadrant for Enterprise Application Platform as a Service“

menuseperator

Der Ausbruch des Ersten Weltkriegs jährt sich bald zum hundertsten Mal, und mich als gelernten Historiker elektrisiert dieses Ereignis natürlich ganz besonders. Als ich deshalb neulich meine alten Bücher zum Thema herausgekramt habe, stieß ich auf eine spannende Quelle. Die „Vossische Zeitung“ berichtete in ihrer Ausgabe vom 28. Juni 1914 über den Vorfall, der schließlich den Ersten Weltkrieg auslösen sollte. Interessant ist dabei der Aufbau der Nachricht:

Sarajewo, 28. Juni (Telegramm unseres Korrespondenten) Als Erzherzog-Thronfolger Franz Ferdinand und seine Gattin, die Herzogin von Hohenberg, sich heute Vormittag zum Empfange in das hiesige Rathaus begaben, wurde gegen das erzherzogliche Automobil eine Bombe geschleudert, die jedoch explodierte, als das Automobil des Thronfolgers die Stelle bereits passiert hatte. Im darauffolgenden Wagen wurden der Major Graf Boos-Waldeck von der Militärkanzlei des Thronfolgers und Oberstleutnant von Bosnien erheblich verwundet. Die Bombe war von einem Typographen namens Cabrinowitsch geschleudert worden. Der Täter wurde sofort verhaftet. Nach dem festlichen Empfang im Rathaus setzte das Thronfolgerpaar die Rundfahrt durch die Straßen der Stadt fort. Unweit des Regierungsgebäudes schoss ein Gymnasiast der achten Klasse (Primaner) namens Princip aus Grabow aus einem Browning mehrere Schüsse gegen das Thronfolgerpaar ab. Der Erzherzog wurde im Gesicht, die Herzogin im Unterleib getroffen. Beide verschieden, kurz nachdem sie in den Regierungskonak gebracht worden waren, an den erlittenen Wunden. Auch der zweite Attentäter wurde verhaftet. Die erbitterte Menge hat die beiden Attentäter nahezu gelyncht.

Quelle: Vossische Zeitung vom 28.6.1914

Die Art, Nachrichten zu strukturieren, hat sich mittlerweile grundlegend geändert. Die entscheidende News gleich am Anfang nennen – so wird es längst gehandhabt. Bei so einigen Pressemitteilungen hat man allerdings den Eindruck, dass die Zeit stehen geblieben ist. Da wird mit Hintergrundbetrachtungen, Prosa-Einleitungen oder einer ausführlichen Beschreibung des aussendenden Unternehmens angefangen. Und was die eigentliche Nachricht ist, das muss sich der Leser oft selbst zusammenreimen.

Dabei muss ich immer daran denken, was einer der ausbildenden Redakteure während meines Zeitschriften-Volontariats gesagt hat: Wenn eine Pressemitteilung hereinschneit und man nicht spätestens beim dritten Satz weiß, was die Nachricht ist – ab in die Tonne damit. Dieses Bedrohungsszenario habe ich heute noch jedes Mal vor Augen, wenn ich selbst eine Presseinfo schreibe.

menuseperator

Wäre ich Kulturphilosoph, würde ich an dieser Stelle vielleicht über Gesprächskultur philosophieren. Ich würde mich zum Beispiel darüber auslassen, ob sie in der Ära von Web und Facebook gelitten haben könnte. Und wie viel. Dabei wäre natürlich an Sokrates zu erinnern, den Urvater der Gesprächskultur. Und an Habermas, herrschaftsfreier Diskurs und so Sachen.

Alles viel zu kompliziert. Ich versuche es lieber mit einem Beispiel aus dem wirklichen Leben. Ich greife mitten hinein in ein Kundengespräch:

A: "Wir sind der Ansicht, dass es wichtig ist, die Wiese grün darzustellen, das kommt der Realität am nächsten. Also weitgehend."
B: "Sehr richtig, ich bin genau Ihrer Meinung. Das ist für uns zentral. Auch unsere Kunden erwarten, dass die Wiesen blau sind."
A: "Nun, wir dachten, eher an etwas Grünliches …"
B. "Da sind wir ganz auf einer Linie, ein schönes, sattes Blau. Sonst wirkt eine Wiese ja nicht. Wiesenblau eben." 
A: "Aber … wäre Grün vielleicht nicht doch … mehr optimal?"
B: "Absolut, ich sehe das genauso."

Also, das ist echt nicht die Schuld von Facebook und Konsorten. Oder doch? Wir sollten mal darüber sprechen. 

menuseperator

Knapp zwei Drittel aller deutschen Haushalte nutzen heutzutage Mobile PCs (Notebooks und Tablets), 31 Millionen Deutsche haben bereits ein Smartphone. Wirft man einen separaten Blick auf zukünftige Nachwuchskräfte ist der Anteil noch einmal höher, wie eine Umfrage des ERP-Anbieters IFS zeigt. Demnach nutzen knapp 92 Prozent der Befragten ein Smartphone, 76 Prozent ein Notebook und immerhin 33 Prozent ein Tablet.

Aber nicht nur die private Nutzung mobiler Endgeräte ist entscheidend. Für die nächste Generation von Arbeitskräften wird die Nutzung von Mobilgeräten im Beruf selbstverständlich werden. Bereits heute danach gefragt, antwortet die Mehrheit, Mobile Devices später auch beruflich nutzen zu wollen.

Diese Einstellung wird auch für die Unternehmen Folgen haben, denn sie müssen nicht nur ihre Ausstattung, sondern auch die Arbeitsweise und -prozesse anpassen, um den Ansprüchen ihrer zukünftigen Angestellten gerecht zu werden. Flexibles Arbeiten und neue Arbeitszeitmodelle sind nur zwei Aspekte. Ein anderer Punkt betrifft die Anbieter von Unternehmenssoftware, die Lösungen und Produkte für eben diese Generation und die verstärkte Arbeitsweise mit mobilen Endgeräten liefern müssen.

Mobile IT-Lösungen müssen entwickelt beziehungsweise weiterentwickelt werden. Dazu gehört auch eine vereinfachte Bedienung und Ansicht, die den Bildschirmgrößen und Systemanforderungen der mobilen Geräte gerecht werden. Überladene Oberflächen werden daher wohl auch bald der Vergangenheit angehören, denn die „Generation Smartphone“ möchte ihr zukünftiges „Arbeitsgerät“ inklusive aller Anwendungen genauso so einfach und intuitiv bedienen können, wie private Geräte und Apps. Dabei sind aber nicht nur Standardanwendungen wie E-Mail, Kalender und Reiseplanung gemeint, die bereits heute den Bedürfnissen der Smartphone- und Tabletnutzer entsprechen. Auch Unternehmenssoftware (beispielsweise CRM-, ERP- oder BPM-Anwendungen) muss dem gerecht werden und entsprechend „vereinfacht“ dargestellt werden sowie für den Gebrauch von unterwegs ausgelegt sein.

Im Süden Deutschlands, genauer gesagt in der Region um Darmstadt, Karlsruhe, Kaiserslautern, Saarbrücken und Walldorf, forschen und arbeiten verschiedene Unternehmen, Forschungseinrichtungen und Universitäten übrigens bereits an der Unternehmenssoftware der Zukunft – im Rahmen des so genannten Software-Cluster. Hier wird unter anderem zu den Themen Interoperabilität, Adaptivität, IT-Sicherheit und Prozessinnovation geforscht, mit dem Ziel Standards für die zukünftige Unternehmenssoftware zu schaffen. Natürlich spielt das Thema Mobile Computing hier ebenfalls eine Rolle. Aber nicht nur aus der Cluster-Region, sondern auch von den IT-Anbietern selbst, werden sicherlich bald einige neue Impulse zu diesem Thema kommen (müssen).

menuseperator

In ihren Nachberichten haben zahlreiche Medien die Jubelnachricht der Deutschen Messe AG übernommen und den "voll gelungenen" Neustart der CeBIT ziemlich einheitlich skizziert, nachzulesen hier, hier, hier oder auch hier. Ist das so?

Wenn man die reinen Fakten betrachtet: Zu ihrer besten Zeit kamen auf die CeBIT über 830.000 Besucher – jetzt war es gerade mal ein Viertel. Die neue Ausrichtung in diesem Jahr: 100 Prozent Business. Mehr Klasse, weniger Masse. Der „Familiensamstag“ wird vom „Businessmontag“ abgelöst. Die Eintrittspreise liegen mit 60 Euro für die Tageskarte extrem hoch, so sollen Privatanwender abgeschreckt und Geschäftskunden angesprochen werden. Und, hat sich das gelohnt? Offenbar ja – laut Messegesellschaft: „Das Business-Konzept greift. Die optimale Struktur für die weitere Entwicklung der Messe sei gefunden.“

Nun ja. Der Businessmontag glänzte eher mit der Abwesenheit der Besucher. Sowohl Aussteller als auch Journalisten, mit denen ich gesprochen habe, waren entsetzt: „enttäuschend leer“, „kaum was los“, „erschreckend“. Wenn man über die Messe schlenderte, fielen einem sofort die abgehängten Scheiben der Halle 11 auf – das war ziemlich deprimierend. Wieder waren große Firmen wie Rittal abwesend, die ansonsten seit Jahren mit großem Stand vertreten waren. Viele Journalisten kamen dieses Jahr gar nicht auf die Messe, da der reine B2B-Fokus für sie nicht mehr interessant war. Vorbei sind auch die Zeiten, an denen Journalisten alle Tage auf der Messe vertreten waren, nun sind zwei oder drei Tage das höchste der Gefühle. Auch kann man sich des  Eindrucks nicht erwehren, dass die CeBIT immer mehr zu einer europäischen Veranstaltung mit deutschem Fokus mutiert – sowohl was die Besucher als auch die Aussteller angeht. Viele amerikanische Unternehmen (darunter auch viele Marktgrößen) sind, wenn überhaupt, nur noch mit Partnerstand vertreten. „Gemischtwarenmesse“ war der Ausdruck eines Ausstellers, der seit Jahren auf der CeBIT ist und ernsthaft überlegt, ob er auch nächstes Jahr wieder dabei ist. Zu unterschiedliche Themen, zu unterschiedliche Mottos – interessanter sind da mittlerweile Messen mit spezialisiertem Fokus, da ist der Kosten-Nutzen-Faktor einfach höher.

Ob die Neupositionierung der CeBIT letzten Endes geglückt ist, werden wohl erst die nächsten Jahre zeigen. Ein Neuanfang war auf jeden Fall nicht das Schlechteste, was man angesichts der Entwicklung der letzten Jahre machen konnte. Vielleicht muss man sich einfach nicht nur auf dem Papier, sondern auch gedanklich von der alten CeBIT verabschieden und sie einfach als das sehen, was sie momentan ist: eine ehemalige Weltmesse, die sich gerade neu (er)findet. Kreative, frische Impulse sind da: das haben die vielen Start-Ups in der Code_n-Halle 16 gezeigt. Davon braucht es mehr! Hoffen wir, dass sich diese finden und der Neustart wirklich gelingt – denn ich fahre gerne zur CeBIT.

Tags: 
menuseperator

Seit ihrer Gründung 1998 stand die Internet Corporation for Assigned Names and Numbers (ICANN), die für die Vergabe und Koordination internationaler Top-Level-Domains wie .com, .biz oder .mobi zuständig ist, unter der Aufsicht des US-Handelsministeriums.

Mehrfach wurde bereits eine Neuregelung der Verantwortlichkeit gefordert, etwa im Jahr 2012 von Russland und China. Oder vor Kurzem auch von der EU-Kommission. Jetzt endlich kommt auch die US-Regierung dieser Forderung nach. Das gab das US-Handelsministerium am Freitag bekannt. Die Aufsicht soll künftig in die Hände der „Global Multistakeholder Community“ gegeben werden. Ein Schritt in die richtige Richtung. Denn einzusehen ist es nicht, dass gerade die USA in Zeiten des NSA-Skandals die Oberaufsicht über die Internet-Verwaltung ICANN führen. Vielleicht ist das auch ein kleiner Hoffnungsschimmer, dass die USA nicht gänzlich resistent gegen internationalen Druck sind.

menuseperator

Dass das Internet auch seine „bösen“ Seiten hat, wissen wir nicht erst seit dem NSA-Skandal. Immer wieder werden daher Maßnahmen diskutiert, wie Bürger in Bezug auf den Umgang mit persönlichen Daten sensibilisiert werden, wie der Internetkriminalität Einhalt geboten und der Datenschnüffelei durch (politische) Maßnahmen Grenzen gesetzt werden können.

Doch dass die grundlegenden Wirkungsmechanismen des Internets prinzipiell hinterfragt werden, ist eher selten festzustellen. Einer, der diesen Schritt gegangen ist, ist Jaron Lanier – und Lanier ist eine Persönlichkeit, der Gehör geschenkt wird. Schließlich ist er nicht nur eine der schillerndsten Figuren des Silicon Valley, sondern nebenbei auch einer der Mitentwickler des Internets. Im Zusammenhang mit seinem neuen Buch „Wem gehört die Zukunft“ (Hoffmann & Campe) sprach er mit der ZEIT (Ausgabe 8/14) und äußerte unbequeme, futuristische und in jedem Fall interessante Ansichten. Drei Beispiele, die es aufzugreifen lohnt:

  • „Das größte Problem für unsere Gesellschaft sind nicht die Daten selbst, das größte Problem sind die Arbeitsplätze, die durch die technische Revolution wegrationalisiert werden.“ Lanier argumentiert, dass wir durch 3D-Drucker und die Hochtechnisierung in den Betrieben in ein Zeitalter der Hyperarbeitslosigkeit eintreten. Er zieht dabei einen interessanten Unternehmensvergleich: Kodak bot einst über 100.000 Menschen Arbeit, Instagram hatte bei der Übernahme durch Facebook 13 Angestellte. Gleiches passiere in der Musikindustrie, im Journalismus und auf dem Buchmarkt. Lanier konstatiert: „So, wie sich die Digitalisierung bisher entwickelt hat, zerstört sie die Mittelschicht unserer Gesellschaft.“
     
  • „Niemand profitiert wirklich davon, dass im Netz Inhalte leichter und länger zugänglich sind. Daraus müssen wir jetzt lernen.“ Lanier plädiert für ein weltweites Mikrobezahlsystem, von dem jeder Nutzer profitiert, der Content liefert – und nicht nur Facebook, Google, Twitter & Co. Er illustriert dies anhand der Übersetzungsfunktion von Google: Google suche bei einer Anfrage im gesamten Netz nach ähnlichen Sätzen und baut so eine neue Übersetzung zusammen. Dies basiert also auf der Arbeit anderer Personen. Diese müssten dafür Geld bekommen. Doch wer profitiert? Ausschließlich Google.
     
  • Fatal ist Laniers Aussicht für Demokratien in Zeiten des Internets. Lanier: „Sie können komplett ausgehöhlt werden.“ Der Informatiker beschreibt die Entwicklung im Wahlkampf in den USA. Dort nutzen die großen Parteien umfassende Datenanalysen, um den einzelnen Wähler mit der perfekt zugeschnittenen Botschaft direkt anzusprechen. Er spricht von einem Wettbewerb von riesigen Computern und nicht mehr zwischen Ideen, Kandidaten oder Programmen. Zudem argumentiert Lanier mit Blick auf das Beispiel Ägypten, Social Media verfestigten das Ungleichgewicht in der Welt. „Im selben Moment, indem ein Revolutionär über die Revolution twittert, nutzen die Geheimdienste die Daten, um gegen die Revolution vorzugehen. Und dieses Verhältnis zieht sich durch das ganze Netz, im militärischen wie im ökonomischen Bereich finden wir dieselbe Logik.“

Laniers Ansichten sind radikal und sicher gilt: Wenn es um die Vermarktung eines Buches geht, werden manche Gedankengänge bewusst zugespitzt und provokant formuliert, um Aufmerksamkeit zu generieren. Man kann ihm Naivität vorwerfen – oder wie bitte soll ein weltweites Mikrobezahlsystem organisiert werden? Oder die Ignoranz von Tatsachen, die seiner Argumentation entgegenstehen – ohne Soziale Medien wäre der Umschwung in Ägypten vielleicht gar nicht erst möglich gewesen, was immer die Geschichte auch für die Zukunft des Landes vorsieht. Mit Sicherheit jedoch sind seine Ansätze im Grundsatz intelligent, in Teilen revolutionär und in jedem Falle nachdenkenswert. Angesichts der (zunehmenden) Bedeutung des Internets für unser aller Leben, lohnt es sich jedenfalls, Dinge auch prinzipiell in Frage zu stellen und den Status Quo nicht einfach fraglos hinzunehmen. Oder kurz gefasst: Wir brauchen mehr Jaron Lanier!

menuseperator

Sitze an einer klassischen Abschlussmeldung. Das mir bis dato unbekannte Unternehmen X führt die Software unseres Kunden Y ein. Klar, dass dabei auch das Unternehmen X kurz beschrieben werden muss. Sollte aber in Zeiten von Internet-Recherche keine große Sache sein. Einfach mal schnell auf der Firmen-Webseite vorbeigeschaut, und schon ist der Fall erledigt. 

Doch Pfeifendeckel! Auf der Startseite erfährt man, dass das Unternehmen äußerst innovativ ist, den Kunden absolut in den Mittelpunkt stellt, faire Partnerschaften pflegt und Wert auf hohe Qualität legt. Ah ja. Nur das Wesentliche, nämlich was das Unternehmen eigentlich macht – das erfährt man nicht. 

Also gut, klicken wir uns halt durch die Menüpunkte. „Über uns“ klingt doch sehr vielversprechend. Leider findet sich hier aber auch nur das Gleiche wie schon auf der Startseite – wenn auch zugegebenermaßen noch leidenschaftlicher ausformuliert. Dann eben nächster Menüpunkt: „Lösungen“. Hier sind Produkte mit kryptischen Namen aufgelistet, die dann mit jeder Menge technischer Details beschrieben werden. Nicht uninteressant, aber was haben sie gemeinsam? Für welchen Kundenkreis sind sie? Welcher Branche oder Unterbranche sind sie zuzuordnen? 

Als ich schon aufgeben will, sehe ich am Ende der Menüleiste den Punkt „Presse“. Hurra! Hier gibt es sicher Presseinfos mit einer Boilerplate am Ende, die kurz und knapp die Tätigkeit des Unternehmens auf den Punkt bringt. Aber auch wieder zu früh gefreut. Außer irgendwas mit Innovation, Tradition und natürlich Qualität ist hier nichts zu holen.

Und das ist – Achtung! – leider kein Einzelfall. Warum geben sich so viele Unternehmen soviel Mühe, die Leute über ihre Tätigkeit im Dunkeln tappen zu lassen? Warum ist es so schwer, einfach mal klipp und klar hinzuschreiben, was man tut? Warum muss man es den Lesern so schwer machen? Ist das die typisch deutsche Krankheit, ständig einfach mit primitiv zu verwechseln?
Ganz ehrlich: Ich habe keine Ahnung.

menuseperator

In ihrem Beitrag „Mind the Gap“ der aktuellen Ausgabe des Manager Magazin (3/2014, Seite 82 ff.) wird Eva Müller zum Thema „Digitale Infrastruktur“ deutlich und fasst ernüchternd zusammen:

Verglichen mit Asien ist Deutschlands Internet so schlecht und rückständig, dass es allmählich zu einer echten Gefahr für den Standort wird.

Sie bezieht sich dabei auch auf Zahlen des „State of the Internet“ Report zum dritten Quartal 2013 unseres Kunden Akamai.

Auch wir haben in einem Video-Statement vor ein paar Wochen ähnlich resümiert:

Liebe Frau Müller, danke für diese klaren Worte. Wir sehen das genauso.

menuseperator

Anbietern proprietärer Systeme stehen stürmische Zeiten ins Haus. Open Source ist angetreten, eine der letzten Bastionen zu erobern, nämlich die IT-Systeme von Netzbetreibern. Auch dazu gab es übrigens wichtige Ankündigungen auf dem Mobile World Congress Ende Februar in Barcelona, etwa von Dell und von Alcatel-Lucent. Aber der Reihe nach: Ob Breitbandzugang, Fest- oder Mobilnetz, bislang besteht die große Mehrzahl der Netzelemente für Sprach- und Datendienste aus proprietärer Hardware und nahtlos damit verzahnter Software. Implementierung und Betrieb sind teuer und zeitraubend. Bei Network Functions Virtualization (NFV) hingegen, über das unter anderem Alcatel-Lucent, Dell und Red Hat in Barcelona sprachen, geht es um die Abkehr von dedizierter Hardware und die Umsetzung von Netzfunktionen in Software. Das Ganze läuft auf handelsüblichen x86-Servern unter Linux.

Wichtige Anregungen zu NFV kommen übrigens aus dem Open-Source-Projekt Open Daylight. Da ist der Name Programm. Mitglieder sind Netzwerkausrüster wie Juniper Networks und Huawei, aber auch Dell, Red Hat, Intel und einige andere. Alle Komponenten der Open-Daylight-Software stehen unter Open-Source-Lizenzen.

In der Finanzindustrie hat sich Linux bereits etabliert und für frischen Wind gesorgt. Als nächstes folgt die TK-Branche. Es gibt also genügend Gründe dafür, dass auch Unternehmen sich endlich von ihren Altlasten in den Rechenzentren befreien. Proprietären Systemen bleiben allenfalls Nischen, in allen anderen Bereichen wird Open Source für Innovationen sorgen.

menuseperator

Gerade schließt der Mobile World Congress in Barcelona wieder seine Tore und nicht wenige bleiben etwas ratlos zurück angesichts der zahlreichen Vorstellungen neuer Tablet-PCs, Smartphones und neuerdings auch Wearables, die in den vergangenen Tagen wie ein Platzregen auf uns niedergingen. Die vielen Presseberichte spiegeln vor allem eines wider: „Mobil“ ist der wegweisende Trend und wird für Anwender immer wichtiger. Das belegt auch eine aktuelle Studie des Branchenverbands BITKOM, nach der sich die Tablet-Nutzung bereits bei knapp einem Viertel der Deutschen ab 14 Jahren durchgesetzt hat – eine Verdopplung im Vergleich zum Vorjahr.

Der Trend betrifft nicht nur den Consumer-Markt, sondern hat auch im Unternehmensumfeld deutliche Spuren hinterlassen. Zugegeben, die Tatsache, dass der Mensch des 21. Jahrhunderts bei der Arbeit immer mehr Wert auf Mobilität und Flexibilität legt, ist nicht neu. „Bring your own device“ oder kurz BYOD ist hier das große Schlagwort und wird bereits seit einigen Jahren gründlich und ausführlich in der Fachwelt diskutiert. Die Gründe für die Tendenz dürften hinlänglich bekannt sein. Der Siegeszug von Smartphones und Tablets sorgte nicht nur für eine immer größere Bereitschaft der Nutzer always on zu sein, sondern brachte auch mit sich, dass die schicken Geräte vermehrt auch für berufliche Zwecke genutzt wurden, bis sie von ihren Benutzern schließlich als vollwertige Arbeitsmittel angesehen wurden, mit denen sich überall und zu jeder Zeit mehr oder weniger dringliche Aufgaben erledigen lassen.

Gleichzeitig sorgte der Trend auch für ein stärkeres Bewusstsein für den Faktor „Design“ bei Arbeitsgeräten. Bei IT-Produkten ist heutzutage nicht mehr allein eine möglichst hohe Leistungsfähigkeit gefragt, sondern die Geräte müssen vor allem auch den ästhetischen Ansprüchen ihrer Nutzer gerecht werden. Für ein ansprechendes Tablet- oder Notebook-Design sind Kunden sogar bereit, auch mal den ein oder anderen Euro zusätzlich auszugeben.

Die meisten Hersteller trugen diesen neuen Anforderungen ihrer Kunden lange Zeit Rechnung, indem sie sich lediglich darauf konzentrierten, ursprünglich für Consumer konzipierte Geräte auch für den Business-Einsatz zu optimieren – beispielsweise indem sie mit mehr Leistung, einer besseren Grafik und größerem Speicher ausgestattet wurden. Die eigentlichen Business-Linien blieben oft unangetastet. Zum Glück scheint nun aber ein Umdenken stattzufinden und etwas mehr Mut in die Design-Labs einzukehren, denn das Angebot für Geschäftskunden wird immer vielfältiger.

Besonders erfreulich ist, dass sich die Öffnung offenbar in zwei Richtungen vollzieht. Einerseits gewinnen ausgewiesene Business-Geräte immer mehr an Boden in stark designorientierten Produktkategorien wie Tablets und Convertibles. Auf der anderen Seite erfahren viele „klassische“ Business-Produkte wie zum Beispiel mobile Workstations ein komplettes Redesign und sind rein äußerlich teils nicht mehr von stylischen Ultrabooks zu unterscheiden.

Die Befürchtung der Hersteller, Geschäftskunden könnten sich von etablierten Produktreihen abwenden, weicht dem Bewusstsein, dass die Schale eines Notebooks oder Desktop-PCs heute ebenso viel Gewicht besitzt wie dessen Innenleben. Dass diese Erkenntnis angekommen zu sein scheint, wurde in Barcelona einmal mehr eindrucksvoll gezeigt.

menuseperator

Als die CeBIT im vergangenen Jahr nach „Shareconomy“ als Top-Thema für die CeBIT 2014 „Datability“ angekündigt hat, schien es erst mal, als wäre ein Trend geboren. Zumindest was kreative Wortschöpfungen anbelangt.

Denn auch das diesjährige Motto, das sich aus dem Markttrend Big Data sowie den Möglichkeiten seiner nachhaltigen und verantwortungsvollen Nutzung (Englisch: ability, sustainability, responsibility) zusammensetzt, will sinnstiftend sein und meint: „Die Fähigkeit, große Datenmengen in hoher Geschwindigkeit verantwortungsvoll und nachhaltig zu nutzen.“ So definieren es die Macher der CeBIT. Meint übersetzt, Big Data erleichtert das Leben – wenn man sinnvoll damit umgeht.

Die Peta- und Exabyte der heute in Unternehmen generierten Daten wollen, ja müssen schließlich strukturiert werden um daraus verwertbare Ergebnisse zu ziehen und letztlich die richtigen Informationen zur richtigen Zeit am richtigen Ort bereitzustellen. Egal ob es um Bild- und Videodaten, Analysedaten geschäftskritischer Anwendungen in Unternehmen und Forschung oder schlicht um das Datenvolumen aus Kommunikation und Social Media geht – Data Tiering ist das Schlüsselwort: Schließlich geht es um nichts geringeres als den Unternehmenserfolg. Bei Begriffen wie Business Intelligence, Business Analytics, Data Warehouse und Data Mining bekommt so mancher Unternehmenslenker schon mal glänzende Augen.

Strukturanalyse und Verfügbarkeit von Daten sind aber nur die eine Seite der Medaille, Datensicherheit und Zugriffskontrolle die andere. Welche Büchse der Pandora sich hier auftut, weiß seit Edward Snowden auch die breite Öffentlichkeit.

Gerade deshalb macht es Sinn, dass die Industrie den Stier bei den Hörnern packt und dem sinnvollen und sicheren Umgang mit Daten hohe Priorität einräumt. Als Motto der kommenden CeBIT haben die Verantwortlichen damit also ein gutes Näschen bewiesen. Wollen wir hoffen, dass es nicht bei Lippenbekenntnissen bleibt.

Die GfdS (Gesellschaft für deutsche Sprache) wird sich auf jeden Fall freuen, dass dem Nachschub an Wortschöpfungen auch 2014 keine Grenzen gesetzt sind und sich die Anwärter für das „Wort des Jahres 2014“ schon mal in Startposition bringen.

In diesem Sinne, eine erfolgreiche CeBIT 2014!

menuseperator

Seiten