Blog

Ich sitze staunend vor meinem Rechner und schaue mir die Unmengen an bunten „Kometstreifen“ an, die quer über die Weltkarte rasen. Habe ich mich in der Webseite geirrt? Sehe ich gerade den für die nächsten Tage zu erwartenden Meteroitenschwarm der Perseiden oder doch die Darstellung der gerade stattfindenden Cyberattacken? Unter http://map.ipviking.com dokumentiert Norse das Ausmaß der Angriffe auf Kommunikationsnetze in Echtzeit. Mit Abstand die meisten Attacken kommen gerade aus China und treffen die USA. Und interessant: Die Niederländer sind heute bei den Ländern, aus denen die Angriffe gestartet werden, auf Platz drei. Vielleicht wollen sie mit allen Mitteln in Erfahrung bringen, wie man endlich im Fußball Erfolg hat bzw. Weltmeister wird...

menuseperator

Das Internet der Dinge (Internet of Things) – ein weiteres Schlagwort, ein weiterer Hype, der einem momentan in der Medienlandschaft oft begegnet, neben der allgegenwärtigen Cloud natürlich. Dabei ist der Terminus an sich nicht mehr neu: Bereits 1999 wurde der Begriff erstmals verwendet, und zwar von Kevin Ashton, dem Mitbegründer und damaligen Leiter des Auto-ID Center am Massachusetts Institute of Technology (MIT).

Doch wie so viele neue Technologien steckt auch das „Internet der Dinge“ noch voller Sicherheitslücken, wie eine aktuelle Studie von HP zeigt. Im Rahmen der Studie wurden zehn der beliebtesten Geräte getestet, unter anderem Webcams, Thermostate, Sprinkleranlagen-Controller, Türschlösser, Garagentüröffner und Hausalarmanlagen.

Wer bisher dachte, Garagentüröffner wären harmlos, wird hier eines Besseren belehrt: Im Schnitt hatte jedes Gerät 25 Schwachstellen, so dass bei der Studie insgesamt 250 Sicherheitslücken in den getesteten Geräten zum Vorschein kamen. Die häufigsten Lücken betreffen den Datenschutz, eine unzureichende Berechtigung und Verschlüsselung, unsichere Web-Schnittstellen und einen mangelhaften Schutz durch Software.

Gartner prognostiziert, dass bis zum Jahr 2020 26 Milliarden Geräte mit Bluetooth, WLAN und Co. ausgestattet sein sollen. Bis dahin gibt es für die Anbieter vernetzter Geräte wohl noch viel zu tun.

menuseperator

Zum Stichwort Big Data heute ein aktuelles Beispiel aus der Automobilbranche:

Ab 2015 sollen sämtliche Neuwagen in Europa mit dem Notfallsystem eCall ausgestattet werden, das im Falle eines Crashs per Mobilfunkverbindung automatisch Hilfe anfordert. Angesichts von jährlich 28.000 Toten auf europäischen Straßen eine einleuchtende Sache. Und zudem weitreichender als es auf den ersten Blick erscheinen mag: Denn der Einbau erfordert Technologie-Schnittstellen, beispielsweise zu LTE- und GPS-Systemen, die dann auch von anderen Connected-Car-Produkten, wie etwa vernetzten Sicherheitsfeatures und Fahrsicherheitskomponenten, genutzt werden können. Mit diesen eröffnet sich derzeit ein Milliardenmarkt - geschätztes jährliches Umsatzvolumen weltweit bis 2020 allein im Pkw-Segment rund 110 Milliarden Euro.

Datenschützer schlagen Alarm: Sie fürchten, dass mangelnde Datenschutzbestimmungen dem ungehemmten und unkontrollierten Datenverkehr auf europäischen Straßen sämtliche Bodenwellen ebnen. Autohersteller, Versicherungen und der ADAC streiten sich schon jetzt um die erhobenen Fahrerdaten. Es geht um lukrative Service- und Reparaturgeschäfte, Versicherungstarife, die sich am Fahrverhalten orientieren, Mahngelder für Raser, die aus Fernbeobachtungen resultieren und andere Anwendungsszenarien. Volker Lüdemann, Professor für Wirtschaftsrecht an der Hochschule Osnabrück, ist besorgt: „Hier wird unter dem Deckmantel der Lebensrettung die Grundlage für den gläsernen Autofahrer geschaffen – und zwar verpflichtend für alle Neuwagen.“ (ZEIT online, http://www.zeit.de/2014/29/datenschutz-unfallmelder-ueberwachung) Läuft es nun also Meter um Meter auf ein bereiftes Smart Device hinaus? „Natürlich hätte man das datenschutzrechtlich auch anders gestalten können“, so Lüdemann. „Dann wäre die korrekte Nutzung der Daten aber sehr kompliziert geworden – und wesentlich uninteressanter für die Wirtschaft.“

Wir sind gespannt, wie sich die Diskussion auf dem Informationsmarkt weiter entwickelt: Der gläserne Autofahrer – Sicherheit vs. Freiheit? Oder sollte es besser heißen: Milliardenmarkt contra Datenschutz?

menuseperator

Heute geht es um ein strategisches IT-Thema: um Toner. Ich weiß, Verbrauchsmaterialien gelten als Paradebeispiel für etwas völlig Unstrategisches. Was aber ein Vorurteil ist, denn für Unternehmen, die mit der Herstellung und/oder dem Vertrieb von Tonern befasst sind, ist dieses Thema so strategisch, es könnte gar nicht strategischer sein. Diese Unternehmen werfen daher ihre ganze Innovationskraft auf … na ja, auf Toner eben. Und da genügt es heute natürlich nicht, einfach bloß geile Tonerkartuschen herzustellen, man muss sie schon auch gut verkaufen, draußen in einer Welt, in der Toner als Paradebeispiel für langweiliges Zeug herhalten muss.

Also sind Marketing-Innovationen gefragt und dazu gehört heute unbedingt Social Media. Nun ist Social Media manchmal eine schwierige Sache. Man kann nicht einfach ein Budget aufsetzen, verpulvern und gut ist's. Die Community muss auch noch mitspielen und die hat ihre eigenen Regeln, und wenn sie zum Beispiel einfach keinen Bock auf Toner hat, dann nutzen die lustigsten Tweets nichts. Innovatives Social-Media-Marketing besteht darin, hier ein wenig nachzuhelfen.

Und damit komme ich zu einem ganz persönlichen Einkaufserlebnis: Vor kurzem hatte ich mal wieder Lust, Toner zu kaufen, und weil ich nicht sicher war, welcher der optimalste ist, hab' ich mich im Web informiert. Genau dafür gibt es schließlich die Sozialen Netze, in diesem Fall Amazon und seine riesige Community von Produktbewertern. Ohne vorherige Rückkopplung mit diesen Bewertungen kaufe ich seit Jahren schon kein Taschenbuch, keine Waschmaschine und keinen Toner mehr. Ein Blick in die aktuellen Bewertungen relevanter Toner-Anbieter zeigte dann auch rasch: Der Toner von Hainberger ist top – über 200 Bewertungen, davon rund 180 mit fünf Sternen. Eine Heerschar begeisterter Toner-Kunden. Der muss es sein! Bestellt, geliefert, ruck zuck.

Im Karton fand ich neben der Tonerkartusche auch noch dieses Schriftstück (Hervorhebungen von mir):

Ziemlich innovativ, das lässt sich nicht bestreiten: Hainberger belohnt positive Bewertungen mit einem Gratis-Toner. Oder müsste man sagen … kauft sich positive Bewertungen? Kein Wunder, dass dieser Toner rund viermal so oft bewertet wird wie andere. Die Aussicht auf einen Gratis-Toner mag da bei einigen Kunden Motivation sein, um das Produkt zu bewerten und um es besser zu bewerten, denn für schlechte Bewertungen gibt es nichts umsonst, daran lässt das Hainberger-Marketing keinen Zweifel. Klar, wer den Hainberger-Toner für kompletten Mist hält, der will auch keinen Gratis-Mist dazu. Aber all die anderen? Geschenkter Gaul halt.

Dass sich in allen Bewertungsportalen Leute herumtreiben, die die eigenen Produkte und Leistungen in den Himmel loben, daran hat man sich ja schon gewöhnen müssen. Man weiß als Bewertungs-Powernutzer: Einige Bewertungen sind immer dabei, denen man nicht trauen kann, weil dahinter Mitarbeiter des betreffenden Unternehmens stecken. Aber das ist notwendigerweise auf wenige Stimmen beschränkt. Doch nun sollen ja die Kunden auf breiter Front nicht durch Leistung, sondern durch Incentives zu Abgabe von Urteilen veranlasst werden. Amazon scheint dagegen nichts zu haben, denn offenbar läuft die Hainberger-Aktion schon länger. Ein Bewertungssystem ist damit natürlich weitgehend ausgehebelt.

Ich hätte vor der Bestellung natürlich die negativen Bewertungen meines Toners genauer anschauen müssen: Einige verärgerte Kunden vergeben extra nur einen Stern, um diese Marketing-Aktion abzustrafen:

… allein für diese Gratistoner-Masche gebe ich nun nur einen Stern, damit andere Kunden gewarnt werden, dass sie die vielen positiven Rezensionen genauer unter die Lupe nehmen.

Was aber auch keine Lösung ist, denn über Qualität und Funktionalität des Toners weiß man damit natürlich wieder nichts. Außer dass man vorsichtig sein muss. Aber dafür braucht man wirklich kein Bewertungssystem. Und kein Social Media. Und kein Amazon. Wem kann man denn jetzt noch trauen?

Kein Zweifel: Das Bewertungswesen im Web, ach was, das ganze Web steht am Scheideweg – dabei hab' ich doch nur ein wenig Toner gebraucht. 

menuseperator

Das Thema „Virtualisierung“ - und ganz speziell die Desktop-Virtualisierung - ist nun wirklich nicht mehr neu. Seit Jahren schon werden die besten Strategien und Lösungsansätze der Hersteller in der Fachpresse vorgestellt, diskutiert und analysiert. „Hier kann es doch bis auf weiteres nichts Bahnbrechendes zu berichten geben“, könnte man meinen.

Ganz falsch!

Es gab tatsächlich noch einen Bereich in der IT, in den die Virtualisierung bis vor kurzem noch nicht vordringen konnte, da die nötigen technologischen Voraussetzungen fehlten. Denn erst mit der Einführung der GRID-vGPU-Technologie Ende 2013 ist es möglich, gleichzeitig mehrere Nutzer von rechen- und grafikintensiven Applikationen von einer einzigen GPU in eine virtuelle Umgebung zu verlagern. Und nur damit keine Missverständnisse entstehen, wir sprechen hier tatsächlich von High-Performance-Anwendungen wie Videorendering oder CAD-Modell-Bearbeitung, für die bislang der Einsatz einer physischen Workstation unumgänglich war.

Anders gesagt: Die Hersteller betreten eine neue Stufe auf der Treppe des Fortschritts und können jetzt auch Workstation-Virtualisierung.

Das wird vor allem Anwender aus Branchen wie Ingenieurswesen, Konstruktion, Multimedia, Automotive oder auch Architektur freuen, um nur ein paar zu nennen. Sie mussten nämlich lange auf das verzichten, was für viele andere mittlerweile völlig normal ist: der Zugriff auf Arbeitsdaten und -projekte von quasi jedem Endgerät und beliebigem Ort aus. Das macht nicht nur vieles einfacher, sondern vor allem auch sicherer, da alle Daten auf einem virtuellen Desktop in einem geschützten Rechenzentrum liegen und nicht mehr auf dem Endgerät selbst.

Darüber hinaus bringt die Workstation-Virtualisierung natürlich noch weitere Vorteile mit sich. Wir haben Peter Beck, Systems Engineer Workstation bei unserem Kunden Dell und Experte auf diesem Gebiet, ein paar Fragen gestellt:

menuseperator

Stets auf dem neuesten Informationsstand zu sein, was den Status quo der extrem schnelllebigen und innovationsfreudigen IT-Branche angeht, ist schwierig. Dabei noch zwischen substanziellen Veränderungen des Marktgeschehens und Marketing-getriebenen, gehaltlosen Heraufbeschwörungen zu unterscheiden, ist noch schwieriger.

In diesem Zusammenhang muss auch die Frage nach der (vermeintlichen) Wirklichkeit rund um das Thema „Cloud Computing“ gestellt werden, begleitet uns die Wolke doch schon um einiges länger als andere (vermeintliche) IT-Trends. Oracle-Chef Larry Ellison sagte darauf bezogen noch 2008: „Die Computerindustrie ist die einzige Industrie, die noch stärker modegetrieben ist, als die Modeindustrie selbst. Vielleicht bin ich ein Idiot – ich habe keine Ahnung, worüber die Leute da reden. (...) Wann hört dieser Schwachsinn endlich auf.“ (Computerwoche 27/2014) Sechs Jahre später scheint dieses Statement wie aus der Zeit gefallen.

Die Fachleute sind sich in ihren Analysen zwar nicht völlig einig, was die Entwicklung der Cloud angeht und die Prognosen bleiben unscharf. Doch dass die Cloud grundsätzlich Bedeutung hat und weiter an Gewicht zunimmt, scheint unzweifelhaft. Mehr und mehr Unternehmen ersetzen lizenzierte Standardanwendungen durch Web-basierte SaaS-Lösungen, welche im Rahmen von Subskriptionsmodellen abgerechnet werden. Dazu kommt eine Entwicklung, wonach immer mehr Firmen vermeiden, ihre eigenen Rechenzentren aufzubauen, und stattdessen Rechenleistung aus dem Netz zuschalten. Forrester Research geht davon aus, dass der globale Cloud-Markt 2020 mit einem Volumen von 191 Milliarden rund ein Fünftel größer sein wird, als das Institut ursprünglich angenommen hatte. Und 2020 soll laut den Analysten bereits ein Viertel des weltweiten Applikationsgeschäfts auf das Konto von SaaS-Anwendungen gehen. Damit sei das Cloud Computing in eine Phase des Hyper-Wachstums eingetreten, so die Fachleute.

Nun mag es auch im Cloud Computing viel Marktgeschrei geben und unzweifelhaft werden auch hier Entwicklungen postuliert, die mit der Realität nur wenig gemein haben. Dass die Marketing-Abteilungen oft vorschnell Äußerungen treffen, welche die Produktentwickler nicht halten können oder die vom Markt nicht angenommen werden, soll ja nicht nur in der IT-Branche vorkommen. Zweifellos ist aber, dass das Cloud Computing kein Strohfeuer ist. Es wird weitere gewaltige Transformationen innerhalb der IT-Branche selbst geben, die ihre Business-Modelle hinterfragen muss. Und die deutsche Wirtschaft wird die IT völlig anders einzusetzen wissen und bestehende Paradigmen nach und nach über den Haufen werfen.

Und Larry Ellison wird es am Ende mit seiner Einschätzung vielleicht ähnlich gehen wie Bill Gates. Der bezeichnete das Internet einst als „Hype“, mit dem man nie Geld verdienen könne. So kann man sich täuschen. 

menuseperator

Auf Messen werden immer wieder Plagiate gefunden, die der heimischen Industrie zu schaffen machen. Besonders dreist ist es jedoch, wenn es bereits Plagiate von Neuentwicklungen gibt, die noch gar nicht offiziell vorgestellt worden sind. Das selektive Abgreifen von vertraulichen Daten ist ein lukrativer Trend in der Welt der Cyber-Attacken und dabei müssen es nicht immer die Mitarbeiter selbst sein, die diese Informationen nach außen geben. Die sogenannten Advanced Persistent Threats sind gezielte Hacker-Angriffe, die nicht mehr auf Masse aus sind, sondern zielgerichtet und sehr aufwendig gemacht sind.

Die aktuelle Ponemon-Umfrage „Roadblocks, Refresh and Raising the Human Security IQ“ zeigt, dass viele Sicherheitsverantwortliche in Firmen Advanced Persistent Threats und Daten-Exfiltration als größte Bedrohungen ansehen. Unternehmen stecken viel Geld in die IT-Sicherheit, für 2014 sollen sogar mehr Ausgaben geplant sein als im Vorjahr, so eine Umfrage von eco – Verband der deutschen Internetwirtschaft e.V. Da ist es doch verwunderlich, dass gemäß der Studie des Ponemon Institute erhebliche Mängel in der Kommunikation zwischen Sicherheitsverantwortlichen und Management herrschen. 31 Prozent der Befragten, die für den Bereich Cyber-Security zuständig sind, gaben an, nie mit dem Management über dieses Thema zu sprechen. 23 Prozent führten nur einmal im Jahr ein Gespräch und weitere 19 Prozent nur einmal im halben Jahr. Darüber hinaus haben nur 38 Prozent das Gefühl, dass ihre Unternehmen ausreichend in Personal und Technologien investieren, um Cyber-Security-Ziele zu erreichen. Immerhin gaben 49 Prozent an, in den nächsten zwölf Monaten Investitionen im Security-Umfeld zu tätigen. Die restliche Hälfte ist sich einig, dass erst in eine neue IT-Security-Lösung investiert werden würde, wenn ein Datendiebstahl-Vorfall zu beklagen wäre. Es bleibt nur zu hoffen, dass die Abteilungen vorher rechtzeitig miteinander sprechen, um größere Schäden zu vermeiden.

Zur Studie: Es wurden weltweit rund 5.000 Verantwortliche für IT-Sicherheit in 15 Ländern befragt, darunter England, Deutschland, Frankreich, Italien, die Niederlande, Schweden und die USA.

menuseperator

Der Mainframe feiert dieses Jahr seinen 50. Geburtstag. Ein wahrlich stolzes Alter, wenn man bedenkt, dass der IT-Dinosaurier eigentlich schon längst hätte ausgestorben sein sollen. Aber der Großrechner hält sich wacker und ist immer noch bei vielen Unternehmen im Einsatz. Denn in puncto Sicherheit, Stabilität und Performance ist er einfach nach wie vor unschlagbar.

Doch es gibt ein zentrales Problem: Die Fachkräfte fehlen.

Denn für junge Softwareentwickler gibt es in der Tat spannendere Projekte, als sich mit COBOL oder PL/1 zu beschäftigen. Und genau hier müssen die Unternehmen ansetzen. Sie müssen die neue mit der alten Welt verbinden und den Softwareentwicklern in diesem Umfeld die Tools und Entwicklungsumgebungen zur Verfügung stellen, die sie kennen. Und das egal auf welchem Endgerät.

Denn am Ende ist doch klar: Der Mainframe wird bleiben und die Unternehmen werden sich anpassen und vor allem überlegen müssen, wie sie den jungen Softwareentwicklern die Mainframes wieder schmackhaft machen können. Nicht nur die Fachkräfte müssen sich auf den Großrechner einstellen, sondern auch die Unternehmen auf die jungen Softwareentwickler.

Hierzu auch ein aktuelles Video unseres Kunden Micro Focus:

 

menuseperator

Über die Gewinnspannen bei Mobiltelefonen ist immer wieder spekuliert worden. Exorbitant sollen sie sein. Aber Genaues weiß man nicht. Geschäftsgeheimnis.

Aus Brasilien (ausgerechnet Brasilien!) kommt nun ein kleiner, sachdienlicher Hinweis dazu:

Neben den schlechten Geschäftszahlen ereilte Samsung auch noch eine schlechte Nachricht aus Brasilien. Dort erbeuteten Diebe bei einem aufsehenerregenden Überfall auf eine Fabrik Mobiltelefone und Computer im Wert von sechs Millionen Dollar. […]

Die Räuber sollen sich mehr als drei Stunden in der Samsung-Fabrik aufgehalten und elektronische Geräte gestohlen haben. Laut Polizei waren 20 Leute an dem Überfall beteiligt und sollen rund 40.000 Produkte mit sieben Lastwagen aus der Fabrik geschafft haben.

Während die Polizei zunächst von einem Schaden von rund 36 Millionen Dollar sprach, bezifferte Samsung selbst den Wert der gestohlenen Produkte auf sechs Millionen Dollar.

Die unterschiedlichen Beträge müssen kein Widerspruch sein, denn EK ≠ VK. 

menuseperator

Seit es Blogs gibt, sind sie auch ein Thema für die Unternehmenskommunikation. Klar, sie bringen dafür schließlich ideale Voraussetzungen mit: Hier kann ein Unternehmen sich und seine Sicht der Dinge ohne jegliche Restriktionen darstellen, während man sich bei Facebook, Twitter oder YouTube an die Gegebenheiten der jeweiligen Plattform halten muss und am Ende nicht weiß, ob einem ein eingestelltes Foto überhaupt noch gehört.

Im Blog ist man dagegen Herr im Haus. Hier hat ein Unternehmen die Möglichkeit, sich so zu präsentieren, wie es gesehen werden will. Hier besteht die Möglichkeit, seine Ansichten über eine beliebige Auswahl von Themen, seien es Technologien, Märkte, Hintergründe, Zusammenhänge, Mitbewerber, eigene oder fremde Aktivitäten, darzulegen.

Ohne Restriktionen heißt dabei, dass man weder auf die Themenplanung oder Interessen von Medien Rücksicht nehmen muss, dass man aber auch nicht mehr unter dem unmittelbaren Diktat des Vertriebs steht, der mit jeder Aktivität ein direkt messbares Umsatzplus erreichen oder zumindest Leads generieren muss. Im Blog kann ein Unternehmen umsetzen, was Social Media verspricht: Dialog mit Kunden und Interessenten, Kommunikation in beide Richtungen.

Das war die Theorie, die bekanntlich grau ist. Wie dagegen die Praxis aussieht, zeigt eine Studie, die wir im Auftrag von uns selbst durchgeführt haben. Untersucht wurden dabei die Unternehmens-Blogs der 100 wichtigsten IT-Unternehmen in Deutschland. Die Ergebnisse waren – gelinde gesagt – ernüchternd, Näheres kann man hier nachlesen.

Lediglich 24 von 100 Unternehmen haben überhaupt Unternehmens-Blogs in deutscher Sprache, von denen – bei genauerem Hinsehen – nur sieben gehobenen Ansprüchen genügen konnten. Lob verdienten sich schließlich nur die Blogs von Datev und SAS.

Die Mängelliste der Übrigen ist lang: Bei den einen erscheinen Beiträge nur alle paar Wochen oder Monate, andere sind so gut auf den Websites versteckt, dass man meinen könnte, die betreffenden Unternehmen würden sich ihrer schämen. Wieder andere fallen durch Textwüsten oder konfuses Layout auf. Das verbreitetste Übel aber ist, dass viele Unternehmen ihren Blog für die Zweitverwertung von anderweitig erstellten Texten missbrauchen. Da werden dann Pressemitteilungen 1:1 wiedergegeben oder man stellt der Einfachheit halber gleich Marketing-Unterlagen ein.

Die Frage stellt sich: Wer will das lesen? Sollte ein Blog nicht etwas Anderes sein? Sollte er nicht inhaltliche Vielfalt bieten und persönlichen Stil? Angenehm und wenn möglich schnell zu lesen? Und war da nicht was mit Hintergründen und Zusammenhängen?

Wir haben uns, solcherart enttäuscht, natürlich gefragt, ob wir nicht falsche Erwartungen hatten. Aber wir sind nicht die Einzigen, die beim Lesen von Unternehmens-Blogs ein ungutes Gefühl haben. Wir zitieren hier ausnahmsweise etwas ausführlicher den Kollegen Nico Lumma, der Anfang des Jahres in seinem Blog "Lummaland" unter dem Titel "Die Sache mit den Unternehmensblogs" ein hartes Urteil fällte:

Die Realität sieht so aus, dass Unternehmensblogs strunzend langweilig sind. Sie sind genauso rundgeschliffen wie die Pressemitteilungen, was daran liegt, dass sie meistens aus derselben Abteilung kommen. […] Herauskommen Blogs, die vor lauter Langeweile nur so strotzen, die Jubelmeldungen schreiben, die langweiligste Blicke hinter die Kulissen bieten, ohne etwas zu verraten […]

Was ist aus der Idee geworden, den Blickwinkel des Nutzers einzunehmen? Will der Kunde wirklich noch mehr Infos haben, will der wirklich wissen, wie die zuständige Produktmanagerin aussieht und welche Hobbies sie hat? […] Deutsche Unternehmensblogs sind hingegen stiefkindlich betreute Resterampen für mäßig interessante Pressemeldungen. […]

Unternehmensblogs haben ein irres Potential, da Unternehmen mit Unternehmensblogs selber die Geschichten erzählen können, die sie erzählen wollen, ohne dafür Journalisten und andere Intermediäre zu benötigen. Unternehmensblogs können faszinieren, Unternehmensblogs können inspirieren, aber insbesondere deutsche Unternehmensblogs strotzen vor Langeweile.

Lumma kommt zu dem Schluss, Unternehmensblogs seien "eines der größten Irrtümer der Kommunikationsbranche der letzten 10 Jahre". Soweit würden wir nicht gehen – immerhin haben wir ja noch fünf brauchbare und zwei gute Blogs gefunden. Aber nachdem wir ein paar Dutzend Unternehmens-Blogs angeschaut haben, wissen wir schon, was Lumma meint – und was ihn zur einer etwas inflationären Verwendung des Worts "langweilig" veranlasst hat.

Dabei sind wir auf die Sache mit dem Dialog, dem eigentlich heiklen Punkt der Unternehmens-Blogs, noch gar nicht eingegangen. Auch dazu mehr in unserem Whitepaper.


Langeweile im Blog? Katzen-Content hilft immer. 

Interview mit unserem Geschäftsführer Alain Blaes zur PR-COM-Studie über B2B-Blogs deutscher ITK-Unternehmen:

 

menuseperator

Auf diesem Blog haben wir schon öfter eines der aktuellen IT-Trendthemen aufgegriffen: Big Data. Der Begriff steht – sehr vereinfacht gesagt –­ für die Sammlung, Strukturierung und Auswertung riesiger und hochkomplexer Datenmengen. Am Ende des Prozesses soll – wieder simplifiziert gesprochen – ein Erkenntnisgewinn stehen, aus dem sich Handlungen ableiten oder Strategien entwickeln lassen. Oftmals wird diese Datenanalyse eingesetzt, um genau ein Ziel zu erreichen: den Vorteil gegenüber der Konkurrenz. Egal, ob dies letztlich zur Absatzsteigerung von buntem Toilettenpapier oder zur Ausspähung ganzer Staatengebilde führt. Es geht um den Vorsprung vor den anderen, der nicht selten sogar entscheidend für den ganzen Unternehmenserfolg sein kann. Welches Potential strukturiert aufbereitete Daten haben, erkennen auch immer mehr deutsche Unternehmen. Fast die Hälfte der hierzulande ansässigen Firmen setzen bereits Big-Data-Lösungen ein oder haben dies zumindest ganz weit oben auf ihrer To-Do-Liste stehen.

Es gibt darüber hinaus aber auch andere, für die Allgemeinheit bedeutende Einsatzszenarien. Meine Kollegin Eva Kia-Wernard hat kürzlich ein paar Beispiele vorgestellt, wie Big-Data-Technologie zum Wohle der Menschheit eingesetzt werden kann.

Aus gegebenem Anlass wollen wir heute auf noch ein weiteres Anwendungsgebiet aufmerksam machen. Manch einer würde sogar sagen es handelt sich hierbei um das wichtigste Thema überhaupt: der Sport und hier vor allem König Fußball. Neben Training und körperlicher Kraftanstrengung spielt auch Big Data eine immer wichtigere Rolle im Leistungssport. Gesammelte Daten über Spielabläufe, Einzelspieler, Mannschaftsverhalten und vieles weitere mehr dienen als Grundlage für komplexe Analysen und können zur Darstellung von Zusammenhängen führen, über deren Existenz sich Trainer und Spieler bisher vielleicht noch nicht einmal bewusst waren. Auf diese Weise kann nicht nur die Konkurrenz noch besser unter die Lupe genommen werden, sondern auch die eigenen Stärken und Schwächen treten deutlicher hervor und können gewinnbringend für das Training eingesetzt werden.

Auch die deutsche Fußball-Nationalmannschaft bedient sich vermehrt der Möglichkeiten, die Big Data heutzutage bietet. Das erklärte der Manager der deutschen Nationalmannschaft, Oliver Bierhoff, auf der diesjährigen CeBIT. Mit Hilfe von speziellen Sensoren sollen die unterschiedlichsten Daten über die Spieler und deren Zusammenarbeit gesammelt und in Datenbanken einander gegenübergestellt werden, um so noch bessere Strategien und Taktiken erarbeiten zu können. Vorbei also die Zeit der Spickzettel vorm Elfmeterschießen? Wir werden es vielleicht schon in den kommenden Wochen sehen, wenn Jogis Jungs in Brasilien um die Weltmeisterschaft kämpfen. Doch wie auch immer dieses Turnier ausgeht, Big Data steht als ein Sieger schon heute fest.

menuseperator

Das Sammeln von Daten per se hat ja in jüngerer Zeit einen eher schlechten Ruf, auch wenn deren Analyse und Strukturierung heute zu den geschäftskritischen Aufgaben eines jeden Unternehmens zählen. Datenschutzpannen und die Affäre Snowden demonstrieren eindrucksvoll, welches Schindluder sich mit unrechtmäßig erschlichenen Daten treiben lässt.

Dennoch sei heute mal die Seite herausgestellt, die Forschung und Wissen voranbringt und – im besten Fall – sogar Leben retten kann.

Die Anwendungsfelder für komplexe Datenanalysen und -berechnungen sind so vielfältig wie die wissenschaftlichen Disziplinen, allen voran die Naturwissenschaften. Sei es die Auswertung meteorologischer Daten zur Wettervorhersage und Sturmwarnung, die Berechnung astronomischer Daten für die Satelliten-Steuerung oder Mars-Rover-Mission oder die Computersimulation molekularer Vorgänge in der Physik. Die Liste wissenschaftlicher Einsatzfelder lässt sich fast beliebig erweitern. Ein Beispiel für den Einsatz von High Performance Computing in der Medizin ist die Genom-Analyse, wie sie in Forschungszentren, an Universitäten oder in der Industrie betrieben wird.

So läuft zum Beispiel am Translational Genomics Research Institute (TGen) in Phoenix, Arizona, ein Genom-Analyse-Projekt mit Hilfe der Dell Genomic Data Analysis Platform. Das TGen befasst sich mit biomedizinischen Forschungen und klinischen Studien zu Neuroblastomen, einer besonders aggressiven Krebserkrankung bei Kindern, bei der Zeit ein entscheidendes Kriterium ist. Dank der hochperformanten HPC-Lösung, die Terabyte an Daten verarbeiten kann, lassen sich die Erbgutsequenzen schneller analysieren, was die Chancen für eine wirksame Therapie deutlich erhöht.

Was mit Datenauswertung beginnt, macht eben manchmal auch den Fortschritt erst möglich – egal ob im Weltraum oder vor unserer Haustür.

Wer sich für weitere spannende Anwendungsbeispiele des High-Performance-Computing interessiert, hat demnächst dazu Gelegenheit, denn ab dem 23. Juni 2014 ist es wieder soweit: Die ISC 2014 (International Supercomputing Conference) startet in Leipzig. 

menuseperator

So sieht die Länder-Auswahl auf der Home-Page von Oracle aus:

Suomi – France – Deutschland …  South Afrika – España – Sri Lanka …

Ja klar, ich weiß schon, wie dieses lustige Durcheinander zu Stande kommt: Erst wurde sortiert, dann übersetzt. Aber strange sieht es trotzdem aus. Und sollte nicht ein IT-Weltkonzern eine Software bauen können, die das Sortieren und Übersetzen in der richtigen Reihenfolge beherrscht? Irgendwie schon. Oder ist das der Grund, warum ich neulich von meiner Versicherung …?

menuseperator

Ich habe noch nie so viel über das Wetter und die kommenden Aussichten gelesen wie in den letzten Jahren. Und was es alles für schöne Wortspiele gibt ... Cloud sei Dank!

Zunächst waren die weiteren Aussichten heiter bis wolkig, dann doch eher nebulös, später dauerhaft bedeckt, mit strichweisem oder örtlichem Regen und nun der Wetterwechsel: langsam verschwinden die Wolken, die Sonne kommt. Kaum ein Wetterszenario, das die Cloud nicht inspiriert hätte. Und vergessen wir nicht die Cloud selbst: Schäfchen- oder Gewitterwolke? Schönwetterwolke oder dunkle Wolke mit warmen Regen? Sonnenschein oder Sturmfront?

So wechselhaft wie das Wetter gestalten sich auch nach wie vor die Stimmen rund um das Thema Cloud Computing – selbst nach mehreren Jahren. Handelt es sich um die heitere Zukunft des Unternehmens oder doch eher um eine Gewitterwolke aus Sicherheitslücken, kommt man beim Notfallmanagement vom Regen in die Traufe, regnet es mittlerweile womöglich schon Daten, ist ein Teil der Datenwolke auf ewig vom Winde verweht oder hebt die Wolke gar ab? Können wir mit Sicherheit sagen, dass wir nicht im Regen stehen werden, während die Konkurrenz schon die Gummistiefel an hat?

Man sollte meinen, dass mittlerweile jegliche Wortspiele und Assoziationen ausgeschöpft wären, aber man findet immer wieder welche: die Cloud tönt etwas nebulös nach Luft und Wasserdampf. Alter Wein in neuen Wolken. Es liegt was in der Wolke. Deutsche Unternehmen halten sich beim Thema Cloud Computing noch weitgehend bedeckt. Liebe Wolke, dich schickt der Himmel! Und diese Woche erst gesehen: Mehr als ein Wolkenkuckucksheim. Erlaubt sei bitte auch die Frage: Heute schon ge-cloud?

Dazu kann man mittlerweile sogar Motto-Shirts bestellen und sich offiziell als Cloud-Junkie bekennen. Der Wolke sind anscheinend keine Wettergrenzen gesetzt; keine Nebelwortschwaden, die zu dicht wären – um beim Bild zu bleiben.

Dabei finde ich die wenigsten Wortspiele witzig. Mir fällt gerade nur ein Einziger ein, den ich wirklich mal geistreich fand – nicht aus dem Cloud-Umfeld (da sucht man vergebens), aber dafür passend im Rahmen der anstehenden Fußball-Weltmeisterschaft: Nach dem 4:0 der deutschen Fußballnationalmannschaft gegen die Argentinier im WM-Viertelfinale 2010 hatte sich ein auf den Straßen feiernder deutscher Fan auf sein T-Shirt mit frontaler Klett-Option folgendes Motto selbst kreiert: „Ein echter Tango muss weh tun“! Wie wir wissen, waren die Aussichten für die nächsten Tage dann ja doch nicht so freundlich, eher sehr stark bewölkt: wir sind im Halbfinale gegen Spanien rausgeflogen. Keine Sonne pur, sondern wolkenverhangener Himmel.

Und die Cloud? Wie werden die Aussichten nun sein? Sonnig, freundlich, heiter, bewölkt, zunehmend bewölkt, wolkig mit Aufheiterungen ...

Vielleicht muss man sich diesbezüglich einfach an die Reinhard-Mey-Strategie halten: Über den Wolken muss die Freiheit wohl grenzenlos sein!

menuseperator

Über die Gefahren von „Bring Your Own Device (BYOD)“ und was beim Mobile Device Management (MDM) alles beachtet werden muss, scheinen IT-Mitarbeiter in Unternehmen inzwischen hinreichend informiert zu sein, es gibt auch genug einschlägige Lektüre zu diesem Thema. Was viele aber noch nicht wissen: Zahlreiche MDM-Lösungen beziehen die auf Privatgeräten genutzten Apps gar nicht ein und lassen daher potenziellen Bedrohungen, die sich in den mobilen Applikationen verbergen können, Tür und Tor geöffnet.

Dazu passt auch gut das Ergebnis einer aktuellen IDC-Studie: Laut dieser ist durch die Nutzung von Smartphones, Tablet-PCs und mobilen Apps die Anzahl an Service Desk Incidents in Unternehmen im letzten Jahr um durchschnittlich 17 Prozent gestiegen. Man kann daran gut sehen, dass BYOD eben auch Schwierigkeiten mit sich bringt – bis hin zur Cyber-Bedrohung.

Um das Bewusstsein hierfür zu vergrößern, haben die Redaktionen der IDG-Fachmedien den 23. Juni zum „Tag der sicheren App“ erklärt. An diesem Stichtag können Interessierte ihre Lieblings-Apps auf die Probe stellen und herausfinden, ob die Nutzung denn wirklich sicher ist, oder eine kritische App besser ausgetauscht werden sollte.

Weitere Informationen finden sich auf der Website der Computerwoche.

menuseperator

Jetzt, am Jahrestag der Snowden-Affäre, überhäufen sich die Berichte in den Medien. Die Bilanz, die sie ziehen, sieht nicht gut aus: Geheimdienste ignorieren Gesetze, und Gesetzgeber lassen sie, im Prinzip, gewähren. Ein paar kosmetische Korrekturen, ein paar Beschwichtigungen, voilà. Damit betrügen sie bewusst ihre Bürger, weil sie deren Grundrechte mit Füßen treten.

Laut einer aktuellen Bitkom-Umfrage misstrauen denn auch 71 Prozent der Internetnutzer Staat und Behörden beim Umgang mit ihren persönlichen Daten, und 53 Prozent fühlen sich sogar „durch staatliche Stellen bedroht“. Wen wundert’s.

Dennoch bleibt der Aufschrei der Bevölkerung, bis auf ein hintergründiges Raunen, gedämpft – sei es, weil sich ein Gefühl der Hilflosigkeit eingestellt hat und lautes Protestieren ohnehin unnötig erscheint; sei es, weil die ständige Social-Media-Erreichbarkeit oder die Bequemlichkeit des Internets für viele mehr bedeuten als ein abstrakter und nicht greifbarer Grundrechte-Verlust. Und vielen ist es schlichtweg egal, dass ihre privaten Daten gesammelt werden.

Seit einem Jahr dokumentieren wir chronologisch die Bespitzelungen durch die Geheimdienste und Verfehlungen der Politik in unserer „Affäre Snowden“ und wollen damit zur Meinungsbildung in der Öffentlichkeit beitragen. Das führt hoffentlich dazu, dass der Gier von Staaten nach den privaten Informationen ihrer Bürger über kurz oder lang Einhalt geboten wird.

menuseperator

Cloud Computing wird vom Hype zur Realität. Mit OpenStack, einem Softwareprojekt, das eine freie Architektur für Cloud Computing zur Verfügung stellt, hat sich in den letzten Jahren quasi der Standard für hybride, herstellerunabhängige Cloud-Umgebungen entwickelt, die auch zunehmend „Enterprise-IT-ready“ sind. Interessant dabei ist, dass sich an dem Projekt viele führende IT-Technologieanbieter wie Red Hat, Dell, HP, IBM oder Cisco beteiligen, die viel Geld investieren und substanzielle Beiträge zur Community leisten.

Vor diesem Hintergrund ist spannend, wie sich das Rennen der führenden Technologieanbieter entwickelt, aber auch, warum sich Anwender mit dem Thema ernsthaft beschäftigen sollten.

Carlo Velten, Managing Director von Crisp Research, gibt in seinem Beitrag auf Computerwoche online „HP, IBM, Red Hat – wer gewinnt das OpenStack-Rennen?“ eine lesenswerte Einschätzung dazu ab: Hier weiterlesen...

menuseperator

Da hat sich aber jemand ein tolles Datum für die neue Verbraucherrechterichtlinie ausgedacht: Freitag der 13. Ein ungewollt passendes Datum. Insbesondere wenn man sich die Details dazu einmal genauer anschaut – vor allem, was die Übergangsfrist betrifft. Wobei: Übergangsfrist trifft es nicht so ganz...

Bei genauer Betrachtung zeigt sich das Dilemma: die alten Verbraucherrechte gelten bis zum 12. Juni, 23:59 Uhr (und 59 Sekunden) und müssen bis zu diesen Zeitpunkt so auch auf der Webseite des Online-Händlers zur Verfügung stehen. Ab dem 13. Juni, 0:00 Uhr gilt dann aber die neue Richtlinie, die natürlich so auch auf der Website zu finden sein muss.

Jetzt kommt die Krux an der Sache: Erst ab genau diesem Zeitpunkt dürfen die neuen Verbraucherrechte auf der Website des Online-Shops erscheinen. Man hat also gerade mal, wenn man wirklich ganz kulant ist, genau 1 Sekunde Zeit, seine Website dementsprechend anzupassen (und wenn man ganz genau ist, nicht einmal die).

Ist dies nicht der Fall, drohen teure Abmahnungen – und eines ist sicher: unsere Abmahn-Freunde werden das Web genau danach durchforsten.

Gerade kleine Händler dürften mit dieser nicht vorhandenen Übergangsfrist ein Problem haben, denn wenn man keine Agentur im Rücken hat, die man hiermit beauftragen kann und die für einen ein bisschen um Mitternacht herumzaubert, muss man selber ran.

Da stellt sich mir die Frage: Wer hat sich das denn ausgedacht?

PS: In meinem nächsten Blog beschreibe ich, wie Online-Shop-Muggles nach Hogwarts gelangen und wie man Harry Potter dazu bringt, seinen Zauberstab für einen guten Verbraucherrechterichtlinien-Zweck zu verleihen.

menuseperator

Nachdem wir uns vor einiger Zeit den deutschsprachigen Social-Media-Aktivitäten von – Endverbraucher-orientierten – Smartphone-Herstellern gewidmet haben, haben wir diesmal B2B-Anbieter unter die Lupe genommen, und zwar die führenden Softwarehersteller. Schon im Vorfeld hatten wir gemutmaßt, was das Ergebnis sein würde, und haben recht behalten: freundlich ausgedrückt verschenken auch diese Unternehmen ihr Social-Media-Potenzial.

Irgendwie betreiben alle untersuchten Hersteller Social Media, aber eben auch nur irgendwie. Wenigstens verlinken die meisten die Kanäle auf ihrer Homepage, das kann man schon fast als Fortschritt betrachten. Ansonsten sieht es eher mager aus: Inhalte werden oft 1:1 direkt aus Presseinformationen übernommen; anspruchsvolle, weil arbeitsintensive, Kanäle wie YouTube werden eher nachlässig behandelt, und ansonsten sieht alles eher lieblos denn professionell aus. Der Eindruck, der entsteht: Man gibt sich nicht viel Mühe. Der Geist von Social Media glänzt bei den meisten Anbietern mit Abwesenheit (rühmliche Ausnahme ist die DATEV, die einen hervorragenden Job macht).

Das alles ist keine neue Erkenntnis. Wir wundern uns seit vielen Jahren, warum große Unternehmen mit ausreichend Manpower und Budgets nicht in der Lage sind, ihre Kommunikation professionell zu gestalten – schlimmer noch: nicht mal das ABC der Kommunikation beherzigen. Gewiss, Social Media ist aufwändig, aber es gibt viele kleine Unternehmen, die es ganz gut auf die Reihe bekommen. Warum also nicht die Großen? Ich glaube und habe es schon oft wiederholt: Viele Unternehmen haben offenbar keinerlei Interesse an einem vollwertigen und mit weiten Befugnissen ausgestattenen Kommunikationsvorstand, aus welchen unerfindlichen Gründen auch immer. Der oft katastrophale Auftritt, von dilettantischen Inhalten bis zu widersprüchlichen Botschaften, ließe sich damit auf jeden Fall vermeiden. Der mäßige Social-Media-Auftritt ist nämlich nur die Spitze des Eisbergs.

menuseperator

In den letzten Wochen haben wir uns mit einigen ITK-Journalisten unterhalten und sie gebeten, uns ihre Einschätzung bezüglich der Performance von Pressestellen und PR-Agenturen mitzuteilen. Die Ergebnisse sind nicht repräsentativ, weil nur auf 29 Meinungen beruhend, aber sie entsprechen ziemlich genau unserer eigenen Erfahrung.

Es gibt Luft nach oben. Die Durchschnittsnoten, die unsere Medienkontakte vergeben haben, waren nämlich eher mager. Ihre allgemeine Zufriedenheit mit PR-Agenturen und Pressestellen von ITK-Unternehmen bewerteten sie mit 2,7 (Schulnotensystem), die Reaktionsgeschwindigkeit ihrer Ansprechpartner mit 2,8 und deren Zuverlässigkeit mit 2,1, immerhin.

Die Qualität von Texten, in der Regel Presseinformationen, war ihnen aber lediglich 2,9 wert, das ist schon fast beschämend für die Leistung sogenannter PR-Profis. Jetzt könnte man darauf erwidern, die Headquarters in den USA und die EMEA-Zentralen auf der Insel bestünden darauf, ihre Texte möglichst nah am Original übersetzt zu sehen. Das stimmt zwar meistens, ist allerdings auch nur die halbe Wahrheit. Die andere Hälfte wird durch die schlechteste Note unserer Umfrage reflektiert: 3,3. So kümmerlich bewerteten die Journalisten die ITK-Expertise ihrer Kontakte in den Agenturen.

Seit meiner Zeit als Redakteur und Chefredakteur von IT-Zeitschriften hat sich hier offensichtlich nicht viel geändert (und das ist wirklich lange her). Schon damals hatten wir in den Redaktionen, auf der anderen Seite des Schreibtischs sozusagen, viel zu oft mit schlechten Texten, fragwürdigen Inhalten und kläglicher Grammatik zu tun. Die Kompetenz vieler PR-Agenturen sahen wir im Grunde reduziert auf ihre Rolle als Durchlauferhitzer: Original-Texte irgendwie übersetzen und halbherzig an die Medien verteilen. Aber, das muss gesagt werden, es gab natürlich auch eine ganze Reihe guter Agenturen und hervorragender Pressestellen in den Unternehmen.

Die gibt es immer noch. Angesichts der mäßigen Noten der heutigen Journalisten repräsentieren sie aber wohl leider nicht die Mehrheit.

Manche Journalisten waren in den Gesprächen recht aufgebracht über ihre Kontakte in den Agenturen und Pressestellen, auch wenn sie hier und dort "gute und sehr gute Pressestellen und Agenturen" ausmachten. Sie bemängelten vor allem die schlechte Aufbereitung von Informationen, zu wenig Tiefgang, unzureichendes Bildmaterial, mäßig ausgebildete Kontaktpersonen und immer wieder die "kaum vorhandene ITK-Expertise" in manchen Agenturen. Vor allem diese mangelnde Expertise führt dazu, dass Original-Informationen von PR-Agenturen oft unreflektiert und unkritisch übernommen werden – mit all den unötigen Quotes, den ärgerlichen Superlativen und dem überflüssigen Marketing-Gebrabbel.

"Gehirn einschalten", brachte es ein Journalist zackig auf den Punkt, "Buzzword-Bingo und Spin-Doctoring meiden. Fliegt sowieso auf und schreckt ab". Hätte auch von mir sein können – damals.

 

29 Journalisten haben die Leistung von ITK-Agenturen und -Pressestellen bewertet. Das sind die Ergebnisse – nicht immer brillant (Quelle: PR-COM, Mai 2014)


In einem kurzen Video erläutert PR-COM-Geschäftsführer Alain Blaes die zentralen Ergebnisse:

 

 

menuseperator

Seiten