Blog

Es hätte so schön sein können ... Für die Veröffentlichung eines Fachbeitrags fehlte nur noch ein Foto. Ein seriöses versteht sich. Aber seriös ist anscheinend ein interpretationsfreudiger Begriff, denn was (vom Autor persönlich) in meinem Mail-Eingang ankam, war alles andere als seriös: ein Urlaubsfoto, im Hintergrund eine Dame mit Strohhut.

Ich freue mich, wenn der Urlaub so schön war, dass man auch andere daran teilhaben lassen möchte, aber von einem druckwürdigen Foto sind wir noch weit entfernt. Denn mal ehrlich, wer will wirklich solch ein Foto (auch wenn wir es so niemals verwenden würden) abgedruckt in einer Zeitschrift wiederfinden?

Wenn wir nicht gerade Fotos, die in die Kategorie "private Schnappschüsse" fallen, erhalten, stellen wir auch immer wieder fest, dass Unternehmen die sogenannte Fotoproduktion gerne inhouse vergeben. Und was kommt dabei raus? Fotos, auf denen Personen mit offenen Hemdsknöpfen (nicht am Kragen, ich spreche von denen Richtung Bauch), Kaffeetassen, Thermoskannen oder Bilderrahmen mit Foto der Ehefrau auf dem Schreibtisch, Kabelgewirr im Vorder- oder Hintergrund oder Ähnliches zu sehen sind. Mal ganz zu schweigen von der Auflösung, der Schärfe und der Bildgröße. Nein, 5 KB reichen nicht aus für einen printfähigen Beitrag.

menuseperator

Wenn es darum geht, den „digitalen Wandel“ zu meistern, geht es den IT-Verlagen nicht anders wie den Verlagshäusern anderer Branchen: ein Patentrezept ist noch nicht gefunden, aber es werden eifrig Strategien entworfen, Ideen gesammelt und umgesetzt, um die Zukunftsfähigkeit des Hauses zu gewährleisten.

Ich habe mich zu diesem spannenden Thema mit den Geschäftsführern einiger großer IT-Verlage wie Heise oder IDG unterhalten. Das Ergebnis der Interviews gibt es nun hier in aller Ausführlichkeit.

menuseperator

Das Thema BYOD traut man sich der Presse gegenüber ja schon fast nicht mehr anzusprechen, da dazu nun wirklich alles gesagt wurde und Vor- sowie Nachteile in epischer Breite von vielen Unternehmen analysiert wurden.

Auch Leitfäden und Studien zu dem Thema gibt es zuhauf, so beispielsweise von BITKOM, Computacenter/PAC, INTEL oder Oracle.

Fakt ist jedenfalls, dass deutsche Unternehmen BYOD sehr kritisch gegenüber stehen, weswegen es natürlich nahe liegt, diesen das Thema anderweitig schmackhaft zu machen. Und wie geht das besser als mit einem neuen „fancy“ Schlagwort. Wie wäre es denn beispielsweise mit CYOD (Choose Your Own Device)? Die Vorteile gegenüber BYOD liegen auf der Hand, beispielsweise die einfachere Administrierbarkeit der mobilen Geräte seitens der Unternehmens-IT.

Nein, auch schon wieder ein alter Hut?

Wie wäre es mit der Wortschöpfung LYOD, die scheinbar HP ins Gespräch bringen wollte? ... da fragt man sich doch, was das nun schon wieder sein soll. Oder kommt dabei nur mir spontan „Loose Your Own Device“ in den Sinn? Aber im Ernst, dahinter steckt nicht mehr als „Leave Your Own Device“. Aha. Reichen die aktuell kursierenden Abkürzungen nicht schon? Gemeint ist jedenfalls, dass die Erlaubnis für die private Nutzung eines Geschäftsgerätes gegeben wird. Was – am Rande erwähnt – CYOD auch nicht ausschließt. Was uns wiederum zu COPE bringen würde (Company Owned Personally Enabled)...

Ein Ende der xYOD-Kreativität scheint jedenfalls nicht in Sicht: Man stolpert auch über FYOD (Fix Your Own Device) und natürlich UYOD (Use Your Own Device). Ja, die Abgrenzung zu BYOD ist auch hier so eine Sache, da BYOD nicht unbedingt das Arbeiten von Zuhause ausschließt.

Diese Kuddelmuddel an Begrifflichkeiten zeigt wieder einmal, dass es manchmal doch ratsamer ist auf einen bekannten Zug aufzuspringen und mit neuen Blickwinkeln und unterschiedlichem Branchenfokus zu arbeiten, als auf Biegen und Brechen andere Wortschöpfungen zu kreieren, deren Neuigkeitswert bei genauerem Hinsehen nicht hält, was er verspricht.

menuseperator

Es gibt sie noch, die Menschenfreunde, die Altruisten, die Selbstlosen, jene Leute, die zuerst an die anderen denken, Mitmenschen, die auch heute ganz nach der Maxime unseres Johann Wolfgang von Goethe leben: "Edel sei der Mensch, hilfreich und gut". Neulich haben sie sich anlässlich eines für sie erfolgreichen Gerichtsverfahrens geoutet. Es sind die deutschen Verlage und der Börsenverein des Deutschen Buchhandels.

Es ging um den Handel mit gebrauchten E-Books. Die Verbraucherzentrale Bundesverband e.V. hatte gegen einen Online-Buchhändler geklagt, der in seinen AGs den Weiterverkauf von E-Books untersagt hatte. Das darf er, wie mittlerweile rechtskräftig entschieden wurde.

 

E-Book-Autor Goethe – stets Freund einer gut gefüllten Börse
Bildquelle: Wikipedia (gemeinfrei)

Wir erinnern uns: E-Books, das sind diese digitalen "Inhalte", die man nicht verschenken, nicht verleihen, nicht auf ein anderes Lesesystem mitnehmen und eines Tages nicht einmal vererben kann, auch wenn man sie gekauft und vollumfänglich bezahlt hat – beziehungsweise man kann sie zwar voll bezahlen aber nicht wirklich kaufen, sondern man kann immer nur ein "Nutzungsrecht" erwerben, welches nicht übertragbar ist. Die betreffenden Kauf-mich-Buttons sind hier vielleicht ein bisschen ungenau:

Kaufen ohne zu kaufen – E-Book-"Kauf" bei Amazon

Kaufen ohne wirklich zu kaufen – E-Book-"Kauf" bei Amazon

Der Börsenverein des Deutschen Buchhandels ist mit dem Ausgang des Prozesses natürlich hochzufrieden.

"Das nun rechtskräftige Urteil ist ein wichtiges, positives Signal“, sagt Prof. Dr. Christian Sprang, Justiziar des Börsenvereins des Deutschen Buchhandels.

Und nein, der Professor Sprang dachte dabei mitnichten an die Börsen der Verlage, für die er im gleichnamigen Verein eintritt. Er ist schließlich … siehe oben Goethe:  

„Die Entstehung eines ,Gebrauchtmarkts‘ für E-Books und Hörbücher kann weder im Sinne der Autoren, Verlage und Händler noch der Kunden sein. […]

Für Verlage wäre es unmöglich, digitale Buchinhalte gut und kostengünstig für den Leser anzubieten, die Autoren angemessen zu vergüten und gemeinsam mit dem Handel weiter an nachhaltigen und kundenfreundlichen Download-Modellen für Bücher zu arbeiten.“

Schluchz. Wir Leser sagen "Danke". Und ganz besonderen Dank dem Börsenverein im Namen der Börsen von Tausenden von angemessen vergüteten Autoren. Schnief.

Ich finde, man sollte soviel Edelmut angemessen honorieren. Ich schlage zum Beispiel vor, auch das Weiterverkaufen von gedruckten Büchern künftig zu untersagen:

Für Verlage wäre es sonst unmöglich, gedruckte Buchinhalte gut und kostengünstig für den Leser anzubieten, die Autoren angemessen zu vergüten und gemeinsam mit dem Handel weiter an nachhaltigen und kundenfreundlichen Buchhandlungen zu arbeiten.

Das klingt doch auch ziemlich gut, oder? Und hilfreich. Noch mehr Ideen? Sind E-Books nicht sowieso viel zu billig? Was könnte man mit der zusätzlichen Kohle nicht für noch kundenfreundlichere Modelle modellieren? Da müssen sich doch viel mehr nachhaltige Ideen finden lassen. Die Welt kann nicht edel genug sein.

Tags: 
menuseperator

In diesen Tagen wirft eine der für die Digitalbranche bedeutsamsten Messen wieder ihre Schatten voraus. Nein, hier geht es ausnahmsweise nicht um die IFA, sondern um die Dmexco, die Digital Marketing Exposition & Conference. Das Get Together der Online-Werbefachleute und Kommunikationsexperten feiert heuer seinen fünften Geburtstag und hat es innerhalb dieser relativ kurzen Zeit zu einer der führenden Messen für die digitale Marketingbranche gebracht. Über 800 Aussteller werden am 10. und 11. September in Köln ihre Technologien, Lösungen und Ideen dem Fachpublikum präsentieren.

Der ein oder andere Leser wird sich jetzt vielleicht denken: „Online-Marketing, was geht das mich an? Darum sollen sich die Vermarkter kümmern.“ Ein berechtigter Einwand – allerdings nur auf den ersten Blick. Denn die Messe verzeichnet Jahr für Jahr nicht nur ein deutliches Wachstum, sondern deckt auch immer mehr Themenbereiche ab, die für Unternehmen in Deutschland langsam aber sicher auf die IT-Agenda gehören. So wird die Dmexco in diesem Jahr unter anderem die Trends „Internet der Dinge“ und „Industrie 4.0“ aufgreifen. Hierfür haben die Organisatoren eigens eine World of Experience eingerichtet, wo den Besuchern anschaulich demonstriert wird, welchen Einfluss M2M auf die Internet-Nutzung haben kann und wie sich das Online-Marketing diesen Trend am besten zunutze macht.

Aber nicht nur die Ausstellerfläche bietet interessante Einblicke in die aktuelle und zukünftige digitale Welt. Auch die angegliederte Konferenz hat sich auf die Fahne geschrieben, weltweit führend und themensetzend zu werden. Die Besucher der Dmexco haben die Qual der Wahl und müssen unter den von 470 Sprechern angebotenen Vorträgen und Seminaren mit einem Gesamtvolumen von über 200 Stunden ihre persönlichen Highlights herauspicken. Und auch bei der Konferenz zeigt sich der immer breiter werdende Fokus der Veranstaltung sehr deutlich, denn neben Marketing- und Online-Strategen befinden sich auch einige Top-Manager von großen Unternehmen aus allen möglichen Branchen auf der Speaker-Liste, unter anderem von BMW, Facebook, IBM und Nestlé.

Unsere Empfehlung ist ganz klar: Ein Besuch der Dmexco lohnt sich und sollte für alle Unternehmen, die in der digitalen und vernetzten Welt am Puls der Zeit bleiben wollen, rot im Kalender angestrichen werden. Übrigens, der Eintritt ist nach vorheriger Registrierung kostenfrei.

menuseperator

Seit einigen Monaten arbeite ich verstärkt vom Home Office aus. In meinem Fall bedeutete dies: raus aus der Großstadt, ab aufs Land. Hier bekommt das Thema digitale Infrastruktur eine ganz andere Bedeutung, da viele Gemeinden nach wie vor im digitalen Dunkeldeutschland sitzen. Plötzlich wird die digitale Anbindung zur Standortfrage: denn ohne Internet ist es unmöglich, meinem Beruf nachzugehen. Die digitale Realität ist somit längst im Alltag angekommen. Sicherlich betrifft dies auch viele tausend Handwerker und Mittelständler, die in ganz Deutschland verteilt ihrem Job in mehr oder minder digital angebundenen Kommunen nachgehen.

Und Deutschland verliert weiter: Denn leider hinken wir in der flächendeckenden Abdeckung moderner Hochgeschwindigkeitsnetze anderen Ländern hinterher: Dies zeigt der State-of-the-Internet-Report des Cloud-Service-Anbieters Akamai regelmäßig. Im ersten Quartal 2014 rutschte Deutschland bei den durchschnittlichen Geschwindigkeiten im internationalen Vergleich von Platz 21 auf 26 ab.

Umso wichtiger ist der Beschluss des Bundeskabinetts zur „Digitalen Agenda 2014-2017“, der jetzt vorgelegt wurde und die Leitsätze für die nächsten Jahre diktiert: 1. Stärkere Erschließung des Innovationspotenzials unseres Landes für weiteres Wachstum und Beschäftigung, 2. Die Unterstützung beim Aufbau flächendeckender Hochgeschwindigkeitsnetze und die Förderung digitaler Medienkompetenz (...), 3. Die Verbesserung der Sicherheit und den Schutz der IT-Systeme und Dienste (...).

Aber wie realistisch ist eine flächendeckende Umsetzung? Die Politik muss sich letztlich daran messen lassen. Denn längst hängt das Wohl unserer Gesellschaft an einer möglichst raschen Umsetzung. Wir brauchen dringend Lösungen. Sicherlich ist das Thema nicht trivial, da viele Partikularinteressen involviert sind und oftmals ein Geschäftsmodell für gewinnorientierte Unternehmen gerade in ländlichen Gebieten nicht realisierbar ist. Aber gerade in einem solchen Fall muss der Staat in die Bresche springen und falls nötig für die entsprechenden Anschub-Investitionen sorgen. Denn längst zählt das Internet zur kritischen Infrastruktur. Und übrigens, es müssen nicht immer die kolportierten 50 Megabit pro Sekunde sein: Viele Firmen wären bereits froh, in akzeptabler Geschwindigkeit und ohne Verbindungs-Schwankungen im Netz unterwegs sein zu können. Und das jetzt, und nicht erst in Jahrzehnten!

menuseperator

Erst vor wenigen Tagen hatte ich aus dem Leben eines Toner-Käufers berichtet. Das Bewertungs-Sponsoring scheint allmählich einzureißen. Etwas später war auf Heise Online Folgendes zu lesen:

Online-Shopper verlassen sich gerne auf die Erfahrungen anderer Käufer. Aber kaum jemand weiß, welchen Aufwand manche Unternehmen mittlerweile treiben, um Top-Bewertungen für ihre Produkte herbeizuzaubern.

Ein aktuelles Beispiel ist das Galaxy Tab S von Samsung: Von den insgesamt rund 80 Bewertungen auf Amazon.de stammt mehr als die Hälfte von Nutzern, die das Android-Tablet gratis erhalten haben (Stand 11. August). Vermutlich stieg dadurch die Gesamtnote von 3,5 Sternen auf 4,0 Sterne.

Samsung verteilt Gratis-Tablets


Rund 20 Rezensenten schreiben, dass Samsung ihnen ein Testgerät geschickt hat – "im Rahmen eines Produkttests", "als ausgewählter Tester" oder mit einer ähnlichen Formulierung. Was sie nicht verraten: Sie müssen das 390 bis 580 Euro teure Tablet anschließend nicht zurückschicken, sondern bekommen es als Belohnung für die Rezension umsonst.

menuseperator

Gartners Hype Cycle für Emerging Technologies hat Tradition. Seit 20 Jahren ordnen die Marktforscher Technologien kurvenförmig in Lebensabschnitte ein. Einen guten Überblick gibt es hier. Die Werte der y-Achse dokumentieren die öffentliche Aufmerksamkeit einer Technologie und die x-Achse die Zeitspanne, in der sie nach Einschätzung von Gartner verschiedene Phasen bis zu ihrer Marktreife durchläuft. Mitte der 1990er-Jahre waren übrigens „Intelligente Agenten“ und der „Information Superhighway“ die angesagten Themen.

Den „Gipfel der Erwartungen“ hat im diesjährigen Hype Cycle das Internet der Dinge erreicht. Ähnlich hoch angesiedelt sind „Natural- Language Question Answering“ und „Wearable User Interfaces“. Im Jahr 2013 stand übrigens „Big Data“ kurz vor dem „Gipfel der Erwartungen“. Nun ist es müßig, über die Eintrittswahrscheinlichkeit von Prognosen, und nichts anderes sind ja die Hype Cycles, zu streiten. Die Basistechnologien hinter Big Data, dem Internet der Dinge, Hybrid Cloud Computing und den In-Memory-Database-Management-Systemen sind so weit fortgeschritten, dass es heute viele Unternehmen weltweit gibt, die sie als Innovationsmotor nutzen. Wäre da nicht das berechtigte Thema „Sicherheit“ als begrenzender Faktor. Wie sieht es hier beim Internet der Dinge aus? Da bleiben noch viele Fragen offen. Ich persönlich bin kein Technikpessimist und davon überzeugt, dass es in absehbarer Zeit Lösungen für die Sicherheitsprobleme im Internet der Dinge geben wird. Hier eröffnet sich ein weites Feld für neue Ansätze.

menuseperator

Ich sitze staunend vor meinem Rechner und schaue mir die Unmengen an bunten „Kometstreifen“ an, die quer über die Weltkarte rasen. Habe ich mich in der Webseite geirrt? Sehe ich gerade den für die nächsten Tage zu erwartenden Meteroitenschwarm der Perseiden oder doch die Darstellung der gerade stattfindenden Cyberattacken? Unter http://map.ipviking.com dokumentiert Norse das Ausmaß der Angriffe auf Kommunikationsnetze in Echtzeit. Mit Abstand die meisten Attacken kommen gerade aus China und treffen die USA. Und interessant: Die Niederländer sind heute bei den Ländern, aus denen die Angriffe gestartet werden, auf Platz drei. Vielleicht wollen sie mit allen Mitteln in Erfahrung bringen, wie man endlich im Fußball Erfolg hat bzw. Weltmeister wird...

menuseperator

Das Internet der Dinge (Internet of Things) – ein weiteres Schlagwort, ein weiterer Hype, der einem momentan in der Medienlandschaft oft begegnet, neben der allgegenwärtigen Cloud natürlich. Dabei ist der Terminus an sich nicht mehr neu: Bereits 1999 wurde der Begriff erstmals verwendet, und zwar von Kevin Ashton, dem Mitbegründer und damaligen Leiter des Auto-ID Center am Massachusetts Institute of Technology (MIT).

Doch wie so viele neue Technologien steckt auch das „Internet der Dinge“ noch voller Sicherheitslücken, wie eine aktuelle Studie von HP zeigt. Im Rahmen der Studie wurden zehn der beliebtesten Geräte getestet, unter anderem Webcams, Thermostate, Sprinkleranlagen-Controller, Türschlösser, Garagentüröffner und Hausalarmanlagen.

Wer bisher dachte, Garagentüröffner wären harmlos, wird hier eines Besseren belehrt: Im Schnitt hatte jedes Gerät 25 Schwachstellen, so dass bei der Studie insgesamt 250 Sicherheitslücken in den getesteten Geräten zum Vorschein kamen. Die häufigsten Lücken betreffen den Datenschutz, eine unzureichende Berechtigung und Verschlüsselung, unsichere Web-Schnittstellen und einen mangelhaften Schutz durch Software.

Gartner prognostiziert, dass bis zum Jahr 2020 26 Milliarden Geräte mit Bluetooth, WLAN und Co. ausgestattet sein sollen. Bis dahin gibt es für die Anbieter vernetzter Geräte wohl noch viel zu tun.

menuseperator

Zum Stichwort Big Data heute ein aktuelles Beispiel aus der Automobilbranche:

Ab 2015 sollen sämtliche Neuwagen in Europa mit dem Notfallsystem eCall ausgestattet werden, das im Falle eines Crashs per Mobilfunkverbindung automatisch Hilfe anfordert. Angesichts von jährlich 28.000 Toten auf europäischen Straßen eine einleuchtende Sache. Und zudem weitreichender als es auf den ersten Blick erscheinen mag: Denn der Einbau erfordert Technologie-Schnittstellen, beispielsweise zu LTE- und GPS-Systemen, die dann auch von anderen Connected-Car-Produkten, wie etwa vernetzten Sicherheitsfeatures und Fahrsicherheitskomponenten, genutzt werden können. Mit diesen eröffnet sich derzeit ein Milliardenmarkt - geschätztes jährliches Umsatzvolumen weltweit bis 2020 allein im Pkw-Segment rund 110 Milliarden Euro.

Datenschützer schlagen Alarm: Sie fürchten, dass mangelnde Datenschutzbestimmungen dem ungehemmten und unkontrollierten Datenverkehr auf europäischen Straßen sämtliche Bodenwellen ebnen. Autohersteller, Versicherungen und der ADAC streiten sich schon jetzt um die erhobenen Fahrerdaten. Es geht um lukrative Service- und Reparaturgeschäfte, Versicherungstarife, die sich am Fahrverhalten orientieren, Mahngelder für Raser, die aus Fernbeobachtungen resultieren und andere Anwendungsszenarien. Volker Lüdemann, Professor für Wirtschaftsrecht an der Hochschule Osnabrück, ist besorgt: „Hier wird unter dem Deckmantel der Lebensrettung die Grundlage für den gläsernen Autofahrer geschaffen – und zwar verpflichtend für alle Neuwagen.“ (ZEIT online, http://www.zeit.de/2014/29/datenschutz-unfallmelder-ueberwachung) Läuft es nun also Meter um Meter auf ein bereiftes Smart Device hinaus? „Natürlich hätte man das datenschutzrechtlich auch anders gestalten können“, so Lüdemann. „Dann wäre die korrekte Nutzung der Daten aber sehr kompliziert geworden – und wesentlich uninteressanter für die Wirtschaft.“

Wir sind gespannt, wie sich die Diskussion auf dem Informationsmarkt weiter entwickelt: Der gläserne Autofahrer – Sicherheit vs. Freiheit? Oder sollte es besser heißen: Milliardenmarkt contra Datenschutz?

menuseperator

Heute geht es um ein strategisches IT-Thema: um Toner. Ich weiß, Verbrauchsmaterialien gelten als Paradebeispiel für etwas völlig Unstrategisches. Was aber ein Vorurteil ist, denn für Unternehmen, die mit der Herstellung und/oder dem Vertrieb von Tonern befasst sind, ist dieses Thema so strategisch, es könnte gar nicht strategischer sein. Diese Unternehmen werfen daher ihre ganze Innovationskraft auf … na ja, auf Toner eben. Und da genügt es heute natürlich nicht, einfach bloß geile Tonerkartuschen herzustellen, man muss sie schon auch gut verkaufen, draußen in einer Welt, in der Toner als Paradebeispiel für langweiliges Zeug herhalten muss.

Also sind Marketing-Innovationen gefragt und dazu gehört heute unbedingt Social Media. Nun ist Social Media manchmal eine schwierige Sache. Man kann nicht einfach ein Budget aufsetzen, verpulvern und gut ist's. Die Community muss auch noch mitspielen und die hat ihre eigenen Regeln, und wenn sie zum Beispiel einfach keinen Bock auf Toner hat, dann nutzen die lustigsten Tweets nichts. Innovatives Social-Media-Marketing besteht darin, hier ein wenig nachzuhelfen.

Und damit komme ich zu einem ganz persönlichen Einkaufserlebnis: Vor kurzem hatte ich mal wieder Lust, Toner zu kaufen, und weil ich nicht sicher war, welcher der optimalste ist, hab' ich mich im Web informiert. Genau dafür gibt es schließlich die Sozialen Netze, in diesem Fall Amazon und seine riesige Community von Produktbewertern. Ohne vorherige Rückkopplung mit diesen Bewertungen kaufe ich seit Jahren schon kein Taschenbuch, keine Waschmaschine und keinen Toner mehr. Ein Blick in die aktuellen Bewertungen relevanter Toner-Anbieter zeigte dann auch rasch: Der Toner von Hainberger ist top – über 200 Bewertungen, davon rund 180 mit fünf Sternen. Eine Heerschar begeisterter Toner-Kunden. Der muss es sein! Bestellt, geliefert, ruck zuck.

Im Karton fand ich neben der Tonerkartusche auch noch dieses Schriftstück (Hervorhebungen von mir):

Ziemlich innovativ, das lässt sich nicht bestreiten: Hainberger belohnt positive Bewertungen mit einem Gratis-Toner. Oder müsste man sagen … kauft sich positive Bewertungen? Kein Wunder, dass dieser Toner rund viermal so oft bewertet wird wie andere. Die Aussicht auf einen Gratis-Toner mag da bei einigen Kunden Motivation sein, um das Produkt zu bewerten und um es besser zu bewerten, denn für schlechte Bewertungen gibt es nichts umsonst, daran lässt das Hainberger-Marketing keinen Zweifel. Klar, wer den Hainberger-Toner für kompletten Mist hält, der will auch keinen Gratis-Mist dazu. Aber all die anderen? Geschenkter Gaul halt.

Dass sich in allen Bewertungsportalen Leute herumtreiben, die die eigenen Produkte und Leistungen in den Himmel loben, daran hat man sich ja schon gewöhnen müssen. Man weiß als Bewertungs-Powernutzer: Einige Bewertungen sind immer dabei, denen man nicht trauen kann, weil dahinter Mitarbeiter des betreffenden Unternehmens stecken. Aber das ist notwendigerweise auf wenige Stimmen beschränkt. Doch nun sollen ja die Kunden auf breiter Front nicht durch Leistung, sondern durch Incentives zu Abgabe von Urteilen veranlasst werden. Amazon scheint dagegen nichts zu haben, denn offenbar läuft die Hainberger-Aktion schon länger. Ein Bewertungssystem ist damit natürlich weitgehend ausgehebelt.

Ich hätte vor der Bestellung natürlich die negativen Bewertungen meines Toners genauer anschauen müssen: Einige verärgerte Kunden vergeben extra nur einen Stern, um diese Marketing-Aktion abzustrafen:

… allein für diese Gratistoner-Masche gebe ich nun nur einen Stern, damit andere Kunden gewarnt werden, dass sie die vielen positiven Rezensionen genauer unter die Lupe nehmen.

Was aber auch keine Lösung ist, denn über Qualität und Funktionalität des Toners weiß man damit natürlich wieder nichts. Außer dass man vorsichtig sein muss. Aber dafür braucht man wirklich kein Bewertungssystem. Und kein Social Media. Und kein Amazon. Wem kann man denn jetzt noch trauen?

Kein Zweifel: Das Bewertungswesen im Web, ach was, das ganze Web steht am Scheideweg – dabei hab' ich doch nur ein wenig Toner gebraucht. 

menuseperator

Das Thema „Virtualisierung“ - und ganz speziell die Desktop-Virtualisierung - ist nun wirklich nicht mehr neu. Seit Jahren schon werden die besten Strategien und Lösungsansätze der Hersteller in der Fachpresse vorgestellt, diskutiert und analysiert. „Hier kann es doch bis auf weiteres nichts Bahnbrechendes zu berichten geben“, könnte man meinen.

Ganz falsch!

Es gab tatsächlich noch einen Bereich in der IT, in den die Virtualisierung bis vor kurzem noch nicht vordringen konnte, da die nötigen technologischen Voraussetzungen fehlten. Denn erst mit der Einführung der GRID-vGPU-Technologie Ende 2013 ist es möglich, gleichzeitig mehrere Nutzer von rechen- und grafikintensiven Applikationen von einer einzigen GPU in eine virtuelle Umgebung zu verlagern. Und nur damit keine Missverständnisse entstehen, wir sprechen hier tatsächlich von High-Performance-Anwendungen wie Videorendering oder CAD-Modell-Bearbeitung, für die bislang der Einsatz einer physischen Workstation unumgänglich war.

Anders gesagt: Die Hersteller betreten eine neue Stufe auf der Treppe des Fortschritts und können jetzt auch Workstation-Virtualisierung.

Das wird vor allem Anwender aus Branchen wie Ingenieurswesen, Konstruktion, Multimedia, Automotive oder auch Architektur freuen, um nur ein paar zu nennen. Sie mussten nämlich lange auf das verzichten, was für viele andere mittlerweile völlig normal ist: der Zugriff auf Arbeitsdaten und -projekte von quasi jedem Endgerät und beliebigem Ort aus. Das macht nicht nur vieles einfacher, sondern vor allem auch sicherer, da alle Daten auf einem virtuellen Desktop in einem geschützten Rechenzentrum liegen und nicht mehr auf dem Endgerät selbst.

Darüber hinaus bringt die Workstation-Virtualisierung natürlich noch weitere Vorteile mit sich. Wir haben Peter Beck, Systems Engineer Workstation bei unserem Kunden Dell und Experte auf diesem Gebiet, ein paar Fragen gestellt:

menuseperator

Stets auf dem neuesten Informationsstand zu sein, was den Status quo der extrem schnelllebigen und innovationsfreudigen IT-Branche angeht, ist schwierig. Dabei noch zwischen substanziellen Veränderungen des Marktgeschehens und Marketing-getriebenen, gehaltlosen Heraufbeschwörungen zu unterscheiden, ist noch schwieriger.

In diesem Zusammenhang muss auch die Frage nach der (vermeintlichen) Wirklichkeit rund um das Thema „Cloud Computing“ gestellt werden, begleitet uns die Wolke doch schon um einiges länger als andere (vermeintliche) IT-Trends. Oracle-Chef Larry Ellison sagte darauf bezogen noch 2008: „Die Computerindustrie ist die einzige Industrie, die noch stärker modegetrieben ist, als die Modeindustrie selbst. Vielleicht bin ich ein Idiot – ich habe keine Ahnung, worüber die Leute da reden. (...) Wann hört dieser Schwachsinn endlich auf.“ (Computerwoche 27/2014) Sechs Jahre später scheint dieses Statement wie aus der Zeit gefallen.

Die Fachleute sind sich in ihren Analysen zwar nicht völlig einig, was die Entwicklung der Cloud angeht und die Prognosen bleiben unscharf. Doch dass die Cloud grundsätzlich Bedeutung hat und weiter an Gewicht zunimmt, scheint unzweifelhaft. Mehr und mehr Unternehmen ersetzen lizenzierte Standardanwendungen durch Web-basierte SaaS-Lösungen, welche im Rahmen von Subskriptionsmodellen abgerechnet werden. Dazu kommt eine Entwicklung, wonach immer mehr Firmen vermeiden, ihre eigenen Rechenzentren aufzubauen, und stattdessen Rechenleistung aus dem Netz zuschalten. Forrester Research geht davon aus, dass der globale Cloud-Markt 2020 mit einem Volumen von 191 Milliarden rund ein Fünftel größer sein wird, als das Institut ursprünglich angenommen hatte. Und 2020 soll laut den Analysten bereits ein Viertel des weltweiten Applikationsgeschäfts auf das Konto von SaaS-Anwendungen gehen. Damit sei das Cloud Computing in eine Phase des Hyper-Wachstums eingetreten, so die Fachleute.

Nun mag es auch im Cloud Computing viel Marktgeschrei geben und unzweifelhaft werden auch hier Entwicklungen postuliert, die mit der Realität nur wenig gemein haben. Dass die Marketing-Abteilungen oft vorschnell Äußerungen treffen, welche die Produktentwickler nicht halten können oder die vom Markt nicht angenommen werden, soll ja nicht nur in der IT-Branche vorkommen. Zweifellos ist aber, dass das Cloud Computing kein Strohfeuer ist. Es wird weitere gewaltige Transformationen innerhalb der IT-Branche selbst geben, die ihre Business-Modelle hinterfragen muss. Und die deutsche Wirtschaft wird die IT völlig anders einzusetzen wissen und bestehende Paradigmen nach und nach über den Haufen werfen.

Und Larry Ellison wird es am Ende mit seiner Einschätzung vielleicht ähnlich gehen wie Bill Gates. Der bezeichnete das Internet einst als „Hype“, mit dem man nie Geld verdienen könne. So kann man sich täuschen. 

menuseperator

Auf Messen werden immer wieder Plagiate gefunden, die der heimischen Industrie zu schaffen machen. Besonders dreist ist es jedoch, wenn es bereits Plagiate von Neuentwicklungen gibt, die noch gar nicht offiziell vorgestellt worden sind. Das selektive Abgreifen von vertraulichen Daten ist ein lukrativer Trend in der Welt der Cyber-Attacken und dabei müssen es nicht immer die Mitarbeiter selbst sein, die diese Informationen nach außen geben. Die sogenannten Advanced Persistent Threats sind gezielte Hacker-Angriffe, die nicht mehr auf Masse aus sind, sondern zielgerichtet und sehr aufwendig gemacht sind.

Die aktuelle Ponemon-Umfrage „Roadblocks, Refresh and Raising the Human Security IQ“ zeigt, dass viele Sicherheitsverantwortliche in Firmen Advanced Persistent Threats und Daten-Exfiltration als größte Bedrohungen ansehen. Unternehmen stecken viel Geld in die IT-Sicherheit, für 2014 sollen sogar mehr Ausgaben geplant sein als im Vorjahr, so eine Umfrage von eco – Verband der deutschen Internetwirtschaft e.V. Da ist es doch verwunderlich, dass gemäß der Studie des Ponemon Institute erhebliche Mängel in der Kommunikation zwischen Sicherheitsverantwortlichen und Management herrschen. 31 Prozent der Befragten, die für den Bereich Cyber-Security zuständig sind, gaben an, nie mit dem Management über dieses Thema zu sprechen. 23 Prozent führten nur einmal im Jahr ein Gespräch und weitere 19 Prozent nur einmal im halben Jahr. Darüber hinaus haben nur 38 Prozent das Gefühl, dass ihre Unternehmen ausreichend in Personal und Technologien investieren, um Cyber-Security-Ziele zu erreichen. Immerhin gaben 49 Prozent an, in den nächsten zwölf Monaten Investitionen im Security-Umfeld zu tätigen. Die restliche Hälfte ist sich einig, dass erst in eine neue IT-Security-Lösung investiert werden würde, wenn ein Datendiebstahl-Vorfall zu beklagen wäre. Es bleibt nur zu hoffen, dass die Abteilungen vorher rechtzeitig miteinander sprechen, um größere Schäden zu vermeiden.

Zur Studie: Es wurden weltweit rund 5.000 Verantwortliche für IT-Sicherheit in 15 Ländern befragt, darunter England, Deutschland, Frankreich, Italien, die Niederlande, Schweden und die USA.

menuseperator

Der Mainframe feiert dieses Jahr seinen 50. Geburtstag. Ein wahrlich stolzes Alter, wenn man bedenkt, dass der IT-Dinosaurier eigentlich schon längst hätte ausgestorben sein sollen. Aber der Großrechner hält sich wacker und ist immer noch bei vielen Unternehmen im Einsatz. Denn in puncto Sicherheit, Stabilität und Performance ist er einfach nach wie vor unschlagbar.

Doch es gibt ein zentrales Problem: Die Fachkräfte fehlen.

Denn für junge Softwareentwickler gibt es in der Tat spannendere Projekte, als sich mit COBOL oder PL/1 zu beschäftigen. Und genau hier müssen die Unternehmen ansetzen. Sie müssen die neue mit der alten Welt verbinden und den Softwareentwicklern in diesem Umfeld die Tools und Entwicklungsumgebungen zur Verfügung stellen, die sie kennen. Und das egal auf welchem Endgerät.

Denn am Ende ist doch klar: Der Mainframe wird bleiben und die Unternehmen werden sich anpassen und vor allem überlegen müssen, wie sie den jungen Softwareentwicklern die Mainframes wieder schmackhaft machen können. Nicht nur die Fachkräfte müssen sich auf den Großrechner einstellen, sondern auch die Unternehmen auf die jungen Softwareentwickler.

Hierzu auch ein aktuelles Video unseres Kunden Micro Focus:

 

menuseperator

Über die Gewinnspannen bei Mobiltelefonen ist immer wieder spekuliert worden. Exorbitant sollen sie sein. Aber Genaues weiß man nicht. Geschäftsgeheimnis.

Aus Brasilien (ausgerechnet Brasilien!) kommt nun ein kleiner, sachdienlicher Hinweis dazu:

Neben den schlechten Geschäftszahlen ereilte Samsung auch noch eine schlechte Nachricht aus Brasilien. Dort erbeuteten Diebe bei einem aufsehenerregenden Überfall auf eine Fabrik Mobiltelefone und Computer im Wert von sechs Millionen Dollar. […]

Die Räuber sollen sich mehr als drei Stunden in der Samsung-Fabrik aufgehalten und elektronische Geräte gestohlen haben. Laut Polizei waren 20 Leute an dem Überfall beteiligt und sollen rund 40.000 Produkte mit sieben Lastwagen aus der Fabrik geschafft haben.

Während die Polizei zunächst von einem Schaden von rund 36 Millionen Dollar sprach, bezifferte Samsung selbst den Wert der gestohlenen Produkte auf sechs Millionen Dollar.

Die unterschiedlichen Beträge müssen kein Widerspruch sein, denn EK ≠ VK. 

menuseperator

Seit es Blogs gibt, sind sie auch ein Thema für die Unternehmenskommunikation. Klar, sie bringen dafür schließlich ideale Voraussetzungen mit: Hier kann ein Unternehmen sich und seine Sicht der Dinge ohne jegliche Restriktionen darstellen, während man sich bei Facebook, Twitter oder YouTube an die Gegebenheiten der jeweiligen Plattform halten muss und am Ende nicht weiß, ob einem ein eingestelltes Foto überhaupt noch gehört.

Im Blog ist man dagegen Herr im Haus. Hier hat ein Unternehmen die Möglichkeit, sich so zu präsentieren, wie es gesehen werden will. Hier besteht die Möglichkeit, seine Ansichten über eine beliebige Auswahl von Themen, seien es Technologien, Märkte, Hintergründe, Zusammenhänge, Mitbewerber, eigene oder fremde Aktivitäten, darzulegen.

Ohne Restriktionen heißt dabei, dass man weder auf die Themenplanung oder Interessen von Medien Rücksicht nehmen muss, dass man aber auch nicht mehr unter dem unmittelbaren Diktat des Vertriebs steht, der mit jeder Aktivität ein direkt messbares Umsatzplus erreichen oder zumindest Leads generieren muss. Im Blog kann ein Unternehmen umsetzen, was Social Media verspricht: Dialog mit Kunden und Interessenten, Kommunikation in beide Richtungen.

Das war die Theorie, die bekanntlich grau ist. Wie dagegen die Praxis aussieht, zeigt eine Studie, die wir im Auftrag von uns selbst durchgeführt haben. Untersucht wurden dabei die Unternehmens-Blogs der 100 wichtigsten IT-Unternehmen in Deutschland. Die Ergebnisse waren – gelinde gesagt – ernüchternd, Näheres kann man hier nachlesen.

Lediglich 24 von 100 Unternehmen haben überhaupt Unternehmens-Blogs in deutscher Sprache, von denen – bei genauerem Hinsehen – nur sieben gehobenen Ansprüchen genügen konnten. Lob verdienten sich schließlich nur die Blogs von Datev und SAS.

Die Mängelliste der Übrigen ist lang: Bei den einen erscheinen Beiträge nur alle paar Wochen oder Monate, andere sind so gut auf den Websites versteckt, dass man meinen könnte, die betreffenden Unternehmen würden sich ihrer schämen. Wieder andere fallen durch Textwüsten oder konfuses Layout auf. Das verbreitetste Übel aber ist, dass viele Unternehmen ihren Blog für die Zweitverwertung von anderweitig erstellten Texten missbrauchen. Da werden dann Pressemitteilungen 1:1 wiedergegeben oder man stellt der Einfachheit halber gleich Marketing-Unterlagen ein.

Die Frage stellt sich: Wer will das lesen? Sollte ein Blog nicht etwas Anderes sein? Sollte er nicht inhaltliche Vielfalt bieten und persönlichen Stil? Angenehm und wenn möglich schnell zu lesen? Und war da nicht was mit Hintergründen und Zusammenhängen?

Wir haben uns, solcherart enttäuscht, natürlich gefragt, ob wir nicht falsche Erwartungen hatten. Aber wir sind nicht die Einzigen, die beim Lesen von Unternehmens-Blogs ein ungutes Gefühl haben. Wir zitieren hier ausnahmsweise etwas ausführlicher den Kollegen Nico Lumma, der Anfang des Jahres in seinem Blog "Lummaland" unter dem Titel "Die Sache mit den Unternehmensblogs" ein hartes Urteil fällte:

Die Realität sieht so aus, dass Unternehmensblogs strunzend langweilig sind. Sie sind genauso rundgeschliffen wie die Pressemitteilungen, was daran liegt, dass sie meistens aus derselben Abteilung kommen. […] Herauskommen Blogs, die vor lauter Langeweile nur so strotzen, die Jubelmeldungen schreiben, die langweiligste Blicke hinter die Kulissen bieten, ohne etwas zu verraten […]

Was ist aus der Idee geworden, den Blickwinkel des Nutzers einzunehmen? Will der Kunde wirklich noch mehr Infos haben, will der wirklich wissen, wie die zuständige Produktmanagerin aussieht und welche Hobbies sie hat? […] Deutsche Unternehmensblogs sind hingegen stiefkindlich betreute Resterampen für mäßig interessante Pressemeldungen. […]

Unternehmensblogs haben ein irres Potential, da Unternehmen mit Unternehmensblogs selber die Geschichten erzählen können, die sie erzählen wollen, ohne dafür Journalisten und andere Intermediäre zu benötigen. Unternehmensblogs können faszinieren, Unternehmensblogs können inspirieren, aber insbesondere deutsche Unternehmensblogs strotzen vor Langeweile.

Lumma kommt zu dem Schluss, Unternehmensblogs seien "eines der größten Irrtümer der Kommunikationsbranche der letzten 10 Jahre". Soweit würden wir nicht gehen – immerhin haben wir ja noch fünf brauchbare und zwei gute Blogs gefunden. Aber nachdem wir ein paar Dutzend Unternehmens-Blogs angeschaut haben, wissen wir schon, was Lumma meint – und was ihn zur einer etwas inflationären Verwendung des Worts "langweilig" veranlasst hat.

Dabei sind wir auf die Sache mit dem Dialog, dem eigentlich heiklen Punkt der Unternehmens-Blogs, noch gar nicht eingegangen. Auch dazu mehr in unserem Whitepaper.


Langeweile im Blog? Katzen-Content hilft immer. 

Interview mit unserem Geschäftsführer Alain Blaes zur PR-COM-Studie über B2B-Blogs deutscher ITK-Unternehmen:

 

menuseperator

Auf diesem Blog haben wir schon öfter eines der aktuellen IT-Trendthemen aufgegriffen: Big Data. Der Begriff steht – sehr vereinfacht gesagt –­ für die Sammlung, Strukturierung und Auswertung riesiger und hochkomplexer Datenmengen. Am Ende des Prozesses soll – wieder simplifiziert gesprochen – ein Erkenntnisgewinn stehen, aus dem sich Handlungen ableiten oder Strategien entwickeln lassen. Oftmals wird diese Datenanalyse eingesetzt, um genau ein Ziel zu erreichen: den Vorteil gegenüber der Konkurrenz. Egal, ob dies letztlich zur Absatzsteigerung von buntem Toilettenpapier oder zur Ausspähung ganzer Staatengebilde führt. Es geht um den Vorsprung vor den anderen, der nicht selten sogar entscheidend für den ganzen Unternehmenserfolg sein kann. Welches Potential strukturiert aufbereitete Daten haben, erkennen auch immer mehr deutsche Unternehmen. Fast die Hälfte der hierzulande ansässigen Firmen setzen bereits Big-Data-Lösungen ein oder haben dies zumindest ganz weit oben auf ihrer To-Do-Liste stehen.

Es gibt darüber hinaus aber auch andere, für die Allgemeinheit bedeutende Einsatzszenarien. Meine Kollegin Eva Kia-Wernard hat kürzlich ein paar Beispiele vorgestellt, wie Big-Data-Technologie zum Wohle der Menschheit eingesetzt werden kann.

Aus gegebenem Anlass wollen wir heute auf noch ein weiteres Anwendungsgebiet aufmerksam machen. Manch einer würde sogar sagen es handelt sich hierbei um das wichtigste Thema überhaupt: der Sport und hier vor allem König Fußball. Neben Training und körperlicher Kraftanstrengung spielt auch Big Data eine immer wichtigere Rolle im Leistungssport. Gesammelte Daten über Spielabläufe, Einzelspieler, Mannschaftsverhalten und vieles weitere mehr dienen als Grundlage für komplexe Analysen und können zur Darstellung von Zusammenhängen führen, über deren Existenz sich Trainer und Spieler bisher vielleicht noch nicht einmal bewusst waren. Auf diese Weise kann nicht nur die Konkurrenz noch besser unter die Lupe genommen werden, sondern auch die eigenen Stärken und Schwächen treten deutlicher hervor und können gewinnbringend für das Training eingesetzt werden.

Auch die deutsche Fußball-Nationalmannschaft bedient sich vermehrt der Möglichkeiten, die Big Data heutzutage bietet. Das erklärte der Manager der deutschen Nationalmannschaft, Oliver Bierhoff, auf der diesjährigen CeBIT. Mit Hilfe von speziellen Sensoren sollen die unterschiedlichsten Daten über die Spieler und deren Zusammenarbeit gesammelt und in Datenbanken einander gegenübergestellt werden, um so noch bessere Strategien und Taktiken erarbeiten zu können. Vorbei also die Zeit der Spickzettel vorm Elfmeterschießen? Wir werden es vielleicht schon in den kommenden Wochen sehen, wenn Jogis Jungs in Brasilien um die Weltmeisterschaft kämpfen. Doch wie auch immer dieses Turnier ausgeht, Big Data steht als ein Sieger schon heute fest.

menuseperator

Das Sammeln von Daten per se hat ja in jüngerer Zeit einen eher schlechten Ruf, auch wenn deren Analyse und Strukturierung heute zu den geschäftskritischen Aufgaben eines jeden Unternehmens zählen. Datenschutzpannen und die Affäre Snowden demonstrieren eindrucksvoll, welches Schindluder sich mit unrechtmäßig erschlichenen Daten treiben lässt.

Dennoch sei heute mal die Seite herausgestellt, die Forschung und Wissen voranbringt und – im besten Fall – sogar Leben retten kann.

Die Anwendungsfelder für komplexe Datenanalysen und -berechnungen sind so vielfältig wie die wissenschaftlichen Disziplinen, allen voran die Naturwissenschaften. Sei es die Auswertung meteorologischer Daten zur Wettervorhersage und Sturmwarnung, die Berechnung astronomischer Daten für die Satelliten-Steuerung oder Mars-Rover-Mission oder die Computersimulation molekularer Vorgänge in der Physik. Die Liste wissenschaftlicher Einsatzfelder lässt sich fast beliebig erweitern. Ein Beispiel für den Einsatz von High Performance Computing in der Medizin ist die Genom-Analyse, wie sie in Forschungszentren, an Universitäten oder in der Industrie betrieben wird.

So läuft zum Beispiel am Translational Genomics Research Institute (TGen) in Phoenix, Arizona, ein Genom-Analyse-Projekt mit Hilfe der Dell Genomic Data Analysis Platform. Das TGen befasst sich mit biomedizinischen Forschungen und klinischen Studien zu Neuroblastomen, einer besonders aggressiven Krebserkrankung bei Kindern, bei der Zeit ein entscheidendes Kriterium ist. Dank der hochperformanten HPC-Lösung, die Terabyte an Daten verarbeiten kann, lassen sich die Erbgutsequenzen schneller analysieren, was die Chancen für eine wirksame Therapie deutlich erhöht.

Was mit Datenauswertung beginnt, macht eben manchmal auch den Fortschritt erst möglich – egal ob im Weltraum oder vor unserer Haustür.

Wer sich für weitere spannende Anwendungsbeispiele des High-Performance-Computing interessiert, hat demnächst dazu Gelegenheit, denn ab dem 23. Juni 2014 ist es wieder soweit: Die ISC 2014 (International Supercomputing Conference) startet in Leipzig. 

menuseperator

Seiten