Blog

Unser Kunde Red Hat ist in vielen Dingen der Zeit voraus: Vor zwei Jahren schon veröffentlichte Jim Whitehurst, President und CEO von Red Hat, das Buch mit dem Titel „The Open Organization: Igniting Passion and Performance“. Darin wird das offene Organisationsmodell von Red Hat beschrieben und wie wichtig es für den Erfolg von Unternehmen ist, klassischen Top-Down-Management-Modellen in Zeiten dynamischer Veränderungen den Rücken zu kehren. Seitdem haben viele Unternehmen diesen Ansatz für sich übernommen.

Im Rahmen des zweijährigen Jubiläums von The Open Organization erschien gerade der vierte Teil einer begleitenden Buch-Serie, die verschiedenste Aspekte des Open Organizational Design unter die Lupe nimmt. Unter dem Titel „The Open Organization Guide to IT Culture Change“ berichten mehr als 25 Autoren über ihre Erfahrungen und geben Ratschläge, wie es gelingt, eine offenere IT-Abteilung zu schaffen, die schneller und bessere Ergebnisse liefert sowie einen echten Mehrwert für das Business schafft. Unter folgendem Link steht der Text zum Download bereit: https://opensource.com/open-organization/resources/culture-change

Hinter der Buchserie steckt die Open Organization Community. Die Teile eins bis drei der begleitenden Buch-Serie heißen:

menuseperator
Videos sind aus unserem Alltag längst nicht mehr wegzudenken. Der Einsatz im Unternehmen ist daher nur die nächste Stufe der Evolution. Wie der B2B-Einsatz richtig funktioniert und auf was es für Unternehmen zu achten gilt, erläutert Oliver Jäger, Global VP Marketing bei movingimage, im Gespräch mit marconomy. Reinschauen lohnt sich, denn die Nutzung von Video als Kommunikationsmedium im Enterprise-Umfeld bietet ein riesiges Potential:
 

 

Tags: 
menuseperator

Trump tut es (klar, wer sonst), auf der Plattform Facebook treiben es die Nutzer ganz wild und jawohl, auch klassische Medien, wie etwa die Bild-Zeitung, tun es: Fake News verbreiten! Dabei geht es im Kern um die Verbreitung von Gerüchten, die Überspitzung von Nachrichten (mit einem wahren Kern), bis hin zu Lügen und falschen Fakten über Personen, Gruppen und Sachverhalte. Der Grat zwischen freier Meinungsäußerung und Fall für den Anwalt ist mitunter schmal.

Aber warum ist die Aufregung jetzt so groß? Das Phänomen der Fake News, um im Fachjargon zu bleiben, ist nicht neu. Seit jeher verfolgen Menschen in ihren unterschiedlichsten Rollen ihre Interessen. Die Streuung von Gerüchten, die Interpretation von Fakten oder gar der gezielte Einsatz von Lügen waren schon immer Teil des Spiels. Und die Adressaten solcher Nachrichten haben sie auch bereitwillig gestreut, ob bewusst oder unbewusst sei mal dahingestellt. Das passierte lange in der realen Welt, seit ein paar Jahren eben auch in der virtuellen Welt.

Neu ist jetzt sicherlich die Geschwindigkeit und das Ausmaß, mit der sich Fake News über das Internet verbreiten (können). Auch aufgrund sogenannter Social Bots, die kleinen Software-Programme, die auf bestimmte Schlagwörter in Beiträgen anderer Nutzer reagieren und diese automatisiert kommentieren und teilen.

Letztlich gilt aber auch in der virtuellen Welt: jeder ist für sein Handeln selbst verantwortlich. Einen entscheidenden Unterschied (zur realen Welt) gibt es dann doch: das Internet vergisst nie. Von daher ist durchaus Vorsicht geboten, was veröffentlicht, geliked und geshared wird.

menuseperator

Amazon ist sehr innovativ – der klassische Online-Handel wird durch den allseits bekannten B2C-Marktplatz des globalen Players seit Jahren dominiert. Schritt für Schritt kommen neue Angebote und Services dazu, die zunächst im Heimatmarkt getestet und dann global ausgerollt werden. Jüngst etwa Services wie Prime oder den Lebensmittel-Lieferdienst Amazon Fresh, der bislang nur in den USA und in London verfügbar ist. Aber bis der Service nach Deutschland kommt, ist vermutlich nur eine Frage der Zeit und der Sprung zum stationären Handel ist damit ebenfalls nur reine Formsache (siehe weiter unten).

Nägel mit Köpfen hat Amazon dagegen vor ein paar Tagen mit dem Launch seines B2B-Marktplatzes für Händler in Deutschland gemacht. Nach B2C nun also auch B2B. Gewerbliche Kunden finden auf der B2B-Plattform mehr als hundert Millionen Produkte, die jedes Unternehmen braucht: Von Laptops über Lager- und Büroeinrichtung bis hin zu Werkzeug, Klebstoffen, Befestigungsmittel und so weiter. Spezifische, auf Geschäftskunden zugeschnittene Funktionen, wie der Kauf auf Rechnung oder die Anzeige von Netto-Preisen oder Firmenkonten, bietet der Marktplatz natürlich ebenfalls. Und zu Hause bereitet das Unternehmen übrigens in der Zwischenzeit tatsächlich den Angriff auf den stationären Handel vor: mit der Eröffnung eines Lebensmittelgeschäfts. Der Clou dabei, das Geschäft funktioniert ohne Warteschlangen und Kassen. Mehr als das Smartphone und ein Amazon-Account wird zum Shoppen nicht mehr benötigt. Bäm!

Sollte sich auch dieses Konzept durchsetzen, dann wird einem angst und bange um den deutschen Einzelhandel. Nach online also auch das klassische stationäre Geschäft. Neben B2C nun also auch B2B. Verwundert scheint sich der Handel bei jeder Innovation die Augen zu reiben und zu hoffen, dass es schon nicht so schlimm werden wird. Natürlich gibt es auch die positiven Beispiele hierzulande, aber als Außenstehender fragt man sich dennoch, wann und wie die etablierten Größen im Markt ihre Strategien in Zeiten der Digitalisierung und sich verändernden Nutzergewohnheiten anpassen wollen und können? Eines ist klar: die Zeit drängt. Es braucht mutige Konzepte, das Drehen an einzelnen Stellschrauben wird nicht reichen.

menuseperator

Cyber-Angriffe – laut Wikipedia Attacken von außen, die auf größere, für eine spezifische Infrastruktur wichtige Computernetzwerke gerichtet sind – sind mittlerweile im Alltag angekommen. Egal, ob die Finanzbranche, wie beispielsweise das internationale Zahlungssystem Swift, öffentliche Einrichtungen und Organisationen wie der Deutsche Bundestag oder diverse Global Player wie Adobe Systems, das Sony Playstation Network oder Ebay, um nur einige prominente Fälle zu nennen: Sie alle waren bereits von Angriffen betroffen (die Dunkelziffer liegt sicherlich viel höher). Die Gründe dafür können vielfältig sein: Meistens geht es um Wirtschaftsspionage, Erpressung, Image- oder Geschäftsschädigung.

Aktuell hat Akamai seinen vierteljährlichen State of the Internet Security Report für das erste Quartal 2016 veröffentlicht. Die wichtigsten Ergebnisse sind wenig überraschend: DDoS-Attacken und Angriffe auf Webanwendungen haben weiter zugenommen. Im Vergleich zum ersten Quartal 2015 gab es bei den DDoS-Angriffen einen Anstieg um 125%, bei den Attacken auf Webanwendungen war es ein Anstieg um etwas mehr als 25% im Vergleich zum vierten Quartal 2015. Die DDoS-Angriffe werden dabei immer komplexer: Fast 60% der in Q1 2016 abgewehrten Angriffe verwendeten mindestens zwei Angriffsvektoren gleichzeitig. Eine Abwehr wird damit schwerer. Diese Art der Angriffe scheinen damit zum Standard zu werden. Für Unternehmen bedeutet das, dass sie entweder rasch das nötige Know-how aufbauen müssen oder externe Partner an Bord nehmen, die die entsprechende Infrastruktur und Expertise mitbringen. Den vollständigen Bericht gibt es hier: https://www.akamai.com/de/de/our-thinking/state-of-the-internet-report/global-state-of-the-internet-security-ddos-attack-reports.jsp

Der State of the Internet Security Report ist ein Quartalsbericht, der Analysen und Einblicke in cyberkriminelle Aktivitäten bietet, die auf der Akamai Intelligent Platform beobachtet wurden.

menuseperator

Das liest man derzeit rauf und runter: In jedem Marketing-Trend-Ausblick 2016 ist davon die Rede. Alle sind auf der Suche nach relevantem Content. Das Schöne ist: Wir haben ihn! Wir sind im wahrsten Sinne des Wortes „Content-Generatoren“. Kleines Beispiel gefällig: Unsere Redaktion setzt in einem durchschnittlichen Monat locker über 100 Redaktionsprojekte um. Für den laufenden Februar sind übrigens laut unserer allwissenden Datenbank, Stand 2. Februar, exakt 103 in der Planung. Und es kommen täglich Weitere dazu. Der entscheidende Punkt ist, dass dies eine ideale Ausgangsbasis darstellt, um den Content – beispielweise einen Fachartikel, einen Kommentar, eine Pressemitteilung oder einen Media Alert – auch für andere Kommunikationskanäle und -disziplinen zu nutzen: „Recycling“ heißt das Zauberwort. Ein Fachartikel wird beispielsweise nicht nur für die Medienplatzierung genutzt, sondern idealerweise auch gleich in andere passende Zielformate gebracht: etwa in ein Video, schriftliches Interview, Experten-Statement, einen Blog-, Newsletter- oder Website-Beitrag. Für unsere Kunden ist das zu unserem Erstaunen immer wieder eine Überraschung, für uns gelebter Alltag.

menuseperator

In den letzten Jahren gibt es immer wieder Begriffe, die in hoher Regelmäßigkeit in diversen Berufssituationen auftauchen. Zeit, ein Buzzword-Bingo für die B2B-IT-PR zu erstellen. Bingo einfach ausdrucken und in eines der nächsten Meetings mitnehmen. Pro genanntem Buzzword wird abgehakt. Bei fünf vertikalen, horizontalen oder diagonalen Treffern aufstehen und folgendes rufen: „IT-PR: Glückwunsch zu 25 Jahren, PR-COM!“

menuseperator

Kürzlich bin ich über einen Bericht der Computerwoche gestolpert, der sich mit dem „EICAR Minimum Standard für Anti-Malware-Produkte“ beschäftigt: Demnach dürfen sich entsprechende Lösungen der Firmen F-Secure, G Data, Trend Micro und Kaspersky bald mit dem EICAR-Prüfsiegel schmücken. Die Produkte dieser Anbieter erfüllen somit folgende Sicherheits-Standards:

  • Einhaltung von Datenschutzbestimmungen
     
  • Nachvollziehbare Datenkommunikation
     
  • Garantieren, dass die Software nicht manipuliert ist.

Zugegebenermaßen war ich überrascht, über die Notwendigkeit einer „Plakette“ zu lesen, die die Achtung – so sollte man meinen – fundamentaler Rechte und Pflichten Anwendern gegenüber bestätigt. Jedoch fällt auf, dass keine amerikanischen Unternehmen beteiligt sind und voraussichtlich auch nicht sein werden. Genau, da war doch was: Stichwort NSA-Affäre; zudem ist bekannt, dass die amerikanische Gesetzgebung unter bestimmten Bedingungen den eigenen Geheimdiensten die Möglichkeit des Zugangs zu Unternehmensdaten einräumt. Aber auch in Deutschland hat sich der BND in Sachen Wirtschaftsspionage ja bekanntlich nicht mit Ruhm bekleckert ...

Vor diesem Hintergrund macht ein Siegel als vertrauensbildende Maßnahme in einem verunsicherten Markt durchaus Sinn und kann für bestimmte Anbieter von Enterprise-Security-Software ein richtiger Schritt sein. Die Botschaft ist simpel: „Wir sind sauber!“

Das Siegel erhalten zunächst Unternehmen, die sich per Unterschrift dazu verpflichten, diese Kriterien einzuhalten. In einem späteren Schritt sollen dann unabhängige Prüflabore kontrollieren. EICAR, die European Expert Group for IT-Security, ist eine unabhängige und unparteiische Organisation von IT-Security-Experten aus den Bereichen Wissenschaft, Forschung und Entwicklung sowie der Industrie.

menuseperator

Bei den meisten Kunden endet zu Beginn eines neuen Kalenderjahres der PR-Lifecycle und es wird Bilanz gezogen: Wurden die gesteckten Kommunikations-Ziele erreicht? Welche Kampagnen haben funktioniert? Wo gibt es Verbesserungspotentiale? Eine detaillierte und schonungslose Analyse ist meiner Meinung nach die Basis für alle weiteren Kommunikationsplanungen. Sie liefert für gewöhnlich wichtige Erkenntnisse, die es ermöglichen, Kunden auch strategisch an die Hand zu nehmen. Es lohnt sich daher, etwas mehr Zeit zu investieren und sich mit dem Kunden auszutauschen. Und dann geht es auch schon wieder gut gerüstet in eine neue Runde: Communicate your Business!

menuseperator

Seit einigen Monaten arbeite ich verstärkt vom Home Office aus. In meinem Fall bedeutete dies: raus aus der Großstadt, ab aufs Land. Hier bekommt das Thema digitale Infrastruktur eine ganz andere Bedeutung, da viele Gemeinden nach wie vor im digitalen Dunkeldeutschland sitzen. Plötzlich wird die digitale Anbindung zur Standortfrage: denn ohne Internet ist es unmöglich, meinem Beruf nachzugehen. Die digitale Realität ist somit längst im Alltag angekommen. Sicherlich betrifft dies auch viele tausend Handwerker und Mittelständler, die in ganz Deutschland verteilt ihrem Job in mehr oder minder digital angebundenen Kommunen nachgehen.

Und Deutschland verliert weiter: Denn leider hinken wir in der flächendeckenden Abdeckung moderner Hochgeschwindigkeitsnetze anderen Ländern hinterher: Dies zeigt der State-of-the-Internet-Report des Cloud-Service-Anbieters Akamai regelmäßig. Im ersten Quartal 2014 rutschte Deutschland bei den durchschnittlichen Geschwindigkeiten im internationalen Vergleich von Platz 21 auf 26 ab.

Umso wichtiger ist der Beschluss des Bundeskabinetts zur „Digitalen Agenda 2014-2017“, der jetzt vorgelegt wurde und die Leitsätze für die nächsten Jahre diktiert: 1. Stärkere Erschließung des Innovationspotenzials unseres Landes für weiteres Wachstum und Beschäftigung, 2. Die Unterstützung beim Aufbau flächendeckender Hochgeschwindigkeitsnetze und die Förderung digitaler Medienkompetenz (...), 3. Die Verbesserung der Sicherheit und den Schutz der IT-Systeme und Dienste (...).

Aber wie realistisch ist eine flächendeckende Umsetzung? Die Politik muss sich letztlich daran messen lassen. Denn längst hängt das Wohl unserer Gesellschaft an einer möglichst raschen Umsetzung. Wir brauchen dringend Lösungen. Sicherlich ist das Thema nicht trivial, da viele Partikularinteressen involviert sind und oftmals ein Geschäftsmodell für gewinnorientierte Unternehmen gerade in ländlichen Gebieten nicht realisierbar ist. Aber gerade in einem solchen Fall muss der Staat in die Bresche springen und falls nötig für die entsprechenden Anschub-Investitionen sorgen. Denn längst zählt das Internet zur kritischen Infrastruktur. Und übrigens, es müssen nicht immer die kolportierten 50 Megabit pro Sekunde sein: Viele Firmen wären bereits froh, in akzeptabler Geschwindigkeit und ohne Verbindungs-Schwankungen im Netz unterwegs sein zu können. Und das jetzt, und nicht erst in Jahrzehnten!

menuseperator

Cloud Computing wird vom Hype zur Realität. Mit OpenStack, einem Softwareprojekt, das eine freie Architektur für Cloud Computing zur Verfügung stellt, hat sich in den letzten Jahren quasi der Standard für hybride, herstellerunabhängige Cloud-Umgebungen entwickelt, die auch zunehmend „Enterprise-IT-ready“ sind. Interessant dabei ist, dass sich an dem Projekt viele führende IT-Technologieanbieter wie Red Hat, Dell, HP, IBM oder Cisco beteiligen, die viel Geld investieren und substanzielle Beiträge zur Community leisten.

Vor diesem Hintergrund ist spannend, wie sich das Rennen der führenden Technologieanbieter entwickelt, aber auch, warum sich Anwender mit dem Thema ernsthaft beschäftigen sollten.

Carlo Velten, Managing Director von Crisp Research, gibt in seinem Beitrag auf Computerwoche online „HP, IBM, Red Hat – wer gewinnt das OpenStack-Rennen?“ eine lesenswerte Einschätzung dazu ab: Hier weiterlesen...

menuseperator

Heute haben wir für unseren Kunden Red Hat ein Marketing-Video umgesetzt. Daraus gewonnene Einzelstatements lassen sich auch für die Pressearbeit hervorragend nutzen: Zum Beispiel über eine Verlinkung in Form von Mailings für Interview-Pitches, Veranstaltungseinladungen oder auch als weiterführende Informationen in Pressemitteilungen. Der entscheidende Vorteil von Videos gegenüber geschriebenem Text: Sie transportieren Emotionalität durch die Visualisierung von Inhalten und Personen.

Impressionen vom Dreh:

  Kamera ab! (Bild: PR-COM, April 2014)  Studioaufbau (Bild: PR-COM, April 2014)

menuseperator

In ihrem Beitrag „Mind the Gap“ der aktuellen Ausgabe des Manager Magazin (3/2014, Seite 82 ff.) wird Eva Müller zum Thema „Digitale Infrastruktur“ deutlich und fasst ernüchternd zusammen:

Verglichen mit Asien ist Deutschlands Internet so schlecht und rückständig, dass es allmählich zu einer echten Gefahr für den Standort wird.

Sie bezieht sich dabei auch auf Zahlen des „State of the Internet“ Report zum dritten Quartal 2013 unseres Kunden Akamai.

Auch wir haben in einem Video-Statement vor ein paar Wochen ähnlich resümiert:

Liebe Frau Müller, danke für diese klaren Worte. Wir sehen das genauso.

menuseperator

Jedes Jahr ungefähr ab Mitte November geht es los: Viele Analysten-Häuser, aber auch zunehmend IT-Unternehmen, äußern sich zu den Technologie-Trends des kommenden Jahres. 

Dass Marktforschungsunternehmen wie Gartner oder Forrester das Jahresende nutzen, um einen Ausblick auf kommende Technologien zu geben, ist verständlich. Das ist schließlich Teil ihres Geschäftsmodells. Also aufzuzeigen, welche Technologien das Potenzial besitzen, einen signifikanten Einfluss auf Unternehmen zu haben. Dass sich dabei viele Hype-Themen aus 2013, wie beispielsweise Mobility, Cloud, Big Data oder das Internet der Dinge, in unterschiedlichen Ausprägungen in 2014 wiederfinden, verwundert auch nicht weiter.

Was meiner Ansicht nach zunimmt – aber womöglich bilde ich mir das auch ein – sind Prognosen von IT-Unternehmen. Generell spricht natürlich nichts dagegen, sich als Markt-Experte zu positionieren. Ganz im Gegenteil sogar, wir motivieren unsere Kunden von Fall zu Fall auch, dies zu tun. Was dabei allerdings wichtig ist, ist eine gewisse Neutralität zu wahren und eine echte Markteinschätzung abzugeben, die ­– und das ist der springende Punkt – über die Betonung des eigenen Geschäftsfeldes hinausgeht. So ist es meiner Ansicht nach wenig glaubhaft, wenn für einen Anbieter von Netzwerk-Lösungen einzig die WAN-Optimierung die Basis für Cloud Services im nächsten Jahr bildet oder, an anderer Stelle, ein Anbieter von Lösungen für Mobile Device Management den Top-Trend 2014 "Mobile Device Diversity and Management" von Gartner unterstreicht.

Somit bleibt im Grunde alles beim Alten: Die Marktforscher walten ihres Amtes mit wenig überraschend Neuem und die IT-Unternehmen reiten auf der Prognose-Welle mit. Letztere sollten dabei aber im Sinne der Glaubwürdigkeit auf echte Markteinschätzungen Wert legen.

menuseperator

Die Tage war ich mit dem CEO des weltweit führenden Anbieters für Open-Source-Unternehmenslösungen auf Pressetour, diesmal in der Schweiz. Die Redaktionen interessierten sich dabei immer wieder für den Nutzen von Open Source für Enterprises und welche Argumente wie zu gewichten beziehungsweise einzuschätzen seien. Grund genug auch für uns, die wir seit Jahren Kunden in diesem Bereich betreuen, die wichtigsten Punkte festzuhalten:

Kosten reduzieren: Wenn sich Unternehmen zum ersten Mal mit Open Source intensiver beschäftigen, steht dieses Argument zumeist an oberster Stelle. Neben den Hardware- und Lizenzkosten – letztere entfallen bei Open Source Software – sollten aber auch die Verwaltungs- und Wartungskosten mitbedacht werden. 

Sind Unternehmen bereits mit dem Thema enger vertraut, so zeigt die Erfahrung, dass andere Argumente prominenter in den Vordergrund rücken:

Offene Standards und Community: Offene Standards, offene Schnittstellen und die Tatsache, dass viele Entwickler über Communities an einer Software mitarbeiten, führen dazu, dass sie am Ende sehr leistungsfähig, im Sinne von ausfallsicher und skalierbar, aber auch sicher im klassischen Sinne wird: denn viele Augen sehen viel! Kriterien, die für den Unternehmenseinsatz oder auch für einen Anbieter-Wechsel – von proprietärer zu offener Software – wichtig sind.

Vendor-Lock-In: Open Source hilft durch die erwähnten offenen Standards und offenen Schnittstellen, dem berüchtigten Vendor-Lock-In vorzubeugen. Unternehmen machen sich damit unabhängig von einzelnen IT-Anbietern.

Kurze Innovationszyklen: Die in den Communities vorherrschenden Innovationszyklen sind für gewöhnlich kurz. Aktuelle Trendthemen wie Big Data, Virtualisierung, Cloud oder Mobility werden damit auch maßgeblich von Open Source vorangetrieben.

Somit profitieren Unternehmen: Von vergleichsweise niedrigen TCO (Total Cost of Ownership), offenen Standards/Schnittstellen, hoher Leistungsfähigkeit, Sicherheit und einer Anbieter-Unabhängigkeit.

Zu diesem Thema haben wir auch ein Video gemacht. Wer lieber Bewegtbild mag:

menuseperator