Blog

Dass wir keine IT-Scheuklappen aufhaben, beweist nun auch unser Kollege Rainer Doh sehr eindrucksvoll mit seinem ersten Krimi „Mordkap“.

Richtig gehört: kein weiteres Fachbuch zu Excel & Co, nein – ein Krimi.

Wir durften vor ein paar Wochen bereits alle ein handsigniertes Exemplar in Empfang nehmen und haben dabei nicht schlecht gestaunt: ein Krimiautor in unseren Reihen? Denn nur sehr wenige Kollegen wurden im Vorfeld eingeweiht.

Die Handlung von „Mordkap“ spielt großenteils an Bord des legendären Postschiffes MS Midnatsol der norwegischen Hurtigruten. Mehr wird aber an dieser Stelle nicht verraten.

Da ich seit über 20 Jahren kiloweise Krimis verschlinge, war ich natürlich sehr begeistert, dass wir einen waschechten Krimiautor unter uns haben. Aber wie kommt man darauf, ausgerechnet einen Krimi zu schreiben, wenn man sich beruflich eigentlich nur IT-Themen widmet, und woher kam die Idee für die Story? Diese Fragen musste ich natürlich gleich loswerden und weil sie vielleicht nicht nur mich umtreiben, haben wir ein kurzes Interview dazu gedreht – natürlich dem Rahmen der Story „angemessen“.

Übrigens gibt es auch einen Blog zum Buch. Wer also an weiteren Hintergründen oder an Terminen zu Lesungen (nächste am 23.6. in München) interessiert ist, kann hier nachlesen: https://mordkap.wordpress.com  

Viel Spaß beim Anschauen und natürlich beim Lesen!

menuseperator

An jedem PC-Arbeitsplatz in deutschen Mittelstandsunternehmen entstehen täglich durchschnittlich zwei bis vier Gigabyte an Daten. 600 Megabyte werden dort wiederum pro Tag im Durchschnitt „nach außen“ verschickt. Zwei Drittel dieser versendeten Daten bedürften eigentlich einer sicheren, sprich verschlüsselten, Übertragung, da sie sensible Informationen enthalten – bei der tatsächlichen Nutzung sicherer Übertragungswege gibt es aber noch Luft nach oben, wie eine Studie von techconsult im Auftrag von QSC ergeben hat.

Für die Studie wurden 300 CIOs und IT-Leiter mittelständischer Unternehmen aus verschiedensten Branchen befragt. Wichtigste Erkenntnis: Die IT-Leiter sind durchaus sensibilisiert für das Thema, rund zwei Drittel der befragten Firmen setzen bereits diverse E-Mail-Verschlüsselungslösungen ein, weitere 30 Prozent planen eine Implementierung bis 2016. Der Haken: Nicht einmal die Hälfte der Mitarbeiter (44%) in den Unternehmen, die bereits Verschlüsselungslösungen implementiert haben, nutzt diese auch tatsächlich.

Quelle: QSC/ techconsult, Mai 2015

Dafür gibt es mehrere Gründe. Techconsult nennt hier Hindernisse wie Lizenzbestimmungen bezüglich der Anzahl der Nutzer, aber auch Probleme mit der Usability – viele Verschlüsselungslösungen erforderten bisher einen hohen Arbeitsaufwand und gingen zulasten der Produktivität. Darüber hinaus müssen bei allen Beteiligten entsprechende Zertifikate vorhanden sein, und unterschiedliche Tools sind auch nicht immer kompatibel. Oftmals stelle sich allerdings auch die Frage, ob die Geschäftsführung die Belegschaft überhaupt schon mal zum Thema Compliance gebrieft habe, so das Kasseler Analysten- und Beratungshaus.

Umso wichtiger sei es daher, eine unternehmensinterne Strategie zum Umgang mit kritischen Daten zu erarbeiten und diese nahtlos in den Unternehmensalltag zu integrieren. Die Klassifikation der Daten, sowie eine Festlegung, wie diese Daten je nach Klassifikation zu behandeln sind, bilden den Grundstock hierzu. User-freundliche Tools, die sich einfach in die bestehenden Routinen integrieren lassen und damit die Mitarbeiter bei der Einhaltung dieser Regelungen zum Schutz der „Kronjuwelen“ des Unternehmens, seiner Daten, unterstützen, sind wiederum das A und O, um diese Aufgabe flächendeckend auszuführen. Am besten sollten Unternehmen, laut diesem Teil der Studie, darüber nachdenken, eine Lösung einzusetzen, die nicht nur eine Verschlüsselung von Mails, sondern auch weiterführende Funktionen zur Kollaboration anbietet.

Die Studie in voller Länge kann hier heruntergeladen werden.

menuseperator

Egal, ob es um den Schutz unserer persönlichen Daten geht, um Staatsgeheimnisse oder um die Kontrolle über das interne IT-System: Die IT-Sicherheit gewinnt immer mehr an Bedeutung, denn Gefahren lauern aus allen Richtungen. In den letzten Jahren haben sich sowohl der Schweregrad als auch die Häufigkeit von Datenmissbrauchs-Fällen vervielfacht. Schlupfloch für die Angriffe sind dabei meist fehlende Sicherheitsmaßnahmen: mangelhaft konfigurierte Einstellungen oder Rechte, unzureichendes Zugriffsmanagement oder lückenhafte Nutzungsrichtlinien. Trojaner, Hash-Attacks, Phishing-Mails, all dies sind keine Fremdwörter mehr und Cyberattacken jeglicher Couleur wurden in den vergangenen Jahren publik. Längst geht es nicht mehr nur um unsere Daten, die massenweise gespeichert und ausgespäht werden – gläsern ist der Mensch inzwischen sowieso – mittlerweile zielen diese Angriffe auf konkreter fassbare Bereiche unseres Lebens ab: unser Hab und Gut wie auch unser Leben geraten ins Visier. Heute benötigen Terroristen und Kriminelle keine Waffen mehr, um Unternehmen oder gar ganze Staaten zu bedrohen.

Das zeigen Coups in den vergangenen Monaten ganz deutlich: Da wären beispielweise die „Guardians of Peace“, die 2014 wegen unzureichender Sicherheitsvorkehrungen ganz einfach in das Firmennetz von Sony Pictures Entertainment eindringen konnten, massenweise Daten der Filmstars abgriffen und den Konzern tatsächlich zwangen, einen Nordkorea-kritischen Film nicht auszustrahlen. Eine Blamage sondergleichen für Sony. Ein weiteres Beispiel dafür, wie lax die Industrie mit Sicherheitsmaßnahmen umgeht, ist der BMW-Connected-Drive-Hack, wo Hacker ganz einfach via einer Sicherheitslücke 2,2 Millionen Fahrzeuge entsperren konnten – das Angebot DriveNow von BMW sollte wohl nicht nur dem Besitzer freistehen, sondern auch jeglichem Passanten das Vergnügen einer kleinen Spritztour bereiten.

Fortgesetzt wird die Reihe durch einen aktuellen Hackangriff, welcher aber die Öffentlichkeit nicht nur in Sprachlosigkeit, sondern regelrecht in Angst versetzt: Der Passagier, der sein Flugzeug hackte – einem Sicherheitsexperten war es möglich, das Steuerungssystem eines Flugzeugs ganz simpel aus der Passagierkabine heraus zu hacken und somit die Kontrolle über das Leben vieler Menschen zu übernehmen. Wenn es nicht gelingt neue, nicht hackbare Sicherheitsvorkehrungen einzurichten, müssen wir in Zukunft vielleicht gar mit erweiterten Handgepäckregeln rechnen: das Verbot gilt nicht mehr nur für Flüssigkeiten und Waffen, sondern betrifft in Zukunft auch BYOD.

Da sich hier einmal mehr zeigt, dass für die Industrie das Kriterium Sicherheit immer noch nicht oberste Priorität hat, wird der Ruf nach einem Gesetz immer dringlicher, das zu einer Erhöhung der IT-Sicherheit in Deutschland beitragen soll. Dazu diskutiert der Bundestag momentan eine Gesetzesvorlage, die aber von Experten scharf kritisiert wird: unter anderem sieht das Gesetz keine proaktiven Sicherheitsmaßnahmen als Pflicht vor, sondern im Falle schon eingetretener Sicherheitsvorfälle eine Meldepflicht. "Eine weitere Bürokratisierung der IT-Sicherheit geht zulasten dringend notwendiger proaktiver Maßnahmen zur effektiven Erhöhung der IT-Sicherheit", so der Experte Linus Neumann vom Chaos Computer Club. Da in vielen Fällen Daten-Ausspähungen nicht einmal von den vorhandenen Security-Systemen entdeckt werden, wirklich eine fragwürdige Besserung! Das Übel der Angriffe wird nicht bei der Wurzel gepackt und im Keim erstickt, sondern nur mit zahlreichen anderen Vorfällen dokumentiert und ad acta gelegt.

Im Zeitalter des Internet of Things sollte endlich ein Umdenken stattfinden und in der Euphorie eines technischen Fortschritts um jeden Preis nicht jede Innovation ohne ausreichende Sicherheitsprüfung eingeführt werden. Und dazu ist ein entsprechendes Gesetz schlichtweg notwendig.

Quelle: pixabay / Lizenz: CC0 Public Domain

menuseperator

Unternehmen wollen in der Öffentlichkeit möglichst gut dastehen, weshalb sie überhaupt erst mal in der Öffentlichkeit wahrgenommen werden müssen, wozu sie die Dienste der PR in Anspruch nehmen. So denken wir uns das. Vielleicht ist das aber nur aus dem voreingenommenen Blickwinkel der PR so, vielleicht befinden wir uns auch mitten in einer Filterblase und merken es nicht mal. Es gibt nämlich auch Unternehmen, die das Thema Öffentlichkeit ganz anders anpacken.

Da hatte ich doch kürzlich mit einem durchaus renommierten mittelständischen Technologie-Unternehmen (den Namen lasse ich jetzt bewusst weg, dazu später mehr) zu tun; es ging um eine recht simple Sache: Bildmaterial. Auf der Website war nichts zu finden; leider auch kein Ansprechpartner oder Pressekontakt. Also schnell Telefon über die dortige "Zentrale" mit Bitte um Durchstellen zur zuständigen Stelle.

Denkste! Eine Weitervermittlung käme grundsätzlich nicht in Frage, das Anlegen müsse schriftlich per E-Mail (immerhin!) an "info@" vorgebracht werden. Auch die Hinweise, die Sache sei (a) etwas eilig, (b) schnell zu erledigen (und sei es nur durch die Auskunft "Hamwanich") und (c) "info@" berge die große Gefahr der Fehlleitung, halfen nicht. Schriftlich. Punkt.

Ok, also schriftlich. Möchte jemand raten, wie es ausging? Ja? Es gibt allerdings nichts zu gewinnen, weil es so wenig schwierig ist. Natürlich habe ich von diesem Unternehmen bis heute keine Antwort erhalten; auch nicht schriftlich. Man sieht: es geht auch in unserem digitalen Medienzeitalter ohne öffentliche Wahrnehmung. Deshalb wurde das Unternehmen hier auch nicht namentlich genannt, es wäre ihm bestimmt nicht recht. Einer von uns beiden steckt wohl in einer Filterblase.

menuseperator

Über die Praktiken mancher Pressestellen kann man sich wirklich nur wundern. So habe ich nicht schlecht gestaunt, als ich kürzlich über diese Headline gestolpert bin:

„199,20 Euro für eine Frage zur Middelhoff-Kaution“
(Handelsblatt Online, 27. April 2015)

Im Zuge seiner Recherchen zu einem Artikel über Deutschlands zweitbekanntesten Freigänger wollte ein SPIEGEL-Redakteur sich die Information bestätigen lassen, dass die Hamburger Marseille-Kliniken bereit seien, eine Kaution für Thomas Middelhoff zu stellen, damit dieser aus dem Gefängnis frei kommt. Hierfür ließ er der Pressestelle des Unternehmens einige Fragen zukommen.

So weit so üblich.

Die Marseille-Kliniken sahen sich jedoch nicht veranlasst, diese Fragen einfach so zu beantworten (oder zu ignorieren), sondern schickten dem SPIEGEL einen Kostenvoranschlag für deren Beantwortung.

„Für die Beantwortung der Anfrage, Recherche“ sowie die „Auswertung von Unterlagen“ veranschlagte das Unternehmen 148 Euro. Zudem berechnete es eine „Schreibgebühr“ von 20 Euro. Inklusive Mehrwertsteuer ergab sich ein Gesamtpreis von 199,20 Euro (…).
(Auszug aus Handelsblatt Online, 27. April 2015)

Ja, ich habe mich gewundert. Auch noch als ich ein paar Tage später die Stellungnahme des Gründers und aktuellen Aufsichtsratsvorsitzenden Ulrich Marseille gelesen habe, der die ganze Aufregung nicht verstehen kann.

„Warum sollen wir Fragen beantworten, die uns nicht betreffen, uns aber Arbeit machen? Und warum sollen wir das umsonst machen?(…) Hätte der Spiegel 199,20 Euro bezahlt, hätte er eine Zeitungsente vermeiden können. Das ist doch ein guter Preis für wahre Berichterstattung“
(Auszug aus Kress.de, 29. April 2015)

Auch eine Logik.

Aber ein Gutes hat die ganze Sache: Bisher wusste ich nur, dass die Wahrheit ihren Preis hat. Jetzt kenne ich die exakte Summe.

menuseperator

Seit dem 13. April läuft in Hannover die weltweit wichtigste Industriemesse. Die Hannover Messe beschäftigt sich in diesem Jahr neben Energie- und Umwelttechnologien, Antriebs- und Fluidtechnik, industrieller Zulieferung, Produktionstechnologien und Dienstleistungen, Forschung und Entwicklung erneut mit dem Thema Industrie 4.0. 

Industrie 4.0 steht für die vernetzte Fabrik, in der Maschinen und Werkstücke miteinander permanent Informationen austauschen. Das funktioniert mit Hilfe von kleinen Computern und Sensoren, die sich zum Beispiel in den Maschinen befinden und zu einer Art Netzwerk (genauer einem cyber-physischen System) zusammengeschaltet werden. So ein cyber-physisches System kann zum Beispiel aus einer Cloud Daten ziehen. Wohin das künftig führen könnte, hat zum Beispiel Miele in Hannover mit einer Projektstudie gezeigt: Ein Herd mit Assistenzsystem, der die notwendigen Daten beziehungsweise die Einstellungen zum Gelingen eines Rezeptes über Microsoft Azure bezieht. Kunden können sich auf der Website von Miele für ein Gericht entscheiden. Nach der Auswahl des Gerichtes werden die notwendigen Zubereitungsstufen auf das Smartphone oder Tablet des Anwenders übertragen. Aber das ist noch nicht alles: Via Microsoft Azure kommt das entsprechende Automatikprogramm in den Backofen. Unter Berücksichtigung von Betriebsart, Temperatur, Kochzeit, Feuchtigkeit und anderen Faktoren soll das Wunschgericht dann gelingen. Rezepte wie Automatikprogramme werden in den Miele-Versuchsküchen auf die Geräte abgestimmt. Auch wenn das Projekt derzeit noch eine Studie ist, zeigt es, was mit dem Internet der Dinge und Cloud-Technologien künftig möglich ist. 

Trotz aller Euphorie lässt die wirkliche Revolution bei Industrie-4.0 aber noch auf sich warten. Eine aktuelle Studie des BITKOM zeigt, dass gut vier von zehn Unternehmen (44 Prozent) in den industriellen Kernbranchen bereits Industrie-4.0-Anwendungen nutzen. Der Automobilbau hat bei der Nutzung von Industrie-4.0-Anwendungen mit 53 Prozent einen Vorsprung vor den anderen Branchen. In der Elektrotechnik nutzen 48 Prozent Industrie 4.0-Anwendungen, in der chemischen Industrie sind es 42 Prozent, im Maschinen- und Anlagenbau lediglich 41 Prozent. Offenbar gibt es auch noch viele Bedenken: Fast 80 Prozent der Betriebe halten die eigene Branche für zu zögerlich, was die Umsetzung von Industrie 4.0 angeht. Ein Hindernis sind laut Umfrage die Investitionskosten. 72 Prozent der Befragten sagen, dass diese Investitionskosten gegen den Einsatz von Industrie-4.0-Anwendungen in ihrem Unternehmen sprechen. Für die Studie wurden dafür je 100 Unternehmen mit mindestens 100 Mitarbeitern aus der Automobilbranche, dem Maschinenbau, der chemischen Industrie sowie der Elektroindustrie befragt. 

Um den richtigen Rahmen für Industrie 4.0 zu schaffen, hat der Verband deutscher Maschinen- und Anlagenbau (VDMA) auch eine europäische Initiative für Industrie 4.0 gefordert. Laut VDMA-Präsident Dr. Reinhold Festge sollten Vertreter der EU-Kommission, des Europäischen Parlaments, der EU-Mitgliedstaaten und der Industrie in einer hochrangigen Arbeitsgruppe mit klar definierten Prozessen die Strategie für die digitale Produktion in Europa erarbeiten. Ein Schritt in die richtige Richtung, wie ich meine. Bleibt zu hoffen, dass das Thema Industrie 4.0 für die Politik nicht auch „Neuland" ist.

menuseperator

Hochleistungsrechner oder „High Performance Computing“ (HPC) sind heute nahezu in allen Bereichen der Natur- und technischen Wissenschaften zu finden; typische Anwendungsbereiche sind etwa Astro- und Teilchenphysik, Genetik, Quantenchemie und Strömungsmechanik. Darüber hinaus gibt es auch Anwendungen im kommerziellen Bereich wie Wettervorhersage, Crash-Test-Simulation, Strömungssimulation oder bei der Generierung von Animationsfilmen. Alles sehr spannende Themen, wo Unmengen von Daten anfallen, die es zu verarbeiten gilt. Das hier besondere Rechner zum Einsatz kommen, steht außer Zweifel. So ist es auch gar nicht verwunderlich, dass laut einer Umfrage, gerade einmal 5% des Mittelstands solche Lösungen nutzt. Scheint der Mittelstand hier doch gar nicht die richtige Zielgruppe zu sein. Doch genau da liegt der Fehler, denn auch kleine und mittelständische Betriebe können ihre Wettbewerbsfähigkeit mit HPC-Lösungen erheblich steigern. „Big Data“ ist in aller Munde und das rasante Wachsen von Datenvolumina ist kein Hype, sondern Realität. Warum diese Lösungen im Mittelstand noch kaum anzutreffen sind, ist somit verwunderlich. Viele der Befragten kannten den Begriff „HPC“ gar nicht. Weitere Ergebnisse der Umfrage hier: http://www.pr-com.de/de/pi/high-performance-computing-nachholbedarf-im-mittelstand

menuseperator

„Cloud Computing wird Basistechnologie in vielen Unternehmen“, prophezeit der BITKOM. Es scheint die Ideallösung schlechthin zu sein, angefangen vom geringen Investitionsaufwand über schnelle, unkomplizierte Server-Wartung und Systemwiederherstellung bis hin zur besseren Zusammenarbeit und einer enormen Flexibilität in Sachen Kapazität und Standort. Doch genau da zeigt sich die Krux gleich doppelt der Standort! Die Cloud ist überall, die Cloud ist nirgends so viel steht fest. Doch wo sitzt der Anbieter und wo sind die Daten gehostet? Lieber ein günstiger Hoster im Ausland oder eine Cloud durch und durch „Made in Germany“, bei der sowohl Betreiber als auch Daten in heimischen Gefilden bleiben und die hohe Qualität, Präzision und auch Sicherheit verspricht? Doch auch eine Cloud im Inland heißt nicht, dass auch der Betreiber hierzulande sitzt, das wird uns nur manchmal verschwiegen. Viele deutsche Unternehmen überlegen, ihre Daten ins meist günstigere Ausland zu verlagern. Aber Achtung: Wie steht es um die Vertraulichkeit, die Integrität und die Verfügbarkeit der Daten, wenn der Hoster im Ausland sitzt? Ist wirklich alles kontrollierbar, transparent, mein Ansprechpartner immer erreichbar und vor allem – sind meine oder noch wichtiger die Daten meiner Kunden sicher? Zieht hier das Prinzip „aus den Augen, aus dem Sinn“ noch weitere Kreise? 

Diese Sicherheitsbedenken bremsen das ein oder andere Unternehmen aus, die ganze „himmlische“ Freiheit zu nutzen. Denn gerade bei grenzüberschreitenden Dienstleistungen bestehen größtenteils Unsicherheiten, welches Recht denn nun gilt. Und damit auch, wer bestimmt, was mit den größtenteils vertraulichen Firmendaten passiert. Klärungsbedarf besteht vor allem auch hinsichtlich des Urheberrechts, der Lizenzbedingungen und vor allen Dingen des Datenschutzes. 

So fordern Datenschützer, dass Anwender Cloud-Services nur dann in Anspruch nehmen dürfen, wenn sie in der Lage sind, ihre Pflichten als verantwortliche Stelle in vollem Umfang wahrzunehmen, sprich Vertraulichkeit, Integrität und Verfügbarkeit der Daten sowie Kontrollierbarkeit, Transparenz und Beeinflussbarkeit der Datenverarbeitung gewährleisten können (offizielle Entschließung der 82. Konferenz der Datenschutzbeauftragten des Bundes und der Länder, 2011). Schwierig wird es bei ausländischen Cloud-Anbietern, denn wer durchschaut schon vollkommen die ausländischen Rechtsordnungen? Räumt mein Cloud-Provider den ausländischen Behörden Zugriffsrechte ein? Muss er vielleicht sogar meine Daten in unsichere Drittstaaten übermitteln (Übermittlungsobliegenheit)? 

Bleiben wir also doch lieber beim guten alten „Made in Germany“ oder zumindest Europa? Brüssel macht den ersten Schritt, ein „Made in Europe“-Siegel ist in Arbeit. 

Bis dahin: Drum prüfe, wer sich ewig bindet.

menuseperator

Endlich wieder positive Nachrichten aus Hannover. Dominierten in den letzten Jahren noch Abgesänge auf die größte IT-Messe der Welt, hat sich die Stimmung nun gedreht. Mit 221.000 Besuchern verzeichnet das Centrum für Büroautomation, Informationstechnologie und Telekommunikation seit mehreren Jahren erstmals wieder ein leichtes Besucherwachstum und sieht ihre Neuprofilierung als reine B2B-Messe geglückt: aus der Publikumsmesse, die in Spitzenzeiten bis zu 800.000 Besucher anzog, ist eine Geschäftsmesse zum Auf- und Ausbau internationaler Geschäftsbeziehungen geworden.
Bereits 2014 sollen 92 Prozent der Besucher Fachbesucher gewesen sein und angesichts der offiziellen Jubelgesänge auf die erfolgreiche Neuausrichtung dürfte die Zahl in diesem Jahr kaum darunter liegen.

Gefühlt färbt der B2B-Fokus übrigens auch auf die obligatorischen, meist jüngeren Taschen- und Giveaway-Jäger ab, die auch dieses Jahr dank zahlreicher Freikarten wieder in Scharen vertreten waren  – sie lassen Jeans und T-Shirt nun zuhause und schieben sich neuerdings im Konfirmandenanzug durch die Gänge.

menuseperator

Können Sie sich noch erinnern, wie sie als Kind manchmal irgendein Wort immer und immer wieder vor sich hin gesagt haben? Solange, bis es jeden Sinn verlor?

So ähnlich treibt es die PR- und Marketingbranche mit dem Wörtchen „Lösung“. Jedes Produkt und jede Dienstleistung – und seien sie noch so profan – sind heute eine Lösung. Die Lebensmittelindustrie liefert keine Lebensmittel mehr, sondern „Ernährungslösungen“. Der Werkzeugbauer baut keine Werkzeuge mehr, sondern „Werkzeuglösungen“. Und Bankberater ziehen ihre Kunden nicht mehr über den Tisch, sondern bieten ihnen „Beratungslösungen“.

Klar, das klingt halt einfach viel besser. Eine Lösung setzt schließlich ein kniffliges Problem voraus. Und um es zu beseitigen, braucht es unbedingt jemanden, der kompetent ist, innovativ, und, ähem, „lösungsorientiert“.

Ich warte jedenfalls schon voller Vorfreude auf den Tag, an dem ich in meine Stammkneipe gehe, mir die Getränkekarte schnappe und dort lesen werde: „Alkoholisierungslösungen“. Wobei – das wird nicht klappen. Alkohol ist ja bekanntlich keine Lösung.

menuseperator

Greifen wir einmal tief in die Klischee-Kiste: Deutsche haben ein großes Sicherheitsbedürfnis, springen nicht auf jeden Trend auf (gerade im Bereich IT-Innovationen), haushalten sparsam und scheuen risikoreiche Investitionen. „Puh, nicht schon wieder diese alte Leier“ denken Sie sich jetzt. Aber im IT-Sektor waren und sind deutsche Unternehmen tatsächlich bei neuen Entwicklungen recht zögerlich und zurückhaltend. Gerade beim Thema Cloud Computing.

Da sind die jüngsten Ergebnisse des Cloud Monitors 2015, einer BITKOM Studie im Auftrag von KPMG (BITKOM KPMG PK Cloud Monitor: 2015), doch interessant und lassen aufhorchen: „Cloud Computing wird Basistechnologie in vielen Unternehmen“ heißt es in der Pressemeldung zur Studie (BITKOM und KPMG Presseinfo: 2015). Insgesamt wurden 458 Geschäftsführer und IT-Verantwortliche in Unternehmen ab 20 Mitarbeitern in der repräsentativen Studie befragt. Fast die Hälfte aller Unternehmen haben im Jahr 2014 Cloud Computing eingesetzt. In großen Unternehmen ab 500 Mitarbeiter sind es sogar 70 Prozent, im Mittelstand jedes zweite, und bei kleinen Unternehmen 41 Prozent. Und von denen, die es noch nicht nutzen, überlegt jedes vierte Unternehmen in 2015 den Schritt zu wagen. Hauptsächlich greifen Unternehmen auf IT-Services aus einer Private Cloud zurück: 39 Prozent der Studienteilnehmer, ein Wachstum von 3 Prozent zum Vorjahr. Public Cloud Computing kommt dagegen nicht von der Stelle. Hier stiegen die Nutzerzahlen lediglich um einen Prozentpunkt auf 16. Mehrheitlich zufrieden sind die Nutzer von beiden Cloud-IT-Service-Varianten: 78 Prozent der Private-Cloud-Nutzer und 73 Prozent der Public-Cloud-Nutzer.

Im Hinblick auf diese Ergebnisse bleibt Cloud Computing auch in 2015 eines der Top-IT-Themen für den IT-Markt. „Cloud Computing wird Basistechnologie“ – heißt das jetzt, dass die deutschen Unternehmen komplett anders mit dem Thema umgehen? Keine Sicherheitsbedenken wie in der Vergangenheit? Nein, so schnell verändern sich Einstellungen und Überzeugungen dann doch nicht. Sicherheitsbedenken bremsen ein schnelleres Wachstum und die Verbreitung von Cloud Computing, so eine weitere Aussage der Studie. 60 Prozent der Befragten haben Angst, durch Cloud Computing gegen Compliance-Anforderungen zu verstoßen. Mehr als die Hälfte (60 Prozent) befürchten einen unberechtigten Zugriff auf sensible Daten. Und fast jedes zweite Unternehmen (49 Prozent) sieht die Gefahr eines möglichen Datenverlustes.
Hier ist also immer noch viel Aufklärungsarbeit für IT-Anbieter zu leisten. Denn, so die Studie, Sorgen seien unbegründet, da lediglich 8 Prozent aller Unternehmen Compliance-Vorfälle in Zusammenhang mit Cloud Computing zu beklagen hatten. Und Aufklärungs- und Überzeugungsarbeit sei wichtig, so der Branchenverband BITKOM. Der Verband sieht Cloud Computing als einen wichtigen Faktor für die zukünftige Wettbewerbsfähigkeit deutscher Unternehmen. Denn Cloud Computing verhilft zu mehr Flexibilität, Mobilität und Effizienz.

Das Gütesiegel „Made in Germany“ gilt weltweit als sehr gutes Verkaufsargument für Industrie- und Konsumgüter. Für die Überzeugungsarbeit und als Argument für Cloud Computing könnte sich ein weiteres deutsches Zertifikat durchsetzen: die „German Cloud“. Mal sehen, was die nächste Auswertung des Cloud Monitors 2016 ergibt.

menuseperator

Die Köstliche Intelligenz macht weiter Fortschritte. Aus unserem Alltag ist sie schon – na was wohl? – nicht mehr wegzudenken! Dabei habe ich es durchaus versucht, das Wegdenken. Hat aber nichts genutzt. Sie war dann gleich wieder da, die KI – in ihrer derzeit beliebtesten Erscheinungsform der Autovervollständigung.

Und was bringen simple Buchstabendreher mit KI für wundersame Erscheinungen hervor. Aus "Ziel" wird "Sie", aus "Usus" macht sie "USA" und erst vor ein paar Tagen vervollständigte KI aus "Die Sache ist wegen …" kurzerhand "Die Sache Mistwegen …" (in welchen Kontexten wohl ein Begriff wie "Mistwege" eine Rolle spielt, wäre in einem separaten Beitrag zu klären). Auf die Frage "Wann können wir telefonieren?", antwortet mir ein Geschäftspartner: "Ab 9. Oktober." Natürlich will gut Ding Weile haben, aber man wundert sich Anfang März schon ein wenig über das Ausmaß der guten Weile. Eine Viertelstunde später kam die Auflösung: "Sorry. Blödes Autovervollständigen, ich meine ab 9 Uhr." Ja KI, da wäre dann sogar das ursprüngliche "9 Ohr" kommunikativer gewesen. In diesem Sonne: Leber nieder wegschenken.

menuseperator

Im Testing-Umfeld ist es immer noch an der Tagesordnung, dass Test-Frameworks manuell, oft von mehreren Spezialisten, konzipiert und gewartet werden. Das kostet Zeit und verzögert den Testprozess.

Das Konzept des Keyword-Driven Testing kann hier Abhilfe schaffen. Bei diesem Testverfahren werden Schlüsselwörter mit Parametern für spezifische Aktionen und Operationen definiert und die entsprechenden Skripte erstellt. Durch diese Strukturierung wird es möglich, dass sich auch Mitarbeiter ohne spezielle technische Kenntnisse am Testprozess beteiligen.

Das beschleunigt das Testverfahren und erhöht die Qualität der Tests erheblich.

Im Video erläutert Christian Rudolph, Vice President Borland Sales International bei Micro Focus, die zentralen Vorteile von Keyword-Driven Testing:

menuseperator

Ich lese gerne den SPIEGEL. Sowohl die gedruckte Version, aber vor allem auch die Online-Ausgabe. Wenn ich unterwegs bin oder irgendwo eine längere Wartezeit überbrücken muss, dann ist der erste Griff zum Handy und zur SPON-App – ja, sogar noch vor Facebook.

Allerdings muss ich auch zugeben, dass ich eine ungeduldige Leserin bin. Meist überfliege ich die Schlagzeilen, klicke einige Artikel an und lese sie dann doch nicht bis zum Ende durch. Dass ich damit nicht allein auf weiter Flur bin, haben Wissenschaftler bereits gezeigt. Unser Leseverhalten im Internet hat sich stark wegentwickelt von dem, wie wir es früher von unseren Eltern kannten, die sich mitunter morgens noch eine Stunde oder länger Zeit für ihre Zeitungslektüre genommen haben.

Bewirkt die Sprunghaftigkeit beim Lesen auch eine generell verminderte Aufmerksamkeit für die Inhalte? Kann sein. Bei mir ist das ganz gewiss so, das stelle ich des Öfteren fest. Und genau deshalb war ich schon vor ein paar Wochen positiv angetan von einem Test, den das SPIEGEL-ONLINE-Wirtschaftsressort durchgeführt hat: Am Ende der Texte wurden für einige Tage nochmals kurz die wesentlichen Punkte und Positionen des Artikels zusammengefasst.


(Quelle: SPIEGEL ONLINE, "Möglicher Gauck-Nachfolger Steinmeier: Plan S", 4. März 2015)

Der Test schien für die Redaktion zufriedenstellend verlaufen zu sein, denn seit kurzem findet sich die Zusammenfassung wieder unter einigen Texten, diesmal quer durch alle Ressorts. Damit reagiert die Redaktion gekonnt auf den oben beschriebenen Trend und unternimmt einen neuen Versuch, sich an das veränderte Leseverhalten des modernen, digitalen Menschen anzupassen. Natürlich ersetzt eine solche Kurzzusammenfassung nicht gänzlich die Lektüre von Nachrichten und Berichterstattungen. Das ist laut SPON-Chef Florian Harms auch überhaupt nicht die Intention. Für die Einordnung von Geschehnissen und als Grundlage für die eigene Meinungsbildung reichen vier Zeilen nicht aus. Nichtsdestoweniger ist es eine gute Orientierungshilfe und für alle eiligen Leser wie mich ein sinnvolles Tool.

menuseperator

Am 24. und 25. März findet zum inzwischen 19. Mal die Fachmesse Internet World bei uns in München statt. Auch dieses Jahr dreht sich wieder alles um Trendthemen des E-Commerce. Im Fokus stehen dabei unter anderem Themen wie Cross Channel, Customer Centricity, Internet of Things, Smart Data und natürlich alles rund um das Thema „Mobile“.

So auch Mobile Payment – ein nicht erst seit gestern heiß diskutiertes Thema. Die Meinungen gehen hier stark auseinander, wie aktuell das Beispiel Yapital zeigt. Das Handelsblatt bezeichnete Yapital, die Payment-Lösung der Otto-Gruppe, als „Flop“ – andere Branchenkenner widersprechen, räumen aber ein, dass noch (deutlicher) Optimierungsbedarf besteht. Das mobile Bezahlen im Falle von Yapital scheitert jedoch nicht nur an der Akzeptanz der Zielgruppe, sondern auch – wie ein Praxis-Test von t3n-Autor Jochen G. Fuchs belegt – an der fehlenden Schulung der Supermarkt-Mitarbeiter, die noch nicht einmal zu wissen schienen, was Yapital ist, geschweige denn, wie der geneigte Einkäufer an der Kasse damit bezahlen kann. So einfach wie in diesem Video von Yapital scheint es also nur selten zu klappen:

Auf der Messe wird also weiter diskutiert werden, wie es denn nun um die Zukunft des Mobile Payment bestellt ist und wie man die Akzeptanzprobleme aus der Welt schaffen kann. Denn laut einer Studie von Fittkau & Maaß, die im Auftrag der Internet World durchgeführt wurde, nutzen hierzulande lediglich vier Prozent der Smartphone-User eben dieses als Zahlungsmittel im stationären Einzelhandel.

Das oft erwähnte Akzeptanzproblem scheint aber nicht in allen Bereichen zu bestehen: Das belegen die Ergebnisse einer repräsentativen Umfrage, die BITKOM gestern präsentierte und nach welcher beinahe jeder dritte Smartphone-Besitzer zukünftig gerne mit seinem Gerät, beispielsweise für Fahrten mit den öffentlichen Verkehrsmitteln, zahlen möchte. BITKOM-Hauptgeschäftsführer Rohleder geht sogar so weit zu sagen, dass die „Mobile Wallet“ in Zukunft die Geldbörse komplett ersetzen wird.

„In Zukunft“ ist jedoch wohlweislich weit gefasst. Ich persönlich könnte mir nicht vorstellen, in absehbarer Zeit all meine Zahlungsvorgänge mobil abzuschließen. Generell finde ich Online-Bezahlsysteme wie Paypal sehr praktisch, keine Frage, aber meinen morgendlichen Kaffee zahle ich beim Bäcker doch lieber auf die altmodische Art – mit Münzen.

menuseperator

Wer kennt das nicht: Sobald man Freunden oder Verwandten davon erzählt, was man eigentlich den ganzen Tag so in der Arbeit treibt, verstehen die nur Bahnhof:

„Wir trafen uns asap im Meetingroom, um den Confcall per Webcast abzuhalten.“

„Wir hatten eine Telco, in der wir ein kurzes Briefing bekamen, welche Key Targets es gibt und welche Competitors wir monitoren sollen.“

Und das Schlimme daran: einem selbst fällt dieses Denglisch, die Möchtegern-Abkürzungen und der Wortakrobatik-Schmarrn im Arbeitsalltag eigentlich schon gar nicht mehr auf.

Ein Experiment: Versuchen Sie doch mal im PR-Alltag ohne englische Wörter auszukommen. Und? Wie lange halten Sie durch? Und vor allem: Wie lange halten Ihre Geschäftspartner durch? Teilweise sucht man sogar vergebens nach einer deutschen Variante – oder fällt Ihnen spontan ein Wort für Pitch ein?

Noch mehr Phrasen gibt’s bei Spiegel online: http://www.spiegel.de/karriere/berufsleben/bullshit-phrasen-im-buero-manager-sprech-ueben-mit-bullshit-o-mat-a-1004202.html

Und wem das nicht reicht, der kann sich auch gleich noch seinen neuen interessanten Jobtitel selber basteln: http://www.spiegel.de/karriere/games/jobtitel-generator-neue-berufsbezeichungen-fuer-angeber-und-aufschneider-a-771682.html

Wie wäre es mit einem

oder

oder damit

Och, einer geht noch:

Das klingt doch nicht schlecht und es kommt mal ein bisschen Bewegung in die ganzen langweiligen, unkreativen PR-Job-Bezeichnungen (deren Bedeutung von Agentur zu Agentur sowieso uneinheitlich und schleierhaft ist) wie Account Manager, Senior Account Manager, Account Director, Assistant Account Executive, Referent – schnarch!

Tags: 
menuseperator

Nachdem Facebook vor kurzem „Facebook at Work“ vorgestellt hat, war es nur eine Frage der Zeit, bis der große Konkurrent aus Mountain View mit einem neuen Angebot für Firmen nachziehen würde. Nach Google Drive, Docs, Calendar und Co. gibt es also nun "Android for Work" – um das Potenzial, das Smartphones und Tablets für Unternehmen bieten, noch besser nutzen zu können, so Rajen Sheth, der zuständige Director of Product Management.

Zum einen sollen mit Android for Work bereits bestehende berufliche und private Apps und Daten auf mobilen Endgeräten, die mindestens mit Android 5.0 („Lollipop“) ausgestattet sind, bereits auf der Betriebssystem-Ebene getrennt verwaltet und geschützt werden können. Für Mitarbeiter, deren Telefone über Android 4.0 („Ice Cream Sandwich“) verfügen, bietet eine Android-for-Work-App Funktionen wie sichere E-Mail, Kalender, Adressbuch, Dokumente, und so weiter. Google Play for Work, die nach Verwaltung und App dritte von Google definierte Schlüsselfunktion, soll für eine sichere zentrale Implementierung und Verwaltung von Apps sorgen, und last but not least gibt’s dann noch die eingebauten sogenannten „Productivity Tools“: Zusätzliche Business-Apps für Mail, Adressen und Kalender, die Microsoft Exchange oder IBM Notes unterstützen und Dokumente daraus editieren können. All diesen Funktionen respektive Apps sei laut Google gemein, dass die unternehmenseigenen IT-Abteilungen immer nur auf die beruflich benötigten Profile und Apps zugreifen und installieren können. Ziel sei eine Vereinfachung der Administration in Sachen „Bring Your Own Device“ (BYOD). Zu diesem Zweck hat man sich auch Partner auf Soft- und Hardwareseite ins Boot geholt, wie SAP oder Dell.

Google unterstreicht mit Android for Work also seinen Anspruch, auch bei Unternehmens-IT-Lösungen mitmischen zu wollen. Stellt sich nur die Frage, wie man mobile Devices mit Betriebssystemen anderer Anbieter in das System integrieren möchte. Diese Antwort bleiben die Entwickler aus Mountain View bisher noch schuldig.

menuseperator

In diesen Tagen findet in Hamburg die Social Media Week statt – Grund genug, die Sozialen Medien mal wieder in den Fokus zu nehmen. Als B2B-Agentur interessiert uns dabei natürlich in erster Linie die Unternehmens-Perspektive. Und hier lohnt es sich, ein Einsatzszenario genauer zu betrachten, das noch immer eher ein Schattendasein fristet: Der Einsatz von Social Media für die Interne Unternehmenskommunikation.

Denn gerade dieses Instrument wird von vielen Unternehmen immer noch mit viel Argwohn betrachtet. Sie sehen dahinter oftmals einen unproduktiven Zeitfresser – vor allem wenn es nicht nur um einen unternehmensinternen Blog oder andere kleinere Kommunikations-Tools geht, sondern darum, die gesamte Interne Kommunikation auf Social-Media-Strukturen umzustellen. Dabei kann sich insbesondere die Vernetzung durch Plattformen wie Yammer, Chatter und Co. als wirklicher Wettbewerbsfaktor erweisen – gerade für größere Unternehmen mit vielen (internationalen) Standorten. Worin liegen die Vorteile und Potenziale?

Unternehmen können durch Social-Media-Strukturen einen besseren Zugang zu Informationen und dem Know-how ihrer Mitarbeiter schaffen. Mit den richtigen Tools lassen sich nicht nur die Mitarbeiter optimal miteinander vernetzen, auch die gemeinsame Arbeit an Dokumenten wird ermöglicht bzw. optimiert. Wo früher der immer gleiche Kollege aus dem Nachbarbüro um Rat gefragt wurde, können in einer „Enterprise 2.0“ Experten identifiziert werden, mit denen man sonst nie in Kontakt gekommen wäre. Die Vernetzung ermöglicht, dass sich die Angestellten in Diskussionen einbringen und ihre Fähigkeiten bei Projekten aufzeigen können, bei denen sie sonst außen vor wären – Stichwort Innovationsfähigkeit. Ein weiterer Faktor wird zudem in den kommenden Jahren immer mehr an Bedeutung gewinnen: Die Unternehmen erhöhen ihre Attraktivität – nicht nur für bestehende, sondern auch für zukünftige Mitarbeiter. Die vielbeschworene „Generation Y“ erwartet zunehmend, Kommunikations- und Informationsstrukturen aus ihrem Alltag auch im Büro zur Anwendung bringen zu können. Social Media gehören da zweifellos dazu.

Diese hier grob skizzierten Vorteile lassen sich um weitere ergänzen. Doch die Interne Kommunikation mit Social Media ist kein Selbstläufer. Neben der Wahl der richtigen Tools und der Einbindung und Schulung der Mitarbeiter ist der Faktor Unternehmenskultur der Entscheidende – und gerade daran scheitern Social-Media-Projekte oftmals. Dieser bedingt Prinzipien wie Transparenz, Real Time, Dialogorientierung und Partizipation. Starre Strukturen in der Unternehmenshierarchie stehen dem entgegen, da sie den übergreifenden Informationsfluss im Unternehmen hemmen. Unternehmen müssen sich von einem Silo-Denken in den Organisationseinheiten lösen und eine Kultur etablieren, bei dem das Teilen von Wissen zum Prinzip erhoben wird und eine Philosophie, in der Wissen gleich Macht bedeutet, aus dem Arbeitsalltag verschwindet.

Viele Manager haben vor einer solchen Entwicklung Sorge und verteidigen die alten Pfründe und bestehende Machtstrukturen. Dabei ist es beim Einsatz von Social Media nicht anders als bei anderen Change-Projekten: Es kann nur funktionieren, wenn die führenden Management-Ebenen mitziehen und mit gutem Beispiel vorangehen. Dabei ist deren Sorge vor Bedeutungsverlust meist völlig unbegründet, schließlich brauchen Unternehmen weiterhin Führung. Am Ende muss schließlich immer noch jemand die Entscheidungen treffen und seinen Kopf hinhalten. Notwendig ist jedoch ein anderer Führungsstil, der die Prinzipien eines „digitalen Mindsets“ verkörpert.

Die Skepsis der Unternehmen gegenüber dem erweiterten Einsatz von Social Media wird, ja muss fallen. Die veränderten Kommunikationsstrukturen werden sich auch innerhalb der Unternehmen immer mehr durchsetzen. Und war es bei der Einführung der E-Mail nicht ähnlich? Für viele war sie Neuland und damit per se ein unnützes und überschätztes Medien-Phänomen.

Und fragen Sie heute mal einen Unter-50-Jährigen nach seiner Faxnummer? Eben!

menuseperator

Gleich zwei unserer neueren Kunden klagen über die übermäßige Proaktivität von PR-COM und fühlen sich „überfordert": Neue Themen, Anregungen, Anfragen oder Reminder in diesem dichten Takt, das kannten sie so vorher nicht.

Wie soll man sich jetzt dabei fühlen: Schlecht, weil wir die Kunden tatsächlich überfordern? Oder gut, weil wir die Dinge offensichtlich besser machen als die reaktiven Vorgänger-Agenturen?

menuseperator

Bei den meisten Kunden endet zu Beginn eines neuen Kalenderjahres der PR-Lifecycle und es wird Bilanz gezogen: Wurden die gesteckten Kommunikations-Ziele erreicht? Welche Kampagnen haben funktioniert? Wo gibt es Verbesserungspotentiale? Eine detaillierte und schonungslose Analyse ist meiner Meinung nach die Basis für alle weiteren Kommunikationsplanungen. Sie liefert für gewöhnlich wichtige Erkenntnisse, die es ermöglichen, Kunden auch strategisch an die Hand zu nehmen. Es lohnt sich daher, etwas mehr Zeit zu investieren und sich mit dem Kunden auszutauschen. Und dann geht es auch schon wieder gut gerüstet in eine neue Runde: Communicate your Business!

menuseperator

Seiten