Blog

Kürzlich bin ich über einen Bericht der Computerwoche gestolpert, der sich mit dem „EICAR Minimum Standard für Anti-Malware-Produkte“ beschäftigt: Demnach dürfen sich entsprechende Lösungen der Firmen F-Secure, G Data, Trend Micro und Kaspersky bald mit dem EICAR-Prüfsiegel schmücken. Die Produkte dieser Anbieter erfüllen somit folgende Sicherheits-Standards:

  • Einhaltung von Datenschutzbestimmungen
     
  • Nachvollziehbare Datenkommunikation
     
  • Garantieren, dass die Software nicht manipuliert ist.

Zugegebenermaßen war ich überrascht, über die Notwendigkeit einer „Plakette“ zu lesen, die die Achtung – so sollte man meinen – fundamentaler Rechte und Pflichten Anwendern gegenüber bestätigt. Jedoch fällt auf, dass keine amerikanischen Unternehmen beteiligt sind und voraussichtlich auch nicht sein werden. Genau, da war doch was: Stichwort NSA-Affäre; zudem ist bekannt, dass die amerikanische Gesetzgebung unter bestimmten Bedingungen den eigenen Geheimdiensten die Möglichkeit des Zugangs zu Unternehmensdaten einräumt. Aber auch in Deutschland hat sich der BND in Sachen Wirtschaftsspionage ja bekanntlich nicht mit Ruhm bekleckert ...

Vor diesem Hintergrund macht ein Siegel als vertrauensbildende Maßnahme in einem verunsicherten Markt durchaus Sinn und kann für bestimmte Anbieter von Enterprise-Security-Software ein richtiger Schritt sein. Die Botschaft ist simpel: „Wir sind sauber!“

Das Siegel erhalten zunächst Unternehmen, die sich per Unterschrift dazu verpflichten, diese Kriterien einzuhalten. In einem späteren Schritt sollen dann unabhängige Prüflabore kontrollieren. EICAR, die European Expert Group for IT-Security, ist eine unabhängige und unparteiische Organisation von IT-Security-Experten aus den Bereichen Wissenschaft, Forschung und Entwicklung sowie der Industrie.

menuseperator

Es gibt kaum einen Bereich in dem das Internet of Things (IoT) nicht Einzug gehalten hätte. Somit ist es auch nicht verwunderlich, dass Entwickler weltweit davon ausgehen, dass ihre IoT-Apps im produktiven Einsatz echte Umsätze generieren. Laut einer Umfrage, die von Progress in Auftrag gegeben wurde, sehen die Befragten weltweit derzeit folgende Gebiete als die wichtigsten bei der Entwicklung von IoT-Apps an: Smart Homes (19%), Wearables (13%), die Automotive-Branche (11%) und den Bereich Sport/Fitness (11%). Für die deutschen Entwickler stehen die Apps für den Einzelhandel an erster Stelle. Die höchsten Umsätze werden ihrer Meinung nach in den Bereichen Wearables und Logistik erzielt.

So viele Vereinfachungen das IoT mit sich bringt, stellt auch hier das Thema Schutz der Daten und der Privatsphäre eine große Herausforderung dar. Welchen Stellenwert dieses Thema in Deutschland einnimmt, zeigt der internationale Vergleich. Für 34 Prozent der deutschen Entwickler ist das die größte Herausforderung, während die anderen Länder hier bei 20 Prozent liegen.

Weitere Informationen zur Studie gibt es hier: https://d117h1jjiq768j.cloudfront.net/docs/default-source/default-document-library/progress/documents/rollbase/iot_survey_infographic_2015.pdf?sfvrsn=2

menuseperator

Sie heißen JUQUEEN, SuperMUC oder HORNET und haben mächtig was auf dem Kasten. Gemeint sind nicht etwa Actionhelden oder Rapper, sondern Höchstleistungsrechner vor allem für wissenschaftliche, aber auch für kommerzielle Anwendungen, wie sie im Forschungszentrum Jülich, dem Leibniz-Rechenzentrum in Garching bei München oder dem Höchstleistungsrechenzentrum Stuttgart im Einsatz sind.

Wenn sich dieser Tage wieder alles um die Boliden unter den Rechnern dreht, dann ist ISC. Die International Supercomputing Conference 2015, die noch bis zum 16. Juli in Frankfurt stattfindet, versammelt Forscher, Hersteller und Anwender im Feld der Supercomputer und gibt Einblicke in die neuesten Entwicklungen und aktuelle Forschungen der IT-Labs.

Doch nicht alleine die Forschung profitiert von der Leistungsfähigkeit der High Performance Cluster, auch für die Industrie werden Anwendungen aus dem HPC-Bereich immer wichtiger. Wenn es gilt große Datenmengen schnell zu bearbeiten und zu analysieren, setzen inzwischen auch viele Unternehmen High Performance Computing ein. Sei es im Finanzsektor, bei der Wetterprognose oder wie zuletzt zu lesen war beim Flugzeugturbinenhersteller Rolls Royce, der on demand auf HPC-Kapazitäten zurückgreift. Kein Wunder also, dass die Hersteller bemüht sind, Leistungsfähigkeit von Prozessoren, Grafikbeschleunigern oder Anwendungssoftware immer weiter zu optimieren. Denn die Grenzen sind längst nicht erreicht. Bis 2018 rechnen Experten bereits mit einer Rechnerleistung von 1 exaFLOPS (1 EFLOPS entspricht 1018 FLOPS oder 1.000 PFLOPS). Man darf also gespannt sein, welche Anwendungen damit in Zukunft möglich werden.

menuseperator

Container – wieder ein neuer IT-Trend, der seit Beginn des Jahres in der IT-Fachpresse herumschwirrt. Aber was sind Container und sind die Unternehmen überhaupt schon so weit, sie einzusetzen?

Laut Wikipedia bezeichnet das Wort Container in der IT eine Datei, die ihrerseits wiederum unterschiedliche Dateien und Dateitypen enthalten kann.

Wie bei so vielen neuen IT-Themen gibt es natürlich auch Studien, die sich mit der tatsächlichen Verwendung der neuen Technologie sowie Hindernissen beim Einsatz dieser befassen.

So hat Red Hat (in Zusammenarbeit mit TechValidate) vor Kurzem knapp 390 IT-Entscheider aus kleinen Unternehmen, Fortune-500-Firmen und aus Regierungsbehörden nach ihren Plänen rund um das Thema Applikations-Container befragt.

Die Unternehmen stehen dabei einem Einsatz der Container-Technologie positiv gegenüber: 67 Prozent der Befragten planen sogar eine Einführung von Container-Lösungen in den nächsten zwei Jahren. Außerdem wollen 50 Prozent der befragten IT-Entscheider Applikationen, die auf Containern basieren, in Cloud-Umgebungen einsetzen.

Natürlich gibt es auch Hemmnisse. Die Befragten nennen hier vor allem Sicherheitsfragen und den Mangel an Zertifizierungen. Aber auch das bisher unzureichende Know-how der eigenen Mitarbeiter über diese Technologie spielt eine Rolle.

Eine weitere Studie des Marktforschers Forrester Consulting, beauftragt von Red Hat, befasst sich ebenfalls mit der Container-Thematik – genauer gesagt, mit den Erwartungen der Anwender sowie dem bisherigen Einsatz.

Neugierig auf die Studie? Die Ergebnisse sind hier in einer netten Infografik zusammengefasst.

menuseperator

Das kennt wahrscheinlich jeder: Es ist Zeit für einen neuen, schnelleren, schöneren, besseren und hoffentlich Strom sparenden Computer, Laptop oder Monitor. Gewünscht, gekauft, geliefert – das gute Stück ist endlich da, aber dann steht noch die alte Kiste im Weg. Wohin nun mit dem alten Computer, sei es ein Desktop-PC oder ein Notebook? In den Hausmüll gehört alte Hardware auf jeden Fall nicht. Keller oder Dachboden sind meist ebenfalls keine geeigneten Entsorgungsstellen.

Funktioniert der alte Computer noch, dann ist die erste und naheliegendste Möglichkeit der Verkauf. Ist das Gerät allerdings zu alt, zu leistungsschwach oder einfach nicht mehr up to date, stellt sich die Frage nach der richtigen Entsorgung.

Auch wenn ein Computer komplett defekt ist, bedeutet das noch lange nicht, dass er auch wertlos ist. Im Gegenteil, denn er steckt voller kostbarer Rohstoffe – eine Rohstoffquelle sozusagen.

Hier fällt nun oft das Stichwort „Kreislaufwirtschaft“, wobei die eingesetzten Rohstoffe über den Lebenszyklus einer Ware hinaus wieder vollständig in den Produktionsprozess zurückgeführt werden.

Nahezu perfektioniert hat den Vorgang Dell und trumpft zeitgleich mit dem umfangreichsten Recycling-Programm der Welt auf. Das Projekt beinhaltet Programme zur Geräterücknahme in 78 Ländern und bisher über 635.000 Tonnen eingesammelter Elektronik: Der Nutzer ist sein altes Stück umsonst losgeworden und Dell seinem Ziel des geschlossenen Kreislaufs wieder einen Schritt näher. Außerdem werden wertvolle Rohstoffe und Energie gespart.

Bereits 2014 hat Dell den weltweit ersten PC auf den Markt gebracht, der dem geschlossenen Kreislauf entsprungen ist: Der Standfuß und die Bildschirm-Rückseite der OptiPlex-3030-All-in-Ones bestehen aus wiederverwerteten Kunststoffen. Und weitere Geräte aus recyceltem Kunststoff sollen folgen, denn fast 10.000 Tonnen recycelten Kunststoffs, darunter auch Plastikflaschen oder CD-Hüllen von Mülldeponien, hat Dell in seinen Produkten seit 2014 bereits verbaut.

Das Ziel einen geschlossenen Kreislauf für IT-Produkte zu schaffen, hat Dell in seinem „2020 Legacy of Good Plan“ manifestiert. Dieser enthält insgesamt 21 soziale, Umwelt- und Mitarbeiter-Ziele. Auf der Nachhaltigkeits-To-do-Liste steht unter anderem noch die komplett abfallfreie Verpackung.

Es bleiben 5 Jahre – Wir sind gespannt!

menuseperator

Vor ein paar Wochen habe ich mich in diesem Blog am Beispiel der Autokorrekturfunktion ein wenig über die zweifelhaften Leistungen der Künstlichen Intelligenz mokiert.

Autokorrektur kann aber nicht nur Anlass zu Heiterkeit und guter Bürolaune sein, sie kann auch zur echten Herausforderung werden. Und als Gehirntraining für Fortgeschrittene sogar zur Förderung der natürlichen Intelligenz beitragen. Zumindest ein bisschen. Ich möchte das heute mit einem Rätsel demonstrieren.

Vor ziemlich genau einer Stunde erhielten wir ein Mail, dessen Absender hier aber nichts zur Sache tut, das mit folgender, wie sich im Lauf der Ermittlungen herausstellte, autokorrigierten Zeile endete:

Herr Shopping, sind die Montag verfügbar?

Folgende Fragen stellten sich:

  • Wer ist dieser Herr Shopping? Ein Verwandter von Herrn Mustermann?
     
  • Was will Herr Shopping kaufen?
     
  • Müsste sich die Frage nicht an Herrn Selling richten?
     
  • Um was geht es eigentlich?

Wobei die Erstleser zunächst ja nicht wussten, dass hier Autokorrektur in der Extrem-Version am Werk war; aber ich denke, es ist auch mit diesem Vorwissen nicht ganz einfach. Unter den Einsendern der richtigen Lösung wird unter Ausschluss des Rechtswegs irgendwas verlost.

menuseperator

Die Meldung, die kürzlich über die News-Ticker ging, ließ aufhorchen. Nach der Cyber-Attacke auf das Netzwerk des Deutschen Bundestages droht mehr oder weniger ein Totalschaden dessen IT-Infrastruktur. Auch wenn Hintergründe und Folgen des Angriffes noch nicht objektiv und abschließend bewertet werden können, geben die Ereignisse doch Anlass dazu, die Thematik des Cyber War näher in den Fokus zu rücken. Denn spätestens jetzt sollte auch dem letzten Gutgläubigen hierzulande deutlich geworden sein, dass sich Cyber-Attacken zu einem immer relevanteren Instrument entwickeln, wenn es darum geht, Unternehmen und sogar ganze Staaten über gezielte Angriffe auf deren kritische IT-Infrastruktur zu schädigen.

Dabei geht es nicht mehr nur um den Abzug von Daten oder das Ausspähen von Unternehmens- oder Staats-Geheimnissen. Es geht perspektivisch um Menschenleben. Jüngst versicherte ein Computerexperte glaubhaft, während mehrerer Flugreisen in das Unterhaltungssystem von Boeing und Airbus eingedrungen zu sein. Ohne den Teufel an die Wand malen zu wollen: Es reichen Begriffe wie „Atomkraftwerk“, „Hochsicherheits-Labor“ oder „Stromnetz“, um zu illustrieren, welche Gefahren drohen, wenn man diese möglichen Szenarien weiterdenkt.

Die Horror-Geschichten mancher IT-Experten, wonach der Krieg der Zukunft über das World Wide Web ausgetragen wird, scheinen immer näher zu rücken, und Cyber-Attacken könnten zur neuen entscheidenden Waffe werden. China und Russland verfügen zwischenzeitlich über zwei der größten Cyber-Armeen der Welt mit unzähligen Hackern. Die USA haben stark aufgerüstet und verfügten im Jahre 2013 über ein Budget von 25 Millionen Dollar für den Kauf von Cyber-Waffen. Und auch andere Staaten ziehen hier nach – die Bundesrepublik hat dem Thema mit der Gründung des Deutschen Cyber-Abwehrzentrums höhere Priorität zugesprochen.

Cyber-Waffen unterscheiden sich dabei von konventionellem Kriegsgerät. Zum einen bleiben sie in den Ausläufern des World Wide Web hängen. Sie können kopiert, modifiziert und gegen andere „Feinde“ gerichtet werden. So wurde „Stuxnet“ – ursprünglich von den USA entwickelt, um das iranische Atomprogramm zu stören (was erfolgreich war) – zwischenzeitlich in verschiedenen Versionen gegen die USA eingesetzt. Zum anderen sind sie vergleichsweise billig und damit auch für weitere Akteure interessant, um auf der weltpolitischen Bühne mitzuspielen.

Zurück zum Bundestag: Der Angriff wirft in diesem Zusammenhang Fragen auf – weil er eine neue Qualität des Cyber-Angriffs bedeutet und Schwachstellen hinsichtlich der Verteidigung aufzeigt, wenn es um sensible Infrastrukturen und Daten geht. Wo liegen die wunden Punkte der IT-Infrastruktur des Deutschen Bundestages, die einen solchen Angriff zuließen? Warum gibt es offenbar kein festgelegtes Szenario, wie bei einem solchen Angriff zu verfahren ist?

Dies und weiteres gilt es zu beantworten und man darf auf Folgen der Attacke gespannt sein. Dass selbst das Deutsche Parlament, welches im Gegensatz zu vielen Unternehmen die notwendigen Finanzmittel für den Kampf gegen Cyber-Attacken vergleichsweise mühelos zur Verfügung stellen könnte, auf eine solche Attacke nicht adäquat vorbereitet zu sein scheint, macht zumindest nachdenklich. Sowohl Staat als auch Unternehmen müssen sich dieser Bedrohungen gewahr sein und entsprechende Maßnahmen ergreifen. Die Zeiten, in denen das Thema „IT-Sicherheit“ ein Nischendasein fristete, sind allerspätestens jetzt vorbei.

menuseperator

Das Smartphone erleichtert uns das Leben in fast jeder Lebenslage. Man kann mal eben von überall (fast) alles zu jeder Zeit recherchieren, kontaktieren oder organisieren. Doch spätestens wenn man sich in einem persönlichen Gespräch befindet, gibt es eine wichtige Benimmregel: Smartphone weg. Das erwartet der Gesprächspartner, das erwarten Sie und das erwarte ich. Diese Benimm-Regel sollte einfach Standard  sein.

Umso mehr ist es überraschend, wenn im Pressegespräch plötzlich das Smartphone gezückt wird und scheinbar unaufschiebbare Dinge erledigt werden müssen. Dies gilt insbesondere für Presseveranstaltungen, bei denen mehrere Personen anwesend sind...

Reicht ja auch aus, wenn nur einer ganz bei der Sache ist. Oder?

menuseperator

Es gibt so Meldungen, da reibt man sich erst mal mit einem verwunderten "Geht's noch?" die Augen:

Amazon erprobt offenbar ein Uber für Logistik: Beim Projekt 'On my way' sollen sich private Fahrer über eine App als Kurier melden können und dann Pakete an die Kunden ausliefern. 
(Heise online vom 17.06.15)

Aber wenn sich die Idee ein wenig gesetzt hat … doch, ja, das könnte gehen.

Die Einwände der ersten Stunde sind jedenfalls wenig stichhaltig: Was ist, wenn ein Paket verloren geht? Wer haftet? Was ist, wenn der Nachbar dann doch keine Lust hat, die Pakete auszuliefern? Was, wenn er sich auf dem Weg das Bein bricht? Ich bin mir sehr sicher, das wird Amazon alles regeln; am besten nach dem beliebten Prinzip "selber schuld", denn Amazon wird sich sicher nicht Tausende von Risiken ans Bein binden. Notfalls gibt es halt eine saftige Vertragsstrafe für jedes gebrochene Bein.

Auch an Interessenten wird es nicht mangeln: Noch mitten in der Erörterung von Für und Wider in meinem geliebten Heise-Forum (nirgends ist man näher an der Stimmung des Publikums) kann es einigen Diskussionsteilnehmern, zum Beispiel dem mit dem lustigen Nick-Namen "Herr_Mal-Ware", nicht schnell genug gehen mit dem Ich-will-auch-mitmachen:

Paket abholen, kleinen Schlenker fahren, parken, klingeln, Paket abgeben. Vermutlich 15 Minuten Aufwand, wenn ich neben Amazon wohne und direkt am Empfängerhaus vorbeikomme und alles glatt läuft. Ich arbeite nicht umsonst, sagen wir: 20 Euro Stundenlohn, Freundschaftspreis. Davon ausgehend, dass ich mich nicht davon ernähren muss (sonst ginge unter 40 Euro bei Selbständigkeit gar nichts): 5 Euro. Plus PKW-Nutzungskosten. Sagen wir großzügig: 5,20 Euro.
(Forum Heise online vom 18.06.15)

Dieser Kandidat musste sich aber von anderen Foristen belehren lassen, er solle bei seiner Kalkulation besser die 5 weglassen und also mit einem Freundschaftspreis von 20 Cent pro Auslieferung rechnen. Sagen wir großzügig: das erscheint tatsächlich realistischer. Wenn alles glatt läuft, aber das tut es bestimmt.

Denn eines ist schon klar: Amazon denkt sich das alles ja nicht aus, damit die Menschen in unseren anonymen Großstädten wieder mehr zusammenkommen ("Grüß Gott, mein Name ist Huber, ich bring' Ihnen das Packerl, wo Sie bestellt haben." "Ui, das ist nett, Herr Huber. Dankschön. Woll'n S' nicht auf eine Tasse Kaffee reinschauen?", "Ja recht gern, ich hab' grad zufällig auch einen Marmorkuchen dabei."); auch wenn wir mit Sicherheit in irgendeinem Forum/Blog bald von diesem kommunikativen Nebeneffekt hören werden. "On my way" ist wie die Amazon-Drohne ein Konzept, um die lästigen Speditions- und Logistikkosten, von denen Amazon nichts hat, zu reduzieren. Hier eben durch Integration von Mitmenschen, die wie Herr Huber sowieso nichts Besseres zu tun haben und die deshalb auch bloß auf den Cent schauen und nicht so auf den Euro.

Aber, und das muss man hier mal sehr kritisch anmerken, diese Innnovation bleibt auf halbem Weg stehen. Sie ist nicht ausgereift, nicht zu Ende gedacht. Transport und Logistik sind teuer, ja, aber doch nur aus dem Grund, weil die Dinge so weit voneinander weg sind: Kunden hier, Sachen da; und alles völlig unstrukturiert dazu. Hier muss man doch ansetzen. Die Lösung des Distanz-Problems kann daher nur sein, dass wir alle bei Amazon einziehen. Dann braucht es weder Drohnen noch Mitbürger, die uns was bringen, weil alle Dinge schon da sind, und wir auch: "On my home". So geht das. 

menuseperator

Dass wir keine IT-Scheuklappen aufhaben, beweist nun auch unser Kollege Rainer Doh sehr eindrucksvoll mit seinem ersten Krimi „Mordkap“.

Richtig gehört: kein weiteres Fachbuch zu Excel & Co, nein – ein Krimi.

Wir durften vor ein paar Wochen bereits alle ein handsigniertes Exemplar in Empfang nehmen und haben dabei nicht schlecht gestaunt: ein Krimiautor in unseren Reihen? Denn nur sehr wenige Kollegen wurden im Vorfeld eingeweiht.

Die Handlung von „Mordkap“ spielt großenteils an Bord des legendären Postschiffes MS Midnatsol der norwegischen Hurtigruten. Mehr wird aber an dieser Stelle nicht verraten.

Da ich seit über 20 Jahren kiloweise Krimis verschlinge, war ich natürlich sehr begeistert, dass wir einen waschechten Krimiautor unter uns haben. Aber wie kommt man darauf, ausgerechnet einen Krimi zu schreiben, wenn man sich beruflich eigentlich nur IT-Themen widmet, und woher kam die Idee für die Story? Diese Fragen musste ich natürlich gleich loswerden und weil sie vielleicht nicht nur mich umtreiben, haben wir ein kurzes Interview dazu gedreht – natürlich dem Rahmen der Story „angemessen“.

Übrigens gibt es auch einen Blog zum Buch. Wer also an weiteren Hintergründen oder an Terminen zu Lesungen (nächste am 23.6. in München) interessiert ist, kann hier nachlesen: https://mordkap.wordpress.com  

Viel Spaß beim Anschauen und natürlich beim Lesen!

menuseperator

An jedem PC-Arbeitsplatz in deutschen Mittelstandsunternehmen entstehen täglich durchschnittlich zwei bis vier Gigabyte an Daten. 600 Megabyte werden dort wiederum pro Tag im Durchschnitt „nach außen“ verschickt. Zwei Drittel dieser versendeten Daten bedürften eigentlich einer sicheren, sprich verschlüsselten, Übertragung, da sie sensible Informationen enthalten – bei der tatsächlichen Nutzung sicherer Übertragungswege gibt es aber noch Luft nach oben, wie eine Studie von techconsult im Auftrag von QSC ergeben hat.

Für die Studie wurden 300 CIOs und IT-Leiter mittelständischer Unternehmen aus verschiedensten Branchen befragt. Wichtigste Erkenntnis: Die IT-Leiter sind durchaus sensibilisiert für das Thema, rund zwei Drittel der befragten Firmen setzen bereits diverse E-Mail-Verschlüsselungslösungen ein, weitere 30 Prozent planen eine Implementierung bis 2016. Der Haken: Nicht einmal die Hälfte der Mitarbeiter (44%) in den Unternehmen, die bereits Verschlüsselungslösungen implementiert haben, nutzt diese auch tatsächlich.

Quelle: QSC/ techconsult, Mai 2015

Dafür gibt es mehrere Gründe. Techconsult nennt hier Hindernisse wie Lizenzbestimmungen bezüglich der Anzahl der Nutzer, aber auch Probleme mit der Usability – viele Verschlüsselungslösungen erforderten bisher einen hohen Arbeitsaufwand und gingen zulasten der Produktivität. Darüber hinaus müssen bei allen Beteiligten entsprechende Zertifikate vorhanden sein, und unterschiedliche Tools sind auch nicht immer kompatibel. Oftmals stelle sich allerdings auch die Frage, ob die Geschäftsführung die Belegschaft überhaupt schon mal zum Thema Compliance gebrieft habe, so das Kasseler Analysten- und Beratungshaus.

Umso wichtiger sei es daher, eine unternehmensinterne Strategie zum Umgang mit kritischen Daten zu erarbeiten und diese nahtlos in den Unternehmensalltag zu integrieren. Die Klassifikation der Daten, sowie eine Festlegung, wie diese Daten je nach Klassifikation zu behandeln sind, bilden den Grundstock hierzu. User-freundliche Tools, die sich einfach in die bestehenden Routinen integrieren lassen und damit die Mitarbeiter bei der Einhaltung dieser Regelungen zum Schutz der „Kronjuwelen“ des Unternehmens, seiner Daten, unterstützen, sind wiederum das A und O, um diese Aufgabe flächendeckend auszuführen. Am besten sollten Unternehmen, laut diesem Teil der Studie, darüber nachdenken, eine Lösung einzusetzen, die nicht nur eine Verschlüsselung von Mails, sondern auch weiterführende Funktionen zur Kollaboration anbietet.

Die Studie in voller Länge kann hier heruntergeladen werden.

menuseperator

Egal, ob es um den Schutz unserer persönlichen Daten geht, um Staatsgeheimnisse oder um die Kontrolle über das interne IT-System: Die IT-Sicherheit gewinnt immer mehr an Bedeutung, denn Gefahren lauern aus allen Richtungen. In den letzten Jahren haben sich sowohl der Schweregrad als auch die Häufigkeit von Datenmissbrauchs-Fällen vervielfacht. Schlupfloch für die Angriffe sind dabei meist fehlende Sicherheitsmaßnahmen: mangelhaft konfigurierte Einstellungen oder Rechte, unzureichendes Zugriffsmanagement oder lückenhafte Nutzungsrichtlinien. Trojaner, Hash-Attacks, Phishing-Mails, all dies sind keine Fremdwörter mehr und Cyberattacken jeglicher Couleur wurden in den vergangenen Jahren publik. Längst geht es nicht mehr nur um unsere Daten, die massenweise gespeichert und ausgespäht werden – gläsern ist der Mensch inzwischen sowieso – mittlerweile zielen diese Angriffe auf konkreter fassbare Bereiche unseres Lebens ab: unser Hab und Gut wie auch unser Leben geraten ins Visier. Heute benötigen Terroristen und Kriminelle keine Waffen mehr, um Unternehmen oder gar ganze Staaten zu bedrohen.

Das zeigen Coups in den vergangenen Monaten ganz deutlich: Da wären beispielweise die „Guardians of Peace“, die 2014 wegen unzureichender Sicherheitsvorkehrungen ganz einfach in das Firmennetz von Sony Pictures Entertainment eindringen konnten, massenweise Daten der Filmstars abgriffen und den Konzern tatsächlich zwangen, einen Nordkorea-kritischen Film nicht auszustrahlen. Eine Blamage sondergleichen für Sony. Ein weiteres Beispiel dafür, wie lax die Industrie mit Sicherheitsmaßnahmen umgeht, ist der BMW-Connected-Drive-Hack, wo Hacker ganz einfach via einer Sicherheitslücke 2,2 Millionen Fahrzeuge entsperren konnten – das Angebot DriveNow von BMW sollte wohl nicht nur dem Besitzer freistehen, sondern auch jeglichem Passanten das Vergnügen einer kleinen Spritztour bereiten.

Fortgesetzt wird die Reihe durch einen aktuellen Hackangriff, welcher aber die Öffentlichkeit nicht nur in Sprachlosigkeit, sondern regelrecht in Angst versetzt: Der Passagier, der sein Flugzeug hackte – einem Sicherheitsexperten war es möglich, das Steuerungssystem eines Flugzeugs ganz simpel aus der Passagierkabine heraus zu hacken und somit die Kontrolle über das Leben vieler Menschen zu übernehmen. Wenn es nicht gelingt neue, nicht hackbare Sicherheitsvorkehrungen einzurichten, müssen wir in Zukunft vielleicht gar mit erweiterten Handgepäckregeln rechnen: das Verbot gilt nicht mehr nur für Flüssigkeiten und Waffen, sondern betrifft in Zukunft auch BYOD.

Da sich hier einmal mehr zeigt, dass für die Industrie das Kriterium Sicherheit immer noch nicht oberste Priorität hat, wird der Ruf nach einem Gesetz immer dringlicher, das zu einer Erhöhung der IT-Sicherheit in Deutschland beitragen soll. Dazu diskutiert der Bundestag momentan eine Gesetzesvorlage, die aber von Experten scharf kritisiert wird: unter anderem sieht das Gesetz keine proaktiven Sicherheitsmaßnahmen als Pflicht vor, sondern im Falle schon eingetretener Sicherheitsvorfälle eine Meldepflicht. "Eine weitere Bürokratisierung der IT-Sicherheit geht zulasten dringend notwendiger proaktiver Maßnahmen zur effektiven Erhöhung der IT-Sicherheit", so der Experte Linus Neumann vom Chaos Computer Club. Da in vielen Fällen Daten-Ausspähungen nicht einmal von den vorhandenen Security-Systemen entdeckt werden, wirklich eine fragwürdige Besserung! Das Übel der Angriffe wird nicht bei der Wurzel gepackt und im Keim erstickt, sondern nur mit zahlreichen anderen Vorfällen dokumentiert und ad acta gelegt.

Im Zeitalter des Internet of Things sollte endlich ein Umdenken stattfinden und in der Euphorie eines technischen Fortschritts um jeden Preis nicht jede Innovation ohne ausreichende Sicherheitsprüfung eingeführt werden. Und dazu ist ein entsprechendes Gesetz schlichtweg notwendig.

Quelle: pixabay / Lizenz: CC0 Public Domain

menuseperator

Unternehmen wollen in der Öffentlichkeit möglichst gut dastehen, weshalb sie überhaupt erst mal in der Öffentlichkeit wahrgenommen werden müssen, wozu sie die Dienste der PR in Anspruch nehmen. So denken wir uns das. Vielleicht ist das aber nur aus dem voreingenommenen Blickwinkel der PR so, vielleicht befinden wir uns auch mitten in einer Filterblase und merken es nicht mal. Es gibt nämlich auch Unternehmen, die das Thema Öffentlichkeit ganz anders anpacken.

Da hatte ich doch kürzlich mit einem durchaus renommierten mittelständischen Technologie-Unternehmen (den Namen lasse ich jetzt bewusst weg, dazu später mehr) zu tun; es ging um eine recht simple Sache: Bildmaterial. Auf der Website war nichts zu finden; leider auch kein Ansprechpartner oder Pressekontakt. Also schnell Telefon über die dortige "Zentrale" mit Bitte um Durchstellen zur zuständigen Stelle.

Denkste! Eine Weitervermittlung käme grundsätzlich nicht in Frage, das Anlegen müsse schriftlich per E-Mail (immerhin!) an "info@" vorgebracht werden. Auch die Hinweise, die Sache sei (a) etwas eilig, (b) schnell zu erledigen (und sei es nur durch die Auskunft "Hamwanich") und (c) "info@" berge die große Gefahr der Fehlleitung, halfen nicht. Schriftlich. Punkt.

Ok, also schriftlich. Möchte jemand raten, wie es ausging? Ja? Es gibt allerdings nichts zu gewinnen, weil es so wenig schwierig ist. Natürlich habe ich von diesem Unternehmen bis heute keine Antwort erhalten; auch nicht schriftlich. Man sieht: es geht auch in unserem digitalen Medienzeitalter ohne öffentliche Wahrnehmung. Deshalb wurde das Unternehmen hier auch nicht namentlich genannt, es wäre ihm bestimmt nicht recht. Einer von uns beiden steckt wohl in einer Filterblase.

menuseperator

Über die Praktiken mancher Pressestellen kann man sich wirklich nur wundern. So habe ich nicht schlecht gestaunt, als ich kürzlich über diese Headline gestolpert bin:

„199,20 Euro für eine Frage zur Middelhoff-Kaution“
(Handelsblatt Online, 27. April 2015)

Im Zuge seiner Recherchen zu einem Artikel über Deutschlands zweitbekanntesten Freigänger wollte ein SPIEGEL-Redakteur sich die Information bestätigen lassen, dass die Hamburger Marseille-Kliniken bereit seien, eine Kaution für Thomas Middelhoff zu stellen, damit dieser aus dem Gefängnis frei kommt. Hierfür ließ er der Pressestelle des Unternehmens einige Fragen zukommen.

So weit so üblich.

Die Marseille-Kliniken sahen sich jedoch nicht veranlasst, diese Fragen einfach so zu beantworten (oder zu ignorieren), sondern schickten dem SPIEGEL einen Kostenvoranschlag für deren Beantwortung.

„Für die Beantwortung der Anfrage, Recherche“ sowie die „Auswertung von Unterlagen“ veranschlagte das Unternehmen 148 Euro. Zudem berechnete es eine „Schreibgebühr“ von 20 Euro. Inklusive Mehrwertsteuer ergab sich ein Gesamtpreis von 199,20 Euro (…).
(Auszug aus Handelsblatt Online, 27. April 2015)

Ja, ich habe mich gewundert. Auch noch als ich ein paar Tage später die Stellungnahme des Gründers und aktuellen Aufsichtsratsvorsitzenden Ulrich Marseille gelesen habe, der die ganze Aufregung nicht verstehen kann.

„Warum sollen wir Fragen beantworten, die uns nicht betreffen, uns aber Arbeit machen? Und warum sollen wir das umsonst machen?(…) Hätte der Spiegel 199,20 Euro bezahlt, hätte er eine Zeitungsente vermeiden können. Das ist doch ein guter Preis für wahre Berichterstattung“
(Auszug aus Kress.de, 29. April 2015)

Auch eine Logik.

Aber ein Gutes hat die ganze Sache: Bisher wusste ich nur, dass die Wahrheit ihren Preis hat. Jetzt kenne ich die exakte Summe.

menuseperator

Seit dem 13. April läuft in Hannover die weltweit wichtigste Industriemesse. Die Hannover Messe beschäftigt sich in diesem Jahr neben Energie- und Umwelttechnologien, Antriebs- und Fluidtechnik, industrieller Zulieferung, Produktionstechnologien und Dienstleistungen, Forschung und Entwicklung erneut mit dem Thema Industrie 4.0. 

Industrie 4.0 steht für die vernetzte Fabrik, in der Maschinen und Werkstücke miteinander permanent Informationen austauschen. Das funktioniert mit Hilfe von kleinen Computern und Sensoren, die sich zum Beispiel in den Maschinen befinden und zu einer Art Netzwerk (genauer einem cyber-physischen System) zusammengeschaltet werden. So ein cyber-physisches System kann zum Beispiel aus einer Cloud Daten ziehen. Wohin das künftig führen könnte, hat zum Beispiel Miele in Hannover mit einer Projektstudie gezeigt: Ein Herd mit Assistenzsystem, der die notwendigen Daten beziehungsweise die Einstellungen zum Gelingen eines Rezeptes über Microsoft Azure bezieht. Kunden können sich auf der Website von Miele für ein Gericht entscheiden. Nach der Auswahl des Gerichtes werden die notwendigen Zubereitungsstufen auf das Smartphone oder Tablet des Anwenders übertragen. Aber das ist noch nicht alles: Via Microsoft Azure kommt das entsprechende Automatikprogramm in den Backofen. Unter Berücksichtigung von Betriebsart, Temperatur, Kochzeit, Feuchtigkeit und anderen Faktoren soll das Wunschgericht dann gelingen. Rezepte wie Automatikprogramme werden in den Miele-Versuchsküchen auf die Geräte abgestimmt. Auch wenn das Projekt derzeit noch eine Studie ist, zeigt es, was mit dem Internet der Dinge und Cloud-Technologien künftig möglich ist. 

Trotz aller Euphorie lässt die wirkliche Revolution bei Industrie-4.0 aber noch auf sich warten. Eine aktuelle Studie des BITKOM zeigt, dass gut vier von zehn Unternehmen (44 Prozent) in den industriellen Kernbranchen bereits Industrie-4.0-Anwendungen nutzen. Der Automobilbau hat bei der Nutzung von Industrie-4.0-Anwendungen mit 53 Prozent einen Vorsprung vor den anderen Branchen. In der Elektrotechnik nutzen 48 Prozent Industrie 4.0-Anwendungen, in der chemischen Industrie sind es 42 Prozent, im Maschinen- und Anlagenbau lediglich 41 Prozent. Offenbar gibt es auch noch viele Bedenken: Fast 80 Prozent der Betriebe halten die eigene Branche für zu zögerlich, was die Umsetzung von Industrie 4.0 angeht. Ein Hindernis sind laut Umfrage die Investitionskosten. 72 Prozent der Befragten sagen, dass diese Investitionskosten gegen den Einsatz von Industrie-4.0-Anwendungen in ihrem Unternehmen sprechen. Für die Studie wurden dafür je 100 Unternehmen mit mindestens 100 Mitarbeitern aus der Automobilbranche, dem Maschinenbau, der chemischen Industrie sowie der Elektroindustrie befragt. 

Um den richtigen Rahmen für Industrie 4.0 zu schaffen, hat der Verband deutscher Maschinen- und Anlagenbau (VDMA) auch eine europäische Initiative für Industrie 4.0 gefordert. Laut VDMA-Präsident Dr. Reinhold Festge sollten Vertreter der EU-Kommission, des Europäischen Parlaments, der EU-Mitgliedstaaten und der Industrie in einer hochrangigen Arbeitsgruppe mit klar definierten Prozessen die Strategie für die digitale Produktion in Europa erarbeiten. Ein Schritt in die richtige Richtung, wie ich meine. Bleibt zu hoffen, dass das Thema Industrie 4.0 für die Politik nicht auch „Neuland" ist.

menuseperator

Hochleistungsrechner oder „High Performance Computing“ (HPC) sind heute nahezu in allen Bereichen der Natur- und technischen Wissenschaften zu finden; typische Anwendungsbereiche sind etwa Astro- und Teilchenphysik, Genetik, Quantenchemie und Strömungsmechanik. Darüber hinaus gibt es auch Anwendungen im kommerziellen Bereich wie Wettervorhersage, Crash-Test-Simulation, Strömungssimulation oder bei der Generierung von Animationsfilmen. Alles sehr spannende Themen, wo Unmengen von Daten anfallen, die es zu verarbeiten gilt. Das hier besondere Rechner zum Einsatz kommen, steht außer Zweifel. So ist es auch gar nicht verwunderlich, dass laut einer Umfrage, gerade einmal 5% des Mittelstands solche Lösungen nutzt. Scheint der Mittelstand hier doch gar nicht die richtige Zielgruppe zu sein. Doch genau da liegt der Fehler, denn auch kleine und mittelständische Betriebe können ihre Wettbewerbsfähigkeit mit HPC-Lösungen erheblich steigern. „Big Data“ ist in aller Munde und das rasante Wachsen von Datenvolumina ist kein Hype, sondern Realität. Warum diese Lösungen im Mittelstand noch kaum anzutreffen sind, ist somit verwunderlich. Viele der Befragten kannten den Begriff „HPC“ gar nicht. Weitere Ergebnisse der Umfrage hier: http://www.pr-com.de/de/pi/high-performance-computing-nachholbedarf-im-mittelstand

menuseperator

„Cloud Computing wird Basistechnologie in vielen Unternehmen“, prophezeit der BITKOM. Es scheint die Ideallösung schlechthin zu sein, angefangen vom geringen Investitionsaufwand über schnelle, unkomplizierte Server-Wartung und Systemwiederherstellung bis hin zur besseren Zusammenarbeit und einer enormen Flexibilität in Sachen Kapazität und Standort. Doch genau da zeigt sich die Krux gleich doppelt der Standort! Die Cloud ist überall, die Cloud ist nirgends so viel steht fest. Doch wo sitzt der Anbieter und wo sind die Daten gehostet? Lieber ein günstiger Hoster im Ausland oder eine Cloud durch und durch „Made in Germany“, bei der sowohl Betreiber als auch Daten in heimischen Gefilden bleiben und die hohe Qualität, Präzision und auch Sicherheit verspricht? Doch auch eine Cloud im Inland heißt nicht, dass auch der Betreiber hierzulande sitzt, das wird uns nur manchmal verschwiegen. Viele deutsche Unternehmen überlegen, ihre Daten ins meist günstigere Ausland zu verlagern. Aber Achtung: Wie steht es um die Vertraulichkeit, die Integrität und die Verfügbarkeit der Daten, wenn der Hoster im Ausland sitzt? Ist wirklich alles kontrollierbar, transparent, mein Ansprechpartner immer erreichbar und vor allem – sind meine oder noch wichtiger die Daten meiner Kunden sicher? Zieht hier das Prinzip „aus den Augen, aus dem Sinn“ noch weitere Kreise? 

Diese Sicherheitsbedenken bremsen das ein oder andere Unternehmen aus, die ganze „himmlische“ Freiheit zu nutzen. Denn gerade bei grenzüberschreitenden Dienstleistungen bestehen größtenteils Unsicherheiten, welches Recht denn nun gilt. Und damit auch, wer bestimmt, was mit den größtenteils vertraulichen Firmendaten passiert. Klärungsbedarf besteht vor allem auch hinsichtlich des Urheberrechts, der Lizenzbedingungen und vor allen Dingen des Datenschutzes. 

So fordern Datenschützer, dass Anwender Cloud-Services nur dann in Anspruch nehmen dürfen, wenn sie in der Lage sind, ihre Pflichten als verantwortliche Stelle in vollem Umfang wahrzunehmen, sprich Vertraulichkeit, Integrität und Verfügbarkeit der Daten sowie Kontrollierbarkeit, Transparenz und Beeinflussbarkeit der Datenverarbeitung gewährleisten können (offizielle Entschließung der 82. Konferenz der Datenschutzbeauftragten des Bundes und der Länder, 2011). Schwierig wird es bei ausländischen Cloud-Anbietern, denn wer durchschaut schon vollkommen die ausländischen Rechtsordnungen? Räumt mein Cloud-Provider den ausländischen Behörden Zugriffsrechte ein? Muss er vielleicht sogar meine Daten in unsichere Drittstaaten übermitteln (Übermittlungsobliegenheit)? 

Bleiben wir also doch lieber beim guten alten „Made in Germany“ oder zumindest Europa? Brüssel macht den ersten Schritt, ein „Made in Europe“-Siegel ist in Arbeit. 

Bis dahin: Drum prüfe, wer sich ewig bindet.

menuseperator

Endlich wieder positive Nachrichten aus Hannover. Dominierten in den letzten Jahren noch Abgesänge auf die größte IT-Messe der Welt, hat sich die Stimmung nun gedreht. Mit 221.000 Besuchern verzeichnet das Centrum für Büroautomation, Informationstechnologie und Telekommunikation seit mehreren Jahren erstmals wieder ein leichtes Besucherwachstum und sieht ihre Neuprofilierung als reine B2B-Messe geglückt: aus der Publikumsmesse, die in Spitzenzeiten bis zu 800.000 Besucher anzog, ist eine Geschäftsmesse zum Auf- und Ausbau internationaler Geschäftsbeziehungen geworden.
Bereits 2014 sollen 92 Prozent der Besucher Fachbesucher gewesen sein und angesichts der offiziellen Jubelgesänge auf die erfolgreiche Neuausrichtung dürfte die Zahl in diesem Jahr kaum darunter liegen.

Gefühlt färbt der B2B-Fokus übrigens auch auf die obligatorischen, meist jüngeren Taschen- und Giveaway-Jäger ab, die auch dieses Jahr dank zahlreicher Freikarten wieder in Scharen vertreten waren  – sie lassen Jeans und T-Shirt nun zuhause und schieben sich neuerdings im Konfirmandenanzug durch die Gänge.

menuseperator

Können Sie sich noch erinnern, wie sie als Kind manchmal irgendein Wort immer und immer wieder vor sich hin gesagt haben? Solange, bis es jeden Sinn verlor?

So ähnlich treibt es die PR- und Marketingbranche mit dem Wörtchen „Lösung“. Jedes Produkt und jede Dienstleistung – und seien sie noch so profan – sind heute eine Lösung. Die Lebensmittelindustrie liefert keine Lebensmittel mehr, sondern „Ernährungslösungen“. Der Werkzeugbauer baut keine Werkzeuge mehr, sondern „Werkzeuglösungen“. Und Bankberater ziehen ihre Kunden nicht mehr über den Tisch, sondern bieten ihnen „Beratungslösungen“.

Klar, das klingt halt einfach viel besser. Eine Lösung setzt schließlich ein kniffliges Problem voraus. Und um es zu beseitigen, braucht es unbedingt jemanden, der kompetent ist, innovativ, und, ähem, „lösungsorientiert“.

Ich warte jedenfalls schon voller Vorfreude auf den Tag, an dem ich in meine Stammkneipe gehe, mir die Getränkekarte schnappe und dort lesen werde: „Alkoholisierungslösungen“. Wobei – das wird nicht klappen. Alkohol ist ja bekanntlich keine Lösung.

menuseperator

Greifen wir einmal tief in die Klischee-Kiste: Deutsche haben ein großes Sicherheitsbedürfnis, springen nicht auf jeden Trend auf (gerade im Bereich IT-Innovationen), haushalten sparsam und scheuen risikoreiche Investitionen. „Puh, nicht schon wieder diese alte Leier“ denken Sie sich jetzt. Aber im IT-Sektor waren und sind deutsche Unternehmen tatsächlich bei neuen Entwicklungen recht zögerlich und zurückhaltend. Gerade beim Thema Cloud Computing.

Da sind die jüngsten Ergebnisse des Cloud Monitors 2015, einer BITKOM Studie im Auftrag von KPMG (BITKOM KPMG PK Cloud Monitor: 2015), doch interessant und lassen aufhorchen: „Cloud Computing wird Basistechnologie in vielen Unternehmen“ heißt es in der Pressemeldung zur Studie (BITKOM und KPMG Presseinfo: 2015). Insgesamt wurden 458 Geschäftsführer und IT-Verantwortliche in Unternehmen ab 20 Mitarbeitern in der repräsentativen Studie befragt. Fast die Hälfte aller Unternehmen haben im Jahr 2014 Cloud Computing eingesetzt. In großen Unternehmen ab 500 Mitarbeiter sind es sogar 70 Prozent, im Mittelstand jedes zweite, und bei kleinen Unternehmen 41 Prozent. Und von denen, die es noch nicht nutzen, überlegt jedes vierte Unternehmen in 2015 den Schritt zu wagen. Hauptsächlich greifen Unternehmen auf IT-Services aus einer Private Cloud zurück: 39 Prozent der Studienteilnehmer, ein Wachstum von 3 Prozent zum Vorjahr. Public Cloud Computing kommt dagegen nicht von der Stelle. Hier stiegen die Nutzerzahlen lediglich um einen Prozentpunkt auf 16. Mehrheitlich zufrieden sind die Nutzer von beiden Cloud-IT-Service-Varianten: 78 Prozent der Private-Cloud-Nutzer und 73 Prozent der Public-Cloud-Nutzer.

Im Hinblick auf diese Ergebnisse bleibt Cloud Computing auch in 2015 eines der Top-IT-Themen für den IT-Markt. „Cloud Computing wird Basistechnologie“ – heißt das jetzt, dass die deutschen Unternehmen komplett anders mit dem Thema umgehen? Keine Sicherheitsbedenken wie in der Vergangenheit? Nein, so schnell verändern sich Einstellungen und Überzeugungen dann doch nicht. Sicherheitsbedenken bremsen ein schnelleres Wachstum und die Verbreitung von Cloud Computing, so eine weitere Aussage der Studie. 60 Prozent der Befragten haben Angst, durch Cloud Computing gegen Compliance-Anforderungen zu verstoßen. Mehr als die Hälfte (60 Prozent) befürchten einen unberechtigten Zugriff auf sensible Daten. Und fast jedes zweite Unternehmen (49 Prozent) sieht die Gefahr eines möglichen Datenverlustes.
Hier ist also immer noch viel Aufklärungsarbeit für IT-Anbieter zu leisten. Denn, so die Studie, Sorgen seien unbegründet, da lediglich 8 Prozent aller Unternehmen Compliance-Vorfälle in Zusammenhang mit Cloud Computing zu beklagen hatten. Und Aufklärungs- und Überzeugungsarbeit sei wichtig, so der Branchenverband BITKOM. Der Verband sieht Cloud Computing als einen wichtigen Faktor für die zukünftige Wettbewerbsfähigkeit deutscher Unternehmen. Denn Cloud Computing verhilft zu mehr Flexibilität, Mobilität und Effizienz.

Das Gütesiegel „Made in Germany“ gilt weltweit als sehr gutes Verkaufsargument für Industrie- und Konsumgüter. Für die Überzeugungsarbeit und als Argument für Cloud Computing könnte sich ein weiteres deutsches Zertifikat durchsetzen: die „German Cloud“. Mal sehen, was die nächste Auswertung des Cloud Monitors 2016 ergibt.

menuseperator

Seiten