Blog

Die zahlreichen Datenskandale der letzten Zeit haben dem Cloud-Computing-Geschäft in Deutschland einen deutlichen Dämpfer verpasst. Einer kürzlich veröffentlichten BITKOM-Studie zufolge hat ein beträchtlicher Teil der befragten Unternehmen laufende Projekte bereits auf Eis gelegt oder geplante Cloud-Projekte vorerst zurückgestellt. Auch wenn damit nicht das Ende der Cloud besiegelt ist, lässt sich eines nicht von der Hand weisen: die Verunsicherung ist groß. Vorbehalte, vertrauliche Daten in die Cloud auszulagern und dort zu speichern, überschatten im Moment die positiven Argumente, die für den Einsatz einer Cloud sprechen, nämlich mehr Flexibilität, nahezu unbegrenzte Skalierbarkeit und niedrigere Kosten.

Die Situation ist wie sie ist. Offen bleibt lediglich, wie die deutsche IT-Branche mit dem gewachsenen Wunsch nach mehr Datensicherheit umgeht. Können deutsche IT-Provider vielleicht sogar von der angespannten Lage profitieren? Gibt es einen Standortvorteil Deutschland?

Die Antwort lautet ganz klar: Ja!

Endlich setzen sich die Unternehmen mit dem Thema Sicherheit auseinander und sind gewillt, mehr Zeit und vor allem Geld zu investieren. Es wird genauer hingeschaut. Und gerade hier kommt der Standortvorteil Deutschland zu tragen.

(Vermeintlich) sichere lokale Rechenzentren sowie die Einhaltung vergleichsweise strenger deutscher Datenschutz-bestimmungen sorgen für einen Vertrauensvorsprung.

Unternehmen, insbesondere Mittelständler, die von Grund auf skeptisch sind, haben bei internationalen Cloud-Riesen wie Google, Amazon oder Microsoft oftmals das Gefühl, die Kontrolle abzugeben. Sie wissen meist nicht, wo genau ihre Daten gerade liegen und welche Datenschutzbestimmungen dort gelten.

In Deutschland muss das Cloud Computing mit dem Bundesdatenschutzgesetz konform sein. Die Verarbeitung personenbezogener Daten unterliegt strengen Regeln. Ein beachtlicher Zweifel besteht hingegen, ob ähnlich strikte Datenschutzbestimmungen im Ausland gelten beziehungsweise eingehalten werden.

Heimische IT-Firmen sollten genau diesen Punkt klarer herausstellen, denn der deutsche Rechenzentrumsstandort kann ein wesentliches Kriterium sein, wenn Unternehmen vor der Entscheidung stehen, den Weg in die Cloud zu wagen.

menuseperator

Bilderrätsel für Marketing- und PR-Schaffende: Was sieht man hier? Und noch viel wichtiger: Was sieht man nicht?

Frage eins ist leicht zu beantworten. Eine Collage aus Firmen- und Produktnamen, wie sie in zufällig ausgewählten Online-Medien veröffentlicht wurden. Ansonsten sieht man nichts. Und zu diesem Nichts zählen auch Markenzeichen-Symbole und Copyright-Zeichen wie ®, © oder ™. 

Der Grund dafür ist einfach: Kein Journalist schreibt über Samsung®, Ford©, IBM™ oder deren Produkte® und Lösungen™. Das ist nicht sehr lesefreundlich und interessiert eh keinen Menschen. So sehr Sie also von der Notwendigkeit dieser Symbole in Presseinformationen oder -texten überzeugt sind: es hilft nichts, sie werden am Ende immer rausgestrichen. 

menuseperator

Im Netz wird es immer enger und enger: bei der Suche nach einer freien Domain haben Unternehmen (und Privatleute) kaum mehr Aussicht auf Erfolg. Doch heute ab 17 Uhr ist Abhilfe in Sicht, denn die ersten neuen Top Level Domains (TLDs) mit den Endungen .bike, .clothing, .guru, .holdings, .plumbing, .singles (gibt's kein .couples?) und .ventures gehen an den Start.

Ob der deutsche Installateur sehnlichst auf die Domain .plumbing oder Joint-Venture-Firmen auf die Domain .ventures gewartet haben, ist nur schwer zu glauben. Aber vielleicht werde ich ja eines Besseren belehrt.

Viel spannender werden meines Erachtens aber die TLDs, die noch etwas auf sich warten lassen, wie zum Beispiel .shop, .web, .blog, .berlin, .bayern etc.

Doch auch bei den neuen Domainnamen gilt: Wer zuerst kommt, mahlt zuerst. Deshalb raten Webhoster dazu, dass Interessenten sich gleich bei mehreren Anbietern registrieren lassen, denn so erhöhen sich die Chancen, die Wunschdomain tatsächlich zu erhalten.

Wann kommen eigentlich .boring oder .grotty?  Ab 18 Uhr?

P.S.: Was halten Sie eigentlich von pr-com.guru?

menuseperator

Angefangen hat das Ganze völlig egoistisch: Vor fünf Jahren begann ein kleines Team von Facebook-Technikern mit den Arbeiten für ein besonders effizientes Rechenzentrum. 2011 ging Facebook-Chef Mark Zuckerberg dann mit den ersten Ergebnissen an die Öffentlichkeit. Parallel startete das Unternehmen das Open Compute Project (OCP) und legte die Baupläne und Spezifikationen für das von Facebook entwickelte Rechenzentrum offen. Dazu hat sich schnell eine beachtliche Bewegung Gleichgesinnter zusammengefunden, die sich Ende Januar dieses Jahres bereits zum dritten Mal im kalifornischen San Jose zu einem Summit trafen. In der Zwischenzeit entwickelten die OCP-Mitglieder mehrere Motherboard- und Server-Designs für Cloud-Projekte, die außer von Cloud-Betreibern vor allem von weltweit tätigen Finanzdienstleistern wie der Bank of America oder Goldmann Sachs aufgegriffen und umgesetzt wurden. Aber auch andere Branchen mit riesigem Rechenzentrumsbedarf zeigen Interesse, etwa die pharmazeutische Industrie oder die Telekommunikation.

Dem Open-Source-Gedanken zufolge sind die Hardware-Designs entsprechend einer Lizenz der Apache Software Foundation verfügbar. Vieles läuft bei OCP aktuell noch unter einer sogenannten Permissive-Lizenz, das heißt der Lizenznehmer kann Modifikationen der Designs vornehmen und die Ergebnisse werden dann „proprietär“. Um mehr Mitglieder zu gewinnen, will die OCP Foundation künftig eher zu einem GPL-ähnlichen Modell übergehen, wie es aus dem Open-Source-Software-Bereich rund um Linux bekannt ist. Hier kann jeder ein Design modifizieren. Wird das daraus entstehende Produkt verkauft, müssen die Änderungen der Community zugänglich gemacht werden.

Eines ist klar: Das Open-Source-Modell ist nicht länger auf Software beschränkt, sondern erobert weitere Anwendungsszenarien. Aus einer Community entstehen Produkte, deren Designs und die Weiterentwicklung mit anderen geteilt werden. Server-Designs sind nur ein Beispiel, längst wird auch an Switches gearbeitet.

Um noch einmal auf den Anfang zurückzukommen: Entstanden ist das OCP ja, weil Facebook mit den vorhandenen x86-Designs nicht zufrieden war und die Sache dann selbst in die Hand genommen hat. Offene Standards, konstitutiv für das Open-Source-Modell, werden so zu einem wichtigen Antreiber für schnellere Innovationen – und die sind nicht nur in der IT-Branche dringend notwendig. 

menuseperator

In wenigen Tagen wird Facebook zehn Jahre alt, und genau jetzt kommen immer mehr Studien zu Tage, die dem weltweit größten sozialen Netzwerk den Untergang prophezeien. So haben zwei Doktoren der Ingenieurswissenschaften der Universität Princeton ein wissenschaftliches Modell erstellt, das die Entwicklung von Facebook in den nächsten Jahren skizziert. Und das Ergebnis spricht für sich: Bis 2017 wird Facebook 80 Prozent seiner Nutzer verlieren.

Auch eine andere Studie sorgte zu Beginn des Jahres für Aufsehen, denn Mark Zuckerberg laufen die Teenies weg. Und somit seine zukünftigen User.

Und in Deutschland? Dem Social-Media-Entwicklungsland? Hier ist das derzeitige Nutzerverhalten ohnehin erschreckend. So zeigt eine aktuelle Studie, dass 60 Prozent der Deutschen das soziale Netzwerk überhaupt nie nutzen. Das sind wahrlich trübe Aussichten...

Doch was heißt das nun? Lohnt es sich für Unternehmen überhaupt noch, in Social Media zu investieren, wenn selbst das größte soziale Netzwerk dem Untergang geweiht ist?

Die Antwort ist klar. Auf jeden Fall.

Wichtig dabei ist aber, nicht den Trends hinterherzulaufen und zu versuchen, überall dabei zu sein. Denn gerade für Unternehmen, die im B2B-Bereich tätig sind, ist die Zielgruppe oft gar nicht so einfach zu finden. Häufig sind es kleine Experten-Foren, in denen sich die Opinion-Leader austauschen, oder Blogs, die den größten Mehrwert für die Kommunikation mit den Kunden bieten.

Jedoch das entscheidende Kriterium ist nicht, dass man weiß, wo sich die Zielgruppe aufhält, sondern, dass man wirklich in den Dialog treten möchte und diesen auch langfristig führen will.

Doch daran scheitert es leider viel zu oft.

menuseperator

Erst vor Kurzem wieder einen beliebten Streitfall gehabt: Ein in einer Pressemitteilung zitierter Experte bestand darauf, jedes Mal im Text mit Vor- und Nachnamen sowie einem „Herrn“ davor genannt zu werden. Stünde da lediglich der Nachname, so sein Einwand, käme das ziemlich rüde rüber.

Anscheinend wirken manche Dinge in Pressetexten auf den ersten Blick ungewöhnlich, die einem in den Medien völlig normal vorkommen oder erst gar nicht groß auffallen. So stört sich niemand daran, dass der Tagesschau-Sprecher jeden Abend lediglich von „Merkel“ redet. Auch in den Tageszeitungen wird dies so gehandhabt, zum Beispiel in der Süddeutschen:

Ramstetter selbst sagte am Sonntag der SZ: '"Ich habe Scheiße gebaut und die Zahlen geschönt. Daraus ziehe ich die Konsequenzen und übernehme die Verantwortung."

Bei der ersten Nennung den vollen Namen angeben, dann nur noch den Nachnamen – so entspricht es in Deutschland den journalistischen Gepflogenheiten. Und daran sollte sich auch ein Pressetext unbedingt orientieren. Das gilt ebenso für die „Frau“ und den „Herrn“ vor den Namen. Auch sie sind – übrigens ganz im Gegensatz zu England, Frankreich oder den USA – in den deutschen Medien völlig unüblich.

menuseperator

Facebook will seine mehr als eine Milliarde Nutzer besser verstehen. Dazu hat das Unternehmen vor Kurzem den Deep-Learning-Pionier Yann LeCun von der New York University engagiert. Deep Learning gehört zum Forschungsgebiet der Künstlichen Intelligenz und wird für die Analyse sehr umfangreicher Datenmengen eingesetzt. Forscher der Stanford University beispielsweise haben in diesem Umfeld zusammen mit Google ein Verfahren zur Gesichtserkennung entwickelt. Eine weitere Anwendungsmöglichkeit ist die sogenannte Phrasenerkennung. Hier geht es darum, ob zwei Sätze verschiedener Länge und Formulierung dieselbe Bedeutung haben. Nützlich ist das etwa, um Plagiate aufzufinden oder Texte zusammenzufassen.

Wenn Facebook Methoden der künstlichen Intelligenz einsetzt, machen sich einige Nutzer berechtigte Sorgen: Was passiert mit unseren Daten? Die einfachste Antwort darauf: Wer bei Facebook mitmacht, muss wissen, auf was er sich einlässt. Wer fürchtet, ausspioniert zu werden, sollte Facebook nicht nutzen. Nach allem was bekannt ist, wird Facebook maschinelles Lernen beispielsweise dazu einsetzen, um Prognosen zu treffen, welche Werbeanzeigen bei wem am besten ankommen. Ob Facebook dann in absehbarer Zeit klüger oder gar zu einem „intelligenten Wesen“ wird oder wie manche befürchten, die Nutzer besser ausspähen kann, sei dahingestellt.

Spannend finde ich Deep Learning auf jeden Fall. Eine Reihe interessanter Beispiele beschreibt Jürgen Schmidhuber, Leiter des Labors für Künstliche Intelligenz IDSIA in Lugano, auf seiner Homepage. Ob es in einigen Jahrzehnten Maschinen gibt, die den Menschen an Intelligenz übertreffen, kann heute niemand sagen. Aber Mitte der 1990er-Jahre konnte sich auch kaum jemand vorstellen, was wir heute alles mit unseren Smartphones, Tablets und all den verschiedenen Social-Media-Kanälen machen. Wichtig ist mitzuhelfen, dass Entwicklung und Umsetzung beim Deep Learning in gesellschaftlich akzeptablen Bahnen bleiben und der Schutz persönlicher Daten Vorrang hat.

menuseperator

Auch in diesem Jahr sind sie wieder ein Thema auf der CES: der vernetzte Kühlschrank oder die aus der Ferne gesteuerte Waschmaschine.

Neu ist das allerdings alles nicht. Schon seit Jahren werden solche Lösungen wiederholt auf Messen wie der CES oder IFA vorgestellt, etwa von Samsung, LG oder Bosch. Und „Hallo, hier spricht der Kühlschrank“ titelte die Zeit bereits im Jahr 1998. Wie sieht heute aber die Wirklichkeit im deutschen Haushalt aus? Kennt jemand jemanden mit dem vernetzten Kühlschrank? Sicher nur die wenigsten.

Und woran liegt das? Sicherlich nicht daran, dass es keine Lösungen gibt. Nein, sondern vielmehr eher daran, dass nicht alles, was technisch machbar ist, auch sinnvoll ist. Es mag schön sein, die Waschmaschine komfortabel aus der Ferne per Smartphone steuern zu können. Doch wofür? Muss die Wäsche nicht nach wie vor händisch in die Trommel gebracht werden. Und ist das erst einmal erledigt, können bei einem halbwegs zeitgemäßen Gerät wohl auch der Start des Wasch- und Trocknungsvorgangs programmiert werden. Was bringt dann noch die Fernsteuerung? Vielleicht die Info, dass der Waschvorgang ordnungsgemäß in-time zu Ende gebracht wurde? Nun ja, der Nutzen bleibt fraglich.

Nicht in Abrede gestellt werden soll natürlich, dass es sich bei den Themen Heimvernetzung und Smart Home mit Sicherheit um zentrale Zukunftsmärkte handelt. Allerdings ist zu differenzieren zwischen sinnvollen Anwendungen und Gadgets, die keinen erkennbaren Mehrwert bieten. Zu den Ersteren zählen auf jeden Fall Applikationen für die Gebäudesicherung, Überwachung und Zugangskontrolle, Klimatisierung und Heizungssteuerung oder Lichtregulierung. Zu den Letzteren aber sicher Geräte wie Herd, Mikrowelle, Kühlschrank oder Waschmaschine mit Internetanbindung. 

menuseperator

Nun ist sie auch schon wieder vorbei, die stade, entspannte und erholsame Zeit. Viele haben die Tage rund um Weihnachten und den Jahreswechsel genutzt, um auszuspannen, ein gutes Buch zu lesen, zu wandern oder einfach mal nichts zu tun. Relaxen, das Hirn lüften und Kraft für die Herausforderungen des neuen Jahres tanken. Und auch mal offline sein – oder die Web-2.0-Aktivitäten einschränken, um an dieser Stelle realistisch zu bleiben.

Doch kaum sind wir zurück aus dem Weihnachtsurlaub, holt uns das „normale“ Leben wieder ein. Anrufe und E-Mails verfolgen uns im Minutentakt, unser Handy vibriert ständig, unser Konsumverhalten rund um Spiegel Online und Facebook nähert sich wieder dem alten Maß, wir sind „always on“ und die Entspannung ist schnell wieder verflogen.

Doch es gibt Abhilfe. Über eine Website - wie denn sonst?

Einfach mal auf www.alleinr.de klicken. Hilft nicht so gut wie die Lektüre eines guten Romans. Aber hilft. Frohes Neues Jahr! 

menuseperator

Jedes Jahr ungefähr ab Mitte November geht es los: Viele Analysten-Häuser, aber auch zunehmend IT-Unternehmen, äußern sich zu den Technologie-Trends des kommenden Jahres. 

Dass Marktforschungsunternehmen wie Gartner oder Forrester das Jahresende nutzen, um einen Ausblick auf kommende Technologien zu geben, ist verständlich. Das ist schließlich Teil ihres Geschäftsmodells. Also aufzuzeigen, welche Technologien das Potenzial besitzen, einen signifikanten Einfluss auf Unternehmen zu haben. Dass sich dabei viele Hype-Themen aus 2013, wie beispielsweise Mobility, Cloud, Big Data oder das Internet der Dinge, in unterschiedlichen Ausprägungen in 2014 wiederfinden, verwundert auch nicht weiter.

Was meiner Ansicht nach zunimmt – aber womöglich bilde ich mir das auch ein – sind Prognosen von IT-Unternehmen. Generell spricht natürlich nichts dagegen, sich als Markt-Experte zu positionieren. Ganz im Gegenteil sogar, wir motivieren unsere Kunden von Fall zu Fall auch, dies zu tun. Was dabei allerdings wichtig ist, ist eine gewisse Neutralität zu wahren und eine echte Markteinschätzung abzugeben, die ­– und das ist der springende Punkt – über die Betonung des eigenen Geschäftsfeldes hinausgeht. So ist es meiner Ansicht nach wenig glaubhaft, wenn für einen Anbieter von Netzwerk-Lösungen einzig die WAN-Optimierung die Basis für Cloud Services im nächsten Jahr bildet oder, an anderer Stelle, ein Anbieter von Lösungen für Mobile Device Management den Top-Trend 2014 "Mobile Device Diversity and Management" von Gartner unterstreicht.

Somit bleibt im Grunde alles beim Alten: Die Marktforscher walten ihres Amtes mit wenig überraschend Neuem und die IT-Unternehmen reiten auf der Prognose-Welle mit. Letztere sollten dabei aber im Sinne der Glaubwürdigkeit auf echte Markteinschätzungen Wert legen.

menuseperator

Immer wieder werden wir in Kunden-Meetings mit dem Thema Social Media konfrontiert und gefragt, welchen Nutzen diese Plattformen gerade für B2B-Unternehmen haben. Es gibt viele unterschiedliche Meinungen zu diesem Thema. Während Facebook und Twitter umstritten sind, erfreut sich der Corporate Blog einer großen Beliebtheit. Es klingt auch ganz einfach – jeder bloggt nach seinem Gusto und alle sind glücklich. Doch wer mit seinem Blog Erfolg haben will, sollte einige wichtige Punkte beherzigen.

Zunächst einmal: Wen will ich adressieren? Gibt es überhaupt Themen für einen Blog? Wo bekomme ich sie her? Will ich tatsächlich die Faktenwelt verlassen und Einblicke (wenn auch gefilterte) in mein Unternehmen gewähren oder meine persönlichen Meinungen kundtun? Wenn dem so ist: Kann ich ausreichend Manpower bereitstellen, um den Blog kontinuierlich zu füllen? Wer darf, wer darf sich nicht beteiligen? Wie plane ich am besten den Inhalt? Wie soll sich der Inhalt von reinem PR-Inhalt unterscheiden? Wer sorgt für die interne Textfreigabe, und wie schnell? Ist das Top-Management damit einverstanden? Will oder soll es sich gar beteiligen?

Ein guter Anfang ist, herauszufinden, wer überhaupt Input für einen Blog liefern kann, und wie zuverlässig: Produktentwicklung, Berater, Vertrieb, Marketing, PR? Dann sollte am besten ein Inhaltskalender aufgestellt und gepflegt sowie ein Jour Fixe mit allen Beteiligten festgelegt werden, um die Inhalte und deren Umsetzung zu besprechen. Nach der Erstellung sollte der Blog nach dem Vier-Augen-Prinzip von einem kompetenten Kollegen gegengelesen und erst anschließend gepostet werden.

Wer schon einmal über ein spezielles Thema geschrieben hat, weiß, wie aufwendig das sein kann. Merke: Auch vermeintlich lockere Blog-Beiträge sollten gut recherchiert sein, um Kompetenz zu zeigen, aber auch, um sich von anderen Blogs abzuheben. Qualitative Beiträge werden bei der Leserschaft immer geschätzt. Mehr zum Thema: „Bitte keine Werbetexte“

Schließlich möchte ich noch die "integrierte Kommunikation" heranziehen: Ein Blog sollte nicht losgelöst von den anderen Kommunikationstools gepflegt werden, sondern wird idealerweise mit ihnen abgestimmt. Und wenn wir schon von B2B-Blogs reden: Der Impact ist vielleicht nicht immer so aufregend, wie man sich das vorstellt, denn Social Media lässt IT-Verantwortliche, die über die Anschaffungen von Systemen entscheiden, in der Regel eher kalt.

menuseperator

Heute morgen hat mich bei Michael Krokers täglichem Blick in die IT-Welt ein Absatz irritiert:

… ist der Microsoft-Anteil aller ans Internet angeschlossenen Geräte zwischen 2009 und 2013 von gut 90 Prozent auf nunmehr unter 25 Prozent abgesackt – eine dramatisch gewachsene Irrelevanz von Microsoft, zumindest in der mobilen Welt der vernetzten Geräte.

In Bildern sieht es sogar noch dramatischer aus:

 

Eine "dramatische" Entwicklung, in der Tat. Aber das eigentliche Drama, das sich hier vor unser aller Augen vollzieht, ist doch, wie wenig Aufmerksamkeit dieser Absturz findet. Sicher, der eine oder andere IT-Blog nimmt es wahr, Fachmedien schon nur noch am Rande. Aber sonst? Hätte man so eine Entwicklung noch vor fünf Jahren halbwegs zuverlässig prognostizieren können, was hätte das für einen Bohey gegeben: Schlagzeilen, Titelstories, Wirtschaftspresse, FAZ, Spiegel, Schwarzwälder Bote, Autobild, Frau im Schatten. Und Anchorman Tom Buhrow hätte in einen ARD-Brennpunkt die Rückkehr von Bill Gates gefordert.

Mittlerweile reicht also ein Absatz in "Kroker's Look@ IT". Und der Hinweis des Kollegen, er hätte darüber auch "schon Mitte des Jahres" geschrieben, macht es nur noch schlimmer.

Sicher, wir alle haben Windows, Word und Excel in allen ihren Versionen so manches Mal verflucht, wir haben uns die Haare gerauft und in die Tischkante gebissen. Trotzdem: was da jetzt abläuft, diese vorsätzliche Missachtung, das geht denn doch zu weit. Es ist doch oft auch schön gewesen.

Zum Beispiel erst gestern wieder mal in der stationären Welt der vernetzten Geräte:

menuseperator

Wikipedia verträgt sich mit PR-Arbeit wie Feuer mit Wasser. Können Unternehmen trotzdem hier aktiv werden? Ja, wenn sie sich auf die Spielregeln einlassen - die Spielregeln der Wikipedia.

Wir gehen in unserem neuen Video nicht nur auf die aktuelle Diskussion rund um PR in der Wikipedia ein, sondern geben auch erste Tipps für Wikipedia-Neulinge in Unternehmen.

Wer sich ausführlicher über das Thema informieren will, kann sich unser Whitepaper „Wikipedia in der Unternehmenskommunikation" ab sofort hier herunterladen. In diesem geben wir nicht nur eine Anleitung für einen erfolgreichen Einstieg in Wikipedia, sondern auch ausführliche Informationen zum Umgang mit Wikipedia in der Unternehmenskommunikation - über das, was man tun kann und besser lassen sollte.

menuseperator

Fast jeder unserer Beratungskunden befasst sich aus unterschiedlichem Blickwinkel mit Big Data: den riesigen Datenmengen, der beeindruckenden Vielfalt strukturierter und semistrukturierter Daten, der oft rasanten Entstehung und Veränderung dieser Daten und schließlich – und da wird es spannend – mit der Analyse der Datenflut. Letztendlich geht es um handlungsrelevante Erkenntnisse, die noch immer von Menschen umgesetzt werden. Mehrmals pro Woche finden sich in meinem E-Mail-Eingang Tipps und Links zu Hintergrundinfos. Beim Stöbern bin ich dann auf Seiten gelandet wie „Why the big data systems of tomorrow will mirror the human brain of today“. Der BrightContext-CEO John Funge erläutert hier, warum Big Data noch am Anfang seiner Entwicklung steht, aber in Zukunft nach dem Vorbild des menschlichen Gehirns funktionieren würde. BrightContext aus Arlington im US-Bundesstaat Virginia ist auf Real-Time Big Data Stream Processing & Analytics spezialisiert. In den Worten von Funge: „Tomorrow, our smartest systems will instantly and masterfully oversee, optimize, manage and adapt processes that are as critical as they are complex, across a broad spectrum of industries, having taken their cues from the most ready example of a natural supercomputer we have: the human brain.“

Das erinnert mich dann sehr schnell an Ray Kurzweil, der vor einiger Zeit schon ähnlich argumentierte: IBMs Superrechner Watson steht für ihn am Anfang einer Entwicklung. Schon bald würden ähnliche Systeme so rasant rechnen können, dass sie die menschliche Intelligenz erreichen und sie schließlich übertreffen werden. Im Jahr 2045, so Kurzweil, werden die Computer klüger sein als die Menschen und bessere Entscheidungen treffen; nachzuhören etwa in diesem Video.

Alltagsbeobachtungen liefern Indizien dafür, dass das menschliche Gehirn keineswegs wie ein Supercomputer funktioniert. Zudem gibt es Grund zur Annahme, dass Computer nicht so wie Menschen denken können. Wir sollten aufhören, uns darauf zu konzentrieren, Computer – und damit auch Big Data – als Ersatz für das menschliche Gehirn anzusehen, sondern als nützliche Ergänzung. Es geht nicht um Artificial Intelligence sondern um Augmented Intelligence.

Im Übrigen: Je umfangreicher und komplexer der Regelsatz, den ein Big-Data-System nahezu mechanistisch anwenden und daraus Entscheidungen ableiten kann, als desto erfolgreicher gilt es. Für Menschen gilt manchmal genau das Umgekehrte: Sie sind am besten, wenn sie zumindest einige Regeln missachten. Das Ganze nennt sich dann Innovation.

menuseperator

Neues aus dem Land der unbegrenzten Möglichkeiten: Wie die Süddeutsche berichtet, hat die amerikanische Firma Backyard Brains ein Implantat entwickelt, mit dem sich Kakerlaken per iPhone fernsteuern lassen. Wischt man auf dem Smartphone mit dem Finger, wird der Schabe ein Stromstoß in ihren Fühler versetzt. Das Nervensystem der Kakerlake hält dies für ein Hindernis und das Tier macht eine Ausweichbewegung. Dieser „erste kommerziell erhältliche Cyborg“, so der Hersteller, ist für rund 100 Euro zu haben. Eine Schabe ist allerdings nicht dabei. Die muss man sich schon selber fangen – oder im Zwölferpack dazu bestellen.

Die Tiere dürften über das Produkt aber weniger erfreut sein als der Hersteller, denn für das Funktionieren des Implantats ist ein mittelschwerer Eingriff nötig. Man muss die Kakerlaken zunächst mit Eiswasser betäuben und ihren Rückenpanzer dann mit Schleifpapier bearbeiten, damit die Steuereinheit auch schön kleben bleibt. Ach ja, und um die Elektroden hineinzustecken, sind dann noch die Fühler entzwei zu schneiden.

Entsprechend dick ist der Hals der Tierschützer, die von „Folter und Verstümmelung“ reden. Backyard Brains versteht die ganze Aufregung aber nicht. Man habe das Implantat entwickelt, um Kinder möglichst früh für Neurowissenschaften zu begeistern. Doch die Kleinen wollen diesen Enthusiasmus nicht so recht teilen. Als der Firmengründer auf einer Konferenz einer Kakerlake live ein Bein amputierte, war bei den Kindern im Publikum jedenfalls keine Begeisterung festzustellen – sondern blankes Entsetzen. So Internet-Computerspiel-und-Gewaltvideo-abgehärtet wie immer gemutmaßt scheinen sie also doch nicht zu sein.

 

menuseperator

Im Zeitalter von Social Media und Internet bieten Videos in der PR neben Blogs und Posts über die klassischen Formate wie Fachartikel, Kommentare und schriftliche Interviews hinaus eine erfrischende Kommunikationsform, um verschiedene Zielgruppen zu adressieren.

Als PR-Agentur mit ITK-Fokus begegnen uns häufig neue Produkte und Lösungen unserer Kunden, die technisch sehr komplex sind. Gerade hier eröffnen Videos neue Möglichkeiten, um Sachverhalte und Fakten anschaulich zu vermitteln sowie technischen Themen eine persönliche Note zu geben.

Videos zeigen Expertise, steigern Vertrauen und Glaubwürdigkeit und stärken das Image des Unternehmens. Im Fokus sollte hierbei stets die authentische, informative und unterhaltsame Darstellung von Personen, Produkten, Services und Stories rund um die Marke und das Unternehmen stehen.

Wir haben einmal die wichtigsten Videoformate in der PR zusammengestellt:

Interview
Das Experteninterview bietet einen der besten Wege, Informationen anschaulich und, falls gewünscht, auch unterlegt mit Beispielen zu vermitteln. Hierbei darf es gerne kurz und knackig sein, denn bereits bei einer Länge von wenigen Minuten kann einiges an den Mann/die Frau gebracht werden.

Diskussionsrunde
Natürlich kann der Austausch auch in einer Runde mit mehreren Experten, zum Beispiel bei einer Podiumsdiskussion, stattfinden. Je nach Position und Sichtweise können die Teilnehmer verschiedene Aspekte und Meinungen einbringen.

Event-/Messe-Rundgang
Impressionen, eingefangen vor Ort, gespickt mit Stimmen von Besuchern, Teilnehmern und Experten, bieten Interessierten und Kunden, die selbst nicht dabei sein konnten, einen lebhaften und informativen Eindruck des Geschehens.

Street Surveys           
Durch Umfragen auf der Straße, zum Beispiel zu IT-Trends und aktuellen Diskussionen der Branche, wird ein Meinungsbild oder auch Wissensstand abgefragt. Je nach Ausrichtung können Statements einer breit gestreuten Zufallsgruppe eingefangen oder es kann gezielt auf bestimmte Zielgruppen zugegangen werden, zum Beispiel auf IT-Experten von morgen an Universitäten oder auf Fachpublikum auf Messen/Kongressen.

Video Case Studies
Kundenreferenzen sind vor allem im B2B-Bereich eine glaubwürdige Informationsquelle für potenzielle Neukunden. Im Video lassen sich erfolgreich durchgeführte Projekte und Fallbeispiele besonders anschaulich skizzieren und die bebilderte Empfehlung von glücklichen Dritten unterstreicht die Glaubwürdigkeit.

Produktvorstellungen
Gibt ein Unternehmen ein neues Produkt oder eine neue Lösung heraus, so können diese Technologien und komplexe Zusammenhänge mittels Video in wenigen Minuten anschaulich erläutert werden. Hilfreich kann hier auch der Einsatz von Grafiken oder Animationen sein.

Live-Stream
Seien es Fachvorträge, Diskussionen oder Momentaufnahmen aus Messehallen – per Live-Stream können Interessierte rund um den Globus dabei sein und einen persönlichen Eindruck in Echtzeit gewinnen.

Egal, welches Format gewählt wird, immer gilt: Ausschlaggebend für den späteren Erfolg ist qualitativ hochwertiger Content und das entsprechende Know-how – vor und hinter der Kamera. Dazu gehört auch eine gute Beleuchtung und eine angemessene Tonqualität. Der eine oder andere Versprecher ist nur menschlich und kann den Sympathie-Faktor sogar erhöhen – wichtig ist aber, dass der Gefilmte sich grundsätzlich vor der Kamera wohlfühlt und keine Fluchttendenzen entwickelt.

Sind die genannten Voraussetzungen erfüllt, so findet die Botschaft auch ihre Zielgruppe – oder diese findet sie. Denn ähnlich vielfältig wie die Formate sind auch die Einsatzbereiche und Kanäle zur Verbreitung eines Videos: In den meisten Fällen bietet sich die Verbreitung über YouTube, Facebook, Twitter und Co. ebenso an wie die über die eigene Unternehmenswebsite und Micro-Sites. Zudem lassen sich Videos auf Messen und Events einsetzen oder in elektronische Newsletter wie auch in das Unternehmens-TV einbinden.

Neugierig geworden? Anschauliche und informative Beispiele finden Sie in unserer Rubrik „Videos“.

menuseperator

Im Rahmen der Konferenz „Cloud for Europe“ des Fraunhofer-Instituts für Offene Kommunikationssysteme (FOKUS) und dem Start des gleichnamigen EU-Projektes hat die EU-Kommissarin für die Digitale Agenda Neelie Kroes die Wichtigkeit eines europäischen Ansatzes in der aktuellen Cloud-Diskussion betont. Statt nationalen Lösungen befürwortet sie die Schaffung einer „europäischen Cloud“ – der „Cloud for Europe“.

„Cloud for Europe“ ist ein von der Europäischen Union gefördertes Projekt mit dem Ziel eines digitalen Binnenmarktes für Cloud Computing in Europa. Insgesamt nehmen 23 Partner aus elf Ländern daran teil, unter anderen das Bundesamt für Sicherheit in der Informationstechnik (BSI) und das bereits genannte Fraunhofer-Institut FOKUS.

Nach dem freien Warenverkehr, der Personenfreizügigkeit, der Dienstleistungsfreiheit und dem freien Kapital- und Zahlungsverkehr nun also der freie Fluss von Daten in den Mitgliedsstaaten der EU - quasi eine fünfte Grundfreiheit für die Bürger der Europäischen Union.

Besser als nationale Lösungen, wie das zurzeit diskutierte „Deutschland-Net“, ist der Ansatz allemal. Doch ähnlich wie bei der Liberalisierung des Binnenmarktes in den genannten Bereichen wird wahrscheinlich auch hier bis zur Vollendung noch einige Zeit ins Land gehen. Denn Sicherheit und Datenschutz sind eine Sache. Die unterschiedliche digitale Infrastruktur in den einzelnen europäischen Ländern eine andere.

Für die europäische Wolke müsse laut Neelie Kroes daher auch erst „ein rechtlicher und technischer Rahmen für den freien Fluss von Daten über die Grenzen einzelner Länder hinweg geschaffen werden“.

Als Ziel zur Vollendung des digitalen Binnenmarktes hat die Europäische Kommission 2015 ausgegeben. Das Projekt „Cloud for Europe“ endet im November 2016 – vor allem im Hinblick auf die rechtlichen Aspekte, die aufgrund aktueller Diskussionen wieder in den Vordergrund gerückt sind, ein ambitionierter Zeitplan.

 

menuseperator

Vor ein paar Tagen bin ich auf die deutsche Website eines amerikanischen Global Player gestoßen. Die deutschen Übersichtstexte verlinken auf englische Beiträge. Das kennt man ja schon und fragt sich auch diesmal, warum ein Unternehmen mit hundert Millionen Euro Umsatz in Deutschland kein Übersetzungsbudget für ein paar Dutzend Textseiten vorsieht.

Gleiches auf der Presseseite. Die meisten News-Headlines sind auf Englisch und verweisen auf englische Texte. Glücklicherweise gibt es auch ein paar deutsche Headlines, sie verweisen auf – die englischen Texte. Eine neue Variante, die ich noch nicht kannte: man hat sich tatsächlich die Mühe gemacht, eine ganze Zeile zu übersetzen. "Act local" im Schrumpfformat.

menuseperator

Die Deutsche Bank muss einen ausgewachsenen PR-Gau verkraften. Martin Sonneborn, ausgerechnet der legendäre Martin Sonneborn, hat die Deutsche Bank interviewt. Wie das ausgegangen ist, das kann man nicht erzählen, das muss man gesehen haben, zum Beispiel bei:

Jetzt ist die Deutsche Bank natürlich stinksauer. Sie wäre von Sonneborn hereingelegt worden. Wie unsportlich. Von Sonneborn darf man sich halt nicht reinlegen lassen. Warum hat am Empfangstresen der Deutschen Bank niemand den Martin-Sonneborn-Alarmknopf gedrückt? 

Die PR kann daraus eines lernen: Dieses Gesicht muss man kennen. Ein Sonneborn-Bild muss an jedem PR-Arbeitsplatz bereitliegen und an jedem Schwarzen Brett aushängen. Ja, schon im Einstellungsgespräch muss spätestens die dritte Frage lauten: "Erkennen Sie den Herrn auf diesem Bild?" Wer hier passen muss, hat in der PR nichts verloren. Falls jemand noch keinen Sonneborn-Steckbrief hat, hier ein Bild zum Ausschneiden:

Quelle: ZDF

Demnächst hier zum Herunterladen: der Martin-Sonneborn-Bildschirmschoner für PR-Experten.

menuseperator

Anscheinend sind auch die Verhandlungspartner bei den Koalitionsgesprächen in der Gegenwart angekommen. Immerhin wird dort der Breitbandausbau thematisiert. Erstaunlich in einer Zeit, in der laut der Kanzlerin „das Internet für uns alle Neuland ist“. Der Ausbau solle in den nächsten Jahren mit jährlich einer Milliarde Euro zusätzlich unterstützt werden. Ziel ist es, bis 2018 eine flächendeckende Versorgung mit Internetanschlüssen von 50 Mbit/s zu erreichen.

Mit dieser Investition ist das aber natürlich nicht machbar. Und das wissen die Verhandlungspartner auch ganz genau. Schließlich hat eine Studie des TÜV Rheinland, die im Auftrag des Bundesministeriums für Wirtschaft und Technologie erstellt wurde, ergeben, dass ein solcher flächendeckender Ausbau rund 20 Milliarden Euro kosten würde. Wer steuert also das fehlende Geld bei. Die Netzbetreiber? Wohl kaum! Aber man ist ja kreativ. So hat die Koalitionsarbeitsgruppe Wirtschaft „Breitband-Bürgerfonds“ ins Spiel gebracht. Der Steuerzahler soll also den Ausbau mit Geldanlagen, die eine „entsprechende“ Rendite bieten, unterstützen. Dass das der große Renner wird, darf doch mehr als bezweifelt werden – angesichts der Minizinsen und -renditen von Bundeswertpapieren.

Zudem bleibt die Frage erlaubt, ob man mit diesen Leistungswerten überhaupt für die Zukunft gerüstet ist. Viele Experten vertreten die Meinung, dass 50 Mbit/s nicht ausreichend sind. In einer Umfrage von TNS Infratest unter IT-Fachleuten sahen 75 Prozent der befragten Experten Bandbreiten von mindestens 100 Mbit/s für die nächsten fünf bis zehn Jahre als notwendig an, und 48 Prozent halten sogar Bandbreiten von mindestens 300 Mbit/s für erforderlich.

menuseperator

Seiten