Technologie und Märkte

In ihren Nachberichten haben zahlreiche Medien die Jubelnachricht der Deutschen Messe AG übernommen und den "voll gelungenen" Neustart der CeBIT ziemlich einheitlich skizziert, nachzulesen hier, hier, hier oder auch hier. Ist das so?

Wenn man die reinen Fakten betrachtet: Zu ihrer besten Zeit kamen auf die CeBIT über 830.000 Besucher – jetzt war es gerade mal ein Viertel. Die neue Ausrichtung in diesem Jahr: 100 Prozent Business. Mehr Klasse, weniger Masse. Der „Familiensamstag“ wird vom „Businessmontag“ abgelöst. Die Eintrittspreise liegen mit 60 Euro für die Tageskarte extrem hoch, so sollen Privatanwender abgeschreckt und Geschäftskunden angesprochen werden. Und, hat sich das gelohnt? Offenbar ja – laut Messegesellschaft: „Das Business-Konzept greift. Die optimale Struktur für die weitere Entwicklung der Messe sei gefunden.“

Nun ja. Der Businessmontag glänzte eher mit der Abwesenheit der Besucher. Sowohl Aussteller als auch Journalisten, mit denen ich gesprochen habe, waren entsetzt: „enttäuschend leer“, „kaum was los“, „erschreckend“. Wenn man über die Messe schlenderte, fielen einem sofort die abgehängten Scheiben der Halle 11 auf – das war ziemlich deprimierend. Wieder waren große Firmen wie Rittal abwesend, die ansonsten seit Jahren mit großem Stand vertreten waren. Viele Journalisten kamen dieses Jahr gar nicht auf die Messe, da der reine B2B-Fokus für sie nicht mehr interessant war. Vorbei sind auch die Zeiten, an denen Journalisten alle Tage auf der Messe vertreten waren, nun sind zwei oder drei Tage das höchste der Gefühle. Auch kann man sich des  Eindrucks nicht erwehren, dass die CeBIT immer mehr zu einer europäischen Veranstaltung mit deutschem Fokus mutiert – sowohl was die Besucher als auch die Aussteller angeht. Viele amerikanische Unternehmen (darunter auch viele Marktgrößen) sind, wenn überhaupt, nur noch mit Partnerstand vertreten. „Gemischtwarenmesse“ war der Ausdruck eines Ausstellers, der seit Jahren auf der CeBIT ist und ernsthaft überlegt, ob er auch nächstes Jahr wieder dabei ist. Zu unterschiedliche Themen, zu unterschiedliche Mottos – interessanter sind da mittlerweile Messen mit spezialisiertem Fokus, da ist der Kosten-Nutzen-Faktor einfach höher.

Ob die Neupositionierung der CeBIT letzten Endes geglückt ist, werden wohl erst die nächsten Jahre zeigen. Ein Neuanfang war auf jeden Fall nicht das Schlechteste, was man angesichts der Entwicklung der letzten Jahre machen konnte. Vielleicht muss man sich einfach nicht nur auf dem Papier, sondern auch gedanklich von der alten CeBIT verabschieden und sie einfach als das sehen, was sie momentan ist: eine ehemalige Weltmesse, die sich gerade neu (er)findet. Kreative, frische Impulse sind da: das haben die vielen Start-Ups in der Code_n-Halle 16 gezeigt. Davon braucht es mehr! Hoffen wir, dass sich diese finden und der Neustart wirklich gelingt – denn ich fahre gerne zur CeBIT.

Tags: 
menuseperator

Seit ihrer Gründung 1998 stand die Internet Corporation for Assigned Names and Numbers (ICANN), die für die Vergabe und Koordination internationaler Top-Level-Domains wie .com, .biz oder .mobi zuständig ist, unter der Aufsicht des US-Handelsministeriums.

Mehrfach wurde bereits eine Neuregelung der Verantwortlichkeit gefordert, etwa im Jahr 2012 von Russland und China. Oder vor Kurzem auch von der EU-Kommission. Jetzt endlich kommt auch die US-Regierung dieser Forderung nach. Das gab das US-Handelsministerium am Freitag bekannt. Die Aufsicht soll künftig in die Hände der „Global Multistakeholder Community“ gegeben werden. Ein Schritt in die richtige Richtung. Denn einzusehen ist es nicht, dass gerade die USA in Zeiten des NSA-Skandals die Oberaufsicht über die Internet-Verwaltung ICANN führen. Vielleicht ist das auch ein kleiner Hoffnungsschimmer, dass die USA nicht gänzlich resistent gegen internationalen Druck sind.

menuseperator

In ihrem Beitrag „Mind the Gap“ der aktuellen Ausgabe des Manager Magazin (3/2014, Seite 82 ff.) wird Eva Müller zum Thema „Digitale Infrastruktur“ deutlich und fasst ernüchternd zusammen:

Verglichen mit Asien ist Deutschlands Internet so schlecht und rückständig, dass es allmählich zu einer echten Gefahr für den Standort wird.

Sie bezieht sich dabei auch auf Zahlen des „State of the Internet“ Report zum dritten Quartal 2013 unseres Kunden Akamai.

Auch wir haben in einem Video-Statement vor ein paar Wochen ähnlich resümiert:

Liebe Frau Müller, danke für diese klaren Worte. Wir sehen das genauso.

menuseperator

Anbietern proprietärer Systeme stehen stürmische Zeiten ins Haus. Open Source ist angetreten, eine der letzten Bastionen zu erobern, nämlich die IT-Systeme von Netzbetreibern. Auch dazu gab es übrigens wichtige Ankündigungen auf dem Mobile World Congress Ende Februar in Barcelona, etwa von Dell und von Alcatel-Lucent. Aber der Reihe nach: Ob Breitbandzugang, Fest- oder Mobilnetz, bislang besteht die große Mehrzahl der Netzelemente für Sprach- und Datendienste aus proprietärer Hardware und nahtlos damit verzahnter Software. Implementierung und Betrieb sind teuer und zeitraubend. Bei Network Functions Virtualization (NFV) hingegen, über das unter anderem Alcatel-Lucent, Dell und Red Hat in Barcelona sprachen, geht es um die Abkehr von dedizierter Hardware und die Umsetzung von Netzfunktionen in Software. Das Ganze läuft auf handelsüblichen x86-Servern unter Linux.

Wichtige Anregungen zu NFV kommen übrigens aus dem Open-Source-Projekt Open Daylight. Da ist der Name Programm. Mitglieder sind Netzwerkausrüster wie Juniper Networks und Huawei, aber auch Dell, Red Hat, Intel und einige andere. Alle Komponenten der Open-Daylight-Software stehen unter Open-Source-Lizenzen.

In der Finanzindustrie hat sich Linux bereits etabliert und für frischen Wind gesorgt. Als nächstes folgt die TK-Branche. Es gibt also genügend Gründe dafür, dass auch Unternehmen sich endlich von ihren Altlasten in den Rechenzentren befreien. Proprietären Systemen bleiben allenfalls Nischen, in allen anderen Bereichen wird Open Source für Innovationen sorgen.

menuseperator

Gerade schließt der Mobile World Congress in Barcelona wieder seine Tore und nicht wenige bleiben etwas ratlos zurück angesichts der zahlreichen Vorstellungen neuer Tablet-PCs, Smartphones und neuerdings auch Wearables, die in den vergangenen Tagen wie ein Platzregen auf uns niedergingen. Die vielen Presseberichte spiegeln vor allem eines wider: „Mobil“ ist der wegweisende Trend und wird für Anwender immer wichtiger. Das belegt auch eine aktuelle Studie des Branchenverbands BITKOM, nach der sich die Tablet-Nutzung bereits bei knapp einem Viertel der Deutschen ab 14 Jahren durchgesetzt hat – eine Verdopplung im Vergleich zum Vorjahr.

Der Trend betrifft nicht nur den Consumer-Markt, sondern hat auch im Unternehmensumfeld deutliche Spuren hinterlassen. Zugegeben, die Tatsache, dass der Mensch des 21. Jahrhunderts bei der Arbeit immer mehr Wert auf Mobilität und Flexibilität legt, ist nicht neu. „Bring your own device“ oder kurz BYOD ist hier das große Schlagwort und wird bereits seit einigen Jahren gründlich und ausführlich in der Fachwelt diskutiert. Die Gründe für die Tendenz dürften hinlänglich bekannt sein. Der Siegeszug von Smartphones und Tablets sorgte nicht nur für eine immer größere Bereitschaft der Nutzer always on zu sein, sondern brachte auch mit sich, dass die schicken Geräte vermehrt auch für berufliche Zwecke genutzt wurden, bis sie von ihren Benutzern schließlich als vollwertige Arbeitsmittel angesehen wurden, mit denen sich überall und zu jeder Zeit mehr oder weniger dringliche Aufgaben erledigen lassen.

Gleichzeitig sorgte der Trend auch für ein stärkeres Bewusstsein für den Faktor „Design“ bei Arbeitsgeräten. Bei IT-Produkten ist heutzutage nicht mehr allein eine möglichst hohe Leistungsfähigkeit gefragt, sondern die Geräte müssen vor allem auch den ästhetischen Ansprüchen ihrer Nutzer gerecht werden. Für ein ansprechendes Tablet- oder Notebook-Design sind Kunden sogar bereit, auch mal den ein oder anderen Euro zusätzlich auszugeben.

Die meisten Hersteller trugen diesen neuen Anforderungen ihrer Kunden lange Zeit Rechnung, indem sie sich lediglich darauf konzentrierten, ursprünglich für Consumer konzipierte Geräte auch für den Business-Einsatz zu optimieren – beispielsweise indem sie mit mehr Leistung, einer besseren Grafik und größerem Speicher ausgestattet wurden. Die eigentlichen Business-Linien blieben oft unangetastet. Zum Glück scheint nun aber ein Umdenken stattzufinden und etwas mehr Mut in die Design-Labs einzukehren, denn das Angebot für Geschäftskunden wird immer vielfältiger.

Besonders erfreulich ist, dass sich die Öffnung offenbar in zwei Richtungen vollzieht. Einerseits gewinnen ausgewiesene Business-Geräte immer mehr an Boden in stark designorientierten Produktkategorien wie Tablets und Convertibles. Auf der anderen Seite erfahren viele „klassische“ Business-Produkte wie zum Beispiel mobile Workstations ein komplettes Redesign und sind rein äußerlich teils nicht mehr von stylischen Ultrabooks zu unterscheiden.

Die Befürchtung der Hersteller, Geschäftskunden könnten sich von etablierten Produktreihen abwenden, weicht dem Bewusstsein, dass die Schale eines Notebooks oder Desktop-PCs heute ebenso viel Gewicht besitzt wie dessen Innenleben. Dass diese Erkenntnis angekommen zu sein scheint, wurde in Barcelona einmal mehr eindrucksvoll gezeigt.

menuseperator

Als die CeBIT im vergangenen Jahr nach „Shareconomy“ als Top-Thema für die CeBIT 2014 „Datability“ angekündigt hat, schien es erst mal, als wäre ein Trend geboren. Zumindest was kreative Wortschöpfungen anbelangt.

Denn auch das diesjährige Motto, das sich aus dem Markttrend Big Data sowie den Möglichkeiten seiner nachhaltigen und verantwortungsvollen Nutzung (Englisch: ability, sustainability, responsibility) zusammensetzt, will sinnstiftend sein und meint: „Die Fähigkeit, große Datenmengen in hoher Geschwindigkeit verantwortungsvoll und nachhaltig zu nutzen.“ So definieren es die Macher der CeBIT. Meint übersetzt, Big Data erleichtert das Leben – wenn man sinnvoll damit umgeht.

Die Peta- und Exabyte der heute in Unternehmen generierten Daten wollen, ja müssen schließlich strukturiert werden um daraus verwertbare Ergebnisse zu ziehen und letztlich die richtigen Informationen zur richtigen Zeit am richtigen Ort bereitzustellen. Egal ob es um Bild- und Videodaten, Analysedaten geschäftskritischer Anwendungen in Unternehmen und Forschung oder schlicht um das Datenvolumen aus Kommunikation und Social Media geht – Data Tiering ist das Schlüsselwort: Schließlich geht es um nichts geringeres als den Unternehmenserfolg. Bei Begriffen wie Business Intelligence, Business Analytics, Data Warehouse und Data Mining bekommt so mancher Unternehmenslenker schon mal glänzende Augen.

Strukturanalyse und Verfügbarkeit von Daten sind aber nur die eine Seite der Medaille, Datensicherheit und Zugriffskontrolle die andere. Welche Büchse der Pandora sich hier auftut, weiß seit Edward Snowden auch die breite Öffentlichkeit.

Gerade deshalb macht es Sinn, dass die Industrie den Stier bei den Hörnern packt und dem sinnvollen und sicheren Umgang mit Daten hohe Priorität einräumt. Als Motto der kommenden CeBIT haben die Verantwortlichen damit also ein gutes Näschen bewiesen. Wollen wir hoffen, dass es nicht bei Lippenbekenntnissen bleibt.

Die GfdS (Gesellschaft für deutsche Sprache) wird sich auf jeden Fall freuen, dass dem Nachschub an Wortschöpfungen auch 2014 keine Grenzen gesetzt sind und sich die Anwärter für das „Wort des Jahres 2014“ schon mal in Startposition bringen.

In diesem Sinne, eine erfolgreiche CeBIT 2014!

menuseperator

Die zahlreichen Datenskandale der letzten Zeit haben dem Cloud-Computing-Geschäft in Deutschland einen deutlichen Dämpfer verpasst. Einer kürzlich veröffentlichten BITKOM-Studie zufolge hat ein beträchtlicher Teil der befragten Unternehmen laufende Projekte bereits auf Eis gelegt oder geplante Cloud-Projekte vorerst zurückgestellt. Auch wenn damit nicht das Ende der Cloud besiegelt ist, lässt sich eines nicht von der Hand weisen: die Verunsicherung ist groß. Vorbehalte, vertrauliche Daten in die Cloud auszulagern und dort zu speichern, überschatten im Moment die positiven Argumente, die für den Einsatz einer Cloud sprechen, nämlich mehr Flexibilität, nahezu unbegrenzte Skalierbarkeit und niedrigere Kosten.

Die Situation ist wie sie ist. Offen bleibt lediglich, wie die deutsche IT-Branche mit dem gewachsenen Wunsch nach mehr Datensicherheit umgeht. Können deutsche IT-Provider vielleicht sogar von der angespannten Lage profitieren? Gibt es einen Standortvorteil Deutschland?

Die Antwort lautet ganz klar: Ja!

Endlich setzen sich die Unternehmen mit dem Thema Sicherheit auseinander und sind gewillt, mehr Zeit und vor allem Geld zu investieren. Es wird genauer hingeschaut. Und gerade hier kommt der Standortvorteil Deutschland zu tragen.

(Vermeintlich) sichere lokale Rechenzentren sowie die Einhaltung vergleichsweise strenger deutscher Datenschutz-bestimmungen sorgen für einen Vertrauensvorsprung.

Unternehmen, insbesondere Mittelständler, die von Grund auf skeptisch sind, haben bei internationalen Cloud-Riesen wie Google, Amazon oder Microsoft oftmals das Gefühl, die Kontrolle abzugeben. Sie wissen meist nicht, wo genau ihre Daten gerade liegen und welche Datenschutzbestimmungen dort gelten.

In Deutschland muss das Cloud Computing mit dem Bundesdatenschutzgesetz konform sein. Die Verarbeitung personenbezogener Daten unterliegt strengen Regeln. Ein beachtlicher Zweifel besteht hingegen, ob ähnlich strikte Datenschutzbestimmungen im Ausland gelten beziehungsweise eingehalten werden.

Heimische IT-Firmen sollten genau diesen Punkt klarer herausstellen, denn der deutsche Rechenzentrumsstandort kann ein wesentliches Kriterium sein, wenn Unternehmen vor der Entscheidung stehen, den Weg in die Cloud zu wagen.

menuseperator

Im Netz wird es immer enger und enger: bei der Suche nach einer freien Domain haben Unternehmen (und Privatleute) kaum mehr Aussicht auf Erfolg. Doch heute ab 17 Uhr ist Abhilfe in Sicht, denn die ersten neuen Top Level Domains (TLDs) mit den Endungen .bike, .clothing, .guru, .holdings, .plumbing, .singles (gibt's kein .couples?) und .ventures gehen an den Start.

Ob der deutsche Installateur sehnlichst auf die Domain .plumbing oder Joint-Venture-Firmen auf die Domain .ventures gewartet haben, ist nur schwer zu glauben. Aber vielleicht werde ich ja eines Besseren belehrt.

Viel spannender werden meines Erachtens aber die TLDs, die noch etwas auf sich warten lassen, wie zum Beispiel .shop, .web, .blog, .berlin, .bayern etc.

Doch auch bei den neuen Domainnamen gilt: Wer zuerst kommt, mahlt zuerst. Deshalb raten Webhoster dazu, dass Interessenten sich gleich bei mehreren Anbietern registrieren lassen, denn so erhöhen sich die Chancen, die Wunschdomain tatsächlich zu erhalten.

Wann kommen eigentlich .boring oder .grotty?  Ab 18 Uhr?

P.S.: Was halten Sie eigentlich von pr-com.guru?

menuseperator

Angefangen hat das Ganze völlig egoistisch: Vor fünf Jahren begann ein kleines Team von Facebook-Technikern mit den Arbeiten für ein besonders effizientes Rechenzentrum. 2011 ging Facebook-Chef Mark Zuckerberg dann mit den ersten Ergebnissen an die Öffentlichkeit. Parallel startete das Unternehmen das Open Compute Project (OCP) und legte die Baupläne und Spezifikationen für das von Facebook entwickelte Rechenzentrum offen. Dazu hat sich schnell eine beachtliche Bewegung Gleichgesinnter zusammengefunden, die sich Ende Januar dieses Jahres bereits zum dritten Mal im kalifornischen San Jose zu einem Summit trafen. In der Zwischenzeit entwickelten die OCP-Mitglieder mehrere Motherboard- und Server-Designs für Cloud-Projekte, die außer von Cloud-Betreibern vor allem von weltweit tätigen Finanzdienstleistern wie der Bank of America oder Goldmann Sachs aufgegriffen und umgesetzt wurden. Aber auch andere Branchen mit riesigem Rechenzentrumsbedarf zeigen Interesse, etwa die pharmazeutische Industrie oder die Telekommunikation.

Dem Open-Source-Gedanken zufolge sind die Hardware-Designs entsprechend einer Lizenz der Apache Software Foundation verfügbar. Vieles läuft bei OCP aktuell noch unter einer sogenannten Permissive-Lizenz, das heißt der Lizenznehmer kann Modifikationen der Designs vornehmen und die Ergebnisse werden dann „proprietär“. Um mehr Mitglieder zu gewinnen, will die OCP Foundation künftig eher zu einem GPL-ähnlichen Modell übergehen, wie es aus dem Open-Source-Software-Bereich rund um Linux bekannt ist. Hier kann jeder ein Design modifizieren. Wird das daraus entstehende Produkt verkauft, müssen die Änderungen der Community zugänglich gemacht werden.

Eines ist klar: Das Open-Source-Modell ist nicht länger auf Software beschränkt, sondern erobert weitere Anwendungsszenarien. Aus einer Community entstehen Produkte, deren Designs und die Weiterentwicklung mit anderen geteilt werden. Server-Designs sind nur ein Beispiel, längst wird auch an Switches gearbeitet.

Um noch einmal auf den Anfang zurückzukommen: Entstanden ist das OCP ja, weil Facebook mit den vorhandenen x86-Designs nicht zufrieden war und die Sache dann selbst in die Hand genommen hat. Offene Standards, konstitutiv für das Open-Source-Modell, werden so zu einem wichtigen Antreiber für schnellere Innovationen – und die sind nicht nur in der IT-Branche dringend notwendig. 

menuseperator

Facebook will seine mehr als eine Milliarde Nutzer besser verstehen. Dazu hat das Unternehmen vor Kurzem den Deep-Learning-Pionier Yann LeCun von der New York University engagiert. Deep Learning gehört zum Forschungsgebiet der Künstlichen Intelligenz und wird für die Analyse sehr umfangreicher Datenmengen eingesetzt. Forscher der Stanford University beispielsweise haben in diesem Umfeld zusammen mit Google ein Verfahren zur Gesichtserkennung entwickelt. Eine weitere Anwendungsmöglichkeit ist die sogenannte Phrasenerkennung. Hier geht es darum, ob zwei Sätze verschiedener Länge und Formulierung dieselbe Bedeutung haben. Nützlich ist das etwa, um Plagiate aufzufinden oder Texte zusammenzufassen.

Wenn Facebook Methoden der künstlichen Intelligenz einsetzt, machen sich einige Nutzer berechtigte Sorgen: Was passiert mit unseren Daten? Die einfachste Antwort darauf: Wer bei Facebook mitmacht, muss wissen, auf was er sich einlässt. Wer fürchtet, ausspioniert zu werden, sollte Facebook nicht nutzen. Nach allem was bekannt ist, wird Facebook maschinelles Lernen beispielsweise dazu einsetzen, um Prognosen zu treffen, welche Werbeanzeigen bei wem am besten ankommen. Ob Facebook dann in absehbarer Zeit klüger oder gar zu einem „intelligenten Wesen“ wird oder wie manche befürchten, die Nutzer besser ausspähen kann, sei dahingestellt.

Spannend finde ich Deep Learning auf jeden Fall. Eine Reihe interessanter Beispiele beschreibt Jürgen Schmidhuber, Leiter des Labors für Künstliche Intelligenz IDSIA in Lugano, auf seiner Homepage. Ob es in einigen Jahrzehnten Maschinen gibt, die den Menschen an Intelligenz übertreffen, kann heute niemand sagen. Aber Mitte der 1990er-Jahre konnte sich auch kaum jemand vorstellen, was wir heute alles mit unseren Smartphones, Tablets und all den verschiedenen Social-Media-Kanälen machen. Wichtig ist mitzuhelfen, dass Entwicklung und Umsetzung beim Deep Learning in gesellschaftlich akzeptablen Bahnen bleiben und der Schutz persönlicher Daten Vorrang hat.

menuseperator

Seiten

Technologie und Märkte abonnieren