ISC

Sie heißen JUQUEEN, SuperMUC oder HORNET und haben mächtig was auf dem Kasten. Gemeint sind nicht etwa Actionhelden oder Rapper, sondern Höchstleistungsrechner vor allem für wissenschaftliche, aber auch für kommerzielle Anwendungen, wie sie im Forschungszentrum Jülich, dem Leibniz-Rechenzentrum in Garching bei München oder dem Höchstleistungsrechenzentrum Stuttgart im Einsatz sind.

Wenn sich dieser Tage wieder alles um die Boliden unter den Rechnern dreht, dann ist ISC. Die International Supercomputing Conference 2015, die noch bis zum 16. Juli in Frankfurt stattfindet, versammelt Forscher, Hersteller und Anwender im Feld der Supercomputer und gibt Einblicke in die neuesten Entwicklungen und aktuelle Forschungen der IT-Labs.

Doch nicht alleine die Forschung profitiert von der Leistungsfähigkeit der High Performance Cluster, auch für die Industrie werden Anwendungen aus dem HPC-Bereich immer wichtiger. Wenn es gilt große Datenmengen schnell zu bearbeiten und zu analysieren, setzen inzwischen auch viele Unternehmen High Performance Computing ein. Sei es im Finanzsektor, bei der Wetterprognose oder wie zuletzt zu lesen war beim Flugzeugturbinenhersteller Rolls Royce, der on demand auf HPC-Kapazitäten zurückgreift. Kein Wunder also, dass die Hersteller bemüht sind, Leistungsfähigkeit von Prozessoren, Grafikbeschleunigern oder Anwendungssoftware immer weiter zu optimieren. Denn die Grenzen sind längst nicht erreicht. Bis 2018 rechnen Experten bereits mit einer Rechnerleistung von 1 exaFLOPS (1 EFLOPS entspricht 1018 FLOPS oder 1.000 PFLOPS). Man darf also gespannt sein, welche Anwendungen damit in Zukunft möglich werden.

menuseperator

Das Sammeln von Daten per se hat ja in jüngerer Zeit einen eher schlechten Ruf, auch wenn deren Analyse und Strukturierung heute zu den geschäftskritischen Aufgaben eines jeden Unternehmens zählen. Datenschutzpannen und die Affäre Snowden demonstrieren eindrucksvoll, welches Schindluder sich mit unrechtmäßig erschlichenen Daten treiben lässt.

Dennoch sei heute mal die Seite herausgestellt, die Forschung und Wissen voranbringt und – im besten Fall – sogar Leben retten kann.

Die Anwendungsfelder für komplexe Datenanalysen und -berechnungen sind so vielfältig wie die wissenschaftlichen Disziplinen, allen voran die Naturwissenschaften. Sei es die Auswertung meteorologischer Daten zur Wettervorhersage und Sturmwarnung, die Berechnung astronomischer Daten für die Satelliten-Steuerung oder Mars-Rover-Mission oder die Computersimulation molekularer Vorgänge in der Physik. Die Liste wissenschaftlicher Einsatzfelder lässt sich fast beliebig erweitern. Ein Beispiel für den Einsatz von High Performance Computing in der Medizin ist die Genom-Analyse, wie sie in Forschungszentren, an Universitäten oder in der Industrie betrieben wird.

So läuft zum Beispiel am Translational Genomics Research Institute (TGen) in Phoenix, Arizona, ein Genom-Analyse-Projekt mit Hilfe der Dell Genomic Data Analysis Platform. Das TGen befasst sich mit biomedizinischen Forschungen und klinischen Studien zu Neuroblastomen, einer besonders aggressiven Krebserkrankung bei Kindern, bei der Zeit ein entscheidendes Kriterium ist. Dank der hochperformanten HPC-Lösung, die Terabyte an Daten verarbeiten kann, lassen sich die Erbgutsequenzen schneller analysieren, was die Chancen für eine wirksame Therapie deutlich erhöht.

Was mit Datenauswertung beginnt, macht eben manchmal auch den Fortschritt erst möglich – egal ob im Weltraum oder vor unserer Haustür.

Wer sich für weitere spannende Anwendungsbeispiele des High-Performance-Computing interessiert, hat demnächst dazu Gelegenheit, denn ab dem 23. Juni 2014 ist es wieder soweit: Die ISC 2014 (International Supercomputing Conference) startet in Leipzig. 

menuseperator
ISC abonnieren