HPC

High Performance Computing (HPC) ist weiterhin auf dem Vormarsch. HPC-Anwendungen finden sich inzwischen in nahezu allen Bereichen der Natur- und technischen Wissenschaften, moderne Grundlagenforschung in Wissenschaft und Industrie wäre ohne Simulations- und Analyseverfahren auf Hochleistungsrechnern unmöglich.

Doch wie wird die HPC-Technologie konkret und zu welchem Zweck eingesetzt? Darüber berichteten kürzlich Anwender aus Forschung und Lehre auf dem HPC-Roundtable von Dell und Intel. 

Professor Carsten Könke vom Institut für Strukturmechanik der Bauhaus-Universität Weimar stellte vor, wie mithilfe der HPC-Technologie Simulationssysteme und -umgebungen für den Flugzeug- und Automobilbau entwickelt werden, um neue Materialien am Computer und ohne teure Versuche entwerfen zu können. 

Professor Dominik Horinek vom Institut für Physikalische und Theoretische Chemie an der Universität Regensburg zeigte unter anderem auf, wie mittels Computersimulationen molekulare Strukturen und die Dynamik von Flüssigkeiten und Lösungen modelliert und so beispielsweise neue Lösungs- und Waschmittel entwickelt werden.  

Die Teilnehmer waren mehr als beeindruckt von den spannenden Vorträgen, in denen die sonst so abstrakte HPC-Technologie konkret und praktisch dargestellt wurde.

Tags: 
menuseperator

Sie heißen JUQUEEN, SuperMUC oder HORNET und haben mächtig was auf dem Kasten. Gemeint sind nicht etwa Actionhelden oder Rapper, sondern Höchstleistungsrechner vor allem für wissenschaftliche, aber auch für kommerzielle Anwendungen, wie sie im Forschungszentrum Jülich, dem Leibniz-Rechenzentrum in Garching bei München oder dem Höchstleistungsrechenzentrum Stuttgart im Einsatz sind.

Wenn sich dieser Tage wieder alles um die Boliden unter den Rechnern dreht, dann ist ISC. Die International Supercomputing Conference 2015, die noch bis zum 16. Juli in Frankfurt stattfindet, versammelt Forscher, Hersteller und Anwender im Feld der Supercomputer und gibt Einblicke in die neuesten Entwicklungen und aktuelle Forschungen der IT-Labs.

Doch nicht alleine die Forschung profitiert von der Leistungsfähigkeit der High Performance Cluster, auch für die Industrie werden Anwendungen aus dem HPC-Bereich immer wichtiger. Wenn es gilt große Datenmengen schnell zu bearbeiten und zu analysieren, setzen inzwischen auch viele Unternehmen High Performance Computing ein. Sei es im Finanzsektor, bei der Wetterprognose oder wie zuletzt zu lesen war beim Flugzeugturbinenhersteller Rolls Royce, der on demand auf HPC-Kapazitäten zurückgreift. Kein Wunder also, dass die Hersteller bemüht sind, Leistungsfähigkeit von Prozessoren, Grafikbeschleunigern oder Anwendungssoftware immer weiter zu optimieren. Denn die Grenzen sind längst nicht erreicht. Bis 2018 rechnen Experten bereits mit einer Rechnerleistung von 1 exaFLOPS (1 EFLOPS entspricht 1018 FLOPS oder 1.000 PFLOPS). Man darf also gespannt sein, welche Anwendungen damit in Zukunft möglich werden.

menuseperator

Hochleistungsrechner oder „High Performance Computing“ (HPC) sind heute nahezu in allen Bereichen der Natur- und technischen Wissenschaften zu finden; typische Anwendungsbereiche sind etwa Astro- und Teilchenphysik, Genetik, Quantenchemie und Strömungsmechanik. Darüber hinaus gibt es auch Anwendungen im kommerziellen Bereich wie Wettervorhersage, Crash-Test-Simulation, Strömungssimulation oder bei der Generierung von Animationsfilmen. Alles sehr spannende Themen, wo Unmengen von Daten anfallen, die es zu verarbeiten gilt. Das hier besondere Rechner zum Einsatz kommen, steht außer Zweifel. So ist es auch gar nicht verwunderlich, dass laut einer Umfrage, gerade einmal 5% des Mittelstands solche Lösungen nutzt. Scheint der Mittelstand hier doch gar nicht die richtige Zielgruppe zu sein. Doch genau da liegt der Fehler, denn auch kleine und mittelständische Betriebe können ihre Wettbewerbsfähigkeit mit HPC-Lösungen erheblich steigern. „Big Data“ ist in aller Munde und das rasante Wachsen von Datenvolumina ist kein Hype, sondern Realität. Warum diese Lösungen im Mittelstand noch kaum anzutreffen sind, ist somit verwunderlich. Viele der Befragten kannten den Begriff „HPC“ gar nicht. Weitere Ergebnisse der Umfrage hier: http://www.pr-com.de/de/pi/high-performance-computing-nachholbedarf-im-mittelstand

menuseperator

Das Sammeln von Daten per se hat ja in jüngerer Zeit einen eher schlechten Ruf, auch wenn deren Analyse und Strukturierung heute zu den geschäftskritischen Aufgaben eines jeden Unternehmens zählen. Datenschutzpannen und die Affäre Snowden demonstrieren eindrucksvoll, welches Schindluder sich mit unrechtmäßig erschlichenen Daten treiben lässt.

Dennoch sei heute mal die Seite herausgestellt, die Forschung und Wissen voranbringt und – im besten Fall – sogar Leben retten kann.

Die Anwendungsfelder für komplexe Datenanalysen und -berechnungen sind so vielfältig wie die wissenschaftlichen Disziplinen, allen voran die Naturwissenschaften. Sei es die Auswertung meteorologischer Daten zur Wettervorhersage und Sturmwarnung, die Berechnung astronomischer Daten für die Satelliten-Steuerung oder Mars-Rover-Mission oder die Computersimulation molekularer Vorgänge in der Physik. Die Liste wissenschaftlicher Einsatzfelder lässt sich fast beliebig erweitern. Ein Beispiel für den Einsatz von High Performance Computing in der Medizin ist die Genom-Analyse, wie sie in Forschungszentren, an Universitäten oder in der Industrie betrieben wird.

So läuft zum Beispiel am Translational Genomics Research Institute (TGen) in Phoenix, Arizona, ein Genom-Analyse-Projekt mit Hilfe der Dell Genomic Data Analysis Platform. Das TGen befasst sich mit biomedizinischen Forschungen und klinischen Studien zu Neuroblastomen, einer besonders aggressiven Krebserkrankung bei Kindern, bei der Zeit ein entscheidendes Kriterium ist. Dank der hochperformanten HPC-Lösung, die Terabyte an Daten verarbeiten kann, lassen sich die Erbgutsequenzen schneller analysieren, was die Chancen für eine wirksame Therapie deutlich erhöht.

Was mit Datenauswertung beginnt, macht eben manchmal auch den Fortschritt erst möglich – egal ob im Weltraum oder vor unserer Haustür.

Wer sich für weitere spannende Anwendungsbeispiele des High-Performance-Computing interessiert, hat demnächst dazu Gelegenheit, denn ab dem 23. Juni 2014 ist es wieder soweit: Die ISC 2014 (International Supercomputing Conference) startet in Leipzig. 

menuseperator
HPC abonnieren