Digitalisierung

Big Data und Simulationen

Lesedauer: 5 Minuten

27. Juni 2016 von Jan Wender und Thomas Weselowski

Big Data und Simulationen
© Pixabay / geralt

Seit seinen Anfängen in den 1970er Jahren erlebt das High-Performance Computing (HPC) ein kontinuierliches Wachstum. Big Data und Realtime-Anwendungen erhöhen den Bedarf an schnellen, zuverlässigen und hoch leistungsfähigen Rechnersystemen zusätzlich. Dabei sollten Unternehmen beachten, dass HPC keine Standardlösungen zulässt. HPC-Installationen müssen sich an unterschiedlichen, teilweise sehr komplexen Anwendungen orientieren.

Heutzutage treiben vor allem Big Data und der wachsende Bedarf an Simulationen die HPC-Entwicklung voran. Immer mehr Unternehmen aus allen Branchen benötigen zusätzliche Rechenleistung, um die wachsenden Mengen von strukturierten und unstrukturierten Daten zu verarbeiten, Produkte schneller zu entwickeln oder hochkomplexe Simulationen und Modellierungen durchzuführen. Die effiziente Integration von Big Data und HPC verspricht Wettbewerbsvorteile sowie neue Forschungsmöglichkeiten und Planungshorizonte im öffentlichen Bereich ebenso wie in der Wirtschaft. In der aktuellen Studie „Worldwide Technical Computing 2015 – 10 Key Predictions“ prognostizieren die Marktforscher von IDC daher dem HPC-Bereich bis 2019 ein jährliches Wachstum von rund 8 % [1]. Demnach deckt heute (2014) der akademische Sektor rund 20 % des HPC-Gesamtmarktes ab, mit 19 % dicht gefolgt von staatlich betriebenen Laboren und Forschungszentren. Die größten industriellen Anwendungen markieren die digitale Produktentwicklung sowie die Biowissenschaften mit jeweils 11 %.

Für IDC werden in naher Zukunft vor allem die kleinen und mittleren Betriebe den HPC-Bereich prägen. Diese Unternehmen haben gegenüber den Großkonzernen einen enormen Nachholbedarf, wie das Forschungsinstitut Intersect360 Research in dem Report „HPC Adoption in the Enterprise“ bestätigt [2]. Zudem stellen immer mehr HPC-Anbieter kleinen und mittleren Unternehmen leicht zugängliche Cloud-Dienste zur Verfügung – aller politischen und technischen Herausforderungen zum Trotz. Am anderen Ende der Leistungsskala forcieren nationale Regierungen, wie die USA mit der National Strategic Computing Initiative (NSCI) [3] oder Frankreich im Tera1000-Projekt [4], die Entwicklung von Höchstleistungsrechnern im sogenannten Exascale-Bereich. 
 

Superrechner für die Zukunft

Die Leistung von solchen Supercomputern wird in Flops (Floating Point Operations pro Sekunde) gemessen. Derzeit arbeiten die größten Systeme weltweit im Petaflop-Bereich. Das entspricht 10 hoch 15 Rechenoperationen pro Sekunde. Aber die Anfänge für die Hochleistungsrechner der nächsten Generation sind bereits gemacht. Die Exascale-Supercomputer werden mehr als eine Trillion Operationen pro Sekunde erreichen, was dem Tausendfachen der Leistungsfähigkeit heutiger Systeme entspricht.

Dieser gigantische Innovationssprung lässt sich mit derzeitigen Technologien nicht bewältigen. Datenvolumen und Stromverbrauch werden sprichwörtlich explodieren. Neue Entwicklungen, unter anderem bei Prozessoren, Interconnect-Systemen und Kühleinheiten, sind daher zwingend nötig. Alle HPC-Anbieter forschen daher intensiv an Möglichkeiten, den nächsten großen Meilenstein in der langen Geschichte der Hochleistungsrechner zu verwirklichen.
 

Vorreiter Automobilbranche

Eine der wichtigsten Branchen für HPC ist die Automobilindustrie. In diesem Umfeld arbeiten Forschung und Entwicklung, aber auch die Zulieferer Hand in Hand, um neue Automodelle in immer kürzeren Entwicklungszyklen auf den Markt zu bringen. HPC beschleunigt die Konstruktion digitaler Prototypen und optimiert die Testphase der neuen Modelle. Bereits im Vorfeld lässt sich durch Simulationen das Verhalten von Bauteilen oder die Verwendung unterschiedlicher Materialien für die Karosserie in bestimmten Situationen am Rechner testen. Auf diese Weise können sichere Autos hergestellt und der Benzinverbrauch reduziert werden. Die nötige Anzahl von teuren Prototypen für Tests in der Wirklichkeit lässt sich drastisch reduzieren. Das senkt die Kosten und beschleunigt gleichzeitig die Produktentwicklung.

Auch die Globalisierung fördert den Bedarf nach HPC-Systemen – nicht nur in der Automobilbranche. Unternehmen agieren zunehmend weltweit und in globalen Teams und müssen kontinuierlich wachsen. Gleichzeitig ist es notwendig, sich vor Ort den lokalen Gegebenheiten anzupassen und einen individuellen Service anzubieten. Dabei können HPC-Installationen bei der Bewältigung des wachsenden Datenaufkommens unterstützen.

Die Hardware der meisten Supercomputer basiert zu großen Teilen auf Standardkomponenten. Dennoch müssen sich HPC-Installationen an den unterschiedlichen, teilweise sehr komplexen Anwendungen orientieren. Dafür ist eine adäquate, skalierbare Hardware notwendig, die sich flexibel in eine Infrastruktur integrieren lässt. Sie sollte ein breites Spektrum an Anwendungen verarbeiten können und mit allen weiteren Komponenten der vorhandenen Infrastruktur Hand in Hand gehen. Je intensiver HPC-Systeme auf gängigen Komponenten beruhen, desto leichter fallen die Integration sowie die Wartung und Pflege der Systeme. Die Wahl der richtigen Hardwareplattform hängt maßgeblich vom vorgesehenen Einsatzbereich ab. Wollen Anbieter eine möglichst große Bandbreite an Einsatzmöglichkeiten abdecken, benötigen sie ein breites Spektrum an Lösungen, die sich mit flexiblen Komponenten modular an die individuellen Anforderungen einer Organisation anpassen und entsprechend erweitern lassen.
 

HPC und Big Data

Die meisten komplexen Probleme, mit denen sich Wissenschaftler und Ingenieure aktuell und in Zukunft beschäftigen, liegen an der Schnittstelle zwischen HPC und Big Data. Durch die kontinuierlich anwachsenden Datenvolumen erfordern bestimmte Anwendungen die Echtzeit-Datenverarbeitung im Arbeitsspeicher. Für diesen Zweck hat sich das In-Memory-Processing etabliert. Die Verarbeitung erfolgt direkt im Arbeitsspeicher. Dabei stellt diese Technologie keine Konkurrenz zu Supercomputern dar, sondern bietet sich als sinnvolle Ergänzung an. Beide Anwendungen – High-Performance-Berechnungen und In-Memory-Technologien – verlangen nach Rechnern mit einer überproportional hohen Rechenleistung.

Im Big-Data-Umfeld liegt das Ziel darin, in einer sehr großen Datenmenge durch Sortier- und Filtermethoden bislang unerkannte Zusammenhänge und Muster zu identifizieren. Viele HPC-Anwendungen hingegen folgen einem theoretischen Modell, mit dem die Daten in einer gewissen Weise neu berechnet und modelliert werden. Trotz aller Ähnlichkeiten bleiben Big Data und HPC zwei völlig unterschiedliche Disziplinen. Mit dem Ansatz, wie er in Big-Data-Lösungen verwendet wird, lassen sich beispielsweise keine Crashtests oder Navier-Stokes-Gleichungen, die etwa für die numerische Strömungsmechanik essentiell sind, berechnen. Manche Rechenalgorithmen erbringen Höchstleistungen, wenn man sie auf viele kleinere Rechner verteilt. Andere wiederum profitieren von einem zentralen System mit Hauptspeicherkapazität von mehreren Terabyte.

Für Berechnungen im industriellen Umfeld reichen in der Regel HPC-Installationen mit einigen hundert Rechnerkernen aus, um die gewünschten Ergebnisse zu erzielen. Wie groß ein System sein muss, bestimmen letztendlich die Effizienzberechnungen sowie die Geschwindigkeitsbedürfnisse der Unternehmen. Bei der Hochrechnung dieser Leistungsanforderungen können erfahrene HPC-Anbieter durch valide Kalkulationen und Erfahrungswerte unterstützen.    

 

 

Big DataDigitale ProduktentwicklungHigh-Performance ComputingHPCSimulationSupercomputer


[1] Joseph, E., Conway, C.; Sorensen, R. (2015): Worldwide Technical Computing 2015 10 Key Predictions. http://www.idc.com/getdoc.jsp?containerId=256694.
[2] Snell, A. (2014): HPC Adoption in the Enterprise. Intersect360 Research. http://www.intersect360.com/industry/getPresentation.php?id=10.
[3] Kalil, T., Muller J. (2015): Advancing U.S. Leadership in High-Performance Computing. https://www.whitehouse.gov/blog/2015/07/29/advancing-us-leadership-high-performance-computing.
[4] Beky, A. (2015): Atos et le CEA conçoivent un supercalculateur exaflopique. http://www.silicon.fr/atos-cea-supercalculateur-exaflopique-bull-tera-1000-121474.html.




Das könnte Sie auch interessieren

Anbieterportal


alle Anbieter
Sharer Icon: facebookSharer Icon: TwitterSharer Icon: LindekInSharer Icon: XingSharer Icon: EnvelopeSharer Icon: Print
Banner

Neu: ERP 3/2022

Die vorliegende Ausgabe von ERP Management befasst sich mit der ERP-Implementation.  Lesen Sie hier, welchen Nutzen erfolgreiche Strategien der digitalen Transformation bringen.

Inhaltsverzeichnis

Leseprobe

JETZT bestellen!

The World of ERP in One Event!

The ERP competition of the year 2022

  • Meet the trendsetters in ERP – the best of the best and the most innovative
  • Intelligent solutions for the future – 11 winning categories
  • An independent jury with top-class digital and industry experts
  • Registration deadline ends June, 2022

Get your ticket now!

Wir verwenden Cookies, um die Nutzererfahrung stetig zu verbessern. Mehr Erfahren.

We use cookies to constantly improve our users’ experience. Learn more.

Essentielle Cookies

Essential Cookies

Cookie Settings
Speichert Einstellungen, die hier getroffen werden. (1 Jahr)

Cookie Settings
Saves selected settings. (1 Year)

Statistik

Statistics

Google Analytics | Google LLC | Datenschutz
Cookie von Google für Website-Analysen. Erzeugt statistische Daten darüber, wie der Besucher die Website nutzt. Alle Informationen werden anonymisiert gespeichert. (2 Jahre)

Google Analytics | Google LLC | Privacy Notice
Cookie used by Google for web site analysis. Collects statistical data on how visitors use the website. This data does not contain personal information. (2 years)