Digitalisierung

Big Data und Simulationen

Lesedauer:  5 Minuten
© Pixabay / geralt
© Pixabay / geralt

Seit seinen Anfängen in den 1970er Jahren erlebt das High-Performance Computing (HPC) ein kontinuierliches Wachstum. Big Data und Realtime-Anwendungen erhöhen den Bedarf an schnellen, zuverlässigen und hoch leistungsfähigen Rechnersystemen zusätzlich. Dabei sollten Unternehmen beachten, dass HPC keine Standardlösungen zulässt. HPC-Installationen müssen sich an unterschiedlichen, teilweise sehr komplexen Anwendungen orientieren.

Heutzutage treiben vor allem Big Data und der wachsende Bedarf an Simulationen die HPC-Entwicklung voran. Immer mehr Unternehmen aus allen Branchen benötigen zusätzliche Rechenleistung, um die wachsenden Mengen von strukturierten und unstrukturierten Daten zu verarbeiten, Produkte schneller zu entwickeln oder hochkomplexe Simulationen und Modellierungen durchzuführen. Die effiziente Integration von Big Data und HPC verspricht Wettbewerbsvorteile sowie neue Forschungsmöglichkeiten und Planungshorizonte im öffentlichen Bereich ebenso wie in der Wirtschaft. In der aktuellen Studie „Worldwide Technical Computing 2015 – 10 Key Predictions“ prognostizieren die Marktforscher von IDC daher dem HPC-Bereich bis 2019 ein jährliches Wachstum von rund 8 % [1]. Demnach deckt heute (2014) der akademische Sektor rund 20 % des HPC-Gesamtmarktes ab, mit 19 % dicht gefolgt von staatlich betriebenen Laboren und Forschungszentren. Die größten industriellen Anwendungen markieren die digitale Produktentwicklung sowie die Biowissenschaften mit jeweils 11 %.

Für IDC werden in naher Zukunft vor allem die kleinen und mittleren Betriebe den HPC-Bereich prägen. Diese Unternehmen haben gegenüber den Großkonzernen einen enormen Nachholbedarf, wie das Forschungsinstitut Intersect360 Research in dem Report „HPC Adoption in the Enterprise“ bestätigt [2]. Zudem stellen immer mehr HPC-Anbieter kleinen und mittleren Unternehmen leicht zugängliche Cloud-Dienste zur Verfügung – aller politischen und technischen Herausforderungen zum Trotz. Am anderen Ende der Leistungsskala forcieren nationale Regierungen, wie die USA mit der National Strategic Computing Initiative (NSCI) [3] oder Frankreich im Tera1000-Projekt [4], die Entwicklung von Höchstleistungsrechnern im sogenannten Exascale-Bereich.
Superrechner für die Zukunft

Die Leistung von solchen Supercomputern wird in Flops (Floating Point Operations pro Sekunde) gemessen. Derzeit arbeiten die größten Systeme weltweit im Petaflop-Bereich. Das entspricht 10 hoch 15 Rechenoperationen pro Sekunde. Aber die Anfänge für die Hochleistungsrechner der nächsten Generation sind bereits gemacht. Die Exascale-Supercomputer werden mehr als eine Trillion Operationen pro Sekunde erreichen, was dem Tausendfachen der Leistungsfähigkeit heutiger Systeme entspricht.

Dieser gigantische Innovationssprung lässt sich mit derzeitigen Technologien nicht bewältigen. Datenvolumen und Stromverbrauch werden sprichwörtlich explodieren. Neue Entwicklungen, unter anderem bei Prozessoren, Interconnect-Systemen und Kühleinheiten, sind daher zwingend nötig. Alle HPC-Anbieter forschen daher intensiv an Möglichkeiten, den nächsten großen Meilenstein in der langen Geschichte der Hochleistungsrechner zu verwirklichen.
Vorreiter Automobilbranche

Eine der wichtigsten Branchen für HPC ist die Automobilindustrie. In diesem Umfeld arbeiten Forschung und Entwicklung, aber auch die Zulieferer Hand in Hand, um neue Automodelle in immer kürzeren Entwicklungszyklen auf den Markt zu bringen. HPC beschleunigt die Konstruktion digitaler Prototypen und optimiert die Testphase der neuen Modelle. Bereits im Vorfeld lässt sich durch Simulationen das Verhalten von Bauteilen oder die Verwendung unterschiedlicher Materialien für die Karosserie in bestimmten Situationen am Rechner testen. Auf diese Weise können sichere Autos hergestellt und der Benzinverbrauch reduziert werden. Die nötige Anzahl von teuren Prototypen für Tests in der Wirklichkeit lässt sich drastisch reduzieren. Das senkt die Kosten und beschleunigt gleichzeitig die Produktentwicklung.

Auch die Globalisierung fördert den Bedarf nach HPC-Systemen – nicht nur in der Automobilbranche. Unternehmen agieren zunehmend weltweit und in globalen Teams und müssen kontinuierlich wachsen. Gleichzeitig ist es notwendig, sich vor Ort den lokalen Gegebenheiten anzupassen und einen individuellen Service anzubieten. Dabei können HPC-Installationen bei der Bewältigung des wachsenden Datenaufkommens unterstützen.

Die Hardware der meisten Supercomputer basiert zu großen Teilen auf Standardkomponenten. Dennoch müssen sich HPC-Installationen an den unterschiedlichen, teilweise sehr komplexen Anwendungen orientieren. Dafür ist eine adäquate, skalierbare Hardware notwendig, die sich flexibel in eine Infrastruktur integrieren lässt. Sie sollte ein breites Spektrum an Anwendungen verarbeiten können und mit allen weiteren Komponenten der vorhandenen Infrastruktur Hand in Hand gehen. Je intensiver HPC-Systeme auf gängigen Komponenten beruhen, desto leichter fallen die Integration sowie die Wartung und Pflege der Systeme. Die Wahl der richtigen Hardwareplattform hängt maßgeblich vom vorgesehenen Einsatzbereich ab. Wollen Anbieter eine möglichst große Bandbreite an Einsatzmöglichkeiten abdecken, benötigen sie ein breites Spektrum an Lösungen, die sich mit flexiblen Komponenten modular an die individuellen Anforderungen einer Organisation anpassen und entsprechend erweitern lassen.
HPC und Big Data

Die meisten komplexen Probleme, mit denen sich Wissenschaftler und Ingenieure aktuell und in Zukunft beschäftigen, liegen an der Schnittstelle zwischen HPC und Big Data. Durch die kontinuierlich anwachsenden Datenvolumen erfordern bestimmte Anwendungen die Echtzeit-Datenverarbeitung im Arbeitsspeicher. Für diesen Zweck hat sich das In-Memory-Processing etabliert. Die Verarbeitung erfolgt direkt im Arbeitsspeicher. Dabei stellt diese Technologie keine Konkurrenz zu Supercomputern dar, sondern bietet sich als sinnvolle Ergänzung an. Beide Anwendungen – High-Performance-Berechnungen und In-Memory-Technologien – verlangen nach Rechnern mit einer überproportional hohen Rechenleistung.

Im Big-Data-Umfeld liegt das Ziel darin, in einer sehr großen Datenmenge durch Sortier- und Filtermethoden bislang unerkannte Zusammenhänge und Muster zu identifizieren. Viele HPC-Anwendungen hingegen folgen einem theoretischen Modell, mit dem die Daten in einer gewissen Weise neu berechnet und modelliert werden. Trotz aller Ähnlichkeiten bleiben Big Data und HPC zwei völlig unterschiedliche Disziplinen. Mit dem Ansatz, wie er in Big-Data-Lösungen verwendet wird, lassen sich beispielsweise keine Crashtests oder Navier-Stokes-Gleichungen, die etwa für die numerische Strömungsmechanik essentiell sind, berechnen. Manche Rechenalgorithmen erbringen Höchstleistungen, wenn man sie auf viele kleinere Rechner verteilt. Andere wiederum profitieren von einem zentralen System mit Hauptspeicherkapazität von mehreren Terabyte.

Für Berechnungen im industriellen Umfeld reichen in der Regel HPC-Installationen mit einigen hundert Rechnerkernen aus, um die gewünschten Ergebnisse zu erzielen. Wie groß ein System sein muss, bestimmen letztendlich die Effizienzberechnungen sowie die Geschwindigkeitsbedürfnisse der Unternehmen. Bei der Hochrechnung dieser Leistungsanforderungen können erfahrene HPC-Anbieter durch valide Kalkulationen und Erfahrungswerte unterstützen.


Literatur

[:de][1] Joseph, E., Conway, C.; Sorensen, R. (2015): Worldwide Technical Computing 2015 10 Key Predictions. http://www.idc.com/getdoc.jsp?containerId=256694.
[2] Snell, A. (2014): HPC Adoption in the Enterprise. Intersect360 Research. http://www.intersect360.com/industry/getPresentation.php?id=10.
[3] Kalil, T., Muller J. (2015): Advancing U.S. Leadership in High-Performance Computing. https://www.whitehouse.gov/blog/2015/07/29/advancing-us-leadership-high-performance-computing.
[4] Beky, A. (2015): Atos et le CEA conçoivent un supercalculateur exaflopique. http://www.silicon.fr/atos-cea-supercalculateur-exaflopique-bull-tera-1000-121474.html.[:en][1] Joseph, E., Conway, C.; Sorensen, R. (2015): Worldwide Technical Computing 2015 10 Key Predictions. http://www.idc.com/getdoc.jsp?containerId=256694.
[2] Snell, A. (2014): HPC Adoption in the Enterprise. Intersect360 Research. http://www.intersect360.com/industry/getPresentation.php?id=10.
[3] Kalil, T., Muller J. (2015): Advancing U.S. Leadership in High-Performance Computing. https://www.whitehouse.gov/blog/2015/07/29/advancing-us-leadership-high-performance-computing.
[4] Beky, A. (2015): Atos et le CEA conçoivent un supercalculateur exaflopique. http://www.silicon.fr/atos-cea-supercalculateur-exaflopique-bull-tera-1000-121474.html.[:]

Das könnte Sie auch interessieren

Digitale Geschäftsprozesse im Mehrwegbehältermanagement

Digitale Geschäftsprozesse im Mehrwegbehältermanagement

Technologien und Applikationen für effiziente digitale Mehrwegkreisläufe
Mehrwegkreisläufe effizient zu steuern ist komplex –doch neue digitale Technologien eröffnen ganz neue Möglichkeiten. Der Artikel zeigt, wie No-Code-Development, Computer Vision und IoT-Architekturen das operative Mehrwegbehältermanagement automatisieren und manuelle Prozesse deutlich reduzieren. Praxisnahe Beispiele aus dem Projekt DIBCO geben spannende Einblicke, wie Unternehmen ihre Behälteraufbereitung effizienter und zukunftsfähig gestalten können.
Die Zukunft der ERP-Systeme

Die Zukunft der ERP-Systeme

Strategisch statt operativ: ERP etabliert sich als Top-Management-Thema
ERP ist längst Chefsache. Wer es weiterhin als reines IT-Thema einordnet, unterschätzt seinen strategischen Hebel. Vorausschauende Unternehmen verankern ERP-Kompetenz in ihrer Governance und nutzen sie als Wettbewerbsvorteil. Moderne ERP-Systeme entwickeln sich zu intelligenten, offenen Architekturen –getrieben von Cloud, KI und Automatisierung. Das verlangt von der Unternehmensführung ein tiefes Verständnis von ERP.
BIM trifft ERP: Mit AAS zum digitalen Zwilling

BIM trifft ERP: Mit AAS zum digitalen Zwilling

Planung und Betrieb rücken im digitalen Bauwesen zusammen
Die Digitalisierung des Bauwesens schreitet voran, doch zwischen Planung und Betrieb besteht weiterhin eine Lücke im Informationsfluss. Während BIM die Grundlage für die digitale Modellierung von Bauwerken liefert und ERP-Systeme betriebswirtschaftliche Prozesse steuern, sorgt die Asset Administration Shell (AAS) für die Verbindung beider Welten. Sie macht Daten aus Planung und Betrieb nutzbar und ebnet den Weg zum digitalen Zwilling.
Hoch skalierbares kollaboratives Schreiben

Hoch skalierbares kollaboratives Schreiben

Was wir aus der Softwareentwicklung lernen können
Kollaboratives Schreiben ist mehr als das gemeinsame Bearbeiten eines Dokuments. Es ist ein Prozess, der effiziente Strukturen und Werkzeuge erfordert. Der Ansatz der Autoren kombiniert die Markup-Sprache AsciiDoc mit der Versionsverwaltung Git und überträgt so Methoden aus der Softwareentwicklung auf das gemeinsame Erstellen von Texten. Das Ergebnis: ein flexibles, skalierbares und transparentes Framework für Teams in Wissenschaft und Industrie.
Best-Of ERP 2025: Branchenübergreifend / Cross-Industry

Best-Of ERP 2025: Branchenübergreifend / Cross-Industry

ERP-System des Jahres: Comarch AG wird mit Gold prämiert
Mit beeindruckender technologischer Bandbreite und echter Kundennähe ist Comarch der Gewinner in der Kategorie Cross-Industry. Die Lösung verbindet Handel und Produktion in einer durchgängigen, digitalen Prozesskette – vom Webshop bis in die Fertigung. Dank modularer Architektur, Multi-Site-Struktur und offener Integrationsstandards bleibt das System anpassungsfähig und zukunftssicher.
KI-Agenten statt reiner Datenverwaltung

KI-Agenten statt reiner Datenverwaltung

Moderne CRM-Plattformen bringen den Durchbruch für Vertrieb, Marketing und Service
CRM entwickelt sich durch moderne Plattformen, agile Methoden und den Einsatz von KI grundlegend weiter. Kundenzentrierung wird zum strategischen Erfolgsfaktor, während Change Management und regulatorische Vorgaben die Umsetzung prägen. Unternehmen profitieren von höherer Geschwindigkeit, flexibler Anpassung und einer stärkeren Fokussierung auf individuelle Kundenbedürfnisse.