HPI: Neuer Hochleistungscomputer ermöglicht Forschung an NUMA-Architekturen

Die am HPI-Fachgebiet von Prof. Hasso Plattner entwickelte Lösung simuliert realistisch, wie tausende von Benutzern gleichzeitig Daten eingeben und analysieren und führt diese Arbeitsbelastung simultan auf ausgewählten Rechner-Konfigurationen aus.

Potsdam, März 2015

CeBIT: Hasso-Plattner-Institut demonstriert Leistungsvergleich von Höchstgeschwindigkeits-Datenbanken / Unternehmen können effizientestes IT-System ermitteln

Das Hasso-Plattner-Institut (HPI) hat für seine Forschungen im Bereich Hauptspeicher-Datenbanktechnologie einen zusätzlichen Hochleistungsrechner mit 240 Prozessorkernen und einer Kapazität von 12 Terabyte Arbeitsspeicher in Betrieb genommen.

Das System UV300H des kalifornischen Herstellers SGI bietet damit 120 Mal mehr Prozessoren und tausendfach so viel Speicherkapazität wie mancher handelsübliche Rechner für den Privatgebrauch.

Der Aufbau des neuen Hochleistungscomputers ermöglicht den Potsdamer HPI-Wissenschaftlern Forschungsarbeiten im Bereich der so genannten NUMA-Architekturen (Non-Uniform Memory Access). Deren Besonderheit liegt darin, dass jeder Prozessor über direkt zugeordneten Speicher verfügt, aber auch anderen Prozessoren indirekten Zugriff darauf gewährt. Dies beseitigt den Flaschenhals der zentralen Speicherverwaltung in Mehrkernrechnern, allerdings ist die unterschiedlich schnelle Anbindung der verschiedenen Speicherbereiche des Systems zu berücksichtigen.

"Unsere Forschungen an effizienteren Systemen für betriebswirtschaftliche Analysen und Simulationen profitieren vor allem von der besonders großen Arbeitsspeicherkapazität", erläutert Dr. Matthias Uflacker den Vorteil der neuen Ausstattung. Dadurch sei es möglich, das Verhalten der Systeme selbst bei höchsten Anforderungen zu testen.

Eines der Forschungsprojekte, die auf dem neuen Hochleistungsrechner durchgeführt werden, heißt "Load Simulator". Mit dieser Simulationssoftware können verschiedene Strategien zur Datenhaltung im Hauptspeicher miteinander verglichen und künftig das effizienteste IT-System für ein Unternehmen ermittelt werden. "Wir haben damit ein interaktives Werkzeug geschaffen, um Schlüsseleigenschaften verschiedener Datenbank-Konfigurationen vergleichen zu können", sagt Uflacker. Präsentieren wird das HPI den Load Simulator Mitte des Monats auf der CeBIT (Halle 9, Stand D44).

Die am HPI-Fachgebiet von Prof. Hasso Plattner entwickelte Lösung simuliert realistisch, wie tausende von Benutzern gleichzeitig Daten eingeben und analysieren und führt diese Arbeitsbelastung simultan auf ausgewählten Rechner-Konfigurationen aus. Auf Anzeigeinstrumenten können mehrere Leistungskennziffern verfolgt werden, zum Beispiel Menge, Durchsatz und Bearbeitungszeit von Datenbankanfragen sowie Gesamtauslastung der zentralen Recheneinheiten.

Der "Load Simulator" des HPI vergleicht auf der einen Seite die Leistungsfähigkeit eines einzigen Hochleistungsrechners, auf dem sämtliche Daten im schnellen Arbeitsspeicher residieren, mit der eines Verbunds von mehreren kleineren Servern. Auf diese sind aktuelle und historische Daten sowie ausschließlich für lesenden Zugriff gespeicherte Datenkopien verteilt.

Im Spitzenforschungslabor ihres Instituts können die HPI-Wissenschaftler zudem auf Hard- und Software-Technologie zurückgreifen, die teilweise noch nicht am Markt verfügbar oder im normalen Hochschulbereich in der Regel nicht zu finanzieren ist. Dazu gehören zum Beispiel Server mit bis zu 64 Kernen und 2 TB Hauptspeicher, ein Computercluster mit 1000 Kernen und die In-Memory-Lösung HANA der SAP AG. Die Infrastruktur (http://hpi.de/forschung/future-soc-lab/ausstattung.html) steht auch interessierten Wissenschaftlern aus aller Welt kostenfrei für Forschungszwecke zur Verfügung.

(ots)