Archive for Juni 2011

HPC Pack 2008 R2 Service Pack 2 (SP2)

30. Juni 2011

Das Service Pack 2 (SP2) für den HPC Pack 2008 R2 ist nun offiziell verfügbar. Es bietet neben der Möglichkeit sein Cluster mit Azure VM Nodes zu erweitern ebenfalls die Möglichkeit MPI jobs auf Azure laufen zu lassen.

Download HPC Pack 2008 R2 Service Pack 2 (SP2).

Advertisements

Interview mit Dan Reed, Vice President, Microsoft auf der ISC’11 in Hamburg

22. Juni 2011

Zusammen mit Christian Terboven von der RWTH Aachen (Blog) führte ich ein Interview mit Dan Reed, Corporate Vice President bei Microsoft – frei übersetzt ins Deutsche.

Microsoft steckt sowohl Arbeit in Interoperabilität als auch ins Cloud-Computing. Wie spielen diese beiden Themen zusammen, sprich, wie steht es um Interoperabilität in der Cloud? Wird es z.B. möglich sein, virtuelle Maschinen von Azure nach Amazon zu schieben oder wird es Linux-Maschinen in Azure geben?

Auch wenn dies technisch möglich ist – z.B. unterstützt Hyper-V Linux Gast-Systeme – wird wohl weder erstes noch zweites in Azure möglich sein. Wichtiger im Bereich der Interoperabilität sieht Dan Reed den Zugriff auf Daten.

Christian Terboven hat Vergleichspreise für CPU-Stunden ermittelt, zu denen die RWTH Aachen theoretisch ihre Ressourcen anbieten könnten. Die ermittelten Preise liegen deutlich unter den Preisen, die Microsoft für Azure verlangt. Woher kommt dieser hohe Preisunterschied?

Im Unterschied zu einem HPC-Rechenzentrum, in dem üblicherweise ein Job-Management- Systeme dafür sorgt, dass die vorhandenen Ressourcen dauerhaft (im besten Fall 24/7) ausgelastet sind, ist dies bei Cloud-Anbietern nicht der Fall. Letztere müssen ständig leerlaufende Ressourcen vorhalten, die also nicht verkauft aber dennoch gewartet und bezahlt werden müssen.

Was den Wettbewerb betrifft, sieht Dan Reed hier die Gefahr des „Race to the bottom“, d.h. der günstigste gewinnt, und nicht unbedingt der technisch ausgereifteste oder ausfallsicherste. Ebenfalls fehlen noch Standards für das Pricing in der Cloud.

Andere große Baustellen im Cloud-Computing sind SLAs, also vertraglich festzulegen, wann  z.B. eine Ressource spätestens verfügbar oder ein Job spätestens ausgeführt werden muss. Ebenfalls ist die Einstiegshürde in die Cloud noch zu hoch; Anwendungen werden immer komplexer und sind teils zu umfangreich für den lokalen Desktoprechner. Die Verlagerung in die Cloud bietet sich hier an, muss aber – unter dem Stichwort „usability“ – noch deutlich einfacher werden.

Da wir auf der ISC sind, bleibt natürlich die Frage nach klassischen ISV-Codes nicht aus. Werden wir diese in der Cloud sehen?

Hier sieht Dan Reed zeitnah keine Produkte. Es wird zwar an Lösungen gearbeitet, aber bis tatsächlich ISV-Produkte in der Cloud laufen oder es diese ggf. sogar fertig zu kaufen gibt, wird wohl noch einige Zeit verstreichen. Etwas anders sieht es im Bereich der „embarassingly parallel“ Codes aus, z.B. in den Bereichen der Finanz- oder Versicherungssimulationen. Die hier verwendeten Monte-Carlo-Simulationen sind aus HPC-Sicht deutlich simpler als verteilt laufenden Physik-Simulationen.

Allerdings wird, so Dan Reed in einer Session auf der ISC, die Cloud auch nie das lokale Cluster ersetzen, sondern immer nur zusätzlich zu lokalen Ressourcen existieren.

Wie wird sich der Windows HPC-Server weiterentwickeln?

Der Windows HPC-Server ist eine Erweiterung des Windows Servers, der wiederrum auf (im Moment) Windows 7 basiert. Die Fortschritte die in den letzteren beiden erzielt werden, sind dementsprechend auch im HPC-Server verfügbar. Die HPC-Erweiterung betreffend geht es – und wird es auch weiterhin gehen – stark in Richtung Cloud (Azure-Integration). Hier arbeitet Microsoft nicht nur daran, Azure-Knoten mit GPUs anzubieten, sondern auch Hochgeschwindigkeitsnetzwerke wie Infiniband oder 10GB Ethernet bereitzustellen.

Im Exascale-Bereich sieht Dan Reed den Windows HPC-Server allerdings nicht. Hier müsste Microsoft viel investieren, aber auch dann bleibt noch die Frage nach der Usability. Finanzielle Mittel, so Dan Reed, sind besser angelegt im Green-IT-Bereich, also z.B. darin, die Leistung pro Watt zu erhöhen.

Microsoft forscht z.B. daran, Rechenzentren mit erneuerbaren Energien zu betreiben. Ein erstes prototypisches RZ ist bereits in Betrieb. Auch ein sehr interessantes Forschungsgebiet sind hier „energy aware“ Scheduler, d.h. Jobs verbleiben in der Queue, bis – vereinfacht ausgedrückt – die Strompreise günstig sind, weil gerade ein Überangebot auf dem Strommarkt herrscht.