Archive for the ‘hpc’ Category

HPC Pack 2008 R2 Service Pack 2 (SP2)

30. Juni 2011

Das Service Pack 2 (SP2) für den HPC Pack 2008 R2 ist nun offiziell verfügbar. Es bietet neben der Möglichkeit sein Cluster mit Azure VM Nodes zu erweitern ebenfalls die Möglichkeit MPI jobs auf Azure laufen zu lassen.

Download HPC Pack 2008 R2 Service Pack 2 (SP2).

Advertisements

Interview mit Dan Reed, Vice President, Microsoft auf der ISC’11 in Hamburg

22. Juni 2011

Zusammen mit Christian Terboven von der RWTH Aachen (Blog) führte ich ein Interview mit Dan Reed, Corporate Vice President bei Microsoft – frei übersetzt ins Deutsche.

Microsoft steckt sowohl Arbeit in Interoperabilität als auch ins Cloud-Computing. Wie spielen diese beiden Themen zusammen, sprich, wie steht es um Interoperabilität in der Cloud? Wird es z.B. möglich sein, virtuelle Maschinen von Azure nach Amazon zu schieben oder wird es Linux-Maschinen in Azure geben?

Auch wenn dies technisch möglich ist – z.B. unterstützt Hyper-V Linux Gast-Systeme – wird wohl weder erstes noch zweites in Azure möglich sein. Wichtiger im Bereich der Interoperabilität sieht Dan Reed den Zugriff auf Daten.

Christian Terboven hat Vergleichspreise für CPU-Stunden ermittelt, zu denen die RWTH Aachen theoretisch ihre Ressourcen anbieten könnten. Die ermittelten Preise liegen deutlich unter den Preisen, die Microsoft für Azure verlangt. Woher kommt dieser hohe Preisunterschied?

Im Unterschied zu einem HPC-Rechenzentrum, in dem üblicherweise ein Job-Management- Systeme dafür sorgt, dass die vorhandenen Ressourcen dauerhaft (im besten Fall 24/7) ausgelastet sind, ist dies bei Cloud-Anbietern nicht der Fall. Letztere müssen ständig leerlaufende Ressourcen vorhalten, die also nicht verkauft aber dennoch gewartet und bezahlt werden müssen.

Was den Wettbewerb betrifft, sieht Dan Reed hier die Gefahr des „Race to the bottom“, d.h. der günstigste gewinnt, und nicht unbedingt der technisch ausgereifteste oder ausfallsicherste. Ebenfalls fehlen noch Standards für das Pricing in der Cloud.

Andere große Baustellen im Cloud-Computing sind SLAs, also vertraglich festzulegen, wann  z.B. eine Ressource spätestens verfügbar oder ein Job spätestens ausgeführt werden muss. Ebenfalls ist die Einstiegshürde in die Cloud noch zu hoch; Anwendungen werden immer komplexer und sind teils zu umfangreich für den lokalen Desktoprechner. Die Verlagerung in die Cloud bietet sich hier an, muss aber – unter dem Stichwort „usability“ – noch deutlich einfacher werden.

Da wir auf der ISC sind, bleibt natürlich die Frage nach klassischen ISV-Codes nicht aus. Werden wir diese in der Cloud sehen?

Hier sieht Dan Reed zeitnah keine Produkte. Es wird zwar an Lösungen gearbeitet, aber bis tatsächlich ISV-Produkte in der Cloud laufen oder es diese ggf. sogar fertig zu kaufen gibt, wird wohl noch einige Zeit verstreichen. Etwas anders sieht es im Bereich der „embarassingly parallel“ Codes aus, z.B. in den Bereichen der Finanz- oder Versicherungssimulationen. Die hier verwendeten Monte-Carlo-Simulationen sind aus HPC-Sicht deutlich simpler als verteilt laufenden Physik-Simulationen.

Allerdings wird, so Dan Reed in einer Session auf der ISC, die Cloud auch nie das lokale Cluster ersetzen, sondern immer nur zusätzlich zu lokalen Ressourcen existieren.

Wie wird sich der Windows HPC-Server weiterentwickeln?

Der Windows HPC-Server ist eine Erweiterung des Windows Servers, der wiederrum auf (im Moment) Windows 7 basiert. Die Fortschritte die in den letzteren beiden erzielt werden, sind dementsprechend auch im HPC-Server verfügbar. Die HPC-Erweiterung betreffend geht es – und wird es auch weiterhin gehen – stark in Richtung Cloud (Azure-Integration). Hier arbeitet Microsoft nicht nur daran, Azure-Knoten mit GPUs anzubieten, sondern auch Hochgeschwindigkeitsnetzwerke wie Infiniband oder 10GB Ethernet bereitzustellen.

Im Exascale-Bereich sieht Dan Reed den Windows HPC-Server allerdings nicht. Hier müsste Microsoft viel investieren, aber auch dann bleibt noch die Frage nach der Usability. Finanzielle Mittel, so Dan Reed, sind besser angelegt im Green-IT-Bereich, also z.B. darin, die Leistung pro Watt zu erhöhen.

Microsoft forscht z.B. daran, Rechenzentren mit erneuerbaren Energien zu betreiben. Ein erstes prototypisches RZ ist bereits in Betrieb. Auch ein sehr interessantes Forschungsgebiet sind hier „energy aware“ Scheduler, d.h. Jobs verbleiben in der Queue, bis – vereinfacht ausgedrückt – die Strompreise günstig sind, weil gerade ein Überangebot auf dem Strommarkt herrscht.

Windows HPC with Burst to Windows Azure: Application Models and Data Considerations

26. Mai 2011

Microsoft hat ein Whitepaper „Windows HPC with Burst to Windows Azure: Application Models and Data Considerations“ veröffentlicht. Vorteile der Erweiterung des eigenen HPC-Clusters um Azure-Knoten liegen darin, dass man kurzfristig und kurzzeitig die eigenen Rechen-Ressourcen erweitern kann, um z.B. hohen CPU-Bedarf bei der Monats- oder Jahresabrechnung zu bewältigen. Es ist keine Anschaffung neuer Hardware nur für diese „Peak-Zeit“ nötig, sondern man mietet genau die benötigten Ressourcen für genau die Zeit, in der sie benötigt werden.
Dabei ist zu beachten, dass dies (mit dem aktuellen Windows Server 2008 R2 SP1) nicht für die im HPC-Bereich klassischen MPI-Anwendungen möglich ist. Stattdessen beschreibt Microsoft, wie man die Anwendung mittels Parametric Sweep, SOA oder Excel UDF Offloading in die Cloud bringt. Das Whitepaper gibt ebenfalls Hinweise für die Anwendungsentwicklung und das Datenmanagement in der Cloud. Microsoft stellt ebenfalls Code-Beispiele bereit.

Windows HPC Server 2008 R2 Service Pack 2 (Beta)

18. Mai 2011

Ich bin nun endlich dazu gekommen, einen Azure-Knoten zu unserem Windows-HPC-Cluster hinzuzufügen (Anleitung). Er integriert sich wunderbar in den Cluster Manager und taucht dort neben den lokalen Rechenknoten auf. Mit der SP2 Beta ist es ebenfalls gelungen, ein Remote-Desktop-Verbinung mit dem Azure-Knoten aufzubauen. Screenshot:

Ausfallsicheres Windows HPC-Cluster

12. Mai 2011

Microsoft hat ein Dokument herausgegeben, welches in einer Schritt-für-Schritt-Anleitung erklärt, wie man ein ausfallsicheres HPC-Cluster für eine Produktivumgebung aufsetzt. Natürlich sind für so eine High Availability-Lösung zwei Head Nodes erforderlich. Außerdem empfiehlt das Dokument aus Performancegründen die Installation der vollwertigen SQL-Server Edition (nicht die kostenlose Express-Edition) auf einem dedizierten dritten Server.

Download PDF Deployment of HPC Server 2008 R2 failover cluster.

Windows HPC Server 2008 R2 Service Pack 2 (Beta)

5. Mai 2011

Die Beta des Service Pack 2 für den HPC Server 2008 R2 ist draußen. Sie bietet unter anderem eine bessere Integration von Azure Nodes in den Cluster Manager und einige Verbesserungen des Job Schedulers. Bei den Azure Nodes ist unter anderem die Verbindung zu Campus-eigenen Fileserver via UNC-Pfad möglich und die Verbindung zu Azure Nodes mittels Remote Desktop. Ich werde versuchen das nächste Woche zu testen und dann hier zu berichten.

http://technet.microsoft.com/en-us/library/hh184314%28WS.10%29.aspx

Fraunhofer SCAI legt Studie zur Interoperabilität und Offenheit von Windows zu Linux vor

1. März 2011

Komplexe heterogene IT-Umgebungen erfordern zunehmend Interoperabilität der Softwareprodukte und Offenheit der Softwarefirmen gegenüber den Wettbewerbern. Zusammen mit meinen Kollegen vom Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen SCAI haben wir in einer Studie aktuelle Lösungen von Microsoft und Novell untersucht, die IT-Verantwortlichen und Administratoren ihre Arbeit erleichtern können.

Sie erhalten die Studie als kostenlosen Download (PDF-Datei, 1MB) unter: http://www.scai.fraunhofer.de/interoperability/

Tuning Windows HPC Server 2008 R2

1. Februar 2011

Natürlich kann man unendlich viel tunen und an jeder NTFS- und TCP-Schraube drehen, aber die folgenden drei einfachen Tuning-Tipps haben sich für mich – insbesondere während Benchmarks – als nützlich erwiesen. Mir kam es NICHT darauf an, das letzte Bit Performance aus dem TCP-Treiber raus zu kitzeln, sondern mir ging es um Grundlegendes, wie z.B. darum, dass nicht mitten in einem Benchmark Windows Update losläuft.

  1. Deaktivieren aller „scheduled tasks“ (z.B. für Windows Update) auf allen Knoten:
    clusrun SCHTASKS /Delete /TN * /F
  2. Das Power Management auf allen Knoten auf „Hochleistung“ stellen, z.B. verhindert dies das Runtertakten der CPUs. Nachteil: erhöhter Energieverbrauch.
    clusrun powercfg -s 8c5e7fda-e8bf-4a96-9a85-a6e23a8c635c
  3. Deaktivieren unnötiger Dienste auf den Rechenknoten. Das ist ein bisschen tricky. Ich habe versucht einen Mittelweg zu finden zwischen Diensten, die man (ich) wirklich nicht auf Rechenknoten braucht (wie der Media Player) und solchen, die man zwar strenggenommen auch nicht braucht, die aber das Leben für Administratoren deutlich vereinfachen (z.B. weiterhin funktionierende Remote-Desktop-Verbindung auf alle Knoten). Letztendlich muss natürlich jeder Admin selbst entscheiden, welche Dienste gebraucht werden und welche nicht (z.B. Print Spooler). Das angehängt „stop-services“-Skript stoppt ALLE Dienste, deaktiviert sie aber nicht permanent; nach einem Neustart ist der Windows-Standard wiederhergestellt. Das „disable-services“-Skript deaktiviert permanent, nützliche Dienste bleiben aber laufen; das dazu passende „restore“-Skript stellt den Windows-Default permanent wieder her (jeweils nach einem Neustart).

Skript-Download

Achtung 1: Die Skripte deaktivieren Windows-Funktionalitäten. Man sollte verstehen was sie tun, bevor man sie naiv ausführt! In dem Stop-Skript sind alle Dienste kurz erklärt.
Achtung 2: „clusrun“ führt per Default den Befehl auf allen HPC-Maschinen aus. Je nachdem kann es sinnvoll sein, die Manipulationen nur auf den Rechenknoten und nicht auf den Head Nodes durchzuführen. Dann den clusrun-Befehl entweder mittels /exclude <head_nodes> oder /nodegroup: <compute_nodes> entsprechend restriktiver ausführen.

Mehr Lesestoff: Whitepaper „Performance Tuning a Windows HPC Cluster for Parallel Applications“ und „Performance Tuning Guidelines for Windows Server 2008 R2“.

Ankündigung: Treffen der deutschsprachigen HPC Benutzergruppe

23. Dezember 2010

Das seit 2007 jährlich stattfindende Treffen der deutschsprachigen HPC Benutzergruppe wird 2011 vom 31. März bis zum 1. April  in Karlsruhe stattfinden. Die Benutzergruppe, die 2011 bereits das 4. Treffen veranstalten wird, dient als Plattform für den Erfahrungsaustausch der Windows-HPC Anwender untereinander, sowie für den Dialog zwischen den Nutzern und der Firma Microsoft. Mehr Informationen zur Nutzergruppe und deren zurückliegender Aktivitäten, sind auf der offiziellen Homepage http://www.rz.rwth-aachen.de/go/id/sbb/ zu finden.

HPC Pack 2008 R2 Service Pack 1

14. Dezember 2010

Gestern hat Microsoft das SP1 für den HPC Pack 2008 R2 und das dazugehörige SDK inkl. SP1 veröffentlicht. Microsoft verspricht eine stabilere Version (wobei ich auch ohne SP bisher keine Abstürze vermerken konnte). Größtes neues Feature ist die Möglichkeit, mit installiertem SP1 auch Windows Azure Knoten hinzufügen zu können. Verbessert haben will Microsoft ebenfalls Passwort Caching; ein Punkt der mich persönlich sehr freut, da ich schon öfter darüber gestolpert bin. Installieren/Testen konnte ich es leider bisher noch nicht. Download HPC Pack 2008 R2 SP 1