Mainframe versus PC

Der beste Server für Linux

Linux wurde ursprünglich für 386er-Intel-Prozessoren geschrieben. Längst hat sich das Open-Source-Betriebssystem jedoch auf alle erdenklichen Plattformen verbreitet – vom PDA bis zum Großrechner. Auf einer Tagung der IBM-Anwendervereinigung GSE in Bad Honnef, ging IBM-IT-Architekt Ralf Schiefelbein, der Frage nach, welcher Server sich am besten für Linux eignet.

Klar wurde in Bad Honnef, dass Linux für eingeschworene Mainframer nach wie vor kaum ein Thema ist. Schiefelbeins Vorredner, der die Vorzüge von Linux und Unix auf der neuen  eSeries-Architektur P5 präsentierte, fand kaum Zuhörer. Aber auch der für Großrechner-Linux zuständige Schiefelbein konnte den Saal kaum halb füllen. Das lag keineswegs daran, dass er gleich zu Beginn Publikumserwartungen enttäuschte. Der IBMer machte nicht, wie zu befürchten stand, Werbung für Linux auf zSeries. Vor allem entzog er sich einfachen Antworten auf die Frage nach der besten Server-Plattform mit einem ingenieurtypischen:  „Das kommt darauf an“. Auf der damit schon angedeuteten Suche nach genaueren Informationen konfrontierte Schiefelbein die anwesenden DV-Verantwortlichen zudem mit einer Liste von Gegenfragen: Ob sie unter „dem besten Server“ den schnellsten, den billigsten, den flexibelsten verstünden, einen der ausfallsicher sei oder einen mit dem sich das vorhanden Personal gut auskennt?

Anwender holt Linux vom Mainframe

Das bedeutet jedoch nicht, dass Schiefelbein seine Zuhörer unverrichteter Dinge nach Hause schickte. Im Gegenteil: Einer der DV-Verantwortlichen fuhr nach dem Vortrag mit der Überzeugung in sein kommunales Rechenzentrum zurück, dass es in seinem Fall falsch gewesen sei, Linux auf dem Mainframe zu implementieren. Er werde künftig auf Intel-Server setzen. Ausschlaggebend war für ihn die Auflistung der Anwendungen. Auf IBMs z-Series sind etwas mehr als 850 kommerzielle Anwendungen verfügbar, auf der Power-Architektur laufen rund 900 Programme, für Intel-Umgebung dagegen gibt es nicht nur ein Vielfaches an Software, dort wird sie meist auch am frühesten freigegeben.

Das zeigt, dass es mit der Portierung von Linux auf eine Server-Plattform nicht getan ist. „Es kommt darauf an, dass das Betriebssystem von den Hardwareherstellern unterstützt wird”, so Schiefelbein mit Blick auf Mitbewerber Sun und dessen Sparc-Architektur. Damit sind nicht nur Treiber und Peripheriegeräte gemeint, sondern vor allem Anwendungsprogramme – gerade auch von Drittanbietern. Hier fällt Schiefelbeins Sun-Kritik auf das eigene Unternehmen zurück. Solange man sich auf z-Series mit IBM-Software begnügt, ist die Unterstützung durchaus gegeben, wer jedoch etwa beim Web-Application-Server lieber das Konkurrenzprodukt von BEA Systems einsetzt, muss, wie das erwähnte Kommunal-Rechenzentrum, damit leben, dass Updates und Service-Releases den Mainframe erst viele Monate nach den attraktiveren Plattformen erreichen. Der Anwender, der namentlich nicht genannt werden möchte, macht dafür nicht etwa BEA, sondern IBM verantwortlich. Big Blue habe es versäumt, die zSeries durch Verträge auch mit Mitbewerbern als Plattform für Linux-Anwendungen attraktiv zu machen.

Hardware-Profile im Vergleich

Schiefelbein stellt bei der Linux-Eignung weniger die Anwendungsvielfalt in den Vordergrund als die spezifischen Eigenschaften von Intel/AMD-Systemen, RISC-Rechnern der Unix-Welt und Großrechner. Sein Vergleich von High-End-Systemen anhand ausgewählter Eckwerte klärt vieles. So seien Unix-Systeme unübertroffen, wenn es um die Größe des Hauptspeichers geht oder die Zahl der CPUs, schneiden aber nur mittelmäßig ab, wenn es um die Taktrate oder den Datendurchsatz geht.

Großrechner sorgen dank ihrer Bandbreite bei In- und Output für die mit Abstand höchsten Durchsatzraten, zudem lassen sie sich weit besser auslasten als die Konkurrenzsysteme. Während Intel-Server im Schnitt nur etwa zu zehn bis 15 Prozent beschäftigt sind und Unix-Rechner hier bei 15 Prozent bis 25 Prozent liegen, sind bei Großrechnern Auslastungsraten von 70 Prozent durchaus die Regel. Dafür lassen die Taktrate, die mögliche CPU-Anzahl und vor allem der Hauptspeicher zu wünschen übrig.

Intel- und AMD-Server dagegen liegen bei der Taktrate unschlagbar vorne. Diese Rechner sind für die Interaktion mit ungeduldigen Usern konzipiert. Dafür können sie beim Hauptspeicherangebot gerade einmal mit den Mainframes mithalten, die dort ihre Archillesferse haben. Beim Durchsatz und der Zahl der möglichen CPUs sind sie Unix-Systemen und Großrechnern deutlich unterlegen.

Anwendungsanforderungen

Techniker mögen aus diesen Eigenschaften schon herauslesen können, welches System für sie die geeignetste Linux-Plattform ist. Eine sinnvolle Entscheidung lässt sich jedoch erst treffen, wenn man auf die Anwendungsanforderungen schaut. Schiefelbein hat Workload-Muster zusammengestellt.

Meist wird Linux als Betriebssystem für Web-Server verwendet. Auf Durchsatz und Hauptspeicher kommt es hier kaum an. Dafür sollte ausreichend Cache vorhanden sein und vor allem die Prozessorgeschwindigkeit stimmen, damit die Anfragen beantwortet werden, bevor der Web-User woandershin klickt. Dieses Profil passt zumindest auf den ersten Blick gut zu Intel- und AMD-Rechnern. Wichtig ist auch noch eine gute horizontale Skalierbarkeit. Damit ist gemeint, dass bei einem raschen Anstieg der Anfragen etwa wegen des Sonderangebots eines Web-Shops, rasch gleichartige Webserver zugeschaltet werden können. Auch das ist ein Kennzeichen von Webserver-Farmen und Blades auf Intel-Basis. Horizontale Skalierbarkeit lässt sich aber auch hervorragend mit großen RISC-Systemen realisieren.

Vertikale Skalierfähigkeit rührt dagegen eher von symmetrischem Mulitprocessing (SMP) her, das bei Großrechnern üblich ist und bei RISC-Systemen ebenfalls oft unterstützt wird. Generell geht es dabei darum, im laufenden Betrieb Ressourcen wie CPUs und Hauptspeicher zuschalten zu können. Unterschiedlich umfangreiche Datenbankaufgaben und Transaktions-Server verlangen solche Fähigkeiten. Diese Anwendungen sind auch besonders anspruchsvoll wenn es um Cache, Hauptspeicher, direkte Speicherzugriffe und Durchsatz geht. Hier sind große Unix-Systeme und Mainframes im Vorteil.

Anwendungs-Server schließlich brauchen vor allem Hauptspeicher, Prozessorgeschwindigkeit und Skalierbarkeit, gleichgültig ob horizontal oder vertikal. Außerdem müssen sie robust sein. Diesem Profil lässt sich nicht so einfach eine Architektur zuweisen.

Ein wichtiges Entscheidungskriterium für die Plattformentscheidung sieht Schiefelbein in der Frage, ob sich ein Workload in ähnlicher Weise ständig wiederholt (etwa bei einer Web-Server-Farm), oder ob wechselnde Anwendungen ständig neue Anforderungsmuster erzeugen. Im ersten Fall sieht er Stärken bei  Blade-Servern (etwa auf Intel-Basis), im zweiten hält er SMP-Systeme wie die IBM-Großrechner für deutlich geeigneter.

Intel als Web-Server

Wenn der Löwenanteil der Linux-Server dennoch auf Intel/AMD-Architekturen läuft, so hat das auch historische Gründe. Nicht nur, dass Linux als kostenloses und anspruchsloses Unix für den 286er PC entwickelt wurde, es fand auch schon zu Zeiten sein bislang gültiges Haupteinsatzgebiet als Web-Server, als sich die Verwender größerer Systemen noch kaum für das Internet interessierten. Überhaupt wurde der Dotcom-Boom zu einem hohen Prozentsatz von kleinen Firmen getragen, die sich keine teuren Systeme leisten konnten oder wollten.

Leistungsfähige RISC-Maschinen mit firmenspezifischen Unix-Derivaten oder gar Mainframes kamen wegen des Preises und der erforderlichen Spezialkenntnisse nicht in Frage, aber auch weil die meisten Dotcoms da mit Kanonen auf Spatzen geschossen hätten. Mit PCs dagegen konnte Mitte der 90er Jahre fast jeder Laie umgehen und die Systeme ließen sich bei Bedarf mit geringen Kosten Rechner für Rechner ausbauen. Mit den Blade-Systemen von heute ist es noch einfacher.

Generell gilt, das alle Maschinen, auf denen Unix läuft, sich ebenso gut für das Open-Source-Derivat Linux eignen. Allerdings ist die Intel-Hardware  wesentlich preisgünstiger als die RISC-Systeme, die von HP, Sun und Co. üblicherweise einsetzt werden. Hier liegt von Anfang an das Hauptargument für Linux auf Intel, aber auch die Begründung dafür, warum sich Linux die RISC-Plattformen nur langsam erobert.

Schiefelbein ist auf diese Kostenaspekte und historischen Entwicklungen nicht eingegangen. Er empfiehlt, wie im Vortrag ansatzweise versucht, die konkreten Workload-Szenarien im Unternehmen mit den Hardware-Architekturen zu vergleichen, um die richtige Linux-Plattform herauszufinden. Ansonsten vertritt er als IBM-Mann die Konzernlinie, wonach sich Linux für alle Plattformen eignet und andere Betriebssysteme erst in Betracht kommen, wenn Spezialanforderungen auftauchen, die sich mit Linux nicht, oder noch nicht befriedigend erfüllen lassen.

Mai 2005 auf ZDNet.de