Kolumne: Die flinke Feder

Das Cluster ist der Computer


Irgendetwas muss man ja tun, um die schöne, steil ansteigende Kurve von Moore‘s Law immer weiter zu malen. Vor einigen Jahren ging das noch so: Auf der X-Achse einen Strich machen, die gängigen CPUs des jeweiligen Jahres nehmen, ihre Taktung auf der Y-Achse eintragen, und fertig war sie. Dabei wurde verschwiegen, dass das „Gesetz“ sich eigentlich auf die Zahl der Transistoren auf dem Hauptprozessor bezieht, nicht auf den Herzschlag des kleinen Quarzkristalls, der seinen Takt angibt. Dann kamen Dual-, Quad- und andere Multi-Cores, und die Kurve konnte steil weitergezeichnet werden. Und heute? Abgesehen von Grafikchips wächst die Zahl der Transistoren nicht mehr so stark. Oder doch? Schaut man sich die riesigen Computer-Cluster an, wie sie von den Googles, Facebooks, Amazons und Apples dieser Welt betrieben werden, dann kommt man vielleicht zu einem anderen Schluss. Diese IT-Leistungssportler schrauben nicht mehr Server für Server ins Rack, sondern lassen sich ganze Schränke reihenweise komplett funktionstüchtig, also „schlüsselfertig“, liefern. Selbstverständlich geht dann niemand hin und installiert auf der ersten Maschine einen Tomcat, auf der zweiten WebSphere und auf den nächsten dreien MySQL, sondern sämtliche Server werden automatisiert mit derselben Software ausgestattet in einen Verbund aufgenommen. Nach außen hin, also zu den Nutzern, verhält sich ein solcher Cluster wie ein einheitlicher Computer. Und die Gesamtzahl der CPU-Transistoren wird durch diese Art der Erweiterung stetig weiter in die Höhe getrieben.

Gleichzeitig übrigens werden die Administrationskosten pro Recheneinheit reduziert, da alles automatisiert ist und der Cluster mit Ausfällen umgehen kann. Geht eine Maschine in die Knie, so wird sie einfach abgeschaltet, und andere teilen sich ihre Aufgaben. Niemand macht sich auf den Weg und tauscht das Netzteil aus oder schaut aufs Mainboard. Viel zu teuer. Lieber beizeiten ein weiteres Rack aktivieren. Für die Nutzer ist es schließlich unerheblich und auch nicht sichtbar, wie groß das Cluster ist.

Den regelmäßigen Leser dieser Seite wird es nicht verwundern, dass der Autor Apache Hadoop [1] als ein Musterbeispiel dafür sieht, wie man ein solches Cluster umsetzen kann. Eine andere Lösung ist Apache Cassandra [2]. Solche Systeme können sich über Tausende von Rechnern erstrecken. Keine dieser Maschinen funktioniert für sich alleine, nur der Verbund lässt sie zu einem nutzbaren System werden. Mehr als diese Produkte haben sich seit ein paar J...

Neugierig geworden?

Angebote für Teams

Für Firmen haben wir individuelle Teamlizenzen. Wir erstellen Ihnen gerne ein passendes Angebot.

Das Library-Modell:
IP-Zugang

Das Company-Modell:
Domain-Zugang