IT fürs Vieh

Veterinärmedizin fährt die Rechner runter

31.05.2007

ClickClack-Lösung
ClickClack-Lösung

Der Erhalt der natürlichen Lebensgrundlagen ist eine gesellschaftliche Aufgabe und integraler Bestandteil der Leitlinie der Freien Universität Berlin. Die ökologischen Bedingungen und Optionen einer nachhaltigen Entwicklung sind seit Jahren in Forschung und Lehre fest verankert. Umweltmanagement optimiert den Einsatz von Strom, Wärme und anderen Ressourcen. Umweltmanagementsysteme wie das europäische Umweltmanagementsystem EMAS (Eco-Management and Audit Scheme) schaffen die Voraussetzungen dafür, diese Handlungspotenziale in öffentlichen Einrichtungen zu nutzen. Durch steigende Energiepreise und die kontinuierlich steigende Zahl an Computern und Servern hatte das Thema Energie bereits Ende 2004 in der IT-Abteilung des Fachbereichs Veterinärmedizin der Freien Universität Eingang gefunden.

Seit Mitte 2005 gehört die Freie Universität Berlin mit ihrem von den Tiermedizinern genutzten Standort Düppel zu der überschaubaren Anzahl deutscher Universitäten, deren Umweltmanagementsystem nach der weltweit gültigen Richtlinie DIN EN ISO 14001 und der europäischen Öko-Audit-Verordnung (EMAS) zertifiziert ist. Zunächst war der Energiebereich Schwerpunkt der investiven Maßnahmen zur Umweltentlastung – doch dann stand die Informationstechnologie im Fokus des Interesses.

Der Fachbereich startete mit Unterstützung des Präsidiums ein weltweit einmaliges Pilotprojekt zur Reduzierung der Energiekosten und zur Verbesserung des Computermanagements. Zudem wurde ein Projekt ins Leben gerufen, in dem die Möglichkeiten, den Strombedarf der Server zu reduzieren, erforscht und umgesetzt werden sollen. Laut des Vorstandes des Bundesverbandes der deutschen Verbraucherzentralen muss neben der Automobilund der Flugzeugbranche auch die Computer- und Telekommunikationsbranche ihren Beitrag zum Umweltund Klimaschutz leisten. Viele Computer, Bildschirme, Server, Drucker und Handys verbrauchen nämlich unnötig Strom.

3,3 Milliarden Euro Verschwendung

Laut einer Studie des Umweltbundesamtes verschwenden deutsche Haushalte jährlich allein durch den bei Elektrogeräten üblichen Standby- Modus 3,3 Milliarden Euro im Jahr – das sind fast 100 Euro je Haushalt. Ist etwa ein Computer täglich acht Stunden in Betrieb, verursacht er Stromkosten von bis zu 200 Euro im Jahr. Dabei werden meist nur etwa 30 Prozent des Strombedarfs während der Arbeit verbraucht. 70 Prozent gehen ungenutzt verloren, weil der Rechner nicht ausgeschaltet wird oder die Netzteile unter Strom stehen. Der Standby-Betrieb von Elektrogeräten beläuft sich auf jährlich 2.000 Megawatt. Nach Ansicht von Renate Künast, Fraktionsvorsitzende von Bündnis 90/Die Grünen, könnten durch ein Verbot des Stand-by-Betriebs zwei Atomkraftwerke abgeschaltet werden. „Aus muss auch wirklich aus sein!“ – mit diesem Slogan fordert das Umweltbundesamt Hardware-Hersteller dazu auf, ihre Geräte künftig so auszustatten, dass sie im ausgeschalteten Zustand tatsächlich keinen Strom verbrauchen.

Einsparpotenziale

Der Fachbereich Veterinärmedizin ergriff die Initiative und untersuchte, wo im IT-Bereich Einsparpotenziale schlummerten. Mit der Zusammenführung aller Computer des Fachbereichs in eine einheitliche Windowsumgebung konnte die zentrale Administration vor vier Jahren erstmals die Laufzeiten der Rechner am Fachbereich ermitteln. Es sollte geklärt werden, in wieweit die Computer-Laufzeiten von den tatsächlichen Nutzungszeiten abweichen und welche Umweltbelastung durch ungenutzte Laufzeiten entstehen. Die beobachteten Anmeldezeiten ergaben, dass die Laufzeiten weit über den zu erwartenden Arbeitszeiten lagen. Der Spitzenreiter hatte seinen Rechner 42 Tage ununterbrochen am Stromnetz. Leider ist die Neigung, das Betriebssystem herunterzufahren und den Rechner wirklich auszuschalten, auch bei mehrstündiger Abwesenheit gering.


Zusammenhang von Energieverbrauch und ACP/APM-Zuständen von Computern
Abb.: Sommerer/UNICOM

Stand-by

Auch ein an alle Mitarbeiter gerichtetes Rundschreiben des Präsidenten der Freien Universität Berlin, in dem Anfang 2006 empfohlen wurde, den Computer und seine Peripherie bei über 60-minütiger Abwesenheit auszuschalten, hatte keinen Einfluss auf das Nutzerverhalten. Ein Grund dafür: die mehrminütige Wartezeit, die beim Ein- und Ausschalten entsteht. Da sich diese „Zeitverluste“ in bestimmten Fällen auch zu beachtlichen Werten summieren können, muss individuell abgewägt und die Ausschaltzeiten optimal angepasst werden. Während die Pausen in der Verwaltung meist relativ kurz sind, sieht es beim wissenschaftlichen Personal ganz anders aus – gerade wenn Mitarbeiter oder Doktoranden mehrere Stunden im Labor oder an anderer Stelle arbeiten. Die ursprünglich als Vorteil gedachte Stand-by-Funktion, mit der ein Rechner mittels einer Netzkarte „aus dem Schlaf aufgeweckt“ werden kann, um an ihm Managementaufgaben wie Updates außerhalb der Dienstzeit auszuführen, erwies sich in vielen Bereichen als Nachteil. Sie wird im Privatbereich und im Büroalltag nicht benötigt, und muss trotzdem durch permanenten Strombedarf unfreiwillig in Kauf genommen werden. Stand-by ist auch nicht gleich Stand-by: Nicht alles, was von den Herstellern angeboten wird, lässt sich auch in geeigneter Weise umsetzen. Die oben stehende Tabelle gibt eine Übersicht über die derzeit üblichen zwei Standards; das ältere auch vom Fernseher bekannte Advanced Power Management (APM) und das neuere Advanced Configuration and Power Interface (ACPI).

Ideal wäre es, ließen sich alle Systeme in den Ruhezustand (Hibernatingmode) schalten, da dieser besonders wenig Strom verbraucht. Das Betriebssystem „merkt sich“ seinen Zustand auf der Festplatte und schaltet anschließend den Computer in den sogenannten Soft-Off-Zustand. Ein folgender Neustart ginge schneller vonstatten als ein normales „Hochfahren“, und auf dem Monitor erschiene das, was sich das Betriebssystem „gemerkt“ hat. War der Monitor gesperrt, müsste er von dem Nutzer, der zuletzt an diesem Arbeitsplatz tätig war, auch wieder freigeschaltet werden. Leider funktioniert dies häufig nur mit neuerer Hardware, optimalen Treibern und geeigneter Software. Treffen diese Vorgaben nicht zu, kommt es nach dem „Wiederaufwachen“ häufig zum Einfrieren des Systems, Abstürzen oder anderem „seltsamen“ Systemverhalten. Zudem kann der tatsächliche Energieverbrauch trotz Ruhezustand relativ hoch liegen, beispielsweise wenn die Software während des „Schlafen legens“ des Rechners auf ein Netzwerk zugreift und diese Verbindung unbemerkt aufrechterhält. Da der Managementaufwand, mit dem Störungen vermieden werden können, sehr hoch ist und die betriebsinternen Möglichkeiten des Energiemanagements zum Beispiel nur bedingt für das zeitnahe „Ausschalten“ des Monitors zu nutzen sind, erwiesen sich diese Möglichkeiten für die Administration heterogener Umgebungen als nur bedingt geeignet.


Berechnung des Energieverbrauchs - Ausgabe des Ergebnisses.
Abb.: Sommerer

Analyse

Wenn nur vier Stunden am PC gearbeitet wird, der Rechner aber 24 Stunden läuft, entstehen bei einem Energiebedarf von 100 Watt pro Stunde im Lauf ohne Nutzertätigkeit und 5 Watt pro Stunde im Stand-by, Betriebskosten in Höhe von 113,88 Euro. 99,58 Euro ließen sich durch eine Verbesserung des Nutzerverhaltens erzielen, wenn der Rechner bei Nichtnutzung ausgeschaltet wird. Würde das System zusätzlich vollständig vom Stromnetz getrennt, ergäbe sich durch die Koppelung beider Maßnahmen ein jährliches Einspar-Potenzial von 102,44 Euro für jeden Rechner. Je nach Nutzerverhalten und eingesetztem Computer beziehungsweise Betriebssystem verschieben sich die Einspareffekte. Auch das Alter der Hardware spielt eine Rolle. Gerade der Stand-by-Bedarf älterer PC-Systeme kann deutlich höher liegen und so deutlich höhere Kosten verursachen. Sichere Aufklärung bringt hier nur das exakte Messen mit geeigneten Geräten. Verschiedene Untersuchungen ergaben, dass bis zu 30 Prozent der Rechner in Organisationen auch über Nacht und in der Urlaubszeit nicht heruntergefahren werden. Eine komplette Netztrennung erfolgt praktisch nie. Die Beobachtung am Fachbereich Veterinärmedizin ergab einen Wert von etwa 15 Prozent. Damit verursachen etwa 100 Computer, eine unnötige Kostenbelastung von annähernd 10.000 Euro im Jahr – selbst ohne Monitor und Peripherie.

Da vielen Mitarbeitern die Bedeutung für die Umwelt und die Kosten nicht bewusst ist, und sich die systemeigenen Verfahren als ungeeignet erwiesen, mussten andere Lösungen gefunden werden. Einerseits sollten die Laufzeiten der Computer an die tatsächlichen Nutzungszeiten angepasst werden. Zum anderen musste eine Lösung entwickelt werden, die die gesamte Hardware vollständig vom Stromnetz trennt. Dabei durfte weder die Arbeitsfähigkeit der Mitarbeiter beeinträchtigt, noch die nächtliche Administrierbarkeit der Computerarbeitsplätze verschlechtert oder gänzlich verhindert werden. Klassische Steckerleisten, wie sie in jedem Haushalt eingesetzt werden, waren damit keine Option. Als Lösung erschien ein Ansatz geeignet, der Hard- und Software kombiniert.


Übersicht über die möglichen Einspareffekte
Abb: Sommerer

Nichtstun

Ein zentraler konfigurierbarer Dienst, der den Nutzer nach definierter Zeit des „Nichtstuns“ automatisch abmeldet und den Rechner herunterfährt, war für Windows-Rechner ein erster geeigneter Schritt. Eine spezialisierte Karte – im Rechner verbaut und zwischen Motherboard und Endgerät geschaltet – ein zweiter. Mit einer geeigneten Managementkonsole konnte man damit vom Rechner des Administrators physikalisch auf die verschiedenen Rechner und deren Funktionen wie An- und Ausschalten, Systemneustart oder die Stromversorgung für zusätzliche Festplatten oder die DVD-Laufwerke zugreifen. Diese Funktionen konnte der Administrator dann aus der Ferne so bedienen, als säße er selbst vor dem entsprechenden Computer. Eine derartige Kontrolle der Hardware verbessert zwar das Management, trennt den Rechner jedoch noch nicht völlig vom Stromnetz. Dies wird erst durch einen dritten Schritt möglich, bei dem ein derart vorbereiteter Rechner an eine spezielle Stromdose mit vier Anschlüssen gekoppelt wird. Sie sieht handelsüblichen Steckerleiste zwar relativ ähnlich, hat aber einen entscheidenden Vorteil: Im Anschluss an das Herunterfahren des Rechners trennt die Stromdose nacheinander Rechner, Monitor und die angeschlossene Peripherie vollständig vom Stromnetz.


Schematische Darstellung der weiterentwickelten ClickClack®-Lösung
Abb.: Sommerer

ClickClack®

Dieser in der IT-Abteilung des Fachbereichs Veterinärmedizin entwickelte konzeptionelle Ansatz hielt der Begutachtung durch das Rechenzentrum der Freien Universität (ZEDAT) stand und wurde im Oktober 2005 als Pilotprojekt für den Fachbereich genehmigt. Zwischen Oktober 2005 und Anfang 2006 erhielten etwa 200 Computer die entsprechende Hardware, genügen seitdem den Ansprüchen einer verbesserten Energieeffizienz und lassen sich besser managen. Die Implementierung einer derartigen Lösung bestätigte die grundsätzliche Machbarkeit und den Sinn solcher Maßnahmen. Die nutzerseitige Akzeptanz derartiger Systeme wird zukünftig sicherlich an den Möglichkeiten der Anpassung an die individuellen Bedürfnisse der Anwender gemessen werden. Ein webgestützter Energiekostenrechner, unterlegt mit einer tabellarischen Listung der Verbrauchswerte der Rechner am Fachbereich, soll den Nutzern die Auswirkungen Ihres Verhaltens vor Augen führen und helfen die Akzeptanz der eingesetzten Maßnahmen zu erhöhen. Eine serienreife Lösung wurde erstmals auf der diesjährigen Computermesse Cebit in Zusammenarbeit mit den Firmen Cluster-Labs GmbH (Hardware) und mib-Solutions GmbH (Managementsoftware) vorgestellt – ihr Name: ClickClack®. Die Zukunft wird zeigen, ob und in wieweit Unternehmen bereit sein werden, dieses mögliche Einsparpotenzial zukünftig durch geeignete Hard- und Software vorzufinanzieren.



Abb.: Sommerer/UNICOM

Blade-Server sparen Platz und Energie

Aber nicht nur Computer haben Einsparpotenzial, auch bei den Servern können durch den Einsatz geeigneter Technik Kosten reduziert werden. Hier gibt es zwei unterschiedliche Ansätze: Blade-Server und Server-„Virtualisierung“. Während beim Aufbau sogenannter Blades, also Computerplatinen, versucht wird, die Bauform der Server zu optimieren, um Platz, Energie und Kühlung einzusparen, versucht man bei der Server-„Virtualisierung“, die Menge der tatsächlich eingesetzten Server-Hardware zu reduzieren. Ein Blade-Server besteht aus mehreren Platinen, das sind voneinander unabhängige Computersysteme mit eigenen Mikroprozessoren, Arbeitsspeichern oder Netzwerkanschlüssen, die in einem Gestell oder Schrank zu einem Blade-Server zusammengestellt werden. Server- Blades nutzen die gleichen Ressourcen, werden zentral verwaltet, haben eine gemeinsame Stromversorgung und Lüftung. Ein Sever-Schrank kann auch mehrere Server-Blades aufnehmen und damit zahlreiche Prozessoren enthalten. Der Vorteil liegt vor allem in der kompakten Bauweise, der enormen Leistungsdichte, der hohen Rechenleistung, der Skalierbarkeit und Flexibilität sowie der einfacheren Verkabelung und einer schnellen und leichteren Wartung. Darüber hinaus wird nur ein einziger Tastatur-, Grafik- und Maus-Controller für einen Blade-Server benötigt. Aufgrund der gleichartigen Hardware lassen sich ausfallende Systeme mit geeigneten Managementkonsolen auf andere Hardware übertragen und so Ausfallzeiten verringern. Bei der Server-„Virtualisierung“ hingegen wird versucht, die Auslastung der Ressourcen durch das Nachbilden von Serverhardware auf bereits bestehender Technik zu optimieren, wodurch die vorhandene Hardware wesentlich effizienter betrieben werden kann. Durch die Aufteilung eines vorhandenen Servers in mehrere „virtuelle Maschinen“ können verschiedene Betriebssysteme und deren Anwendungen nebeneinander ablaufen. Jede „virtuelle Maschine“ arbeitet dann wie ein eigenständiger und unabhängiger Server.

Früher musste für jeden Dienst eine eigenständige Hardware beschafft werden, heute kann der Administrator wie mit einer „Fernsteuerung“ flexibler reagieren und die vorhandenen Ressourcen nach Bedarf zuteilen. Je nach Wunsch können demnach Prozessorleistung oder Arbeitsspeicher flexibel an den tatsächlichen Bedarf angepasst werden.


Schematische Übersicht über die zu erzielenden Reduktionseffekte nach der Virtualisierung. Das neuere Speichersystem (Mitte) wurde durch größere Festplatten erweitert. Das alte Speicherssystem (oben) konnte außer Dienst gestellt werden. Die unterbrechungsfreie Stromversorgung (unten) konnte geringer dimensioniert werden. Die Zahl aktiver Serversysteme wurde deutlich verringert. Ein Einsparpotenzial von 40 Prozent ist realistisch.
Abb.: Sommerer

Virtualisierung

Moderne Lösungen bieten speziell für diese Funktionen optimierte, das heißt ressourcenschonende und wartungsarme Betriebssysteme an, die auf den aufgesetzten Betrieb konventioneller Betriebssysteme abgestimmt sind. Mit geeigneten Managementkonsolen lassen sich die virtuellen Server – zum Beispiel für anstehende Wartungsarbeiten an der Hardware – auch im laufenden Betrieb und ohne Ausfallzeit von Hardware zu Hardware verschieben, auf Knopfdruck im laufenden Betrieb sichern oder wiederherstellen. Für den Fachbereich Veterinärmedizin war die Server-„ Virtualisierung“ die geeignete Maßnahme: Bei der Energieversorgung, der Kühlung und durch die reduzierte Zahl von Serverwartungsverträgen konnte deutlich eingespart werden – und die benötigte Leistung bei der unterbrechungsfreien Stromversorgung ging zurück. Trotz der höheren Leistungsfähigkeit der Server- Landschaft wurde das Budget damit entlastet. Welche Bedeutung die Universitätsleitung derartigen Möglichkeiten beimisst, zeigen die aktuellen zentralen Vorgaben. Im Januar 2007 wurde an der Freien Universität ein Prämiensystem zur Energieeinsparung eingeführt. Unterschreitet der Energiebedarf in den Liegenschaften eines Fachbereichs den zuvor festgelegten Grundverbrauch, erhält er eine Prämie in Höhe von 50 Prozent der erzielten jährlichen Kostensenkung. Überschreitungen sollte man allerdings meiden: Die müssen nämlich vollständig von den Fachbereichen getragen werden.

Weitere Informationen

Energieverschwender „PC“:

Einsparpotenzial Servervirtualisierung: