ComZuRüb

Virtualisierung (Info)

ThinClients

by on Okt.29, 2011, under 5 - ThinClients

Ein ThinClient ist ein kleines Gerät, welches je nach Hersteller etwa so groß wie ein Buch ist. Der kleinste ThinClient ist etwa so groß wie eine Zigarettenschachtel. Dieses Gerät haben verschiedene Anschlüsse für Tastatur, Maus, Monitor, USB und ggf. Drucker bzw. Seriellen Anschluss. In den Geräten befindet sich ein Mini-Computer der in aller Regel sehr wenig Strom verbaucht und nicht besonders Leistungsfähig ist. Als Betriebssystem wird hier mit WindowsCE, Windows Embedded oder Linux gearbeitet.

Nun stellt sich natürlich die Frage, was haben diese Geräte mit ‚Virtualisierung‘ zu tun?

Diese Geräte sind für Virtualisierung bestens geeignet, denn Sie können beispielsweise mittels Remote-Desktop- Protokoll auf einen anderen Desktop (auch virtuelle) zugreifen. Ebenso ist es möglich auf virtualisierte Anwendungen (Citrix) zuzugreifen und diese komplett zu bedienen. Da weder der Zugriff via RemoteDesktop oder auf virtuelle Anwendungen viel Leistung benötigen, sind diese Thin Clients bestens für diese Aufgabe geeignet. Die wirklich benötigte Rechenpower bringt das Endgerät mit, auf das zugegriffen wird. Im Beispiel einer Remote-Desktop-Verbindung auf einen virtuellen Desktop, liegt die Rechenpower auf dem Server, der den Desktop bereitstellt. Somit merkt der Anwender kaum, ob er Lokal an einem Rechner sitzt, oder Remote auf einen Desktop zugreift.
Welche Vorteile hat ein ThinClient gegenüber einem normalen PC?
Der Vorteil hierbei liegt zum Einen beim Stromverbrauch. Ein normaler Computer verbraucht ca. 180W, ein ThinClient kommt häufig mit weniger als 10W aus. Da der Server, auf dem der RemoteDesktop oder die Anwendungen bereitgestellt werden sowieso läuft und deswegen auch keinen zusätzlichen Strom benötigt, kann man den Server nicht mit einkalkulieren.
Ein weiterer oft vernachlässigter Punkt ist die zentrale Managebarkeit der Desktops. In einer Firma, in der viele Arbeitsplätze zu bedienen sind, ist eine Wartung der einzelnen Desktops ein großer Zeitaufwand. Bei der Virtualisierung mit Thinclients ist der Verwaltungsaufwand recht gering, da hier mit Zentralen Images gearbeitet werden kann und auch die Anwendungen oder Desktops Zental auf dem Server liegen. Somit muss der Systemadministrator nicht durch die gesamte Firma laufen um einzelne Dekstops zu verändern, sondern kann dies Zentral von einer Station aus erledigen.
Ein dritter Punkt ist wohl ein kleiner Aspekt, jedoch ebenfalls nicht zu vernachlässigen. Das wäre die Haltbarkeit eines ThinClients. Da ein ThinClient keine Festplatte hat und manche ThinClients auch kein Netzteil besitzen (diese beziehen den benötigten Strom aus dem Netzwerkkabel via. POE), kann auf nicht viel kaputt gehen. Somit entfallen auf Dauer sehr hohe Anschaffungskosten für einen neuen Computer.

Natürlich haben ThinClients auch Nachteile, bzw. sind je nach Anwendung schlecht einsetzbar. Manche Abteilungen oder Firmen benötigen Computer mit DVD-Laufwerken, Brenner, oder anderer Peripherie-Geräte. Hier stoßen die ThinClients an ihre Leistungsgrenze. Ebenso sind Videoübertragungen, bzw. Viedoschnitt usw. mit nur sehr wenigen Geräten akzeptabel machbar, da der eingebaute Grafikchip nicht die Leistung bringt, welche für solche Anwendungen benötigt wird.

Fazit: Im großen und ganzen ist eine Virtualisierung mittels ThinClients sehr gut geeignet für Büroarbeitsplätze in größeren Betrieben, da sich bei der Lizenzierung der Desktops und Anwendungen die Herstellerfirmen bezahlen lassen. Somit rechnet sich der Mehrwert wirklich nur, wenn entsprechend viele ThinClients eingesetzt werden können.

Kommentare deaktiviert für ThinClients :, , , , , , , , , , , more...

Anwendungsvirtualisierung

by on Apr.25, 2011, under 4 - Anwendungsvirtualisierung

Eine weitere Sparte der Virtualisierung ist die sog. Anwendungsvirtualisierung. Diverse Hersteller haben sich Gedanken darüber gemacht, wie man eine Anwendung „virtualisieren“ kann. Der Hintergrund ist recht einfach zu erläutern. Sobald man auf einem Computer eine Anwendung installiert, hinterlässt diese diverse DLL-Dateien, Registry-Einträge usw.. Je mehr Anwendungen installiert werden, desto instabieler wird das System und leider oft auch sehr langsam.

Würde man nun diese Anwendung in einer Art „Blase“ laufen lassen, ohne dass DLL-Dateien und Registry-Einträge geschrieben würden, bliebe das Grundsystem des Computers sauber. Das hätte zum Vorteil, dass auch Programme miteinander auf einem System betrieben werden könnte, welche sich eigentlich nicht miteinander betreiben lassen würden. Bsp. InternetExplorer 6 und InternetExplorer 8 auf ein und dem selben Computer.

Genau das ist durch Anwendungsvirtualisierung möglich. Die Anwendungen laufen in einer eigenen Virtuellen Instanz, legen keine Registry-Einträge an, oder verändern das System in irgeneiner Weise. Selbst wenn eine Anwendung abstürzt hat das keine Auswirkung auf das Grundsystem oder andere parallel gestartete Anwendungen. Leider lassen sich nicht alle Programme virtualisieren, jedoch die Anzahl der Programme, welche problemlos laufen wird stetig mehr. Oftmals wird die Verwaltung der Programme zentral von einem Server aus gesteuert. Das hat den Vorteil, dass beispielsweise ein Update in Sekunden eingespielt werden kann und sich dies auf die gewünschten Computer im Netz auswirkt. Der Administrator setzt lediglich ein Häkchen und umgehend ist das Update bei den ausgewählten Computer durchgeführt. Da die Anwendung virtuell läuft ist keine Installation bei den Workstations mehr notwendig. Das macht sich bei mehreren Workstations (5-100 oder gar 1000) sehr schnell bemerkbar.

Kommentare deaktiviert für Anwendungsvirtualisierung :, , , , , , , , , more...

Virtualisierung – allgemeine Informationen

by on Apr.23, 2011, under 1 - Allgemeines - Virtualisierung

Das Schlagwort Virtualisierung ist heutzutage gang und gebe, doch für viele können mit diesem Wort nichts anfangen. Aus diesem Grunde möchten wir in diesem Artikel beschreiben, was genau mit Virtualisierung gemeint ist und welche Anwendungsgebiete hiermit abgedeckt werden können.

Mit Virtualisierung meint man das Betreiben von mehreren Instanzen (virtuellen) auf einer Physischen Hardware. War man früher gezwungen, auf einem physischem Computer ein Betriebssystem zu installieren, kann man heutzutage mehrere Betriebssysteme auf einem Computer parallel betreiben. Dabei ist es völlig uninteressant, ob dies die selben Systeme sind, oder unterschiedliche. Durch die Virtualisierung ist sichergestellt, dass auch unterschiedliche Betriebssysteme wie beispielsweise Microsoft (R) Windows2000Server oder Suse Linux Enterprise Server 9 oder gar Novell Netware 6.5 parallel nebeneinander auf einem physischem Computer laufen, ohne sich gegenseitig zu beeinflussen. Die Virtualisierung ist keineswegs neu. Im Großrechnerumfeld ist das schon in den 70er Jahren erfolgreich praktiziert worden. Lediglich im x86er Umfeld ist dieses Verfahren neu, da bisher die Prozessoren nicht leistungsfähig genug waren.

Die Virtualisierung im x86er Umfled wird nun durch immer leistungsfähigere Prozessoren und günstigen Speicherpreisen möglich. Heutige Prozessoren (DualCore oder Quadcorde o.ä.) können durch ihre Architektur mittlerweile problemlos mehrere Rechenoperationen durchführen ohne dabei einen extremen Leistungsverlust zu haben. Bei der Virtualisierung wird dies zunutze gemacht. Eine Virtualisierungsschicht koppelt die Hardware für virtuelle Instanzen von der eigentlichen Hardware ab. Diese „Entkopplung“ ermöglicht es, dass mehrere Instanzen auf ein und die selbe Hardware zugreifen können, ohne sich gegenseitig zu beeinträchtigen. Die Entkopplung geschieht mittels einem Stück Software, welches später die verschiedenen Anfragen der virtuellen Instanzen managed. Durch dieses Managen können alle virtuellen Maschinen die selbe Hardware nutzen. Die Virtualisierungsschicht steuert dabei die Anfragen so, dass die Hardware optimal ausgelastet wird und die virtuellen Instanzen ohne lange Wartezeiten auf die Hardware zugreifen können. Jede Virtuelle Maschine bekommt die Standartkomponenten eines PCs wie Hauptplatine, Prozessor, Festplatte + DVD, Grafikkarte und die Netzwerkkarte als „echte“ Hardware vorgegauckelt. Mit dieser Hardware kann das virtuelle System auch optimal arbeiten. Probleme machen spezielle Hardwarekomponenten wie beispielsweise eingebaute Faxkarten oder Videoschnittkarten o.ä. Diese können von virtuellen Maschinen nicht angesprochen werden! Im Serverumfeld sind sogar an USB angeschlossene Geräte wie bsp. Dongels oder Festplatten nicht oder nur über Umwege ansprechbar. Einige wenige Firmen versuchen dieses Problem zu lösen, indem einzelnen virtuellen Maschinen der exklusive Zugriff auf eben diese besonderen Hardwarekomponenten erlaubt.

Es versteht sich fasdt von selbst, dass durch die Virtualisierung ein gewisser Leistungsverlust zu verzeichnen ist. Jedoch ist dieser Leistungsverlust je nach Anwendungsgebiet nicht wirklich extrem. Die meisten Server (bei denen Virtualisierung zum Einsatz kommt) sind selten mit mehr als 10% Auslastung beschäftigt. Besitzt man mehrere physische Server, welche alle mit maximal 10% Auslastung laufen, ist die Virtualisierung ideal. Diverse Firmen haben gute Erfolge mit 5-8 Servern auf einem Physischem System gemacht. Die physische Hardware wird dann zwar wesentlich mehr Beansprucht, da eben 5 oder gar 8 Server auf diesem System parallel laufen, fügt den physischen System aber keinen Schaden zu.

Ein weiterer Vorteil der Virtualisierung ist der, dass allen virtuellen Computern ein und die selbe Hardware vorgegauckelt wird. Somit ist der „echte“ physische Unterbau völlig egal. Ändert sich im realen Umfeld die physische Hardware kann dies zu enormen Problemen führen. Im schlimmsten Fall sogar mit einer Neuinstallation des Computers. Bei einer virtuellen Umgebung kann sich der physische Unterbau ändern, ohne dass der virtuelle Computer dies überhaupt bemerkt. Durch die Entkopplung der Hardware sind Hardwareänderungen für virtuelle Maschinen sozusagen Unsichtbar.

Die Weiterentwicklung:
Da die Virtualisierung nicht nur bei Servern geht, sondern auch bei Arbeitsstationen, werden heutzutage auch die „Workstations“ der Mitarbeiter virtualisiert. Die heutigen Server sind so leistungsfähig, dass man solche Arbeitsstationen zusätzlich auf wenigen Servern betreiben kann. Der Endanwender merkt eigentlich kaum, dass er virtuell arbeitet. Der Computer unter dem Bürotisch verschwindet und wird gegen einen ThinClient ausgewechselt. Auch hier kann enorm an Stromkosten und Watungskosten gespart werden.
Zu guter letzt werden mittlerweile sogar Anwendungen, welche bei den einzelnen Mitarbeitern laufen virtualisiert. Dies erspart die Installation der Anwendung auf der Arbeitsstation des Anwenders.

Kommentare deaktiviert für Virtualisierung – allgemeine Informationen :, , , , , , , , , , , , more...

Servervirtualisierung

by on Apr.23, 2011, under 2 - Servervirtualisierung

Der Standart:
In vielen Firmen hat man vor einigen Jahren mehrere Server benötigt, da die auf den Servern laufenden Anwendungen nicht auf einem Server liefen. Das Problem ist einfach, dass sich Datenbanken, Email-Server und Anwendungsserver schlecht oder garnicht auf einem Gerät vereinen lassen. Der gleichzeitige Betrieb der Anwendungen auf einem Gerät führt leider häufig zu Abstürzen aufgrund der Unverträglichkeit. Aus diesem Grunde hat man für jede Anwendung einen eigenen Server aufgebaut. So war man schnell bei 6-8 Server je nach größe der Firma. Größere Firmen mussten sogar 15 und mehr Server betreiben, um den laufenen Betrieb sicherzustellen. Wenn man eine vielzahl von Servern betreibt, muss man leider auch mit enormen Stromkosten rechnen, da jeder Server egal ob er viel oder wenig tut nahezu den selben Strombedarf hat. Zudem produziert jeder Server Wärme, welche wiederum heruntergekühlt werden muss, da sonst die Geräte in den Räumlichkeiten den Hitzetot sterben würden. Rechnet man die Verkabelung für Strom, Netzwerk und die zusätzlichen USVs hinzu, mussten viele Firmen sehr viel Geld in die Hand nehmen, um den EDV-Betrieb und die Serverfarmen am laufen zu halten.

Die Lösung:
Im Großrechner-Umfeld ist es schon seit langem Standart, mehrere Betriebssysteme und die sich darauf befindlichen Anwendungen auf ein und der selben Hardware (einem Server) gleichzeitig / parallel zu betreiben. Dies war bis vor einigen Jahren nur auf solchen Großrechnern möglich, da diese die entsprechende Leistung hatten. Mittlerweile sind die Prozessoren der x86 iger Umgebung so leistungsfähig geworden, dass man den gleichzeitigen Betrieb mehrerer Betriebssysteme ebenfalls auf einem physichen Server abbilden kann.
Das bedeutet, dass beispielsweise aus den ehemals 8 physichen Servern, 1-2 physische Server werden, auf denen jedoch die 8 früheren Systeme parallel laufen. Die einzelnen Serverbetriebssysteme werden in einer zuvor installierten Virtualisierungsumgebung aufgesetzt. Jedem virtuellen System wird eine Hardware vorgegeben, auf der das System arbeitet. So läuft jedes einzelne Serversystem in einer Art Blase in der das System sich wie ein normaler Server verhält. Der Vorteil ist jedoch, dass man mehrere dieser „Blasen“ auf einer physichen Hardware betreiben kann und diese Blasen sich gegenseitig nicht in die Quere kommen. Die einzelnen „Blasen“ teilen sich lediglich die Hardware des darunterliegenden Physischen Systems. Stürtzt eine der Server in dieser Blase mit einem BlueScreen ab, so hat dies keinerlei Auswirkung auf die anderen Systeme nebenan.
Rechnet man nun um, wieviel Strom gespart wird, da nun anstatt 8 Server nur noch 2 Server betrieben werden, so sind das enorme Einsparungen. Ebenso muss man 2 Server deutlich weniger Kühlen als 8 Server. Es werden wesentlich weniger Kabel und USVs benötigt. Somit spart man nochmals gewaltig. Dem entgegengesetzt muss man jedoch einräumen, dass ein gewisser Leistungsverlust zu verzeichnen ist, welcher sich jedoch nicht so extrem auswirkt als man denken sollte.

Kommentare deaktiviert für Servervirtualisierung :, , , , , , , , , , more...

Desktopvirtualisierung

by on Apr.23, 2011, under 3 - Desktopvirtualisierung

Unter einer Desktopvirtalisierung versteht man das Virtualisieren von Workstations.
Bedenkt man, dass in vielen Büros oftmals 10 oder mehr Workstations herumstehen, welche viel Strom benötigen und zudem viel Wärme und Lärm produzieren, hat man Virualisierung weiterentwickelt. Die einzelnen Workstations für die Arbeitsplätze in einem Büro werden nun einfach auf deinem Server virtualisiert.
Wie kommt aber nun die Workstation ins Büro?
Die Workstations werden einfach über das sog. RemoteDesktop – Protokoll (oder einem ähnlichen) in das Büro übertragen. Dort steht ein sog. ThinClient (ein Stück Hardware ohne HDD und geringem Stromverbrauch). Dieser ThinClient überträgt das Bild, Tastatureingaben, Mausbewegungen und Sound. In vielen Fällen sogar USB-Ports. Da die wenigsten Mitarbeiter Hardware wie DVD-ROM oder änhlichem benötigen, reicht diese Konstellation für die meisten Mitarbeiter aus. Wenn man bedenkt, dass ein handelüblicher Computer ca. 120W ein ThinClient jedoch <10W benötigt, kann man sich hier schon Gedanken über Desktopvirtualisierung machen. Ein weiterer Vorteil ist bei den ThinClients, dass hier keine Hardwareausfälle mehr zu erwarten sind. Zudem lassen sich die einzelenen Workstations wesentlich besser betreuen (Softwareupdates usw.) wenn diese virtuell und zentral auf einem Server laufen.

Kommentare deaktiviert für Desktopvirtualisierung :, , , , , , , , more...

Besucherinformationen:

  • 60049Besucher gesamt:
  • 38Besucher heute:
  • 1Besucher momentan online:

Durch die weitere Nutzung der Seite stimmst du der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen