Virtualisierung ist ein Verfahren, das eine optimierte Nutzung physischer Server bzw. Computerhardware ermöglicht und als Basis für das Cloud Computing dient.
Virtualisierung erzeugt eine virtuelle Version eines ursprünglich physikalischen Objekts. In einem Rechenzentrum gehören zu den am häufigsten virtualisierten Elementen Betriebssysteme, Server, Speichergeräte oder Desktops. Mit der Virtualisierung werden Technologien wie Anwendungen und Betriebssysteme von der darunter liegenden Hardware oder Software abstrahiert. Bei der Hardware-Virtualisierung handelt es sich um virtuelle Maschinen (VMs), die statt eines „echten“ Computers mit einem „echten“ Betriebssystem eingesetzt werden.
Virtuelle Maschinen sind eine Emulation eines Computersystems. Die zugrunde liegende Hardware wird von einem Hypervisor kopiert, um mehrere Betriebssysteme auszuführen. VMs gibt es zwar schon seit 50 Jahren, aber mit dem zunehmenden Einsatz von Remote-Mitarbeitern und End-User-Computing werden sie immer beliebter. Zu den beliebtesten Virtualisierungsstacks und Hypervisoren gehören VMware vSphere mit ESXi, Microsoft Windows Server 2016 mit Hyper-V, Nutanix AHV, Citrix XenServer und Oracle VM.
Ein Hypervisor ist eine Software, die Hardware und Betriebssysteme in virtuelle Maschinen mit eigenem Arbeitsspeicher, Speicher, CPU-Leistung und Netzwerkbandbreite abstrahiert und isoliert. Eine weitere wichtige Funktion von Hypervisoren ist die Isolierung der VMs voneinander und die Abwicklung der Kommunikation zwischen allen VMs.
Ein Hypervisor besteht aus drei Teilen, die zusammenarbeiten, um die Hardware zu modellieren:
Einer der Hauptgründe, warum Unternehmen Virtualisierungstechnologie einsetzen, ist die Servervirtualisierung, bei der ein Hypervisor verwendet wird, um die darunter liegende Hardware zu „duplizieren“. In einer nicht-virtualisierten Umgebung arbeitet das Gastbetriebssystem (OS) normalerweise mit der Hardware zusammen. Nach der Virtualisierung funktioniert das Betriebssystem weiterhin, als ob es auf tatsächlicher Hardware ausgeführt würde, wodurch Unternehmen auch ohne physische Server bzw. Hardware eine weitgehend ähnliche Leistung erzielen können.
Auch wenn die Performance der Hardware im Vergleich zur virtualisierten Leistung nicht immer gleich ist, funktioniert die Virtualisierung dennoch und ist zu bevorzugen, da die meisten Gastbetriebssysteme keinen vollständigen Zugriff auf die Hardware benötigen.Das Ergebnis ist eine bessere Flexibilität, Effizienz und Kontrolle für Unternehmen und die Eliminierung jeglicher Abhängigkeit von einer einzigen Hardware. Aufgrund ihres Erfolgs mit der Servervirtualisierung hat sich die Virtualisierung auf andere Bereiche des Rechenzentrums ausgebreitet, darunter Anwendungen, Netzwerke, Daten und Desktops.
Datenvirtualisierung ist eine Art der Datenverwaltung, bei der Daten aus verschiedenen Anwendungen und physischen Standorten zur Nutzung integriert werden, ohne dass eine Datenreplikation oder -verschiebung erforderlich ist. Es wird eine einzige, virtuelle, abstrakte Ebene geschaffen, die eine Verbindung zu verschiedenen Datenbanken herstellt, um virtuelle Ansichten der Daten bereitzustellen.
Bei der Servervirtualisierung werden mehrere Instanzen eines physischen Servers erstellt. Diese Instanzen stellen eine virtuelle Umgebung dar. Innerhalb jeder virtuellen Umgebung gibt es ein separates Betriebssystem, das eigenständig ausgeführt werden kann. Auf diese Weise kann ein Betriebssystem die Arbeit vieler Maschinen übernehmen, wodurch eine unnötige Datenflut verhindert wird und Betriebskosten eingespart werden.
Die Betriebssystemvirtualisierung ähnelt der Servervirtualisierung. Das Host-Betriebssystem wird neu konfiguriert, um mehrere isolierte Betriebssysteme wie Linux und Windows auf einem Rechner zu betreiben, auf dem mehrere Benutzer gleichzeitig mit verschiedenen Anwendungen arbeiten können. Dies wird auch als Virtualisierung auf Betriebssystemebene bezeichnet.
Bei der Desktop-Virtualisierung handelt es sich um eine Software, die die zentrale Desktop-Umgebung von anderen Geräten trennt, die sie nutzen. Dies spart Zeit und IT-Ressourcen, da eine Desktop-Umgebung auf vielen Rechnern gleichzeitig bereitgestellt wird. Außerdem ist es so einfacher, Updates durchzuführen, Systeme zu reparieren und Sicherheitsprotokolle für alle virtuellen Desktops gleichzeitig hinzuzufügen.
Bei der Netzwerkvirtualisierung werden Netzwerkhardware- und -softwarefunktionen in einer einzigen Einheit zusammengefasst. Sie wird oft mit der Ressourcenvirtualisierung kombiniert und fasst mehrere Ressourcen zusammen, die dann in separate Segmente aufgeteilt und den Geräten oder Servern zugewiesen werden, die sie benötigen. Diese Art der Virtualisierung optimiert die Netzwerkgeschwindigkeit, Skalierbarkeit und Zuverlässigkeit.
Bei der Speichervirtualisierung werden Speicherressourcen von mehreren kleineren Geräten in einem großen Speichergerät zusammengefasst. Administratoren können diesen Speicher je nach Bedarf von einer einzigen, zentralen Konsole aus über virtuelle Maschinen und physische Server nutzen. Dazu nimmt die Software Speicheranfragen entgegen und ermittelt, welches Gerät über die erforderliche Kapazität verfügt.
In einfachen Worten: Virtualisierungstechnologien vereinfachen und optimieren das Rechenzentrum Ihres Unternehmens. Sie verringern die Komplexität in der Einrichtung und Verwaltung von virtualisierten Systemen, während sie zugleich die notwendige Flexibilität für ein modernes Rechenzentrum bereitstellen.
Neben der Schaffung einer umweltfreundlicheren IT-Umgebung durch Einsparungen im Betrieb bei Strom, Kühlung und Hardware, bietet Virtualisierung weitere Vorteile für Unternehmen. Hier sind einige zusätzliche Gründe, warum Firmen sich für virtualisierte Lösungen entscheiden:
Unternehmen, die eine eher Cloud-ähnliche IT-Umgebung anstreben, müssen zuerst die Virtualisierung ins Visier nehmen. Die Virtualisierung Ihres Rechenzentrums hilft Ihnen, Ihre Server-Ressourcen wesentlich effizienter zu nutzen. In der Vergangenheit mussten Unternehmen eine Anwendung – wie beispielsweise E-Mail – auf einem einzigen Server bereitstellen. In diesen Fällen würden die Unternehmen entweder mehrere Server zur Ausführung ihrer zahlreichen Anwendungen überdimensionieren, oder sie stünden vor einem ganz anderen Problem: Ressourcen werden auf einem ganzen Server zu wenig genutzt.
So oder so, diese Methode ist kostspielig, platzraubend und ineffizient. Dank virtueller Lösungen können IT-Teams mehrere Anwendungen, Workloads und Betriebssysteme auf nur einer einzigen virtuellen Maschine ausführen, und Ressourcen können nach Bedarf hinzugefügt oder entfernt werden. Virtualisierung lässt sich leicht mit dem Unternehmenswachstum skalieren. Wenn die Anforderungen steigen und fallen, hilft sie Unternehmen, ihre Ressourcenauslastung im Griff zu behalten und schneller auf Veränderungen zu reagieren.
Vor Jahrzehnten wurde die Virtualisierung von Betriebssystemen (OS) geboren. Hierbei wird Software verwendet, um Hardware mehrere Betriebssysteme gleichzeitig ausführen zu lassen. Diese Technologie wurde auf Mainframes eingeführt und ermöglichte es IT-Administratoren Kosten einzusparen.
Ab den 1960er Jahren begannen Virtualisierung und virtuelle Maschinen (VMs) auf nur wenigen Mainframes, bei denen es sich um große, klobige Objekte mit Time-Sharing-Funktionen handelte. Am bemerkenswertesten unter diesen Maschinen war der IBM 360/67, der in den 1970er Jahren zum Standard unter den Großrechnern wurde. Es dauerte nicht lange, bis VMs in den 1980er Jahren auch in den PC-Bereich vordrangen.Die Einführung der Virtualisierung begann erst in den späten 80er und frühen 90er Jahren. Obwohl einige VMs wie jene auf den Großrechnern von IBM auch heute noch verwendet werden, sind sie nicht annähernd so populär, und nur wenige Unternehmen betrachten Großrechner als Geschäftsgrundlage. Das erste Unternehmen, das VMs zum Mainstream machte, war Insignia Solutions, das einen SoftPC, einen x86-basierten Software-Emulator, entwickelte. Dieser Erfolg inspirierte weitere Unternehmen – vor allem Apple, Nutanix und später Citrix –, ihre eigenen Virtualisierungsprodukte zu entwickeln.