VMware Forum 2013: Software definiert nicht alles

Das „Software-Defined Datacenter“ war das beherrschende Stichwort auf dem diesjährigen VMware Forum am 28. Mai in Frankfurt. Wie schon zuvor bei der Servervirtualisierung und der Cloud wird mit enormen Einsparpotenzialen geworben – wenn man alle Einsparpotentiale zusammenrechnet, kostet Hochleistungs-IT demnächst fast nichts mehr…die meisten Praxisvorträge machten jedoch deutlich, dass heute Firmen andere Fragen viel drängender beschäftigen als das Einsparen des letzten Prozentchens.

Die Strukturen und auch das Denken in den meisten IT-Abteilungen sind noch gar nicht auf die Flexibilität der neuen Technik eingestellt. Projekte werden immer noch nach klassischem Muster und mit linearen Workflows geplant und abgewickelt. Doch wenn die technischen Parameter jederzeit an beliebige Anforderungen angepasst werden können, brauchen auch die IT-Projekte ausreichend  Agilität, wenn sie die neuen Möglichkeiten optimal nutzen möchten. Viele Service Provider teilen die Erfahrung, dass Kunden die IT einkaufsseitig immer noch wie Hardware behandeln. Sie fragen nicht nach Ressourcen, um eine Anwendung X mit einem bestimmten Service Level online zu bringen,  sondern nach einem (virtuellen) Server mit Ausstattungsmerkmalen analog der physischen Welt.

Und so erstaunt es noch immer, wenn ein Cloud Anbieter wie wir sagt, dass ein heute bestelltes virtuelles Datacenter auch tatsächlich heute noch bereitgestellt werden kann – und dass dies nicht einfach Marketing-Aussagen sind. Dass IT-Ressourcen analog dem Strom nach Bedarf  anstatt in starren Einheiten bezogen werden können, ist für viele noch in weiter Ferne.

Die Diskussionen auf dem Forum haben auch gezeigt, dass sich die Unternehmen mehr Orientierung wünschen, einen Art Bergführer, der ihnen zeigt, wie sie mit der neuen Technik möglichst effizient zum Gipfel, das heißt zum Projektziel kommen. Auf die Frage, was sie als wichtigste Lehre den anderen mitgeben würden, gaben gleich mehrere Referenten von Praxisberichten die Antwort: einen kompetenten Partner, dem man vertraut. Virtuelle Ressourcen sind nicht alles. Viele  Probleme in den Projekten waren nicht-technischer Natur.  Gefragt waren ein Verständnis für die jeweiligen Besonderheiten des Kunden sowie die Fähigkeit, aus der Vielzahl der Möglichkeiten, diejenigen auszuwählen, die am besten zum jeweiligen Projekt passten. Ohne Erfahrung und technischen Sachverstand geht es auch in einem softwaredefinierten Rechenzentrum nicht.

Unsinn wird nicht besser, indem man ihn virtualisiert, er wird nur weniger gut sichtbar. Nicht alles, was technisch möglich ist, ist auch für jede Firma bzw. jedes Projekt sinnvoll.

Das Software-Defined Data Center ist nicht nur ein technischer Paradigmenwechel, sondern auch eine organisatorische Herausforderung. So wies Bohumil Bagansky von VMware in seiner Keynote darauf hin, dass viele IT-Abteilungen heute „in Silos“ organisiert sind. Da für viele Teilaufgaben jeweils andere Ansprechpartner zuständig sind, ergeben sich selbst für kleinere Projekte komplexe und zeitraubende Arbeitsabläufe. Die Idee des softwaredefinierten Rechenzentrums besteht nun darin, viele dieser Prozessschritte zu automatisieren und dadurch die Bereitstellung zu vereinfachen und zu beschleunigen. Die organisatorische Umstellung fällt einem Service Provider möglicherweise leichter, da hier der Fokus auf den eigentlichen Service für den Kunden ohnehin zum Geschäftsmodell gehört. Doch ganz gleich wie effizient und agil die Bereitstellung einer IT-Infrastruktur auch sein mag, die meisten Kunden wünschen sich dennoch eine individuelle Beratung und das Gefühl, auf das richtige Pferd gesetzt zu haben – das ist zumindest die Kernbotschaft, die ich vom diesjährigen VMware Forum mitgenommen habe.