Wie sieht die IT-Architektur der Zukunft aus?

Das Problem kennt jeder IT-Profi im Unternehmen: Die Geschäftsführung treibt mit großem Eifer digitale Projekte voran, doch die Umsetzung droht an der veralteten IT-Architektur zu scheitern. „Wir würden ja gerne, aber…“, heißt es im Strategiemeeting dann nicht selten aus dem Mund des IT-Experten. Das Dilemma besteht vor allem darin, dass die IT im Zeitalter der Digitalisierung zwar immer mehr zum Innovator im Unternehmen avanciert. Gleichzeitig ist die IT-Architektur nicht ausgelegt für Aufgaben wie etwa die Verarbeitung großer Datenmengen aus unterschiedlichsten Quellen.
 
Heutige IT-Architekturen haben meist das Ziel, einen reibungslosen Ablauf interner Prozesse sicher zu stellen. Sie sind in der Regel sehr statisch aufgebaut und können nur mit großem Aufwand erweitert oder verändert werden. Der Großteil der Anwendungen und Hardware ist vor Ort installiert, was die Leistung einer IT-Architektur erheblich einschränkt. Deshalb unterstützen heutige Architekturen vor allem inkrementelle Innovationen in den Unternehmen.

Vier IT-Innovationen für mehr Leistung und Flexibilität

Mit der Digitalisierung wächst die Nachfrage nach leistungsfähigeren und flexibleren Architekturen, denn die Verarbeitung großer Datenmengen in Echtzeit wird für viele Unternehmen zum Wettbewerbsvorteil. In den letzten Jahren haben vor allem vier IT-Innovationen zu einem Umdenken beim Aufbau von Architekturen geführt: In-Memory-Technologien, Cloud, Virtualisierung und Edge Computing.


 
Fangen wir mit dem kleinsten Glied einer IT-Architektur an: dem Rechner. Hier geht der Trend eindeutig zu höheren Verarbeitungsgeschwindigkeiten, um den wachsenden Datenmengen gerecht zu werden. Dabei setzen die Entwickler vor allem auf schnelle Speichertechnologien statt auf verbesserte Prozessoren. Die sogenannten In-Memory-Systeme ermöglichen sehr kurze Datenzugriffszeiten bei fallenden Preisen für die entsprechenden Speichertechnologien. Mit ‘The Machine’ entwickelt HP derzeit einen Computer, der Daten bis zu 8.000 mal schneller als heutige PCs verarbeiten können soll. Dies wird durch eine Kombination von Arbeitsspeicher und Festspeicher in einem gemeinsamen Pool ermöglicht. Solche In-Memory-Systeme lassen sich sowohl für On-Premises als auch für Cloud-Anwendungen nutzen.
 
Damit sind wir bei der zweiten Innovation: Der Verlagerung von Datenbanken und Anwendungen aus vor Ort bereitgestellten Rechenzentren oder einzelnen Servern in die Cloud. Das eröffnet den Unternehmen vor allem mehr Flexibilität, denn sie können zusätzliche Rechenleistung oder Speicherplatz aus der Cloud nach Bedarf anmieten. Allerdings werden unternehmenseigene Rechenzentren nicht aussterben, denn Unternehmen können aus unterschiedlichen Gründen nicht alle Daten in die Cloud geben. Die Hybrid Cloud – also ein Mix aus On-Premises-Servern und Cloud-Angeboten – setzt sich zunehmend durch. Zudem ist die Modularisierung in Rechenzentren, die deutlich mehr Flexibilität ermöglicht, ein wachsender Trend.

Virtualisierung für bessere Auslastung, Edge Computing für kritische Anwendungen

Effizienz und Flexibilität sind auch die wichtigsten Argumente für die Virtualisierung von Anwendungen, Prozessen und Hardware. Hier geht es meist darum, vorhandene Ressourcen besser auszulasten und durch Virtualisierung mehreren Nutzern gleichzeitig zugänglich zu machen. Besonders die Vorteile der Servervirtualisierung haben bereits viele Unternehmen überzeugt. Während physische Server selten voll ausgelastet sind, wird die Hardware durch virtuelle Server deutlich besser genutzt. Zudem ist die Verwaltung virtueller Server mit einer Software wesentlich einfacher als das Management einer umfassenden physischen Server-Infrastruktur. Bei einem Serverausfall lassen sich die Daten des virtuellen Servers unkompliziert wiederherstellen. All das spart wertvolle Zeit und Kosten.
 
Allerdings gibt es auch eine ‘Gegenbewegung’ zur zunehmenden Virtualisierung und Verlagerung von Prozessen in die Cloud: das Edge Computing. Damit ist die dezentrale Datenverarbeitung an den ‘Rändern’ eines Netzwerks gemeint, bei der Daten nicht zuerst zentral in die Cloud gegeben werden. Eine IT-Architektur, die auf Edge Computing aufbaut, gilt vor allem für kritische Anwendungen im Internet der Dinge als geeignete Lösung. Das Argument: angesichts der reinen Datenmenge, beispielsweise in einer vernetzten Fabrik, würde das Netzwerk schnell zu langsam werden. Daher ist eine Verarbeitung der Daten vor Ort nötig. Deshalb wird Edge Computing oft auch als ‘Local Cloud’ bezeichnet.
 
Für die IT-Architektur der Zukunft gibt es nicht eine einzige Blaupause, die sich durchsetzen wird. Stattdessen hängt alles von den Anforderungen des Unternehmens ab und welche Anwendungen die eingesetzte IT ermöglichen soll. Hier ist vor allem Weitblick und ein hoher Grad an Flexibilität gefragt – denn welcher CIO weiß schon genau, mit welchen digitalen Geschäftsmodellen sein Unternehmen in fünf Jahren Geld verdienen wird?

Beitrag teilen