3. August 2017 von Frank Meyfarth
Molekulare digitale Transformation der Bank-IT
Wenn wir über digitale Transformation sprechen, beziehen wir uns in der Regel auf die Transformation unserer Geschäftsprozesse in der digitalen Welt. Diese Transformation wird nicht aus sich selbst heraus getrieben, sondern aus der Notwendigkeit, die eigenen Prozesse an das digitale Zeitalter anzupassen. Wie ihr wisst, besteht das Ziel darin, neue Geschäftsfelder zu erschließen und die bestehenden nicht zu verlieren. Die Digitalisierung der Gesellschaft selbst erzeugt den Druck, der diese Notwendigkeit erkennen und die Transformation vorantreiben lässt. Aus dem Blickwinkel einer holistischen IT-Sicht findet die digitale Transformation aber meist ausschließlich an der Oberfläche statt. Begebt ihr euch unter die digitale „Haut“, nämlich auf die „molekulare“ Ebene der digitalen Infrastrukturen, offenbart sich eine andere Kraft, die einen zunehmenden Druck aufbaut und zu einer digitalen Transformation des Inneren auffordert.
Wie ihr euch sicherlich vorstellen könnt, sind die digitalen Infrastrukturen in Traditionsunternehmen im Allgemeinen und bei Banken im Besonderen in der Regel über viele Jahrzehnte gewachsen. Aufgrund mangelnder Flexibilität, steigender Betriebskosten und nicht zuletzt schwindender Expertenkenntnisse sind viele der Systeme im Laufe der Jahre an die Grenzen ihrer Wart- und Betreibbarkeit gekommen. Hierdurch entsteht ein zunehmender Druck auf die Unternehmen, diese Systeme auszutauschen und die Systemlandschaft zu transformieren. Wie hoch dieser Druck ist, könnt ihr unter anderem daran erkennen, dass inzwischen auch zentrale Komponenten wie Kernbanksysteme neu entwickelt und ausgetauscht werden. Vor zehn Jahren wäre das für viele noch undenkbar gewesen. Die beiden wesentlichen Probleme bei der Transformation gewachsener Systemlandschaften sind die Komplexität und Heterogenität des über die Jahre entstandenen Schnittstellenflechtwerks.
Big Bang Theory für Bank-IT
Betrachtet ihr diese Verflechtungen oberflächlich, könnt ihr häufig daraus schließen, dass einzelne Komponenten der Systemlandschaft nur sehr schwer bis gar nicht austauschbar sind. Es entsteht der Eindruck, dass der Austausch eines Systems den Austausch weiterer Systeme nach sich zieht, die wiederum den Austausch weiterer Systeme notwendig machen und so weiter. Diese Betrachtung legt nahe, dass eine gewachsene Systemlandschaft nur in einem großen Wurf – mit einem „Big Bang“ – modernisiert werden kann.
Häufig werden Transformationsprojekte, die den „Big-Bang-Ansatz“ verfolgen, schon nach der Analysephase wegen der hohen Komplexität und der zu erwartenden Gesamtaufwände gestoppt. Das eigentliche Problem mit diesem Ansatz ist jedoch, dass es sich um einen Ansatz nach dem Motto „Alles oder Nichts“ handelt. Ihr solltet euch im Klaren darüber sein, dass ein solches Projekt eine lange Laufzeit und hohe Kosten mit sich bringt. Grund dafür ist, dass meistens erst sehr spät erkennbar ist, ob das Projekt ein Erfolg wird. Teilerfolge gibt es in diesem Szenario nicht. Daher ist das Investitionsrisiko dementsprechend groß. Die meisten Projekte dieser Art sind tatsächlich havariert.
Alles dreht sich um die Schnittstellen
Damit ihr der engen Verzahnung von verkrusteten IT-Strukturen erfolgreich gegenübertreten könnt, solltet ihr eine Lösung wählen, die viel weniger an den Systemen selbst, als an deren Schnittstellen ansetzt. Aus dieser Erkenntnis heraus entstehen dann klassische Integrationsprojekte. Die bestehenden Verbindungen der Systeme werden aufgebrochen und über einen Enterprise-Service-Bus miteinander verbunden. Tatsächlich löst ihr mit diesem Ansatz das grundsätzliche Problem, denn durch die Entkopplung der Systeme könnt ihr diese nun einfacher austauschen. Lediglich die Schnittstellen sind entsprechend im ESB anzupassen.
Service-Busse sind in der Regel monolithische Systeme, die im Cluster auf relativ wenigen − dafür aber leistungsstarken − Knoten betrieben werden. Verteilt ihr also die Last einigermaßen gleichmäßig auf die Schnittstellen und gibt es keine größeren Schwankungen, ist das kein Problem. Bei ungleichmäßiger Verteilung oder hohen Schwankungen der Last auf die einzelnen Schnittstellen lassen sich monolithische Systeme jedoch nur schwer gezielt und flexibel skalieren. Nur durch eine gleichmäßige Verteilung ist es euch möglich, dass einzelne Systeme und Schnittstellen die gesamte Infrastruktur kompromittieren.
Molekulare Integration der Bank-IT
In den vergangenen Jahren sind neue Technologien gereift, die es euch erlauben, diese Fesseln abzustreifen. Die Rede ist von Virtualisierung, Cloud Computing und Microservices. Diese Technologien sind tatsächlich in ganz anderen Bereichen en Vogue und werden bislang in Integrationsprojekten eher selten eingesetzt. Verschiebt ihr jedoch den Blickwinkel von den gängigen Anwendungsszenarien hin zu den Kerneigenschaften dieser Technologien und betrachtet insbesondere deren Abgrenzung zu monolithischen Systemen, erkennt ihr viele Lösungen für klassische Probleme der Enterprise Application Integration. Zudem stellt ihr eine hohe Überdeckung der Anforderungen fest.
Zusammenfassend möchte ich euch folgende Hinweise mit auf den Weg geben:
- Die einzelnen Schnittstellen eines Integrationsprojektes sind in der Regel weitestgehend unabhängig voneinander. Daher bietet es sich an, diese auch in einzelnen Einheiten zu entwickeln, auszurollen und zu skalieren. Hierzu lassen sich die Tools und Mechanismen aus dem Umfeld der Microservices ideal nutzen.
- Durch die Verteilung der Schnittstellen auf autonome virtuelle Knoten lassen sich diese, dank Virtualisierung, ad hoc individuell skalieren. Dadurch werden die vorhandenen Kapazitäten deutlich effizienter genutzt, da nur die Schnittstellen Ressourcen verbrauchen, die gerade unter entsprechender Last stehen.
- Vorhandene Schnittstellen werden nicht in einem „Big Bang“, sondern auf „molekularer“ Ebene in überschaubaren Zyklen ersetzt. Dies eröffnet euch die Möglichkeit, die Virtualisierungsinfrastruktur mit den Anforderungen wachsen zu lassen, ohne von Beginn an in eine kostspielige, ressourcenhungrige und monolithische Infrastruktur zu investieren.
- Ändern sich im Zuge der Transformation Rahmenbedingungen und Prioritäten könnt ihr die Geschwindigkeit der Transformation jederzeit den Gegebenheiten anpassen. Dies ist möglich, da jede Schnittstelle ein autarkes „Molekül“ darstellt und nach seiner Fertigstellung sofort produktiv eingesetzt werden kann.
- Das iterative Vorgehen in atomaren Schritten liefert gerade in Integrationsprojekten bereits nach jeder „Molekül“-Implementierung einen echten Business Value. Sobald alle Schnittstellen eines Systems entkoppelt sind, könnt ihr dieses bei Bedarf tauschen.
Dieser Beitrag ist auch im „Der Bank Blog“ erschienen.