Es lohnt sich immer über den viel zitierten Tellerrand hinauszuschauen. Deutlich wird das anhand eines Projekts bei einem großen Telekommunikationsdienstleister. Darin arbeiteten Experten aus dem Bereich „Data & Analytics“ sowie „DevOps“ gemeinsam an einer Lösung. Das Ergebnis brachte vor allem einen Effekt mit sich: mehr Geschwindigkeit. Max Mohrwinkel, Senior Consultant Software Engineering, gibt einen Einblick in die DevOps Praxis.
Max, fangen wir ganz von vorne an. Was war die Ausgangssituation beim Kunden?
Auf den ersten Blick wirkte das Projekt wie ein Standardfall. Diverse BI-Artefakte und SQL-Statements werden regelmäßig ausgeliefert. Dadurch soll eine aktuelle Datenlage für das Reporting gewährleistet werden. In diesem Prozess waren mehrere Umgebungen eingebunden (Dev, Int, Prod). Ziel war es, die Abläufe innerhalb der IT-Landschaft zu optimieren und damit zu beschleunigen.
Tatsächlich entpuppte sich der Weg zu den Prod-Deployments auf den zweiten Blick als sehr langwierig. So dauerte ein Prod-Deployment aufgrund historisch gewachsener Prozesse und Abhängigkeiten bis zu zwei Wochen. Das ist natürlich eine unbefriedigende Situation.
Warum war dieser Prozess so langwierig?
Das lag vor allem an einem zentralen Aspekt: Es gab keine Automatisierung der notwendigen Vorgänge für Deployments. Vieles musste manuell und in unterschiedlichen Umgebungen erarbeitet werden. Grund waren die hohen Sicherheitsanforderungen der IT, die zeitintensive Abstimmungen mit sich brachten. Es galt die Vorgabe, dass die Zugangsdaten einer Umgebung höherer Sicherheitsstufen niemals in einer Umgebung niedriger Stufe abgelegt sein dürfen.
Hohe Priorität hatte natürlich die Automatisierung der Deployments. Um diese zu erreichen, ging es im Tool-Bereich beispielsweise um die Einführung von Docker für GitLab Deployments.
Welche Herausforderungen habt ihr daraus abgeleitet?
Das waren mehrere Herausforderungen in einem Paket. Hohe Priorität hatte natürlich die Automatisierung der Deployments. Um diese zu erreichen, ging es im Tool-Bereich beispielsweise um die Einführung von Docker für GitLab Deployments. Aber auch im Austausch mit den eingebundenen Teams war entsprechender Handlungsbedarf. Es galt einen neuen Workflow mit den Dev-Kollegen vor Ort abzustimmen. Wichtig war zudem die enge Zusammenarbeit mit der IT-Security.
Wie sah nun eure Lösung aus?
Ohne zu viel ins Detail gehen zu wollen. Die Lösung bestand in einem neuen Prozess, der vollständig in GitLab modelliert und automatisiert wurde, sowie einem maßgeschneiderten Pull Script. Im Ergebnis hatten wir einen neuen automatisierten Prozess, der über die API von GitLab mittels eines kleinen Skripts prüfte, ob sich auf einem geschützten Branch Veränderungen ergeben hatten. Das Skript ermöglichte uns die Freigabe durch die IT-Security. Die Beschleunigung kam durch den automatisierten GitLab-Prozess. Was bisher bis zu zwei Wochen in Anspruch genommen hatte, dauerte jetzt gerade mal drei Minuten.
Was sagte die interne IT-Security dazu?
Deren Anforderungen konnten wir mit unserer Lösung entsprechen und haben die erste erfolgreiche Freigabe zum Thema „Pull Requests“ innerhalb der Organisation für uns verbuchen können. Tatsächlich waren wir sogar die Ersten, die überhaupt automatisiert deployen durften. Das ist natürlich ein toller Erfolg in der DevOps Praxis und ein Alleinstellungsmerkmal.
DevOps&ALM-Beratung@Windhoff Group
Warum sollten Unternehmen DevOps Praxis oder ALM-Projekte gemeinsam mit der Windhoff Group angehen? Ganz einfach, weil Windhoff vollumfängliche Lösungen mit Kopf anbietet. Und das ist wortwörtlich gemeint. Windhoff verfügt über das gewünschte Know-how UND den passenden Windhoffler dazu. Dabei kommt die Erfahrung aus über 20 Jahren in der Softwareentwicklung bei der Gestaltung und dem Betrieb von Entwicklungsumgebungen zur Geltung. Dementsprechend wissen unsere Experten um die Komplexität von Konzeption, Einführung, Betrieb und Support von DevOps und ALM-Lösungen.
Mehr Informationen und unseren Check-Up „Tool-Chain“ gibt es hier .