Wir berichten als Case Study aus einer Bank, die Hadoop als eine Kernkomponente der Data-Lake-Architektur einsetzt. Für Deployment und Konfiguration unserer Cluster-Umgebungen nutzten wir sowohl proprietäre als auch Open-Source-Software. Wir arbeiten in agilen Teams; als Finanzdienstleister sind wir jedoch auch scharfen Regulierungsanforderungen unterworfen. In meinem Vortrag stelle ich dar, wie wir unter diesen Rahmenbedingungen unseren automatisierten Deliveryprozess entworfen und umgesetzt haben. Ich berichte von unseren Erfahrungen in der Praxis und zeige auf, was wir daraus gelernt haben.
Vorkenntnisse
Der Vortrag geht davon aus, dass die Zuhörer und Zuhörerinnen mit der generellen Begrifflichkeit aus dem Continuous Delivery-Umfeld vertraut sind. Es werden keine tiefgehenden technischen Kenntnisse vorausgesetzt. Verschiedene im CD-Umfeld verbreitete Tools werden erwähnt und verglichen.
Lernziele
Eine (nicht erschöpfende) Liste von Erfolgsfaktoren, um ein automatisiertes Deployment einer ganzen Plattform (Hadoop) in einem Großunternehmen zu einem Erfolg zu machen.
// Hellmar Becker
beschäftigt sich seit mehr als 15 Jahren mit Data Analytics und Big Data. Er hat Continuous Delivery mit Hadoop im Rahmen der Data-Lake-Strategie bei einer großen niederländischen Bank implementiert. Hellmar spricht auf internationalen Konferenzen (u.a. Hadoop Summit 2016, Strata+Hadoop 2016, Continuous Lifecycle London 2016). Er lebt mit seiner Familie in den Niederlanden.