Die Einführung von Machine Learning und AI-Technologien stellt neue Herausforderungen an die IT, da sie neue Rollen, Artefakte und Workflows mit sich bringt. Aus diesem Grund wurden die Entwicklungsprozesse in diesem Bereich oft isoliert, was zu weiteren abgetrennten Silos mit üblichen Problemen der Übergabe führt und somit kontinuierliche Verbesserung erschwert.
In diesem Vortrag werden wir uns mit den Gemeinsamkeiten und Unterschieden zwischen dem Data Science Workflow und der "klassischen" Software-Delivery Pipeline befassen und wie man sie integriert. Außerdem werden wir uns mit Deployment-Pipelines befassen, um die Geschwindigkeit der Data Scientists zu erhöhen und sie zu befähigen, trainierte Modelle in die Produktion zu bringen.
Vorkenntnisse
* Grundlegendes Verständnis der Prinzipien von DevOps
* Grundlegendes CI/CD-Verständnis
Lernziele
* Erfahren Sie, wie Sie Data Science integrieren können.
* Lernen SIe, wie man CI/CD-Pipelines für Data-Science-Modelle baut.
// Referenten
Jakob Karalus
@krallistic
ist IT-Berater bei codecentric mit Fokus auf DevOps und Data Science. Sein Hauptinteresse ist es, mit spannenden und neuen Technologien rund um Orchestrierung, Automatisierung und Machine Learning/Data Science zu arbeiten.
Alexander Melnyk
@am29d
realisiert als Cloud Native Developer skalierbare und robuste Systeme. Seine Schwerpunkte sind Cloud-Technologien, Serverless-Architekturen, DevOps und Data Science. Er ist ein Deep Worker, Machine Learner und Python Whisperer.