MLOps and Cloud Consultant
- Verfügbarkeit einsehen
- 3 Referenzen
- auf Anfrage
- 20259 Hamburg
- auf Anfrage
- de | en
- 16.01.2026
- Contract ready
Kurzvorstellung
Auszug Referenzen (3)
"Sehr gute Zusammenarbeit. Hat Erwartungen übertroffen. Wir konnten viele Prozesse automatisieren, die nun nicht mehr in unserem Kopf rumschwirren."
8/2025 – 12/2025
TätigkeitsbeschreibungAutomatisierung der Mitgliederverwaltung und Buchungen, Reduzierung der Antwortzeit von Tagen auf Sekunden, Erhöhung der Mitgliederbindung von 30% auf 75%, Einrichtung einer selbstgehosteten n8n-Instanz in der Cloud.
Eingesetzte QualifikationenGoogle Cloud, JavaScript
"S. verbesserte mit MLOps-Expertise Prozesse, Sicherheit und Automatisierung. Klare Kommunikation, zuverlässig, professionell und angenehm."
10/2023 – 8/2025
Tätigkeitsbeschreibung
- Implement MLOps best practices with FTI pipelines (feature/training/inference) and feature store and model registry as communication layer in order to serve vehicle clustering based on trips data, reducing the mental load for engineers when working with the ML system and using pipelines in a way they already know
- Separate model deployments from code deployments as measured by improved deployment time and implement CI/CD in Github Actions with workflows for code and models
- Reduced infrastructure deployment and configuration time by introducing IaC
- Make models internally and externally accessible with model serving endpoints in databricks and create a wrapper API with Azure API management to secure the endpoints with three layers of security (user identification, certificate exchange, private endpoints)
- Implement data pipelines in Databricks using PySpark and Spark SQL - add testing via unit tests and seperate integration tests
Databricks, Docker, ETL, Machine Learning, Microsoft Azure
"S. ist hilfsbereit, erklärt verständlich, arbeitet zuverlässig und motiviert das Team. Er fördert Zusammenarbeit und unterstützt beim Lernen."
2/2022 – 10/2023
Tätigkeitsbeschreibung
- Migrate multiple microservices to Kubernetes as well as their communication layer from AWS managed Kafka to Azure Eventhub, reducing the operational cost by 30\%
- Create serverless PySpark jobs with AWS Glue and Databricks for up to one million cars, automating the scalability of heavy lifting data pipelines
- Infrastructure requirements engineering for automotive corporation scale AI integration (backend + in-vehicle)
- Build ML platform from scratch
- Teach software development basics to career changer within the company, enabling co-workers to onboard faster and start working on real-life projects
- Lead core team of 2 technically, encouraging team members to push their learning curves. Successfully helped on team member to transition to a senior role
Apache Kafka, Databricks, Docker, Kubernetes, Microsoft Azure
Geschäftsdaten
Qualifikationen
Projekt‐ & Berufserfahrung
8/2025 – 12/2025
TätigkeitsbeschreibungAutomatisierung der Mitgliederverwaltung und Buchungen, Reduzierung der Antwortzeit von Tagen auf Sekunden, Erhöhung der Mitgliederbindung von 30% auf 75%, Einrichtung einer selbstgehosteten n8n-Instanz in der Cloud.
Eingesetzte QualifikationenGoogle Cloud, JavaScript
10/2023 – 8/2025
Tätigkeitsbeschreibung
- Implement MLOps best practices with FTI pipelines (feature/training/inference) and feature store and model registry as communication layer in order to serve vehicle clustering based on trips data, reducing the mental load for engineers when working with the ML system and using pipelines in a way they already know
- Separate model deployments from code deployments as measured by improved deployment time and implement CI/CD in Github Actions with workflows for code and models
- Reduced infrastructure deployment and configuration time by introducing IaC
- Make models internally and externally accessible with model serving endpoints in databricks and create a wrapper API with Azure API management to secure the endpoints with three layers of security (user identification, certificate exchange, private endpoints)
- Implement data pipelines in Databricks using PySpark and Spark SQL - add testing via unit tests and seperate integration tests
Databricks, Docker, ETL, Machine Learning, Microsoft Azure
2/2022 – 10/2023
Tätigkeitsbeschreibung
- Migrate multiple microservices to Kubernetes as well as their communication layer from AWS managed Kafka to Azure Eventhub, reducing the operational cost by 30\%
- Create serverless PySpark jobs with AWS Glue and Databricks for up to one million cars, automating the scalability of heavy lifting data pipelines
- Infrastructure requirements engineering for automotive corporation scale AI integration (backend + in-vehicle)
- Build ML platform from scratch
- Teach software development basics to career changer within the company, enabling co-workers to onboard faster and start working on real-life projects
- Lead core team of 2 technically, encouraging team members to push their learning curves. Successfully helped on team member to transition to a senior role
Apache Kafka, Databricks, Docker, Kubernetes, Microsoft Azure
10/2019 – 12/2021
Tätigkeitsbeschreibung
- Development of a scoring model to depict engagement, on which basis A/B tested decisions led to a +30\% higher pay rate
- Build and maintain a cloud-based BI and ML platform
- Create and maintain batch- and streaming-pipelines (ETL/ELT) for event data
- Oerationalize container-based data products
- Create CI/CD pipelines
- Cloud-resource management and IAM via IaC
- Agile development with Scrum
Apache Kafka, Continuous Integration, Docker, Git, Google Cloud, Kubernetes, Mysql, Python, SQL
7/2017 – 6/2019
TätigkeitsbeschreibungErstellung eines hochskalierbaren prädiktiven Analyseprodukts für Bäckereien, Entwicklung eines Bewertungssystems zur Überwachung der Vorhersagequalität und des Betriebs, Entwicklung eines Systems zur Bereinigung von Duplikaten für über 50 Millionen Benutzer, Entwicklung einer Berufsprojektion 2035 für Schleswig-Holstein.
Eingesetzte QualifikationenConfluence, Git, R (Programmiersprache), Scrum, SQL, SQL-Datenbankadministrator
Ausbildung
Kiel
Aachen
Wuhan
Brisbane
Über mich
Meine Leistungen im Überblick:
Cloud & Data Engineering: Aufbau und Migration skalierbarer Datenplattformen, Entwicklung von Cloud-Infrastrukturen, Automatisierung von Deployments und Prozessen (z. B. mit Terraform, Docker, Kubernetes, Azure, Google Cloud, Databricks).
Machine Learning Operations (MLOps): Entwicklung und Optimierung von ML-Pipelines, Feature Stores, Modellregistrierung, sicheres Modell-Serving und Trennung von Code- und Modelldeployments – für schnellere Innovation und sichere Bereitstellung von KI-Lösungen.
Datenautomatisierung: End-to-End-Automatisierung von Geschäftsprozessen, wie z. B. Onboarding, Buchungen oder Kommunikation, mit individuell zugeschnittenen Workflows (z. B. n8n, Python, API-Integration), um Effizienz und Engagement signifikant zu steigern.
Data Science & Analytics: Entwicklung von Prognose- und Scoring-Modellen, Aufbau von Monitoring- und Evaluationssystemen, Datenbereinigung und -integration – für bessere Entscheidungsgrundlagen und Geschäftsergebnisse.
Enablement & Beratung: Technische Führung und Coaching von Teams, Schulung von Mitarbeitenden im Bereich Softwareentwicklung, Data Engineering und Machine Learning. Unterstützung beim Aufbau effektiver, agiler Prozesse.
Ihr Mehrwert:
Mit meiner breiten Projekterfahrung bei Start-ups, Mittelstand und Konzernen biete ich pragmatische, umsetzungsstarke Lösungen, die messbaren Mehrwert schaffen – z. B. durch Kostensenkung, Prozessbeschleunigung oder bessere Datenqualität. Ich unterstütze Sie dabei, die Potenziale Ihrer Daten voll auszuschöpfen und Innovationen sicher in die Produktion zu bringen.
Technologien & Tools (Auswahl): Azure, Google Cloud, Databricks, Python, Spark, Terraform, Docker, Kubernetes, Kafka, n8n, GitHub Actions, CI/CD.
Arbeitsweise: Verantwortlich, anpassungsfähig, kommunikativ – als Teamplayer oder eigenständig, je nach Bedarf.
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Europäische Union
- Schweiz
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden
