freiberufler Senior Data Engineer auf freelance.de

Senior Data Engineer

zuletzt online vor wenigen Stunden
  • 125€/Stunde
  • 14195 Berlin
  • auf Anfrage
  • de  |  en  |  ru
  • 25.08.2025
  • Contract ready

Kurzvorstellung

Senior Data Engineer (Databricks & Azure), der die Brücke zwischen Data Science, Software Engineering und klassischem ETL/DWH schließt. Ich baue skalierbare, stabile und zukunftssichere Datenplattformen.

Geschäftsdaten

 Freiberuflich
 Steuernummer bekannt

Qualifikationen

  • Amazon Web Services (AWS)2 J.
  • Apache Spark6 J.
  • Data Engineering
  • Data Warehousing6 J.
  • Databricks2 J.
  • DevOps6 J.
  • ETL6 J.
  • Microsoft Azure2 J.
  • Python8 J.
  • SQL6 J.

Projekt‐ & Berufserfahrung

Senior Data Engineer
Mercedes-Benz Tech Innovation GmbH, Ulm
7/2023 – 10/2025 (2 Jahre, 4 Monate)
Automobilindustrie
Tätigkeitszeitraum

7/2023 – 10/2025

Tätigkeitsbeschreibung

- Einsatz im Rahmen der Arbeitnehmerüberlassung. Nach 1,5 Jahren planmäßig ausgeschieden (01/2025) aufgrund gesetzlicher Begrenzung. Seit 07/2025 wieder im Einsatz bei MBTI - Wiedereinstellung durch Kundenseite.
- Senior/Lead Data Engineer
- Betrieb und Weiterentwicklung einer unternehmensweiten Azure Data Plattform auf Basis von Databricks und Lakehouse-Architektur (Bronze, Silver, Gold Layer, Delta Lake)
- End-to-End-Datenintegration und -analyse von Rohdaten bis zu KPI- und Event-Tabellen
- Orchestrierung und Automatisierung von ETL-Prozessen mit Azure Data Factory (ADF), inkl. Housekeeping, Monitoring und Alerting
- Entwicklung und Deployment von Python- und PySpark-Modulen, Verwaltung von Abhängigkeiten und virtuellen Umgebungen
Nutzung und Pflege mehrerer spezialisierter Repositories mit komplexen Abhängigkeiten, Build & Deployment in Databricks-Clustern
- Erfahrung mit großen Datenmengen und komplexen Datenstrukturen (ORC, Delta Tables, Parquet, Timeseries, KPI/Event-Aggregationen)
- Containerisierung mit Docker für lokale Entwicklung und Testing, lokale Entwicklung mit Databricks über Spark-Connect
- Implementierung und Betrieb von CI/CD-Pipelines mit Azure DevOps, inkl. automatisierter Tests (Pytest: Unit- und Integrationstests), Pre-Commit-Hooks, Security-Scans (BlackDuck), Secrets-Management (Azure Key Vault) und Dokumentations-Deployment (MkDocs)
- Entwicklung und Pflege wiederverwendbarer DevOps-Pipeline-Templates (YAML), inkl. parametrisierten Jobs und Stages
- Nutzung von Shell-Skripten in DevOps und Databricks SDK für automatisiertes Deployment
- Multi-Environment-Management (DEV, INT, PROD) mit strikten Approval- und Sicherheitsmechanismen sowie rollenbasierter Zugriffskontrolle
- Implementierung von Monitoring, Alerting und automatisierten Benachrichtigungen (z. B. Teams Webhooks, Azure Monitoring)
- Integration von Security- und Compliance-Tools (BlackDuck, Secret Scanner)
- Dokumentation und Wissensmanagement mit MkDocs und automatisiertem Deployment
- Zusammenarbeit mit internationalen Entwicklerteams (Indien, Spanien) und interdisziplinären Fachbereichen
- Erfahrung mit modernen Softwareentwicklungsprozessen (Code Reviews, Branch Protection, GitHub Workflows)
- Fokus auf Codequalität, Testabdeckung und technische Schulden (Refactoring, Coverage Checks, Pre-Commit)
- Azure Data Lake Storage, Databricks, Delta Lake, Azure Data Factory, Azure Key Vault, Azure DevOps, GitHub, Python, PySpark, SQL, Poetry, Docker, Spark-Connect, Pytest, Pre-Commit, Shell, CI/CD

Eingesetzte Qualifikationen

Apache Spark, Data Engineer, Data Warehousing, Databricks, DevOps, ETL, Git, Microsoft Azure, Python, SQL

Senior Data Engineer (Festanstellung)
pmOne Group, Berlin
10/2022 – 7/2023 (10 Monate)
IT & Entwicklung
Tätigkeitszeitraum

10/2022 – 7/2023

Tätigkeitsbeschreibung

- Durchführung mehrerer Data-Engineering-Projekte für mittelständische Unternehmen
- Entwicklung von Datenpipelines mit Python/PySpark in Azure Synapse
- Einsatz von MS Azure Services (Data Lake Storage, Synapse, Data Factory, SQL Database, DevOps) sowie PowerBI
- Aufbau von IaaS-Infrastruktur mit Terraform und Implementierung von CI/CD-Pipelines in Azure DevOps
- Konzeption und Umsetzung von Frameworks für Data Warehouses und deren ETL-Prozesse auf SQL-
Datenbanken (Stored Procedures, Azure Synapse Pipelines)
- Entwicklung eines Frameworks zur Beladung eines Data-Vault-Warehouses mit Databricks
- Fachliche Betreuung und Anleitung von Werkstudenten (Onboarding, Aufgabenkoordination, Code Reviews)

Eingesetzte Qualifikationen

Apache Spark, Azure Synapse Analytics, Data Engineer, Data Vault, Data Warehousing, Databricks, DevOps, ETL, Git, Microsoft Azure, Microsoft SQL-Server (MS SQL), Power Bi, Python, SQL

Data Engineer (Festanstellung)
Bundesdruckerei GmbH, Berlin
6/2021 – 7/2022 (1 Jahr, 2 Monate)
IT & Entwicklung
Tätigkeitszeitraum

6/2021 – 7/2022

Tätigkeitsbeschreibung

- Mitarbeit am Aufbau und Betrieb einer unternehmensweiten Datenplattform für das Auswärtige Amt
- Integration unterschiedlichster Datenquellen (strukturierte und unstrukturierte Daten) in eine zentrale Plattform
- Datenintegration und -verarbeitung mit Python, Docker, Kubernetes, Apache Airflow und SAP HANA
- Entwicklung und Orchestrierung von ETL-Pipelines
- Implementierung von Monitoring- und Logging-Lösungen zur Sicherstellung von Stabilität und Compliance
- Zusammenarbeit mit interdisziplinären Teams und externen Partnern in einem hochsicherheitsrelevanten
Umfeld

Eingesetzte Qualifikationen

Apache Spark, Data Engineer, Data Warehousing, DevOps, Docker, ETL, Git, Kubernetes, Pandas, Python, SQL

Data Engineer (Festanstellung)
ADASTRA GmbH, Magdeburg
1/2019 – 4/2021 (2 Jahre, 4 Monate)
IT & Entwicklung
Tätigkeitszeitraum

1/2019 – 4/2021

Tätigkeitsbeschreibung

- Mitarbeit im Beschaffungs-Data-Warehouse von Volkswagen mit Fokus auf klassische ETL-Prozesse
- Entwicklung von ETL-Strecken mit Oracle DB, SQL und Informatica PowerCenter
- Kontinuierliche Weiterentwicklung und Wartung der ETL-Prozesse über mehrere Jahre hinweg
- Mitarbeit an einer unternehmensweiten Datenplattform bei Volkswagen
- Entwicklung von Datenpipelines mit Python/PySpark in Kubernetes-Umgebungen
- Orchestrierung von Workflows mit Argo und Containerisierung mit Docker/Kubernetes
- Algorithmusprogrammierung mit Python (Pandas) für Analysen und Transformations-Logik

Eingesetzte Qualifikationen

Amazon Web Services (AWS), Apache Spark, Data Engineer, Data Warehousing, DevOps, ETL, Git, Informatica, Oracle Database, Python, SQL

Wissenschaftlicher Mitarbeiter (Festanstellung)
Otto-von-Guericke Universtität, Kasan
4/2017 – 12/2018 (1 Jahr, 9 Monate)
Hochschulen und Forschungseinrichtungen
Tätigkeitszeitraum

4/2017 – 12/2018

Tätigkeitsbeschreibung

- German-Russian Institute for Advanced Technologies in Kasan
- Stellvertretender deutscher Institutsdirektor
- Durchführung von Praktika (Siemens STEP7, Kawasaki-Roboter, Datenanalyse mit Python)
- Erstellung von Automatisierungs- und Analysetools mit Python und VBA
Statistikauswertung der Bewerber sowie des Lehrbetriebes am Institut mit Python

Eingesetzte Qualifikationen

Pandas, Python

Entwicklungsingenieur Elektrik/Elektronik (Festanstellung)
IAV GmbH, Gifhorn
8/2014 – 3/2016 (1 Jahr, 8 Monate)
Automobilindustrie
Tätigkeitszeitraum

8/2014 – 3/2016

Tätigkeitsbeschreibung

- Koordination und Durchführung von lntegrationstest an Hardware-in-the-Loop-Prüfständen (HiL) für Fahrassistenzfunktionen bei Volkswagen
- Auswertung der Testergebnisse und Fehlerbildanalyse sowie Abstimmung zu erkannten Auffälligkeiten mit internen Fachabteilungen und Zulieferern

Eingesetzte Qualifikationen

Test Management

Prozessingenieur (Festanstellung)
Novelis Deutschland GmbH, Nachterstedt
2/2013 – 4/2014 (1 Jahr, 3 Monate)
Metall-, Holz- und Papierindustrie
Tätigkeitszeitraum

2/2013 – 4/2014

Tätigkeitsbeschreibung

- Prozessingenieur im Bereich Aluminium-Kaltwalzen
- Prozessdaten- und Schwingungsanalysen
- Implementierung und Betreuung eines Chatter- und Condition Monitoring Systems

Eingesetzte Qualifikationen

Prozessoptimierung

Ausbildung

Diplom-Ingenieur Mechatronik
Diplom
Otto-von-Guericke Universität
2012
Magdeburg

Über mich

Als Data Engineer mit Schwerpunkt Databricks & Azure vereine ich drei Welten, die in vielen Unternehmen noch getrennt voneinander existieren: Data Science, Software Engineering und klassisches Data Warehousing/ETL. Während Data Scientists oft Modelle entwickeln, ohne robuste Pipelines aufzubauen, und Software Engineers auf Code-Qualität fokussieren, aber ETL- und DWH-Grundlagen nicht beherrschen, fehlt im klassischen Data Warehousing häufig der Brückenschlag zu moderner Cloud-Architektur. Ich kombiniere diese Kompetenzen und setze auf robustes ETL-Handwerk (SCD1/2, Merge, CDC, Inserts/Updates/Deletes) sowie moderne Cloud-Technologien. So entstehen Datenplattformen, die skalierbar, stabil und zukunftssicher sind und echten Mehrwert für Business und Analytics schaffen.

Persönliche Daten

Sprache
  • Deutsch (Muttersprache)
  • Englisch (Fließend)
  • Russisch (Fließend)
Reisebereitschaft
auf Anfrage
Arbeitserlaubnis
  • Europäische Union
Home-Office
bevorzugt
Profilaufrufe
263
Alter
38
Berufserfahrung
12 Jahre und 6 Monate (seit 02/2013)

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden