freiberufler Data & Analytics Engineer auf freelance.de

Data & Analytics Engineer

online
  • auf Anfrage
  • 49549 Ladbergen
  • auf Anfrage
  • de  |  en
  • 22.04.2026
  • Contract ready

Kurzvorstellung

Data & Analytics Engineer mit Fokus auf Datenpipelines, KPI-Logiken und Prozessanalyse. Ich entwickle strukturierte Datenmodelle und verwandle Rohdaten in belastbare Entscheidungsgrundlagen – von ETL bis Reporting.

Geschäftsdaten

 Freiberuflich

Qualifikationen

  • Data Engineering
  • Data Warehousing
  • Datenmodellierung (Data Vault / Star Schema)
  • Datenqualität & Validierung
  • ETL / ELT Pipelines
  • KPI & Reporting-Logiken
  • Prozessanalyse & Prozessoptimierung
  • Python (Datenverarbeitung & Automatisierung)
  • Snowflake / Databricks
  • SQL & Datenanalyse

Projekt‐ & Berufserfahrung

Praktikum Data Engineering/ BI & Prozessanalyse
HOLTKAMP CONSULTING GMBH, Nordhorn
3/2025 – 10/2025 (8 Monate)
nicht angegeben
Tätigkeitszeitraum

3/2025 – 10/2025

Tätigkeitsbeschreibung

Mitarbeit in Data-Engineering-Projekten mit Fokus auf automatisierte Datenpipelines und Datenintegration. Analyse fachlicher Anforderungen aus Reporting- und Analytics-Kontexten und Ableitung technischer Datenstrecken. Konzeption, Umsetzung und Orchestrierung von ETL/ELT-Datenpipelines zur Datenintegration. Modellierung von Datenstrukturen zur Bereitstellung konsistenter Kennzahlen für Analyse- und Reporting-Zwecke. SQL-basierte Analyse, Validierung und Qualitätssicherung von Datenbeständen. Monitoring, Validierung und Dokumentation von Datenpipelines inkl. Logging.

Eingesetzte Qualifikationen

ETL, SQL, Datenmodelierung

Teamleitung E-Commerce-Logistik
FIEGE LOGISTIK, Greven-Reckenfeld
7/2018 – 5/2023 (4 Jahre, 11 Monate)
nicht angegeben
Tätigkeitszeitraum

7/2018 – 5/2023

Tätigkeitsbeschreibung

Analyse und Optimierung datenbasierter Prozesse. Arbeit mit Kennzahlen, Qualitätsmetriken und Bestandsdaten. Verantwortung für operative Arbeitspakete und deren Umsetzung.

Eingesetzte Qualifikationen

Immobilienspezialist, Prozessoptimierung, Projektmanagement

Ausbildung

COMCAVE COLLEGE MÜNSTER
Ausbildung
2026
Münster
BASF COATINGS GMBH MÜNSTER
Ausbildung
2006
Münster

Über mich

Ich unterstütze Unternehmen dabei, aus Daten verlässliche Entscheidungsgrundlagen zu schaffen – von der strukturierten Datenintegration bis hin zu klaren KPI- und Reporting-Strukturen.

Mein Fokus liegt auf dem Aufbau und der Weiterentwicklung von Datenpipelines (ETL/ELT), der Modellierung analytischer Datenstrukturen sowie der Sicherstellung von Datenqualität und Nachvollziehbarkeit. Dabei arbeite ich mit SQL, Python sowie modernen Datenplattformen wie Snowflake und Databricks.

Ich verbinde technisches Data Engineering mit einem starken Verständnis für Prozesse und Kennzahlen. Durch meine Erfahrung in der E-Commerce-Logistik weiß ich, wie wichtig saubere Daten für operative Entscheidungen sind – und wie schnell schlechte Daten zu falschen Ergebnissen führen.

Typische Themen, bei denen ich unterstütze:

* Aufbau und Optimierung von Datenpipelines
* Datenmodellierung (z. B. Data Vault, Star Schema, Data Marts)
* Entwicklung von KPI-Logiken und Reporting-Strukturen
* Datenanalyse und Validierung (SQL-basiert)
* Automatisierung manueller Auswertungen
* Sicherstellung von Datenqualität und Monitoring

In meinen Projekten arbeite ich strukturiert, nachvollziehbar und mit einem klaren End-to-End-Verständnis – vom Ingestion-Layer bis zur analytischen Auswertung. Ziel ist immer, Daten so aufzubereiten, dass sie im Unternehmen tatsächlich genutzt werden können.

Ich arbeite mich schnell in neue fachliche Kontexte ein und lege Wert auf saubere, wartbare Lösungen, die langfristig funktionieren.

Weitere Kenntnisse

Datenanalyse & Verarbeitung

* SQL (komplexe Abfragen, Aggregationen, Window Functions)
* Python für Datenverarbeitung, Automatisierung und Analyse (Pandas)
* Datenbereinigung, Transformation und Validierung
* Entwicklung von KPI-Logiken und analytischen Auswertungen

Datenmodellierung & Data Warehousing

* Data Vault 2.0 (Hubs, Links, Satelliten, Historisierung)
* Star Schema und analytische Data Marts
* SCD2 (historisierte Datenhaltung)
* Aufbau strukturierter Schichtenarchitekturen (RAW → CORE → MART)

Datenintegration & Pipelines

* Konzeption und Umsetzung von ETL/ELT-Pipelines
* Verarbeitung von Datenströmen und CDC-Logiken
* Orchestrierung von Datenprozessen (Tasks, Abhängigkeiten)
* Monitoring, Logging und Data Quality Checks

Plattformen & Technologien

* Snowflake (Streams, Tasks, Monitoring)
* Databricks (Delta Lake, Unity Catalog, SQL, PySpark Grundlagen)
* PostgreSQL
* Docker (Containerisierung und Deployment)

Software Engineering & Arbeitsweise

* Git (Versionierung, strukturierte Repositories)
* Aufbau reproduzierbarer Datenprozesse
* Idempotente Verarbeitung und saubere Datenpipelines
* Dokumentation und nachvollziehbare Architektur (z. B. mit Diagrammen)

Fachliches Verständnis & Prozessbezug

* Erfahrung in datengetriebener Prozessanalyse (E-Commerce / Logistik)
* Arbeit mit Kennzahlen, Qualitätsmetriken und operativen Daten
* Übersetzung fachlicher Anforderungen in technische Datenmodelle
* Fokus auf praxisnahe, nutzbare Lösungen statt rein technischer Konzepte

Persönliche Daten

Sprache
  • Deutsch (Muttersprache)
  • Englisch (Gut)
Reisebereitschaft
auf Anfrage
Arbeitserlaubnis
  • Europäische Union
Home-Office
bevorzugt
Profilaufrufe
19
Alter
42
Berufserfahrung
7 Jahre und 9 Monate (seit 07/2018)

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden