Data Platform Architect | Snowflake · dbt · Power BI | Energiewirtschaft & DWH-Modernisierung
- Verfügbarkeit einsehen
- 5 Referenzen
- 95€/Stunde
- 44359 Dortmund
- DACH-Region
- de | en | ro
- 27.04.2026
- Contract ready
Kurzvorstellung
Auszug Referenzen (2)
"M. helped us implement monitoring and forecasting of products, which was later leveraged by the ecommerce team for product planning purposes."
6/2022 – 12/2022
Tätigkeitsbeschreibung
- Erstellung eines Forecasting Reports für den Einkauf (basierend auf Shopify Daten)
- Explorative Analysen zur Customer Retention (mit Google BigQuery und Google Data Studio)
Google Cloud
"Wir haben immer sehr gerne mit M. zusammengearbeitet."
9/2019 – 10/2021
Tätigkeitsbeschreibung
Dashboarderstellung in Qlikview. Datenauswerungen mit MSSQL im SQL Server. Entwicklung von Prozessautomatisierungen mit Python.
Datenintegrationen. Kundenanfragen sowohl zu Ad Hoc Auswertungen als auch für Berichterstellungen. Einarbeitung und Weiterentwicklung in komplexen Datenlandschaften (Legacy Systeme).
Data Science, Python, Qlikview, SQL
Geschäftsdaten
Qualifikationen
Projekt‐ & Berufserfahrung
2/2026 – offen
Tätigkeitsbeschreibung
Aufbau einer Snowflake/dbt-Datenplattform für den Kundenservice (Genesys Contact Center).
Architektur:
- Medallion Architecture (Bronze → Silver → Gold) mit dbt
- Multi-Developer-Schema-Isolation via custom generate_schema_name Macro
- Incremental Models mit 14-Tage-Lookback für den Business Layer (Performance + Late-Arriving Data)
- Snowflake Organizational Marketplace Listings für bereichsübergreifenden Datenaustausch (Secure Views, Column-Level Comments, Data Stewards)
Impact:
- Belastbare Kundenzufriedenheits-KPIs für das Management
- Reproduzierbare, testbare Datenmodelle
- Neue Entwickler in Stunden statt Wochen produktiv durch klare Schema-Konventionen
Data Warehousing, Snowflake, Data Engineer
12/2025 – 3/2026
Tätigkeitsbeschreibung
Initiative 1 — Tableau Server Stabilisierung
Problem: Fragile, unübersichtliche Data Flows auf dem Tableau Server mit häufigen Abbrüchen; parallel viele veraltete Legacy-Flows aktiv.
Architektur: Migration der kritischen Data Flows vom Tableau Server ins MSSQL-Backend; Deaktivierung aller nicht mehr genutzten Legacy-Flows.
Impact: Stabile Laufzeiten und höhere Datenqualität. Fehler wieder erkennbar, weil veraltete Flows sie nicht mehr überdeckten. Spürbare Ressourceneinsparung auf dem Tableau Server.
Initiative 2 — Automatisiertes Bauteil-Tracking auf Tableau-Karte
Problem: Keine zentrale Übersicht, an welchem physischen Standort sich welches Bauteil befindet.
Architektur: Automatisiertes Auslesen der Bauteil-Standorte und Visualisierung auf einer Tableau-Karte mit laufender Aktualisierung.
Impact: Jederzeit klare Standort-Transparenz. Operative Entscheidungen (Logistik, Fertigung) ohne manuelle Rückfragen.
Initiative 3 — Management Report mit 9 KPIs und Ampellogik
Problem: Keine klare Sicht auf Bottlenecks — fragmentierte, uneinheitliche Kennzahlen verhinderten gezieltes Management-Handeln.
Architektur: Management-Report mit 9 strategischen KPIs und Ampellogik (definierte Thresholds); automatisierte Aktualisierung auf Tages-, Wochen- und Monatsbasis.
Impact: Bottlenecks erstmals sichtbar — Management weiß, wo es intervenieren muss. Klare, datenbasierte Entscheidungen automatisiert möglich.
Tech: Tableau, Tableau Server, MSSQL, SQL, Data Modeling
Tableau, Microsoft SQL-Server (MS SQL), SQL
6/2024 – 7/2025
Tätigkeitsbeschreibung
Initiative 1 — Excel-Reporting → Automatisierter Snowflake Gold Layer
Problem: Fragmentierte Reporting-Landschaft mit Excel als Datengrundlage. Monatliche Aufbereitung kostete Tage, war fehleranfällig und uneinheitlich zwischen Bereichen.
Architektur: Gold Layer in Snowflake, automatisiert auf Star-Schema-Tabellen; Migration unversionierter Snowflake-Queries nach dbt mit CI/CD in Azure DevOps. Einheitlicher Core-Report ("Douglas Beauty Card Core") für die zentralen Loyalty-KPIs (Neukunden, AOV, Churn, Contact Permissions).
Impact: Kein manueller Aufbereitungsaufwand mehr. Einheitliche Kennzahlen-Definitionen bereichsübergreifend. Verlässliche Basis für strategische Loyalty-Entscheidungen.
Initiative 2 — Ticket-basierte Brand-Analysen → Self-Service in Tableau
Problem: Brand-Profilierungs-Analysen (KPI-Vergleiche einer Marke gegen vergleichbare Marken) liefen als manuelle Analyst-Tickets mit wochenlangen Bearbeitungszeiten; pro Anfrage nur eine Kombination.
Architektur: Übersetzung der Ticket-Templates in ein parametrisiertes Tableau-Dashboard. Anwender wählen Zielmarke und Vergleichsset per Klick, KPI-Vergleiche werden automatisch berechnet.
Impact: Bearbeitungszeit von Wochen auf Sekunden. Marketing-Fachanwender explorieren erstmals beliebig viele Kombinationen selbst — eine Analysetiefe, die manuell nicht leistbar war. Bessere Entscheidungen bei Brand-Kooperationen.
Tech: Snowflake, dbt, Tableau, Azure DevOps, Git, Python, SQL, Star Schema
Tableau, SQL, Continuous Delivery, Continuous Integration, Git, Snowflake, Microsoft Azure
11/2022 – 12/2025
Tätigkeitsbeschreibung
3-jähriges BI-Modernisierungsprogramm für den Bereich Infrastruktur.
Problem: Parallele BI-Landschaften (Tableau + Power BI), Dashboard-Ladezeiten >5 Minuten, doppelte Lizenzkosten im sechsstelligen Bereich, keine einheitlichen Datenmodelle.
Architektur:
- Komplette Migration der Tableau-Landschaft nach Power BI
- Redesign der Datenmodelle als Star Schema mit DAX-Optimierung
- Power BI Dataflows für Multi-Source-Integration (PostgreSQL, SharePoint, REST-APIs)
- Python-Automatisierung und RabbitMQ-Streaming für nahezu Echtzeit-Datenflüsse
- Verbesserter Deployment-Prozess mit Versionskontrolle
Impact:
- Ladezeiten von 5+ Minuten auf ~10 Sekunden
- Sechsstellige jährliche Lizenzkosteneinsparung, dauerhaft und skalierbar
- Konsistente Kennzahlen für den gesamten Bereich
- Zwei Vertragsverlängerungen über 3 Jahre
Tech: Power BI, DAX, Tableau, Tableau Server, Extrakte, PostgreSQL, MSSQL, Python, RabbitMQ, Azure DevOps, Git
Git, Jira, Postgresql, Python, Scrum, Tableau
6/2022 – 12/2022
Tätigkeitsbeschreibung
- Erstellung eines Forecasting Reports für den Einkauf (basierend auf Shopify Daten)
- Explorative Analysen zur Customer Retention (mit Google BigQuery und Google Data Studio)
Google Cloud
11/2021 – 3/2022
Tätigkeitsbeschreibung
Dashboarderstellung in Tableau, Datenbankabfrage und Datenintegration
Datenanalyse, Einarbeitung und Weiterentwicklung von Datenmodellen
Schulung von Self Service Usern in Tableau
Agile Methodologie, Jira, Scrum, SQL, Tableau
9/2019 – 10/2021
Tätigkeitsbeschreibung
Dashboarderstellung in Qlikview. Datenauswerungen mit MSSQL im SQL Server. Entwicklung von Prozessautomatisierungen mit Python.
Datenintegrationen. Kundenanfragen sowohl zu Ad Hoc Auswertungen als auch für Berichterstellungen. Einarbeitung und Weiterentwicklung in komplexen Datenlandschaften (Legacy Systeme).
Data Science, Python, Qlikview, SQL
11/2018 – 10/2019
Tätigkeitsbeschreibung
Automatisierung von Prozessen mit Hilfe von Blue Prism (Automatisierungssoftware)
Führung und Realisierung von Projekten mit Einsparungen durch Prozessautomatisierung von mehreren Vollzeitkräften
BluePrism, Projektmanagement (IT), Visual Basic
Zertifikate
Scrum.org
Ausbildung
Köln
TU Dortmund
Über mich
Analytische Datenplattformen, die das Management tatsächlich für Entscheidungen nutzt — von der Cloud-Architektur (Snowflake, dbt) bis zum performanten Reporting (Power BI, Tableau). Keine Handoffs zwischen Data Engineering und BI, sondern eine durchgängige Architektur, klare KPI-Logiken und schnelle Dashboards.
Kernfokus
Datenplattformen für die Energiewirtschaft (Netzbetreiber, EVU, Stadtwerke) und DWH-Modernisierung für Konzerne.
Aktuell baue ich bei einem deutschen Verteilnetzbetreiber eine Snowflake/dbt-Plattform für den Kundenservice auf: Medallion Architecture Bronze → Silver → Gold, Multi-Developer-Schema-Isolation, Snowflake Organizational Marketplace Listings. Ergebnis: belastbare Kundenzufriedenheits-KPIs und eine bis zu 80% Reduktion der Compute-Kosten durch gezielte Materialisierungsstrategie.
Impact-Muster aus vergangenen Projekten
Bei einem DAX-Infrastrukturkonzern: 3-jähriges BI-Modernisierungsprogramm. Tableau → Power BI Migration mit Star-Schema-Redesign. Dashboard-Ladezeiten von 5 Minuten auf ~10 Sekunden (30x schneller), sechsstellige jährliche Lizenzkosteneinsparung.
Bei einem Retail-Konzern mit Loyalty-Programm: fragmentierte Excel-Reporting-Landschaft abgelöst durch einen automatisierten Snowflake Gold Layer mit einheitlichem Core-Report für alle zentralen Loyalty-KPIs (Neukunden, AOV, Churn, Contact Permissions). Manueller Aufbereitungsaufwand von Tagen auf null.
Bei einem Industriekonzern (Manufacturing): Tableau-Server-Stabilisierung, automatisiertes Bauteil-Tracking auf Map-Dashboards und ein Management-Report mit 9 KPIs und Ampellogik – Bottlenecks erstmals sichtbar für zielgerichtetes Management-Handeln.
Was mich unterscheidet
Die meisten Freelancer liefern entweder Pipelines ODER Dashboards. Ich verbinde beides — und kenne die Anforderungen der Energiewirtschaft (Netzbetreiber, EVU, Stadtwerke) aus der Projektpraxis..
Weitere Kenntnisse
Snowflake, dbt (Medallion Architecture: Bronze → Silver → Gold), Data Warehouse & Data Lake Design, Data Products im Snowflake Internal Marketplace, Snowflake Tasks & Stored Procedures, dbt managed Projects auf Snowflake
Datenmodellierung
Star Schema, Data Vault-Prinzipien, KPI- und Metric-Layer, Business-Logik-Modelling, Incremental Models mit Lookback-Strategien
Reporting & BI
Power BI inkl. DAX-Optimierung, Tableau (Desktop & Server), Management-Cockpit-Design, Ampellogik mit Thresholds, Near-Real-Time-Dashboards, Self-Service BI & Governance
Datenbanken & SQL
Snowflake, PostgreSQL, MSSQL, Exasol, Google BigQuery — Advanced SQL, Stored Procedures, SQL Views, Performance-Tuning
DevOps & Automatisierung
Python, Git, CI/CD (Azure DevOps, GitHub Actions), Terraform, dbt-Dokumentation und -Tests, Schema-Isolation für Multi-Developer-Teams, Tableau Prep Flow Migration
Integration & Streaming
RabbitMQ-Consumer für Near-Real-Time-Daten, REST-APIs, SharePoint-Integration, CSV-Automatisierung
Methodik
Scrum, Agile, Jira, Confluence, Referenzen aus Konzernumfeld und Startup-Greenfield-Aufbau
Branchen-Erfahrung
Energieversorger, Netzbetreiber, Stadtwerke · Verkehr & Infrastruktur · Industrie / Manufacturing · Retail / eCommerce / CRM · Medien · Finanzdienstleistung
Sprachen
Deutsch (Muttersprache), Englisch (verhandlungssicher), Rumänisch (Grundkenntnisse)
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Rumänisch (Gut)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden
