Data Architect, Data Engineer, Data Warehouse Experte
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- 12059 Berlin
- auf Anfrage
- de | en
- 01.12.2025
- Contract ready
Kurzvorstellung
Geschäftsdaten
Qualifikationen
Projekt‐ & Berufserfahrung
6/2025 – 12/2025
Tätigkeitsbeschreibung
Eigenverantwortliche Leitung von Teilprojekten im Data-Analytics/Engineering-Umfeld (z. B. Data-Hub-
Implementierung, Migration zu Cloud-Architekturen, Aufbau Datenmodelle und ggf. Visualisierung)
Agile Steuerung des Projektlebenszyklus (Planung, Umsetzung, Monitoring) unter Einhaltung von
Budget, Zeitrahmen und Qualitätsstandards
Moderation von Stakeholder-Workshops (Fachabteilungen, IT, externe Dienstleister) zur
Anforderungsklärung und Priorisierung
Konzeption und Implementierung von Datenpipelines (ETL/ELT) mit Azure DevOps (CI/CD, Backlog-
Management, Native Cloud)
Bewertung von IT-Architekturoptionen (Data Warehouse, Data Lakes, Cloud-Lösungen) und Integration
in bestehende Systemlandschaften
Entwicklung von Data-Modellen und Sicherstellung von Datensicherheit/-schutz
Entwicklung von Power BI Reports und Dashboards für das Management
Vermittlung zwischen Fachbereichen und technischen Teams zur Umsetzung datengetriebener Use
Cases
Dokumentation von Entscheidungen, Risikoanalysen und Fortschrittsberichten für das Management
Data Warehousing, Databricks, Power Bi, ETL, Postgresql, Kanban (Softwareentwicklung), Projektmanagement (IT), Microsoft Azure
6/2024 – 3/2025
Tätigkeitsbeschreibung
Entwicklung eines konzernweiten Tools zur Berechnung des Lohns für die Vertriebsabteilung
Übernahme der Verantwortung für den gesamten Lebenszyklus der Daten, von der Erfassung bis zur
Verarbeitung und Modellierung
Zusammenarbeit mit Stakeholdern, um komplexe Vertriebsdaten in zugängliche, geschäftskritische
Erkenntnisse zu verwandeln
Entwicklung neuer Methoden zur Datenerfassung, -umwandlung und -verarbeitung, um die Qualität und
den Nutzen unserer Vertriebsdaten zu verbessern.
Kontinuierliche Überwachung und Verbesserung der Datensysteme, um optimale Leistung,
Zuverlässigkeit und Skalierbarkeit zu gewährleisten.
Proaktive Identifizierung von Möglichkeiten zur Automatisierung und Optimierung von Datenflüssen und
Prozessen, um die Effizienz unserer gesamten Geschäftstätigkeit zu steigern.
Zusammenarbeit mit IT- und Geschäftsteams, um unsere Dateninfrastruktur und -funktionen
kontinuierlich zu verbessern
Übernahme und Förderung agiler Arbeitsmethoden und Förderung der kontinuierlichen Verbesserung
innerhalb des Teams
ETL, ETL-Entwickler, Agile Methodologie, Confluence, Git, Snowflake
1/2024 – 4/2025
Tätigkeitsbeschreibung
Migration einer On-Premise-Datenplattform zu Azure
Integration verschiedener Datenquellen und Implementierung von APIs
Analyse und Revision bestehender Datenstrukturen
Entwicklung und Umsetzung eines Migrationskonzepts zu Azure
Implementierung von Datenqualitäts-Checks
Entwicklung von APIs zur Datenbereitstellung
Data Warehousing, Database Developer, Databricks, Microsoft Azure, Postgresql, Python, Systemmigration
10/2022 – 7/2023
Tätigkeitsbeschreibung
• Konzeption und Aufbau einer Suchmaschine
• Erstellung eines Projektplans
• Dokumentation der Architektur in Confluence
Ansible, Confluence, Docker, Elasticsearch, Git, Jira, Red Hat Enterprise Linux (RHEL)
4/2021 – 7/2023
Tätigkeitsbeschreibung
• Review und Wartung der aktuellen Daten-Architektur
• Weiterentwicklung des Datenmodells und Beratung hinsichtlich State-of-the-Art Technologien
• Entwicklung von ELT Pipelines in Python
• Anbindung verschiedenster APIs
• Erstellung von Berichten / Dashboards
Business Intelligence (BI), Data Warehousing, ETL, Postgresql, Linux (Kernel), Docker, Python
3/2021 – 8/2021
Tätigkeitsbeschreibung
• Konzeption eines Data Lake Datenbankmodells sowie der ETL-Strecken zum Überwachen von Immobilienangeboten
• Umsetzung der Konzeption (ETL, Konfiguration Elasticsearch, Postgres-Datenbank)
• Erstellung von Dashboards in Kibana
Postgresql, Amazon Web Services (AWS), Elasticsearch
2/2020 – 10/2020
Tätigkeitsbeschreibung
• Entwicklung einer Recommendation Engine für Multiplattform in Elasticsearch
• Als Datengrundlage werden Artikel von verschiedenen Portalen (News, Sportnachrichten, E-Paper) in Elasticsearch gespeichert und mittels eines Algorithmus sollen Artikel empfohlen werden.
• Aufbau und Review der Datenarchitektur für Web-Analytics in AWS mit SnowPlow Analytics
• Zur Auswertung werden die Benutzeraktionen auf Websites getrackt und in Echtzeit mit Kinesis verarbeitet.
• Die Daten werden in Redshift und S3 gespeichert und mit Quicksight und Metabase Dashboards erstellt.
Data Science, Data Warehousing, Datenmodelierung, ETL, Docker, Python, Amazon Web Services (AWS), Elasticsearch
10/2016 – 1/2019
TätigkeitsbeschreibungAufbau eines Data Science Teams. Festlegung von Strategien, Auswahl der Teammitglieder.
Eingesetzte QualifikationenProjektmanagement (IT), Personalführung, Personalwesen (allg.), Business Development
5/2016 – 10/2016
TätigkeitsbeschreibungAgile Coach für zwei Entwicklerteams im DWH Umfeld. Einführung und Schulung von agilen Methoden und Schulungen.
Eingesetzte QualifikationenData Warehousing, Agile Methodologie, Schulung / Training (IT), Schulung / Coaching (allg.)
9/2015 – 9/2016
Tätigkeitsbeschreibung
Mithilfe bei der Konzipierung von Webtrekk als Webtracking-Tool für die verschiedenen Shop Systeme
Weiterentwicklung eines Modells zur Vorhersage des Customer Lifetime Values1 mit R
Projektleitung und Entwicklung bei der Erstellung eines Prototyps für die Abverkaufsprognose von Modeartikeln
Aufnahme von Business Anforderungen für die Entwicklung des neuen Data Warehouses
R (Programmiersprache), Microsoft SQL Server Reporting Services (SSRS), Microsoft SQL Server Analysis Services (SSAS), Business Intelligence (BI), Oracle Database, ETL, Projektleitung / Teamleitung (IT), Web Analytics, Projektleitung / Teamleitung, Forschung & Entwicklung
7/2012 – 10/2015
Tätigkeitsbeschreibung
Entwicklung und Betrieb des internen Webtracking Tools für das Multishop-System in Oracle PL/SQL, Microsoft SQL Server Reporting Services und Analysis Services.
Verantwortlich für den Betrieb der wichtigsten ETL Prozesse (Bestellfakten, Kunden)
Einführung und Betrieb des Systems zur Bereitstellung von Artikelempfehlungen für die Shops der myToys Gruppe; Durchführung von AB-Tests und Analysen, durch welche eine Kombination aus Datenquelle und Algorithmus eingesetzt wurde.
Erstellung von Reports, Cubes für Marketing und Web Analysten.
Datenbereitstellung und Konzeption für Kundendeckungsbeitrag.
Microsoft SQL Server Reporting Services (SSRS), Reporting, Oracle-Anwendungen, ETL, PL/SQL, Web Analytics, Rechnergestütztes Betriebsleitsystem (RBL), Marketing
Zertifikate
Microsoft
elastic.co
Ausbildung
Berlin
Weitere Kenntnisse
Data Mining, Data Science, Big Data, Software Testing, Agile Softwareentwicklung, ETL, Projektmanagement
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Europäische Union
- Schweiz
- Vereinigte Staaten von Amerika
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden
