Consultant
- Verfügbarkeit einsehen
- 0 Referenzen
- 90€/Stunde
- 69126 Heidelberg
- DACH-Region
- de | en
- 23.02.2026
Kurzvorstellung
Geschäftsdaten
Qualifikationen
Projekt‐ & Berufserfahrung
5/2025 – offen
Tätigkeitsbeschreibung
Es soll im gesamten Unternehmen eine neue Software ausgerollt werden. Um den Prozess zu monitoren und dabei sicherzustellen, dass keine kritische Software wegfällt, wurde von Five1 GmbH ein PowerBI Bericht gebaut, der den Rollout-Status überwacht.
Aufgabe:
- Analysieren der Datengrundlage für den Bericht
- Konzeptentwicklung und Beratung zur Datenbasis
- Datenverarbeitung in Microsoft Fabric
- Erstellen eines tabellarischen PowerBI Berichts
Power Bi, Python
1/2025 – offen
Tätigkeitsbeschreibung
Vertriebs- und Finanzreporting in Fabric zur Ablösung einer On-Premises SAP BW-Landschaft.
Aufgabe:
- Erstellen von Data Pipelines nach dem ELT-Prinzip
- Aufbau der MS Fabric Landschaft
- Entwickeln von customized Lösungen in MS Fabric
Data Engineer
6/2024 – offen
Tätigkeitsbeschreibung
Der Kunde entwickelt eine innovative Plattform zur zentralen Verwaltung und Abrechnung von Cloud-Diensten unterschiedlicher Anbieter (AWS, Azure, Google usw.). Die Kosten, die bei den jeweiligen Cloud-Anbietern anfallen, werden übersichtlich in einem Superset-Dashboard visualisiert. Die Billing-Daten sind in Clickhouse gehostet, wo auch die Abrechnungslogik implementiert ist. Die Datenverarbeitung wird dabei effizient mit Kestra orchestriert, und alle eingesetzten Tools laufen stabil in einem Kubernetes-Cluster der IONOS Cloud.
Aufgabe:
* Rechnungsdaten werden in der IONOS Cloud zentralisiert zur Verfügung gestellt
• Aufbereitung und Verarbeitung der Rechnungsdaten in der SQL-Datenbank Clickhouse
• Orchestrierung der Verarbeitungspipeline mittels Kestra
• Visualisierung der Rechnungsdaten in Superset-Dashboards
• Rechnungsstellung und Rechnungsprüfung auf Basis der Clickhouse Daten
SQL
4/2024 – 9/2024
Tätigkeitsbeschreibung
Das Projekt zielt darauf ab, eine automatisierte, systemübergreifende Stammdatenzusammenführung für den Kunden zu entwickeln. Hierbei werden mit Hilfe der Fachbereiche führende Datenquellen und Mapping-Algorithmen definiert. Five1 übernimmt dabei die fachliche und technische Konzeption und Umsetzung, einschließlich der Planung, Koordination, Qualitätskontrolle, und der Entwicklung einer harmonisierten Datenarchitektur in Azure Synapse Analytics.
Aufgabe:
• Entwicklung eines maßgeschneiderten Master Data Management Tools in Azure Synapse Analytics
• Verbindung diverser stammdatenführender Systeme wie PostEEG und FirstSale zur Schaffung einer einheitlichen Datengrundlage
• Verarbeitung der Daten mittels Spark-Notebooks
• Nutzung von Azure Artifacts zur Verwaltung und Versionierung der Komponenten des Tools
• Einrichtung automatisierter Benachrichtigungen im Fall von Problemen in der Datenqulität via Teams
Apache Spark, Python
4/2024 – offen
Tätigkeitsbeschreibung
Automatisierung von FinOps-/Rechnungsstellungsprozessen für Managed-Cloud-Services-Kunden der BTC AG im mittleren siebenstelligen Volumen pro Monat. Die Ablösung des zuvor manuellen Prozesses führte zu einer Reduktion des Arbeitszeitaufwands um ca. 70 %.
Aufgabe:
• Rechnungsstellungspipeline in AWS für AWS- und Azure-Daten
• PySpark-Datenverarbeitung auf EMR-Clustern
• Kontierungspflege in DynamoDB
• Orchestrierung mit Lambda und Step Functions
• Einheitliche Datenbasis für präzise Abrechnungen
Amazon Web Services (AWS), Apache Spark, Projektleitung / Teamleitung (IT), Python
1/2024 – 4/2024
Tätigkeitsbeschreibung
Es wurde eine umfassende Beratung zum Aufbau eines Data Lakes mit Azure Synapse Analytics durchgeführt. Im Rahmen des Projekts erfolgte eine gezielte Unterstützung bei der Anbindung relevanter Datenquellen und der Erweiterung der Infrastruktur um DevOps Lösungen, um eine effiziente Datenverarbeitung zu gewährleisten. Zusätzlich wurde besonderes Augenmerk auf die Überprüfung und Sicherstellung der Datenqualität gelegt, um verlässliche und fundierte Analysen zu ermöglichen.
Aufgabe:
• Beratung zum Aufbau eines Data Lakes mit Azure Synapse Analytics
• Unterstützung bei der Anbindung verschiedener Datenquellen
• Erweiterung der Infrastruktur zur Gewährleistung einer skalierbaren Datenverarbeitung
• Überprüfung der Datenqualität im Data Lake mithilfe von SQL-Queries und PySpark-Skripten
Apache Spark, Azure Synapse Analytics, SQL, DevOps
12/2022 – 11/2023
Tätigkeitsbeschreibung
Es wurde ein Data Lake in Azure mit Azure Synapse Analytics aufgebaut, um Daten aus verschiedenen Quellen zentral zu sammeln und bereitzustellen. Die Datenverarbeitung erfolgte durch maßgeschneiderte Lösungen in PySpark und Python. Die ETL-Prozesse wurden mit Synapse Pipelines und Azure Functions orchestriert. Die aufbereiteten Daten wurden über serveless SQL-pools den Fachbereichen zur Verfügung gestellt.
Aufgaben:
• Aufbauen eines Datalake mit Delta Tables in Azure Synapse Analytics
• Anbindung unterschiedlicher Datenquellen über ETL-Prozesse
• Verarbeitung der Daten mittels PySpark durch selbstentwickelte Lösungen
• Fachbereichübergreifende Bereitstellung der Daten mit MS-SQL.
SQL, Apache Spark, Azure Synapse Analytics, Datenmanagement, Microsoft Azure, Python
Ausbildung
Universität Heidelberg
Heidelberg
Universität Heidelberg
Heidelberg
Über mich
Weitere Kenntnisse
- Datenplattformen
- Cloud Services (AWS, Azure)
- Microsoft Fabric
- Spark
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Europäische Union
- Schweiz
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden
