freiberufler Consultant auf freelance.de

Consultant

zuletzt online vor wenigen Tagen
  • 90€/Stunde
  • 69126 Heidelberg
  • DACH-Region
  • de  |  en
  • 23.02.2026

Kurzvorstellung

Ich bringe fundierte Kenntnisse in Data Engineering und Cloud-Infrastrukturen mit und trage zur Optimierung von Datenplattformen bei.

Geschäftsdaten

 Gewerbetreibend
 Berufshaftpflichtversicherung aktiv

Qualifikationen

  • Amazon Web Services (AWS)2 J.
  • Apache Spark2 J.
  • Azure Synapse Analytics1 J.
  • Cloudbilling
  • Data Engineer1 J.
  • Datenmanagement1 J.
  • Microsoft Azure1 J.
  • Power Bi1 J.
  • Projektleitung / Teamleitung (IT)2 J.
  • Python3 J.
  • SQL3 J.
  • terraform

Projekt‐ & Berufserfahrung

Consultant/ Data Engineer (Festanstellung)
Kundenname anonymisiert, Heidelberg
5/2025 – offen (1 Jahr)
Versorgungswirtschaft
Tätigkeitszeitraum

5/2025 – offen

Tätigkeitsbeschreibung

Es soll im gesamten Unternehmen eine neue Software ausgerollt werden. Um den Prozess zu monitoren und dabei sicherzustellen, dass keine kritische Software wegfällt, wurde von Five1 GmbH ein PowerBI Bericht gebaut, der den Rollout-Status überwacht.
Aufgabe:
- Analysieren der Datengrundlage für den Bericht
- Konzeptentwicklung und Beratung zur Datenbasis
- Datenverarbeitung in Microsoft Fabric
- Erstellen eines tabellarischen PowerBI Berichts

Eingesetzte Qualifikationen

Power Bi, Python

Consultant/ Data Engineer (Festanstellung)
Kundenname anonymisiert, Heidelberg
1/2025 – offen (1 Jahr, 4 Monate)
Medienbranche
Tätigkeitszeitraum

1/2025 – offen

Tätigkeitsbeschreibung

Vertriebs- und Finanzreporting in Fabric zur Ablösung einer On-Premises SAP BW-Landschaft.
Aufgabe:
- Erstellen von Data Pipelines nach dem ELT-Prinzip
- Aufbau der MS Fabric Landschaft
- Entwickeln von customized Lösungen in MS Fabric

Eingesetzte Qualifikationen

Data Engineer

Consultant/ Data Engineer (Festanstellung)
Kundenname anonymisiert, Heidelberg
6/2024 – offen (1 Jahr, 11 Monate)
IT & Entwicklung
Tätigkeitszeitraum

6/2024 – offen

Tätigkeitsbeschreibung

Der Kunde entwickelt eine innovative Plattform zur zentralen Verwaltung und Abrechnung von Cloud-Diensten unterschiedlicher Anbieter (AWS, Azure, Google usw.). Die Kosten, die bei den jeweiligen Cloud-Anbietern anfallen, werden übersichtlich in einem Superset-Dashboard visualisiert. Die Billing-Daten sind in Clickhouse gehostet, wo auch die Abrechnungslogik implementiert ist. Die Datenverarbeitung wird dabei effizient mit Kestra orchestriert, und alle eingesetzten Tools laufen stabil in einem Kubernetes-Cluster der IONOS Cloud.
Aufgabe:
* Rechnungsdaten werden in der IONOS Cloud zentralisiert zur Verfügung gestellt
• Aufbereitung und Verarbeitung der Rechnungsdaten in der SQL-Datenbank Clickhouse
• Orchestrierung der Verarbeitungspipeline mittels Kestra
• Visualisierung der Rechnungsdaten in Superset-Dashboards
• Rechnungsstellung und Rechnungsprüfung auf Basis der Clickhouse Daten

Eingesetzte Qualifikationen

SQL

Consultant/ Data Engineer (Festanstellung)
Kundenname anonymisiert, Heidelberg
4/2024 – 9/2024 (6 Monate)
Versorgungswirtschaft
Tätigkeitszeitraum

4/2024 – 9/2024

Tätigkeitsbeschreibung

Das Projekt zielt darauf ab, eine automatisierte, systemübergreifende Stammdatenzusammenführung für den Kunden zu entwickeln. Hierbei werden mit Hilfe der Fachbereiche führende Datenquellen und Mapping-Algorithmen definiert. Five1 übernimmt dabei die fachliche und technische Konzeption und Umsetzung, einschließlich der Planung, Koordination, Qualitätskontrolle, und der Entwicklung einer harmonisierten Datenarchitektur in Azure Synapse Analytics.
Aufgabe:
• Entwicklung eines maßgeschneiderten Master Data Management Tools in Azure Synapse Analytics
• Verbindung diverser stammdatenführender Systeme wie PostEEG und FirstSale zur Schaffung einer einheitlichen Datengrundlage
• Verarbeitung der Daten mittels Spark-Notebooks
• Nutzung von Azure Artifacts zur Verwaltung und Versionierung der Komponenten des Tools
• Einrichtung automatisierter Benachrichtigungen im Fall von Problemen in der Datenqulität via Teams

Eingesetzte Qualifikationen

Apache Spark, Python

Consultant/ Data Engineer (Festanstellung)
BTC AG, Heidelberg
4/2024 – offen (2 Jahre, 1 Monat)
IT & Entwicklung
Tätigkeitszeitraum

4/2024 – offen

Tätigkeitsbeschreibung

Automatisierung von FinOps-/Rechnungsstellungsprozessen für Managed-Cloud-Services-Kunden der BTC AG im mittleren siebenstelligen Volumen pro Monat. Die Ablösung des zuvor manuellen Prozesses führte zu einer Reduktion des Arbeitszeitaufwands um ca. 70 %.
Aufgabe:
• Rechnungsstellungspipeline in AWS für AWS- und Azure-Daten
• PySpark-Datenverarbeitung auf EMR-Clustern
• Kontierungspflege in DynamoDB
• Orchestrierung mit Lambda und Step Functions
• Einheitliche Datenbasis für präzise Abrechnungen

Eingesetzte Qualifikationen

Amazon Web Services (AWS), Apache Spark, Projektleitung / Teamleitung (IT), Python

Consultant/ Data Engineer (Festanstellung)
Kundenname anonymisiert, Heidelberg
1/2024 – 4/2024 (4 Monate)
Versorgungswirtschaft
Tätigkeitszeitraum

1/2024 – 4/2024

Tätigkeitsbeschreibung

Es wurde eine umfassende Beratung zum Aufbau eines Data Lakes mit Azure Synapse Analytics durchgeführt. Im Rahmen des Projekts erfolgte eine gezielte Unterstützung bei der Anbindung relevanter Datenquellen und der Erweiterung der Infrastruktur um DevOps Lösungen, um eine effiziente Datenverarbeitung zu gewährleisten. Zusätzlich wurde besonderes Augenmerk auf die Überprüfung und Sicherstellung der Datenqualität gelegt, um verlässliche und fundierte Analysen zu ermöglichen.
Aufgabe:
• Beratung zum Aufbau eines Data Lakes mit Azure Synapse Analytics
• Unterstützung bei der Anbindung verschiedener Datenquellen
• Erweiterung der Infrastruktur zur Gewährleistung einer skalierbaren Datenverarbeitung
• Überprüfung der Datenqualität im Data Lake mithilfe von SQL-Queries und PySpark-Skripten

Eingesetzte Qualifikationen

Apache Spark, Azure Synapse Analytics, SQL, DevOps

Consultant/ Data Engineer (Festanstellung)
Kundenname anonymisiert, Heidelberg
12/2022 – 11/2023 (1 Jahr)
Versorgungswirtschaft
Tätigkeitszeitraum

12/2022 – 11/2023

Tätigkeitsbeschreibung

Es wurde ein Data Lake in Azure mit Azure Synapse Analytics aufgebaut, um Daten aus verschiedenen Quellen zentral zu sammeln und bereitzustellen. Die Datenverarbeitung erfolgte durch maßgeschneiderte Lösungen in PySpark und Python. Die ETL-Prozesse wurden mit Synapse Pipelines und Azure Functions orchestriert. Die aufbereiteten Daten wurden über serveless SQL-pools den Fachbereichen zur Verfügung gestellt.
Aufgaben:
• Aufbauen eines Datalake mit Delta Tables in Azure Synapse Analytics
• Anbindung unterschiedlicher Datenquellen über ETL-Prozesse
• Verarbeitung der Daten mittels PySpark durch selbstentwickelte Lösungen
• Fachbereichübergreifende Bereitstellung der Daten mit MS-SQL.

Eingesetzte Qualifikationen

SQL, Apache Spark, Azure Synapse Analytics, Datenmanagement, Microsoft Azure, Python

Ausbildung

Studium
Master of Science
Universität Heidelberg
2022
Heidelberg
Studium
Bachelor of Science
Universität Heidelberg
2019
Heidelberg

Über mich

Aus meiner Projekterfahrung im Bereich Data Engineering auf Cloud-Plattformen bringe ich fundierte Kenntnisse in der Datenverarbeitung und -integration mit. Darüber hinaus habe ich Erfahrung mit Cloud-Infrastrukturen, wodurch ich datengetriebene Lösungen effizient und skalierbar gestalten kann. Besonders interessieren mich Projekte, in denen ich mein Wissen erweitern und produktiv anwenden kann. Durch meine strukturierte und analytische Arbeitsweise trage ich gezielt zur Optimierung und Weiterentwicklung von Datenplattformen bei. Ich freue mich darauf, meine Kompetenzen in ein Team einzubringen und gemeinsam an zukunftsorientierten Projekten zu arbeiten.

Weitere Kenntnisse

- Data Engineering
- Datenplattformen
- Cloud Services (AWS, Azure)
- Microsoft Fabric
- Spark

Persönliche Daten

Sprache
  • Deutsch (Muttersprache)
  • Englisch (Fließend)
Reisebereitschaft
DACH-Region
Arbeitserlaubnis
  • Europäische Union
  • Schweiz
Home-Office
bevorzugt
Profilaufrufe
263
Alter
28
Berufserfahrung
4 Jahre und 3 Monate (seit 01/2022)

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden