freiberufler Data Scientist & Software Engineer auf freelance.de

Data Scientist & Software Engineer

zuletzt online vor wenigen Tagen
  • auf Anfrage
  • 76137 Karlsruhe
  • auf Anfrage
  • de  |  en
  • 07.08.2025
  • Contract ready

Kurzvorstellung

Data Scientist & Software Engineer mit 8+ Jahren Erfahrung. Ich entwickle skalierbare, cloud-native ML-Pipelines (aktueller Fokus: quantitative Finanzmodelle) und unterstütze bei Architektur & Strategie datengetriebener Anwendungen.

Auszug Referenzen (1)

"A. is a talented developer and data engineer. Our team has benefited greatly from his contributions and it has been a pleasure to work with him."
Senior Data Scientist (Festanstellung)
Mathias Diez
Tätigkeitszeitraum

4/2019 – 12/2022

Tätigkeitsbeschreibung

Das Team, in dem ich gearbeitet habe, generiert täglich Millionen von Bestellentscheidungen als Teil einer vollständig automatisierten und cloudbasierten SaaS-Lösung für große Einzelhandelskunden. Täglich angesetzte Datenpipelines ermöglichen es dem Optimierungsalgorithmus, die neuesten Daten zu berücksichtigen und gleichzeitig Unsicherheiten und Einschränkungen einzubeziehen, um für die Kunden rechtzeitig die besten Entscheidungen zu treffen. Ich habe daran gearbeitet
- ein bestehendes Analysetool mit einem Dask-Cluster zu skalieren,
- einen Flask Service mit einer PostgreSQL-Datenbank inklusive ETL-Pipeline in Azure einzurichten, mit dem über eine REST API kommuniziert werden kann,
- Apache Airflow DAGs zu konfigurieren,
- anspruchsvolle SQL-Abfragen einschließlich CTEs für eine Exasol-Datenbank zu erstellen und anzupassen,
- komplexe Datenstrukturen in eine in Python geschriebene Datenpipeline zu integrieren,
- erforderliche Anpassungen am Partitionierungsmodell für die Parallelisierungslösung vorzunehmen und
- den in C++ geschriebenen Optimierungsalgorithmus zu verbessern und ihn mit neuen Funktionalitäten zu erweitern.

Eingesetzte Qualifikationen

Agile Methodologie, C++, Microsoft Azure, Python, SQL

Geschäftsdaten

 Gewerbetreibend
 Steuernummer bekannt
 Berufshaftpflichtversicherung aktiv

Qualifikationen

  • Apache Airflow
  • Azure Functions
  • C++6 J.
  • Dask
  • Data Science
  • Microsoft Azure3 J.
  • Python8 J.
  • SQL8 J.

Projekt‐ & Berufserfahrung

Analytics Lead
Deutsche Bank, Frankfurt
6/2023 – 6/2025 (2 Jahre, 1 Monat)
Banken
Tätigkeitszeitraum

6/2023 – 6/2025

Tätigkeitsbeschreibung

Teil des Model-Development-Teams im Bereich Anti Financial Crime – Konzeption und Umsetzung skalierbarer ML- und Statistiklösungen für die Transaktionsüberwachung.

Parameter-Optimierung für regelbasierte Systeme (ca. 6 Monate)
Ich habe Detektionsregeln für das System Smaragd optimiert, das intern nachgebaut wurde, um die Logik transparent zu machen und eine statistische Kalibrierung zu ermöglichen. Mithilfe von Bayes’schen Verfahren und logistischen Regressionsmodellen wurden Regelparameter länder- und kundensegmentspezifisch angepasst. Nach Einführung von Actimize habe ich die Regeln im selben Framework reimplementiert, um die Parameter-Optimierung fortzuführen. Zudem habe ich PySpark-basierte ETL-Pipelines auf dem Hadoop-Cluster grundlegend überarbeitet und beschleunigt – mit deutlicher Reduktion der Laufzeiten für Modelltraining und -bewertung.

Entity-Resolution-Framework für SWIFT-Nachrichten (ca. 12 Monate)
Ich habe ein skalierbares Framework zur Entitätenauflösung für SWIFT MX-Nachrichten (z. B. pacs.008, pacs.009) mitentwickelt – sowohl für Batch- als auch für Online-Verarbeitung. Ein benutzerdefinierter Parser extrahiert und normalisiert strukturierte Daten zu Gläubiger und Schuldner. Die Daten wurden mittels libpostal angereichert (z. B. Länderzuordnung), und verschiedene Vektorrepräsentationen von Namen wurden erstellt, um String-Ähnlichkeiten modellieren zu können. Zur Reduktion des quadratischen Matching-Aufwands wurden Blocking-Strategien (z. B. nach Ländern und IDs) eingesetzt. Die Ähnlichkeit wurde mit logistischen Regressions- und Random-Forest-Modellen modelliert, auf Basis von String-Distanzmetriken. Daraus entstand ein gewichteter Graph, der per Markov Clustering segmentiert und anschließend heuristisch verfeinert wurde. Das Framework erzielte signifikant bessere Genauigkeit und Skalierbarkeit als die bestehende Lösung und wird aktuell als möglicher Ersatz evaluiert.

Anomalieerkennung bei gemischten Daten (ca. 6 Monate)
Ich habe ein verteiltes Anomalieerkennungssystem mitentwickelt, um auffällige Muster in Transaktionsdaten mit numerischen und freien Textfeldern zu erkennen (z. B. Betrag, Transaktionstyp, Zahlungszweck). Zum Einsatz kam Isolation Forest in Kombination mit einer verteilten Ray-Architektur.

Eingesetzte Qualifikationen

Apache Spark, SQL, Machine Learning, Python

Senior Data Scientist (Festanstellung)
Blue Yonder, Karlsruhe
4/2019 – 12/2022 (3 Jahre, 9 Monate)
IT & Entwicklung
Tätigkeitszeitraum

4/2019 – 12/2022

Tätigkeitsbeschreibung

Das Team, in dem ich gearbeitet habe, generiert täglich Millionen von Bestellentscheidungen als Teil einer vollständig automatisierten und cloudbasierten SaaS-Lösung für große Einzelhandelskunden. Täglich angesetzte Datenpipelines ermöglichen es dem Optimierungsalgorithmus, die neuesten Daten zu berücksichtigen und gleichzeitig Unsicherheiten und Einschränkungen einzubeziehen, um für die Kunden rechtzeitig die besten Entscheidungen zu treffen. Ich habe daran gearbeitet
- ein bestehendes Analysetool mit einem Dask-Cluster zu skalieren,
- einen Flask Service mit einer PostgreSQL-Datenbank inklusive ETL-Pipeline in Azure einzurichten, mit dem über eine REST API kommuniziert werden kann,
- Apache Airflow DAGs zu konfigurieren,
- anspruchsvolle SQL-Abfragen einschließlich CTEs für eine Exasol-Datenbank zu erstellen und anzupassen,
- komplexe Datenstrukturen in eine in Python geschriebene Datenpipeline zu integrieren,
- erforderliche Anpassungen am Partitionierungsmodell für die Parallelisierungslösung vorzunehmen und
- den in C++ geschriebenen Optimierungsalgorithmus zu verbessern und ihn mit neuen Funktionalitäten zu erweitern.

Eingesetzte Qualifikationen

Agile Methodologie, C++, Microsoft Azure, Python, SQL

wissenschaftliche Mitarbeiter (Festanstellung)
RWTH Aachen, Aachen
10/2016 – 3/2019 (2 Jahre, 6 Monate)
Logistikdienstleister
Tätigkeitszeitraum

10/2016 – 3/2019

Tätigkeitsbeschreibung

Ich war Teil eines Industrieforschungsprojekts an der RWTH Aachen, das das Transportnetzwerk für eines der weltweit führenden Logistikunternehmen optimierte. Meine Arbeit konzentrierte sich auf
- den Aufbau einer Datenpipeline, um die aktuellsten Daten einzubeziehen,
- die Implementierung eines problemspezifischen mathematischen Optimierungsalgorithmus und
- die Visualisierung der Lieferkette in einem Dashboard.

Eingesetzte Qualifikationen

C++, Python, SQL

Zertifikate

Microsoft Certified: Azure Data Engineer Associate
2023
Create Serverless Applications
2022
Data Science Nanodegree, Udacity
2020
Neural Networks and Deep Learning
2019

Ausbildung

Betriebswirtschaftslehre, Operations Research
Master of Science
2016
Aachen
Wirtschaftswissenschaften, Finance & Accounting
Bachelor of Science
2014
Frankfurt am Main

Über mich

Ich entwerfe und implementiere End-to-End Machine-Learning-Systeme in produktiven Umgebungen, insbesondere im Bereich quantitative Finanzmodelle und regelbasierte Entscheidungslogik. Mit über 8 Jahren Erfahrung entwickle ich skalierbare Datenpipelines (PySpark, Dask, Ray) und Cloud-native Architekturen (Azure, GCP, Docker, Serverless).

Ich bringe tiefes Know-how in der Modellierung und im Backtesting systematischer Handelsstrategien sowie in der regelkonformen Analyse von Transaktionsdaten (z. B. SWIFT-Nachrichten) mit. Darüber hinaus verfüge ich über Projekterfahrung in den Bereichen Compliance/AML, Demand Forecasting und Supply-Chain-Optimierung.

Meine Lösungen sind geprägt von effizientem Code (Python, SQL, C++), fundierter Nutzung moderner ML-Bibliotheken (pandas, NumPy, scikit-learn, XGBoost, Gurobi, Airflow) und einem durchdachten Einsatz von Datenbanken und Speichersystemen (PostgreSQL, Exasol, Blob Storage).

Ich arbeite eng mit Fach- und IT-Abteilungen zusammen, kommuniziere klar und strukturiert, und dokumentiere meine Arbeit nachvollziehbar. Zweisprachig: Deutsch & Englisch.

Persönliche Daten

Sprache
  • Deutsch (Muttersprache)
  • Englisch (Fließend)
Reisebereitschaft
auf Anfrage
Arbeitserlaubnis
  • Europäische Union
  • Schweiz
  • Vereinigte Staaten von Amerika
Home-Office
bevorzugt
Profilaufrufe
1067
Alter
35
Berufserfahrung
8 Jahre und 10 Monate (seit 10/2016)
Projektleitung
2 Jahre

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden