freiberufler Consultant Data Science auf freelance.de

Consultant Data Science

zuletzt online vor wenigen Stunden
  • 85€/Stunde
  • 69126 Heidelberg
  • DACH-Region
  • de  |  en  |  fr
  • 04.06.2025

Kurzvorstellung

Data Science Consultant mit Fokus auf Machine Learning, Deep Learning und Cloud-Infrastruktur. Erfahrung in der Entwicklung skalierbarer ML-Plattformen und KI-gestützter Prozessautomatisierung für Gesundheitswesen, Einzelhandel und Energie.

Qualifikationen

  • Generative KI
  • Machine Learning
  • Amazon Web Services (AWS)2 J.
  • Cloud Computing
  • Computer Vision
  • Docker1 J.
  • Git
  • Identitätsmanagement
  • Jira1 J.
  • Kubernetes1 J.
  • Langchain
  • Physik3 J.
  • Python4 J.
  • Tensorflow3 J.

Projekt‐ & Berufserfahrung

AI Solutions Developer (Festanstellung)
Kundenname anonymisiert, Heidelberg
8/2024 – offen (11 Monate)
Einzelhandel
Tätigkeitszeitraum

8/2024 – offen

Tätigkeitsbeschreibung

Entwicklung eines Prototypen eines KI-basierten Prozessagenten für ein Unternehmen aus der Einzelhandelstechnologie-Branche. Der Agent ist in der Lage, aus textuellen Prozessbeschreibungen BPMN 2.0 Diagramme zu erzeugen und Nutzerfeedback zu integrieren. Der Prototyp wurde mit LangGraph entwickelt und nutzt OpenAI-Modelle für die Analyse und Verarbeitung.

- Implementierung von KI-gestützten Diagrammgeneratoren
- Integration von Nutzerfeedback in den Prozess
- Verwendung moderner KI-Frameworks für die Entwicklung und Evaluierung
- Weitere eingesetzte Tools und Technologien: LangGraph, OpenAI API

Eingesetzte Qualifikationen

Langchain, Docker, Python

Cloud Solution Engineer (Festanstellung)
Kundenname anonymisiert, Heidelberg
1/2024 – 7/2024 (7 Monate)
Versorgungswirtschaft
Tätigkeitszeitraum

1/2024 – 7/2024

Tätigkeitsbeschreibung

Entwicklung einer AWS Sagemaker Plattform für den internen Einsatz bei einem führenden Energienetzbetreiber. Ziel des Projekts war es, eine cloudbasierte Arbeitsumgebung zu schaffen, die den internen Data Scientists die Arbeit in der Cloud ohne tiefgehende Cloud-Kenntnisse ermöglicht. Hierbei wurden verschiedene CDK Stacks mithilfe des TypeScript SDK entwickelt und erfolgreich deployt.

- Umsetzung einer skalierbaren und nutzerfreundlichen Plattform
- enge Zusammenarbeit mit dem Data Science Team
- Entwicklung und Deployment der Infrastruktur als Code mittels AWS CDK
- Weitere eiingesetzte Tools und Technologien: Development Kit (CDK), CI/CD, GitLab

Eingesetzte Qualifikationen

Typescript, Amazon Web Services (AWS)

Operations Engineer (Festanstellung)
Five1 GmbH, Heidelberg
9/2023 – offen (1 Jahr, 10 Monate)
Gesundheitswesen
Tätigkeitszeitraum

9/2023 – offen

Tätigkeitsbeschreibung

Betreuung und Wartung einer Cluster-Infrastruktur, um eine Gesundheitsapp zu hosten. Dabei umfassen die Aufgaben die kontinuierliche Verbesserung der Verfügbarkeit, Skalierbarkeit und Stabilität des EKS-Clusters. Als Operations Engineer tragen wir erfolgreich dazu bei, die reibungslose Funktionsweise der Infrastruktur sicherzustellen.

- Betreuung der Cluster-Infrastruktur für das Hosten einer Gesundheitsapp
- Weiterentwicklung der Verfügbarkeit, Skalierbarkeit und Stabilität von EKS
- Entwicklung von CI/CD-Pipelines für die Automatisierung von Code Dokumentation
- Zugriffskontrolle von Metrikendpunkten
- Weitere eingesetzte Tools und Technologien: Bitbucket, CI/CD, Confluence, Drone CI, Grafana, Helm, Prometheus, Terraform

Eingesetzte Qualifikationen

Jira, Amazon Web Services (AWS), Kubernetes

Data Science Consultant (Festanstellung)
Kundenname anonymisiert, Heidelberg
6/2023 – 7/2023 (2 Monate)
Produzierendes Gewerbe
Tätigkeitszeitraum

6/2023 – 7/2023

Tätigkeitsbeschreibung

Analyse und Bewertung von zwei Vorhersagemodellen in der Kundenproduktion. Ziel war die Identifikation von Optimierungspotenzialen für die bestehenden Modelle. Ein Workshop wurde entwickelt, der dem Kunden die Zeitreihenvorhersage erläuterte und ihren Nutzen verdeutlichte. Zusätzlich präsentierten wir bewährte Modelle und planten ein Folgeprojekt mit dem Kunden.

- Eine Analyse des vorliegenden Qlik und Python Codes hinsichtlich Modell Performance und Aufbau wurde durchgeführt.
- Dabei wurden wichtige Hyperparameter der Modelle vorgestellt und das Konzept des Hyperparameter Tunings erläutert.
- Eine mögliche Übersetzung des Qlik Codes in Python QuellProgramm wurde aufgezeigt sowie die Vorteile hinsichtlich Recheneffizienz und Leistung besprochen.
- Es wurden Strategien zum Feature Engineering vorgestellt und externe Datenquellen zusammen mit dem Kunden besprochen und evaluiert.
- Weitere eingesetzte Tools und Technologien: AWS Sagemaker, Notebooks, CodeCommit, Darts, FacebookProphet, Jupyter, LSTM, PowerPoint, Qlik, SKLearn, Tensorflow

Eingesetzte Qualifikationen

Python, Amazon Web Services (AWS)

Data Analyst (Festanstellung)
Five1 GmbH, Heidelberg
3/2023 – 5/2023 (3 Monate)
IT & Entwicklung
Tätigkeitszeitraum

3/2023 – 5/2023

Tätigkeitsbeschreibung

Einarbeitung in die Zeitreihenanalyse und Predictive Modelling. Dabei wurden der aktuelle Stand der Praxis und Forschung ermittelt und in Form einer Reihe von Workshops abteilungsübergreifend vorgestellt. Für ein tieferes Verständnis wurden unterschiedliche Modelle zur Zeitreihenvorhersage auf IoT- und Umsatzdaten getestet, sowie eine ausführliche explorative Datenanalyse (EDA) vorgenommen.

- Für die Recherche und Einarbeitung in das Thema der Zeitreihenvorhersage wurden aktuelle Publikationen aus Forschung und Wissenschaft sowie Lehrbücher verwendet.

- Informationen wurden zusammengetragen und in Form mehrerer abteilungsübergreifender Workshops vorgestellt.

- Experimentelle Analyse von Facebook Prophet, LSTM und XGBoost Modellen zur Vorhersagengenerierung.

- Untersuchung von Auswirkungen auf die Modellperformance durch Anreicherung mit externen Datenquellen wie z.B. Feiertage, (Schul-)ferien, Wetterdaten

- Erstellen eines Do It Yourself Tutorials in Form eines Jupyter Notebooks.
- Weitere eingesetzte Tools und Technologien: AWS Sagemaker, Notebooks, CodeCommit , Darts, FacebookProphet, Jupyter, PowerPoint, SKLearn, Tensorflow

Eingesetzte Qualifikationen

Python, Amazon Web Services (AWS)

MLOps Engineer (Festanstellung)
Five1 GmbH, Heidelberg
2/2023 – 3/2023 (2 Monate)
IT & Entwicklung
Tätigkeitszeitraum

2/2023 – 3/2023

Tätigkeitsbeschreibung

Entwicklung einer umfassenden ML-Ops Pipeline für die Erstellung, Schulung und Bereitstellung von ML-Modellen in AWS Sagemaker. Die Pipeline wurde mithilfe der Sagemaker Python SDK entwickelt und der Fokus lag in der Bereitstellung von selbstgeschriebenen und angepassten Modellen. Der Prozess wurde für die nachhaltige, interne Wissensaufbereitung dokumentiert und in Form eines Workshops vorgestellt.

- Ein Heart Failure Prediction Modell wurde in Sagemaker Studio entwickelt und getestet.
- Für die Verwendung des Modells mit Sagemaker Pipelines wurde ein spezielles Dockerfile erstellt mit vordefiniertem Ordnerverzeichnis.
- Zur Erstellung einer CI/CD Pipeline wurde aus dem AWS Service Catalog ein Sagemaker Project eingerichtet und angepasst.
- Über die AWS Console wurden Sagemaker Endpoints konfiguriert und für das Modelldeployment bereitgestellt.
- Die verwendeten Ressourcen wurden anschaulich als Übersicht visualisiert.
- Das Vorgehen wurde in Form eines internen Workshops vorgestellt. Dafür wurde auch ein eigen erstelltes Jupyter Notebook verwendet zum interaktiven Erstellen der Pipeline.
- Weitere eingesetzte Tools und Technologien: Cloudwatch, CodeBuild, CodeCommit, CodePipeline, ECR, IAM, S3, Sagemaker

Eingesetzte Qualifikationen

Bash Shell, Docker, Python, Cloud (allg.), Amazon Web Services (AWS)

Cloud Infrastructure Developer (Festanstellung)
Five1 GmbH, Heidelberg
11/2022 – 2/2023 (4 Monate)
IT & Entwicklung
Tätigkeitszeitraum

11/2022 – 2/2023

Tätigkeitsbeschreibung

Implementierung von einer Cloud Architektur zum Aggregieren und Weiterverarbeiten von Daten, sowie anschließender Analyse mittels Maschinellem Lernen. Das Deployment der kompletten Infrastruktur erfolgte als 'Infrastructure As Code' mit Terraform. Die Planung der dafür notwendigen, einzelnen Arbeitspakete wurde agil durchgeführt. Bei der Analyse wurden Prinzipien von ML-Ops angewandt und Docker Container mithilfe von CodePipeline gebaut und durch StepFunctions orchestriert.

- Für die Aggregation der Daten wurde ein Python-Skript eingesetzt, das automatisiert auf einer EC2 Instanz lief
-Die gesammelten Daten wurden in S3 gespeichert und die Analyse und Weiterverarbeitung erfolgten über Athena und AWS Sagemaker
- Zum Monitoring wurden Cloudwatch und eine Lambda Funktion verwendet, die bei Störungen Benachrichtigungen per SNS versendeten
- Die Instanz wurde in einer eigenen VPC gehostet, war über AWS Session Manager erreichbar und wurde mittels dafür angelegter IAM Rollen autorisiert
- ML-Ops in AWS zum automatisierten Deployment des entwickelten Modells
- Der Machine Learning Code wurde mit Docker containerisiert
- Weitere eingesetzte Tools und Technologien: Athena, Bash, Cloudwatch, CodePipeline, EC2, ECR, Glue, IAM, Lambda, S3, Sagemaker, SNS, StepFunctions, Terraform, VPC

Eingesetzte Qualifikationen

Docker, Python

Wissenschaftliche Hilfskraft (Festanstellung)
Universität Heidelberg, Heidelberg
1/2019 – 1/2022 (3 Jahre, 1 Monat)
Forschung und Wissenschaften
Tätigkeitszeitraum

1/2019 – 1/2022

Tätigkeitsbeschreibung

Unterstützung bei Forschungsprojekten und Lehrtätigkeiten im Bereich der Physik.

Implementierung einer neuronalen Netzwerkarchitektur in Python mithilfe von Pytorch und Tensorflow zur Lösung einer rigiden Punktwolkenregistrierung. Anschließend wurden geeignete Hyperparameter wie die Learning Rate und die Batch Size empirisch ermittelt. Die zugrunde liegenden Punktwolken wurden von CAD Modellen gesampelt.

Eingesetzte Qualifikationen

Physik, Python, Tensorflow

Ausbildung

Masterstudium der Physik
Master of Science Physik
Universität München
2024
München
Studium der Physik (B. Sc.)
Bachelor of Science Physik
Universität Heidelberg
2022
Heidelberg

Über mich

Als Data Science Consultant verbinde ich fundiertes Wissen in Physik und modernen Machine Learning-Technologien mit praktischer Erfahrung in Cloud-basierten Lösungen. Ich entwickle skalierbare ML-Plattformen, automatisiere datengetriebene Prozesse und unterstütze Unternehmen dabei, KI effizient in ihre Geschäftsmodelle zu integrieren.

Meine Arbeit reicht von der Entwicklung von KI-basierten Prozessagenten und interaktiven Analyse-Tools bis hin zur Implementierung von Cloud-Infrastrukturen mit AWS und Azure. Ein Schwerpunkt liegt auf dem Aufbau nutzerfreundlicher Plattformen, die es Data Scientists ermöglichen, auch ohne tiefgreifende Cloud-Kenntnisse produktiv zu arbeiten.

Im Gesundheitswesen habe ich Kubernetes-Cluster betreut und CI/CD-Pipelines für automatisierte Code-Dokumentation entwickelt, während ich im Einzelhandel und Energiesektor KI-Lösungen zur Prozessautomatisierung und Datenanalyse realisiert habe. Zudem bringe ich Erfahrung in der Durchführung von Workshops und Schulungen mit, um Wissen effektiv zu vermitteln.

Ich arbeite gerne interdisziplinär, um innovative Lösungen zu entwickeln, die technische Herausforderungen meistern und gleichzeitig den praktischen Nutzen für die Anwender maximieren.

Weitere Kenntnisse

Ich verfüge über umfangreiche Kenntnisse in Deep Learning, Explainable AI, Datenmodellierung und der Nutzung moderner Cloud-Services (AWS, Azure). Tools wie Python, TensorFlow, PyTorch, Langchain, Docker und Kubernetes gehören zu meinem Alltag. Zusätzlich bringe ich Erfahrung in Frontend-Technologien wie React mit, um benutzerfreundliche Anwendungen zu gestalten.

Meine Expertise umfasst außerdem die Entwicklung von CI/CD-Pipelines, automatisiertes Testing und die Nutzung von Infrastructure-as-Code-Technologien wie Terraform. Ich habe zudem mit komplexen Datensätzen aus Medizin, Energie und Einzelhandel gearbeitet und dabei interaktive Visualisierungen und Analyse-Dashboards erstellt.

Persönliche Daten

Sprache
  • Deutsch (Muttersprache)
  • Englisch (Fließend)
  • Französisch (Gut)
Reisebereitschaft
DACH-Region
Arbeitserlaubnis
  • Europäische Union
  • Schweiz
Home-Office
bevorzugt
Profilaufrufe
30
Alter
27
Berufserfahrung
6 Jahre und 5 Monate (seit 01/2019)

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden