
Consultant Data Science
- Verfügbarkeit einsehen
- 0 Referenzen
- 85€/Stunde
- 69126 Heidelberg
- DACH-Region
- de | en | fr
- 04.06.2025
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
8/2024 – offen
Tätigkeitsbeschreibung
Entwicklung eines Prototypen eines KI-basierten Prozessagenten für ein Unternehmen aus der Einzelhandelstechnologie-Branche. Der Agent ist in der Lage, aus textuellen Prozessbeschreibungen BPMN 2.0 Diagramme zu erzeugen und Nutzerfeedback zu integrieren. Der Prototyp wurde mit LangGraph entwickelt und nutzt OpenAI-Modelle für die Analyse und Verarbeitung.
- Implementierung von KI-gestützten Diagrammgeneratoren
- Integration von Nutzerfeedback in den Prozess
- Verwendung moderner KI-Frameworks für die Entwicklung und Evaluierung
- Weitere eingesetzte Tools und Technologien: LangGraph, OpenAI API
Langchain, Docker, Python
1/2024 – 7/2024
Tätigkeitsbeschreibung
Entwicklung einer AWS Sagemaker Plattform für den internen Einsatz bei einem führenden Energienetzbetreiber. Ziel des Projekts war es, eine cloudbasierte Arbeitsumgebung zu schaffen, die den internen Data Scientists die Arbeit in der Cloud ohne tiefgehende Cloud-Kenntnisse ermöglicht. Hierbei wurden verschiedene CDK Stacks mithilfe des TypeScript SDK entwickelt und erfolgreich deployt.
- Umsetzung einer skalierbaren und nutzerfreundlichen Plattform
- enge Zusammenarbeit mit dem Data Science Team
- Entwicklung und Deployment der Infrastruktur als Code mittels AWS CDK
- Weitere eiingesetzte Tools und Technologien: Development Kit (CDK), CI/CD, GitLab
Typescript, Amazon Web Services (AWS)
9/2023 – offen
Tätigkeitsbeschreibung
Betreuung und Wartung einer Cluster-Infrastruktur, um eine Gesundheitsapp zu hosten. Dabei umfassen die Aufgaben die kontinuierliche Verbesserung der Verfügbarkeit, Skalierbarkeit und Stabilität des EKS-Clusters. Als Operations Engineer tragen wir erfolgreich dazu bei, die reibungslose Funktionsweise der Infrastruktur sicherzustellen.
- Betreuung der Cluster-Infrastruktur für das Hosten einer Gesundheitsapp
- Weiterentwicklung der Verfügbarkeit, Skalierbarkeit und Stabilität von EKS
- Entwicklung von CI/CD-Pipelines für die Automatisierung von Code Dokumentation
- Zugriffskontrolle von Metrikendpunkten
- Weitere eingesetzte Tools und Technologien: Bitbucket, CI/CD, Confluence, Drone CI, Grafana, Helm, Prometheus, Terraform
Jira, Amazon Web Services (AWS), Kubernetes
6/2023 – 7/2023
Tätigkeitsbeschreibung
Analyse und Bewertung von zwei Vorhersagemodellen in der Kundenproduktion. Ziel war die Identifikation von Optimierungspotenzialen für die bestehenden Modelle. Ein Workshop wurde entwickelt, der dem Kunden die Zeitreihenvorhersage erläuterte und ihren Nutzen verdeutlichte. Zusätzlich präsentierten wir bewährte Modelle und planten ein Folgeprojekt mit dem Kunden.
- Eine Analyse des vorliegenden Qlik und Python Codes hinsichtlich Modell Performance und Aufbau wurde durchgeführt.
- Dabei wurden wichtige Hyperparameter der Modelle vorgestellt und das Konzept des Hyperparameter Tunings erläutert.
- Eine mögliche Übersetzung des Qlik Codes in Python QuellProgramm wurde aufgezeigt sowie die Vorteile hinsichtlich Recheneffizienz und Leistung besprochen.
- Es wurden Strategien zum Feature Engineering vorgestellt und externe Datenquellen zusammen mit dem Kunden besprochen und evaluiert.
- Weitere eingesetzte Tools und Technologien: AWS Sagemaker, Notebooks, CodeCommit, Darts, FacebookProphet, Jupyter, LSTM, PowerPoint, Qlik, SKLearn, Tensorflow
Python, Amazon Web Services (AWS)
3/2023 – 5/2023
Tätigkeitsbeschreibung
Einarbeitung in die Zeitreihenanalyse und Predictive Modelling. Dabei wurden der aktuelle Stand der Praxis und Forschung ermittelt und in Form einer Reihe von Workshops abteilungsübergreifend vorgestellt. Für ein tieferes Verständnis wurden unterschiedliche Modelle zur Zeitreihenvorhersage auf IoT- und Umsatzdaten getestet, sowie eine ausführliche explorative Datenanalyse (EDA) vorgenommen.
- Für die Recherche und Einarbeitung in das Thema der Zeitreihenvorhersage wurden aktuelle Publikationen aus Forschung und Wissenschaft sowie Lehrbücher verwendet.
- Informationen wurden zusammengetragen und in Form mehrerer abteilungsübergreifender Workshops vorgestellt.
- Experimentelle Analyse von Facebook Prophet, LSTM und XGBoost Modellen zur Vorhersagengenerierung.
- Untersuchung von Auswirkungen auf die Modellperformance durch Anreicherung mit externen Datenquellen wie z.B. Feiertage, (Schul-)ferien, Wetterdaten
- Erstellen eines Do It Yourself Tutorials in Form eines Jupyter Notebooks.
- Weitere eingesetzte Tools und Technologien: AWS Sagemaker, Notebooks, CodeCommit , Darts, FacebookProphet, Jupyter, PowerPoint, SKLearn, Tensorflow
Python, Amazon Web Services (AWS)
2/2023 – 3/2023
Tätigkeitsbeschreibung
Entwicklung einer umfassenden ML-Ops Pipeline für die Erstellung, Schulung und Bereitstellung von ML-Modellen in AWS Sagemaker. Die Pipeline wurde mithilfe der Sagemaker Python SDK entwickelt und der Fokus lag in der Bereitstellung von selbstgeschriebenen und angepassten Modellen. Der Prozess wurde für die nachhaltige, interne Wissensaufbereitung dokumentiert und in Form eines Workshops vorgestellt.
- Ein Heart Failure Prediction Modell wurde in Sagemaker Studio entwickelt und getestet.
- Für die Verwendung des Modells mit Sagemaker Pipelines wurde ein spezielles Dockerfile erstellt mit vordefiniertem Ordnerverzeichnis.
- Zur Erstellung einer CI/CD Pipeline wurde aus dem AWS Service Catalog ein Sagemaker Project eingerichtet und angepasst.
- Über die AWS Console wurden Sagemaker Endpoints konfiguriert und für das Modelldeployment bereitgestellt.
- Die verwendeten Ressourcen wurden anschaulich als Übersicht visualisiert.
- Das Vorgehen wurde in Form eines internen Workshops vorgestellt. Dafür wurde auch ein eigen erstelltes Jupyter Notebook verwendet zum interaktiven Erstellen der Pipeline.
- Weitere eingesetzte Tools und Technologien: Cloudwatch, CodeBuild, CodeCommit, CodePipeline, ECR, IAM, S3, Sagemaker
Bash Shell, Docker, Python, Cloud (allg.), Amazon Web Services (AWS)
11/2022 – 2/2023
Tätigkeitsbeschreibung
Implementierung von einer Cloud Architektur zum Aggregieren und Weiterverarbeiten von Daten, sowie anschließender Analyse mittels Maschinellem Lernen. Das Deployment der kompletten Infrastruktur erfolgte als 'Infrastructure As Code' mit Terraform. Die Planung der dafür notwendigen, einzelnen Arbeitspakete wurde agil durchgeführt. Bei der Analyse wurden Prinzipien von ML-Ops angewandt und Docker Container mithilfe von CodePipeline gebaut und durch StepFunctions orchestriert.
- Für die Aggregation der Daten wurde ein Python-Skript eingesetzt, das automatisiert auf einer EC2 Instanz lief
-Die gesammelten Daten wurden in S3 gespeichert und die Analyse und Weiterverarbeitung erfolgten über Athena und AWS Sagemaker
- Zum Monitoring wurden Cloudwatch und eine Lambda Funktion verwendet, die bei Störungen Benachrichtigungen per SNS versendeten
- Die Instanz wurde in einer eigenen VPC gehostet, war über AWS Session Manager erreichbar und wurde mittels dafür angelegter IAM Rollen autorisiert
- ML-Ops in AWS zum automatisierten Deployment des entwickelten Modells
- Der Machine Learning Code wurde mit Docker containerisiert
- Weitere eingesetzte Tools und Technologien: Athena, Bash, Cloudwatch, CodePipeline, EC2, ECR, Glue, IAM, Lambda, S3, Sagemaker, SNS, StepFunctions, Terraform, VPC
Docker, Python
1/2019 – 1/2022
Tätigkeitsbeschreibung
Unterstützung bei Forschungsprojekten und Lehrtätigkeiten im Bereich der Physik.
Implementierung einer neuronalen Netzwerkarchitektur in Python mithilfe von Pytorch und Tensorflow zur Lösung einer rigiden Punktwolkenregistrierung. Anschließend wurden geeignete Hyperparameter wie die Learning Rate und die Batch Size empirisch ermittelt. Die zugrunde liegenden Punktwolken wurden von CAD Modellen gesampelt.
Physik, Python, Tensorflow
Ausbildung
Universität München
München
Universität Heidelberg
Heidelberg
Über mich
Meine Arbeit reicht von der Entwicklung von KI-basierten Prozessagenten und interaktiven Analyse-Tools bis hin zur Implementierung von Cloud-Infrastrukturen mit AWS und Azure. Ein Schwerpunkt liegt auf dem Aufbau nutzerfreundlicher Plattformen, die es Data Scientists ermöglichen, auch ohne tiefgreifende Cloud-Kenntnisse produktiv zu arbeiten.
Im Gesundheitswesen habe ich Kubernetes-Cluster betreut und CI/CD-Pipelines für automatisierte Code-Dokumentation entwickelt, während ich im Einzelhandel und Energiesektor KI-Lösungen zur Prozessautomatisierung und Datenanalyse realisiert habe. Zudem bringe ich Erfahrung in der Durchführung von Workshops und Schulungen mit, um Wissen effektiv zu vermitteln.
Ich arbeite gerne interdisziplinär, um innovative Lösungen zu entwickeln, die technische Herausforderungen meistern und gleichzeitig den praktischen Nutzen für die Anwender maximieren.
Weitere Kenntnisse
Meine Expertise umfasst außerdem die Entwicklung von CI/CD-Pipelines, automatisiertes Testing und die Nutzung von Infrastructure-as-Code-Technologien wie Terraform. Ich habe zudem mit komplexen Datensätzen aus Medizin, Energie und Einzelhandel gearbeitet und dabei interaktive Visualisierungen und Analyse-Dashboards erstellt.
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Französisch (Gut)
- Europäische Union
- Schweiz
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden