Senior Consultant Data Science
- Verfügbarkeit einsehen
- 0 Referenzen
- 100€/Stunde
- Heidelberg
- DACH-Region
- de | en
- 06.02.2026
- Contract ready
Kurzvorstellung
Geschäftsdaten
Qualifikationen
Projekt‐ & Berufserfahrung
6/2025 – 8/2025
Tätigkeitsbeschreibung
Da die bisherige Arbeitsweise des Data Science Teams an ihre technischen Grenzen stößt, benötigt der Kunde eine skalierbare KI-Plattform für Predictive Maintenance. Nach der Konzeption, erfolgt der Aufbau der Plattform phasenweise, sodass sie über Zwischenschritte letztendlich konzernweit zum Einsatz kommt.
Ziel des Projekts ist eine Verbesserung der Effizienz von Entwicklung und Einsatz von KI-Modellen. Die Automatisierung von grundlegenden oder sich wiederholenden Vorgängen in der Arbeit mit KI-Modellen führt zu Kostenreduktion durch effizienteren Personaleinsatz und eröffnet dem Kunden Freiräume zum weiteren Ausbau seiner KI-Fähigkeiten.
AI Solutions Developer:
- Strategische Konzeption der KI-Plattform basierend auf Databricks
- Einrichtung und Aufbau der benötigten Databricks Workspaces
- Entwicklung und Umsetzung eines angepassten ML-Lifecycle Modells
Machine Learning Engineer:
- Weiterentwicklung bestehender, isolierter KI-Modelle zur optimalen Nutzung der durch die Plattform bereitgestellten Möglichkeiten
- Implementierung von Automatisierungen und Pipelines für Entwicklung, Testen und Deployment von KI-Modellen
- No-Code-Applikation für nicht-technische Endanwender zur Steuerung der Modelle
Apache Spark, Databricks, MLOps
6/2025 – offen
Tätigkeitsbeschreibung
Innerhalb des Unternehmens liegen große Menge wichtiger, nicht-öffentlicher Informationen vor. Aufgrund der unterschiedlichen eingesetzen Softwareprodukte und des historischen Ablaufs sind diese Daten für die Nutzer unübersichtlich und Querverweise häufig nicht vorhanden. Mithilfe eines von Grund auf neu entwickelten Chatbots auf Basis eines Agentensystems werden die Daten erschlossen und zugänglich gemacht. Detailierte Angaben zur Verarbeitung durch den Bot und zur Quelle der ausgegebenen Information sichern die Vertrauenswürdigkeit und Nachvollziehbarkeit.
Das Gesamtsystem besteht aus den grundlegenden Komponenten Frontend (Nutzeroberfläche), Backend (Agentensystem) und Knowledgebase (automatisierte Erstellung der Datenbasis der Agenten).
Entwicklung der Benutzeroberfläche des Chatbots
• Entwurf und Umsetzung der Benutzeroberfläche mithilfe von Streamlit
• Entwicklung der Kommunikationsstruktur mit der Backend-API
• Implementierung einer Chatverwaltung zum Starten, Löschen und Fortführen von Chats
• Integration einer Benutzerverwaltung über die vorhandenen Microsoft-Accounts der Nutzer
Implementierung und darauf folgende kontinuierliche Weiterentwicklung des Backendsystems
• Umfassende Überarbeitung der Backend-API auf Basis von FastAPI
• Erweiterung der Funktionalität des Chatbots durch Implementierung zusätzlicher Agenten
• Anbindung weiterer APIs und Websites an die Knowledgebase
• umfangreiches Refactoring der Codebasis als Grundlage zur Erreichung langfristiger Entwicklungsziele
Large Language Models, Microsoft SharePoint Server, Microsoft Azure, Amazon Web Services (AWS)
1/2025 – 3/2025
Tätigkeitsbeschreibung
Integration von SAP-Daten in Databricks für eine zentrale Datenverarbeitung.
Anbindung von Unternehmensdaten aus SAP-ERP-Systemen an eine bestehende Databricks-basierte Datenplattform, um eine konsolidierte und performante Datenverarbeitung zu ermöglichen.
- Analyse und Konzeption von Anbindungsstrategien (Föderation vs. Replikation) unter Berücksichtigung von Sicherheits- und Performance-Anforderungen
- Entwicklung und Evaluation der Datenintegrationspipelines
- Implementierung der Datenanbindung unter Berücksichtigung der Medaillonarchitektur und Integration in bestehende Datenkataloge
Databricks, Git, Python
1/2025 – offen
Tätigkeitsbeschreibung
KI-gestützte Dokumentenprüfung und Analyse technischer Zeichnungen.
Aus dem erfolgreichen Einsatz von KI in einem bestehenden Projekt zur Analyse technischer Zeichnungen ergab sich der Bedarf zur Weiterentwicklung des Systems und dem Aufbau eines weiteren Agentensystems zur Überprüfung von Dokumenten.
Weiterentwicklung eines KI-gestützten Analysesystems für technische Zeichnungen auf Basis einer Agentenarchitektur:
- Refactoring des Codes zur Verbesserung der Wartbarkeit und Skalierbarkeit
- Optimierung der Usability und des Designs des Web-Frontends
- Performance-Optimierung des Backends durch Überarbeitung der Agentenlogik und Prompt-Optimierung
Langchain, Python
7/2022 – 12/2024
Tätigkeitsbeschreibung
Hier ein Auszug der Aufgaben:
Geokoordinaten Klassifikation: Entwicklung eines Systems zur Klassifikation von Geokoordinaten von Fahrzeugen unter Berücksichtigung von Kartendaten und Fahrzeugdaten, einschließlich der Konzeption und Implementierung der Softwarekomponenten sowie der Entwicklung eigener Algorithmen.
Bild- und Videodatenverarbeitung: Neufassung einer Library zur Handhabung von Bild- und Videodaten für projektübergreifende Anwendungen, einschließlich umfangreichem Refactoring, der Neukonzeption von Interfaces und Codestruktur sowie Erweiterung des Funktionsumfangs.
Explorative Datenanalyse: Analyse und Visualisierung großer Fahrzeugdatenmengen aus mehreren CAN-Bussen, Erstellung von Konzepten zur Nutzung von identifizierten relevanten Daten für technische und fachfremde Stakeholder.
Explainable AI: Untersuchung und Anwendung erklärbarer KI-Methoden für verschiedene KI-Modelle, inklusive der Erstellung von Konzepten und der Implementierung eines Frameworks zur einfachen Anwendung von Explainable AI in vorhandenen Modellen.
Tracking-Algorithmen Weiterentwicklung: Weiterentwicklung und Verallgemeinerung von Tracking-Algorithmen zur Verarbeitung neuer Datenmodalitäten, einschließlich der Codeoptimierung und der Verbesserung der Ergebnisqualität und Geschwindigkeit.
Git LFS Rollout: Implementierung von Git LFS (Large File System) über mehrere Repositories hinweg, Anpassung der DevOps-Prozesse und Umzug vorhandener Daten, einschließlich der Anpassung der zugehörigen CI/CD-Pipelines.
Straßenschilderkennung: End-to-End-Entwicklung eines KI-Systems zur Erkennung und Interpretation von Straßenschildern, einschließlich der Konzeption der Architektur, dem Training der Modelle und der Implementierung von Algorithmen zur Datenerweiterung und -synthetisierung.
Hyperparameter Tuning Tool: Entwicklung eines Tools für automatisiertes Hyperparameter-Tuning zur einfachen Bedienung auch durch unerfahrene Nutzer, Demonstration an mehreren KI-Modellen und Schulung von Entwicklern.
KI-Modell Trainingsüberwachung: Konzeption und Implementierung eines Systems zur Überwachung und Archivierung von KI-Modelltrainings auf Basis von AWS Sagemaker, einschließlich der Entwicklung eines Python-Pakets zur automatisierten Datenerfassung und Auswertung.
Projektion zwischen Koordinatensystemen: Entwicklung und Optimierung von Algorithmen zur Projektion zwischen verschiedenen 2D- und 3D-Koordinatensystemen, einschließlich der Erweiterung auf neue Datenmodalitäten und der Entwicklung interaktiver Tools zur Kalibrierung.
Amazon Web Services (AWS), DevOps (allg.), Docker, Git, Machine Learning Engineer, MLOps, Pytorch, Scikit-learn
1/2022 – 12/2022
Tätigkeitsbeschreibung
Datenstrategie: Konzeption einer zukunftsfähigen, konzernweiten Datenstrategie eines international tätigen Konzerns.
Aufgabe: Durchführung von Workshops zur Bedarfsanalyse und kontinuierlichen Weiterentwicklung mit allen relevanten Stakeholdern Erarbeitung von Alternativvorschlägen zur Systemarchitektur unter Berücksichtigung der vorhandenen Systeme und Workflows, und mit Fokus auf die zentrale, unkomplizierte Zugänglichmachung von Daten (Aufbrechen von Datensilos und Verkürzen der "Time to Insight") Ermittlung und Vorauswahl passender Tools innerhalb der vorgeschlagenen Durchführung von Tests und Umsetzung von Proof-of-Concept Detaillierte Ausarbeitung der vom Kunden bevorzugten Systemarchitektur und Ausarbeitung des Konzepts mit sozio-technischem Ansatz Dokumentation technischer Guidelines zur Umsetzung, sowie Hilfsmittel zur Umsetzung in sozialem Kontext (bspw. Rollenbeschreibungen und User Stories).
Databricks, Datenmodelierung, ETL, Datamanager, Snowflake, Virtualisierung (Allg.), Amazon Web Services (AWS), SAP BW
Zertifikate
Ausbildung
Max-Planck-Institut für Astronomie
Heidelberg
Universität Heidelberg
Heidelberg
Universität Heidelberg
Heidelberg
Über mich
Unternehmen stehen zunehmend vor der Herausforderung, die riesigen Mengen an Daten, die sie generieren, sinnvoll zu nutzen. Oft fehlen die geeigneten Tools und Prozesse, um aus diesen Daten verwertbare Informationen zu extrahieren und in konkrete Handlungen umzuwandeln. Hier komme ich und die Five1 GmbH ins Spiel: Mit meiner Erfahrung im Bereich der Datenmodellierung, Machine Learning, MLOps und der Erstellung von Dateninfrastrukturen unterstütze ich Unternehmen dabei, maßgeschneiderte Lösungen zu entwickeln, die Daten nicht nur sammeln, sondern effektiv verarbeiten und in entscheidende Wettbewerbsvorteile umwandeln.
Meine Arbeit erstreckt sich über den gesamten Machine Learning Life Cycle, von der Konzeptentwicklung über die Modellierung bis hin zur Operationalisierung und kontinuierlichen Optimierung der Lösungen. Ich habe erfolgreich Machine Learning Systeme für verschiedene Branchen, einschließlich Automobilindustrie und Pharma, implementiert und dabei komplexe Anforderungen, wie erklärbare KI (Explainable AI), in Lösungen integriert, die nicht nur präzise, sondern auch nachvollziehbar und transparent sind.
Weitere Kenntnisse
Ich habe umfangreiche Erfahrungen in der Konzeption und Implementierung von Dateninfrastrukturen, die es Unternehmen ermöglichen, ihre Daten effizient zu nutzen und den Zugang zu relevanten Informationen zu vereinfachen. Mein Ziel ist es, komplexe Datenströme in wertvolle Insights umzuwandeln, die nicht nur das operative Geschäft verbessern, sondern auch zu strategischen Entscheidungen und Innovationen führen.
Ich bringe ein fundiertes Verständnis für die Herausforderungen mit, die Unternehmen im Umgang mit großen, komplexen Datensätzen haben, und unterstütze sie dabei, die richtigen Methoden und Tools auszuwählen, um diese Herausforderungen zu meistern. Durch den Einsatz von MLOps und CI/CD-Praktiken sorge ich dafür, dass Machine Learning Lösungen kontinuierlich optimiert und angepasst werden können, um langfristige Erfolge zu sichern.
Mein Hintergrund in der wissenschaftlichen Forschung hat mir nicht nur geholfen, analytische Fähigkeiten zu entwickeln, sondern auch, Lösungen zu schaffen, die auf den neuesten wissenschaftlichen Methoden basieren. Ich habe Erfahrung in der Leitung interdisziplinärer Projekte und in der Zusammenarbeit mit Stakeholdern auf allen Ebenen, was mir ermöglicht, Lösungen zu entwickeln, die sowohl technisch fundiert als auch auf die spezifischen Bedürfnisse des Unternehmens zugeschnitten sind.
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Europäische Union
- Schweiz
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden
