Senior Consultant AI Engineering
- Verfügbarkeit einsehen
- 0 Referenzen
- 125€/Stunde
- 76275 Ettlingen
- DACH-Region
- de | en
- 17.04.2026
- Contract ready
Kurzvorstellung
Geschäftsdaten
Qualifikationen
Projekt‐ & Berufserfahrung
3/2026 – 4/2026
Tätigkeitsbeschreibung
Als AI Solutions Architect entwerfe ich die Azure-Infrastruktur für eine Voice-KI-Lösung, bei der ein Teams-Bot automatisierte Anrufe via Azure Communication Services (ACS) initiiert. Ich verantworte das Architekturmodell für Real-Time-Audio-Processing sowie die Absicherung der Cloud-Umgebung. In enger Zusammenarbeit mit dem AI-Engineering realisierte ich zudem die Anbindung an AI Foundry über bidirektionale WebSockets. Konkret setze ich folgende Anforderungen um:
- Aufbau einer skalierbaren Container-Umgebung (Azure Container
Apps) für FastAPI und Real-Time-Audio-Schnittstellen
- Implementierung von VNet-Isolation, Private Endpoints sowie
Identitätsmanagement via Managed Identities und Key Vault.
- Orchestrierung der Infrastruktur mittels Terraform und
automatisierte Bereitstellung über GitLab CI/CD.
- Konfiguration von ACS (Call Automation API) und Bot Service zur
Signalisierung und Mediensteuerung.
- Anbindung von AI Foundry über WebSockets sowie Etablierung von Application Insights für das Tracing.
Kundenberater
8/2025 – 3/2026
Tätigkeitsbeschreibung
In diesem Projekt übernahm ich die Verantwortung als Engineering Lead mit strategischer Product-Owner-Funktion. Für eine komplexe Datenmigration auf Basis von Dagster, Snowflake und AWS, sicherte ich den technischen Unterbau der ELT -Infrastruktur und steuerte parallel die fachliche Priorisierung. Ich realisierte ein Architekturmodell zur Abbildung von Kimball-Strukturen über verschiedene Datenzustände hinweg und etablierte Engineering-Best-Practices. Als zentrale Schnittstelle zu den Stakeholdern vereinte ich technisches
Mentoring, Architektur-Entscheidungen und Anforderungsmanagement. Ich arbeitete mit folgendem Tech-Stack:
- dbt zur Versionierung und Modellierung von Datenmodellen nach Kimball.
- dagster zur Datenorchestrierung sowie Snowflake als Data Warehouse.
- AWS-Infrastruktur (u. a. EC2, ECR, EC2, RDS, Secret-Manager)
- Atlassian-Stack zur Dokumentation (Confluence), DevOps (Bitbucket) und Ticketmanagement (Jira).
Amazon Web Services (AWS), Cloud-Services, Data Engineer, Data Warehousing, Docker, Kundenberater, Snowflake, Solution Architekt, Solution Architektur, SQL
2/2025 – 7/2025
Tätigkeitsbeschreibung
Als Mitglied eines cross-functional T eams besteht meine Aufgabe darin, eine Generative AI-Applikation zu implementieren, die verschiedene Rechnungsarten klassifiziert sowie deren Informationen (Rechnungspositionen- und Nummern, Preise, Währung, Absender und Empfänger,, MwSt.(-Nummer) etc.) in verschiedenen Sprachen extrahiert und anschließend in AWS S3 persistiert. Zudem unterstütze ich beim Ticket-Refinement, der Konzeption und Aufbau der Produktivumgebung in AWS. Konkret realisieren ich folgende Anforderungen:
- Implementierung einer Multi-Agent-Architektur mit LangGraph.
- Modell-Serving sowie Monitoring und Tracing der Modellnutzung mittels LangFuse.
- Kontinuierliche Verbesserung der GenAI-App durch structured output und prompt engineering.
- Bereitstellung der GenAI-App sowie LangFuse durch Containerisierung und Nutzung der AWS-Dienste, insb. mit ECS, ECR, S3 und RDS.
- Kontinuierliche Dokumentation sowie Kommunikation an Stakeholder.
Kundenberater, Solution Architekt, Solution Architektur, Amazon Web Services (AWS), Cloud-Services, Docker, Generative KI, Langchain, Product Owner, Scrum
12/2024 – 1/2025
Tätigkeitsbeschreibung
Das Ziel des Projekts war es, ein State-Of-The-Art RAG-System zu implementieren, um unterschiedliche Quellen von Unternehmensdaten in eine Vektordatenbank zu überführen und diese embeddete Daten unter datenschutzrechtliche Kriterien mittels natürlicher Sprache auslesen zu können. Meine Tätigkeiten umfassten:
- Die Implementierung der retrieval-augmented generative (RAG) Pipelines mit Haystack unter Berücksichtigung von semantischer Suche und strukturierte Datenausgaben mit Datenschemata und function calls.
- Die Zurverfügungstellung der OpenAI-Modelle in Azure mit Endpunkt-Anbindung, um Compliance-Anforderungen zu erfüllen.
- Das Tracing und Prompt Management zur kontinuierlichen Verbesserung der LLM-Applikation mittels Langfuse.
- Die Implementierung einer benutzerfreundlichen UI mittels Chainlit.
- Die Bereitstellung der Embeddings mittels der Vektordatenbank qdrant durch eine Docker-Umgebung.
Generative KI, Langchain, Large Language Models, Vektordatenbank, Python
5/2024 – 12/2025
Tätigkeitsbeschreibung
In diesem Projekt ging es um die Modernisierung einer bestehenden Verwaltungssoftware. Hierzu wurden auf Basis einer Studie Release-Pakete definiert, zu deren Refinement und Realisierung ich innerhalb eines Scrum-T eams beitrug. Die Tätigkeiten umfassten:
- Die Implementierung von Geschäftslogiken, Schnittstellen(-erweiterungen) und Validatoren mit dem Spring Framework und Java 17 mittels Hexagonal Architecture.
- Database-Migrationen mit Flyway sowie Anpassungen und Implementierung von PL/SQL-Prozeduren für bitemporale Daten.
- Die Erweiterung des Frontends mittels Angular 19.
Kundenberater, Git, PL/SQL, DevOps, Java (allg.), Jira, Scrum, Spring Framework
6/2023 – 5/2024
Tätigkeitsbeschreibung
Die Data Analytics Platform des Kunden wurde in Azure realisiert und stellt fachbereichspezifische Dashboards via PowerBI zur Verfügung. Das Ziel des Projekts war es, den Kunden in seiner Datenstrategie zu beraten sowie beim Betrieb und der Weiterentwicklung der Datenplattform zu unterstützen. Meine Tätigkeiten umfassten hierbei:
- Die Anbindung verschiedener Datenquellen wie bspw. SAP ABAP/SAPI, Oracle-DBs, REST -APIs und Binary-Files in Data Lakes.
- Die Datenmodellierung- und Transformation im Data Warehouse mittels dbt.
- Den Aufbau, die Weiterentwicklung und das Monitoring der Datapipelines in Azure Data Factory und Sentry.
- Die kontinuierliche Beratung, Dokumentation und Zusammenarbeit innerhalb eines SCRUM-T eams.
Kundenberater, Data Science, Azure Synapse Analytics, Big Data, Data Warehousing, Microsoft SQL-Server (MS SQL), SQL, SQL Entwickler, Cloud (allg.), Sentry, Microsoft Azure, Cloud-Services
6/2023 – 8/2023
Tätigkeitsbeschreibung
Der Kunde arbeitet mit verschiedenen Datenbanken, die On-Premise zur Verfügung stehen. Das Ziel des Projekts war es, eine flexible Streaming-Architektur zu implementieren, die auf Datenänderungen verschiedener Datenquellen in Echtzeit reagiert und die Streams in Echtzeit überträgt. Diese Streams wurden in Azure weiterverarbeitet, persistiert und in Echtzeit visualisiert. Meine Tätigkeiten umfassten:
- Die Konzeption und Implementierung einer production-ready Streaming-Architektur, die flexibel unterschiedlichste Stream Sources an Azure weiterleiten kann.
- Die Anbindung von CDC-fähigen Datenbanken an Azure durch Middleware (OpenShift), insbesondere durch Debezium als KafkaConnector.
- Die Konfiguration von Azure-Diensten zur Streaming-Verarbeitung (u.a. Event Hubs, Stream Analytics, PowerBI, Azure Data Lake Storage Gen 2).
- Kontinuierliche Beratung, Dokumentation und Zusammenarbeit innerhalb eines SCRUM-T eams.
- Zwischen April 2024 und Mai 2024 erfolgte die Produktivsetzung, welche Ausfalltests, Kafka-Monitoring und Recovery-Management beinhaltete.
Kundenberater, Apache Kafka, Azure Synapse Analytics, Internet of Things (IoT), Microsoft Azure, Microsoft SQL-Server (MS SQL), Power Bi, Scrum, SQL, Streaming, Transact-Sql
3/2023 – 5/2023
Tätigkeitsbeschreibung
Im Unternehmen wurde eine Wiki-Software mit Suchfunktionen eingesetzt, um unternehmensinterne Informationen zu durchsuchen. Ziel des Projekts war es, ein Plugin zu entwickeln, welches internen Daten in eine Vektordatenbank speichert, sodass diese abgefragt und in natürlicher Sprache wiedergegeben werden konnten. Meine Tätigkeiten umfassten:
- Die Implementierung des Plugins, was die Datentransformation, die Erzeugung von T okens und Embeddings und den Upsert der Daten in die Vektordatenbank inkludierte.
- Das Hosting des Plugins in DigitalOcean.
- Die Einbindung des Plugins in die OpenAI-Plattform ChatGPT, damit die Informationen innerhalb eines Conversational User Interface abgefragt werden konnten.
- Die Erstellung einer Dokumentation und eines Webinars, welches die Softwarearchitektur und essenzielle Aspekte des Projekts erläuterte.
Generative KI, Natural Language Generation, Natural Language Understanding, Vektordatenbank, Python
1/2023 – 6/2023
Tätigkeitsbeschreibung
In diesem Projekt wurden Telemetriedaten, wie z. B. Vibrationsdaten, genutzt, um Muster in diesen zu erkennen und so neue Objekte anhand ihrer Telemetriedaten zu klassifizieren. Des Weiteren umfasste das Projekt ein Alarming-Service für potenziellen Datenausfälle und ein Dashboard, welches deskriptive Statistiken für den Endkunden bereitstellt. Das Projekt wurde mithilfe von Sensoren sowie moderner Cloud-Komponenten realisiert. Meine Tätigkeiten umfassten:
- Das Task Management mit Jira, Architekturentscheidungen, Code Reviews und Verantwortung für das Branching.
- Die Implementierung des Alarming-Services mit AWS Lambda.
- Das Deployment verschiedener Cloud-Komponenten mittels Terraform, wie bspw. IoT-Topic Rules, Lambda-Funktionen, SNS-Services und DynamoDB-Zugriffe.
- Die Konzeption und Realisierung des Dashboards sowie die Integration und Verarbeitung der IoT-Echtzeitdaten.
Amazon Web Services (AWS), Cloud-Services, Data Science, Datenarchitektur, Python, Solution Architekt, Streaming
11/2022 – 11/2022
Tätigkeitsbeschreibung
Ziel des Projekts war es, eine manuelle Datenbeschaffung durch eine automatisierte Vollbeladung mittels MQTT -Streaming abzulösen. Anschließend sollte die neue Datenquelle in diverse Projekte integriert werden. Durch dieses Projekt wurde eine permanente Aktualisierung essenzieller Daten innerhalb eines Data Lakes gewährleistet. Meine Tätigkeiten umfassten:
- Die Implementierung eines MQTT -Subscriber-Clients, um auf definierte T opics innerhalb von nicht-ersistenten Connections reagieren zu können.
- Die Entwicklung einer automatischen Hive-Tabellenbeladung innerhalb einer durch Kerberos-geschützten HDFS-Verbindung.
- Die Implementierung eines Docker-Containers, welcher innerhalb eines K8s-Clusters das Scheduling der Beladung übernahm.
Lineare Regression, Logistische Regression, Pandas, Scikit-learn, Machine Learning, Python
5/2022 – 7/2022
Tätigkeitsbeschreibung
Ziel war die Entwicklung einer ML-getriebenen Lösung, um die Auswirkungen von Produktpreisen auswerten zu können. Hierzu wurden die Absätze von konkurrierenden als auch von substituierenden Gütern berücksichtigt. Die Auswertungen basierten auf Preis- sowie Kreuzpreiselastizitäten, die mittels linearer Regressionen erzeugt wurden. Als letzte Komponente des Projekts wurde auf Basis der Preiselastizitäten eine Simulation für Gesamtumsätze beliebiger Märkte entwickelt. Das Projekt wurde in Partnerschaft mit einem Dienstleister erstellt. Meine Tätigkeiten umfassten:
- Die Anforderungsanalyse und das Monitoring des Projekts.
- Die Implementierung eines multivariaten Ansatzes als Alternative zu einer univariaten linearen Regression.
- Die Data Ingestion sowie die Architektur der ML-Pipelines.
- Die Definitionen der Eingangsparameter und Schnittstellen, um eine reibungslose Integration in die bestehende Big-Data-Infrastruktur zu ermöglichen.
Apache Spark, SQL, Lineare Regression, Logistische Regression, Pandas, Scikit-learn, Python
1/2022 – 4/2022
Tätigkeitsbeschreibung
Um den End-to-End ML-Workflow zu komplettieren, sollte in einer neuen Big-Data-Infrastruktur eine umfassende Lösung für das Loggen und Monitoren von deployten ML-Services implementiert werden. Hierzu war es wichtig, dass alle essenzielle ML-Schritte (Datenaufbereitung, Training/Evaluation sowie Inferencing) getrackt werden konnten. Dies realisierte ich wie folgt:
- Zunächst implementierte ich eine Logging-Bibliothek in Python, die für jeden einzelnen Baustein verwendet werden konnte. Außerdem fügte ich mit Flask REST -Schnittstellen hinzu, um Health-Checks mit Elastic zu ermöglichen.
- Die geloggten Daten (JSONs) wurden in ein definiertes Persistence Volumn eines K8s-Pods geschrieben.
Diese wurden wiederum an einen Elastic-Server mittels Logging-Prozessors gesendet.
- Mithilfe von Kibana konnten im letzten Schritt Alerts, Filtermöglichkeiten sowie Dashboards erzeugt werden, um flexibles sowie umfassendes Monitoring zu realisieren
DevOps, MLOps, Python, Elasticsearch, Kubernetes
1/2021 – 12/2022
Tätigkeitsbeschreibung
Ziel war die Entwicklung eines Produktempfehlungssystems auf Basis von Bondaten. Hierbei sollte es ermöglicht werden, den Warenkorb in Echtzeit nach neuen Artikeln zu tracken und dynamisch passende Produktempfehlungen auszugeben. Es wurde ein hybrides Empfehlungssystem entwickelt, um das Kaufverhalten der Kunden sowie die Merkmale der Produkte in einem System zu berücksichtigen.
Das Projekt enthielt des Weiteren folgende Features:
- Automatisiertes Modell-Training für definierte Märkte.
- Neben dem Hybrid-Modell wurde ein Assoziationsanalyse-Modell verwendet, um Produktempfehlungen ohne Kundenidentifikationen zu ermöglichen.
- Modell-Registrierung und Bereitstellung (Inferencing) mit MLFlow, um den Service für physische als auch für Online-Märkte zur Verfügung zu stellen.
- Tabelle im Hadoop-System, um Produktvorschläge mittels A/B-Tests bewerten und entsprechend Modelle optimieren zu können.
Apache Hadoop, Apache Spark, SQL, MLOps, Scikit-learn, Python
1/2021 – 12/2022
Tätigkeitsbeschreibung
Ziel war die Entwicklung einer Warenkorbanalyseapplikation, welche benutzerdefinierte Parameter zur Ausführung erlaubte. Dazu zählen Zeitspannen, Selektion und Filterung spezifischer Warengruppen und deren Hierarchien, flexible Marktselektionen sowie assoziationsspezifische Hyperparameter. Es folgt eine Auflistung weiterer Funktionen:
- Die Data Preparation nutzte PySpark, um durch parallele Datenverarbeitung eine bestmögliche Laufzeit zu erreichen. Das Monitoring des Spark-Jobs erfolgte über den Cloudera Manager.
- Eine moderne Web-UI die mit Streamlit gebaut wurde, ermöglichte es, Ad-Hoc-Anfragen auszuführen und die Ergebnisse in Hadoop abzulegen.
- Ein Cronjob-Scheduling persistierte wöchentlich für definierte Märkte Assoziationsregeln, die als Modelle via MlFlow bereitgestellt werden.
- Ein separates Skript stellte spezifische Diagramme und Auswertungen bereit, um die Assoziationsregeln automatisiert auszuwerten.
Apache Hadoop, Apache Spark, SQL, MLOps, Pandas, Scikit-learn, Docker, Python
11/2019 – 6/2020
Tätigkeitsbeschreibung
Das Unternehmen verwendete zur Prognose von Absatzmengen ein System, welches auf klassischen statistischen Methoden basierte. Demgemäß war das Ziel, mithilfe moderner ML-getriebener Verfahren unter Aggregation externer Datensätze, das eingesetzte Prognosensystem zu überbieten. Das Projekt inkludierte eine umfassende Datenaufbereitung sowie die Vorhersage mehrerer Sortimentshierarchien. Die neuen Prognosen wurden etwa für Umsatzsimulationen und Nachschubprozesse verwendet. Für das Forecasting habe ich verschiedene ML-Verfahren mit unterschiedlichen Zeitspannen und Evaluationsmethoden ausgewertet:
- Stochastische Modelle (ARIMA) sowie Ensemble Methods (GBR, XGBoost, Random Forest) jeweils mit Methoden für Parameteroptimierungen.
- Für komplexe Datensätze mit einer Vielzahl an Merkmalen nutzte ich Keras für eigenerstellte rekurrente neuronale Netze.
- Zur Evaluation der Performances wurden Validierungsplots sowie regressionsspezifische Diagramme, wie Residual- und Prediction-Truth-Diagramme, verwendet.
Lineare Regression, Logistische Regression, Pandas, Rekurrentes Neuronales Netzwerk (RNN), Scikit-learn, Python
1/2019 – 6/2019
Tätigkeitsbeschreibung
Ziel des Projekts war es, automatisiert Lebensmittelprodukte auf Werbeträger mittels Object Detection lokalisieren sowie klassifizieren zu können. Die ermittelten Daten hätten anschließend in ein bestehendes Preissystem zur weiteren Verwendung eingebettet werden sollen. Die Lokalisierung und Erfassung von Produkten auf Werbeträgern wurden bis dato von Mitarbeitern des Unternehmens manuell durchgeführt, weswegen eine Automatisierung dieser Tätigkeit einen enormen Effizienzgewinn darstellte.
Meine Aufgaben umfassten folgende Tätigkeiten:
- Eruierung geeigneter Deep Learning-Frameworks zur Realisierung des Projekts
- Implementierung und Evaluation verschiedener Object Detection-Methoden mittels T ensorFlow Object Detection API sowie TensorBoard.
- Konzepterarbeitung eines RESTful Webservices zur Integration des ML-Modells in das bestehende Preissystem.
- Zur Realisierung des Projekts wurden neben T ensorFlow etablierte Bibliotheken wie Pandas, Matplotlib und Numpy verwendet.
Machine Learning Engineer, Pandas, Tensorflow, Machine Learning, Python
11/2017 – 2/2018
Tätigkeitsbeschreibung
Ziel der Tätigkeit war es, einen Chatbot zu realisieren, welcher in der Lage sein sollte, Anfragen eines Benutzers zu interpretieren, entsprechende Datenquellen zu durchsuchen und daraufhin passende Informationen zur Verfügung zu stellen. Das CUI stellte eine äußerst natürliche und effiziente Lösung zur Informationsbeschaffung dar. Vor der Realisierung erfolgte eine Marktanalyse zu modernen ML-Ansätzen im Bereich Natural Language Processing.
Meine Tätigkeiten umfassten:
- Das Training eines Chatbots mittels Google Dialogflow.
- Die Implementierung von REST -Services, die wiederum Informationen des Chatbots via Webhooks verarbeiteten.
- Das Hosting eines Anwendungsservers mittels AWS EC2-Instanz, um via Cloud Hosting den Chatbot öffentlich zur Verfügung zu stellen.
- Die Integration des CUIs in Slack, um dem Endanwender eine einfache und natürliche Bedienung zu ermöglichen.
Amazon Web Services (AWS), Java (allg.), Natural Language Generation, Natural Language Understanding, Representational State Transfer (REST)
Zertifikate
Scrum Alliance
Ausbildung
Hochschule Offenburg
Offenburg
Hochschule Offenburg
Offenburg
Weitere Kenntnisse
- Generative AI und Multi-Agenten-Systeme: Spezialisierung auf Generative AI, RAG-Systeme und Multi-Agenten-Systeme für innovative KI-Lösungen
- Cloud-Plattformen / Solution Architecture: Umfassende Kenntnisse in Microsoft Azure und Amazon Web Services für skalierbare Cloud-Architekturen
- Large Language Models: Erfahrung mit OpenAI ChatGPT, Google Gemini und Anthropic Claude für fortgeschrittene NLP-Anwendungen
- Programmiersprachen: Professionelle Entwicklung mit Python für Data Science und KI-Projekte
- Big Data Technologien: Expertise in Apache Spark und Dagster für große Datenverarbeitungspipelines
- Kenntnisse in LangChain und LangGraph für dezentrale Anwendungen, Monitoring unter anderem mit Langfuse
- Natural Language Processing: Spezialisierung auf Langfuse für erweiterte Sprachverarbeitungsaufgaben
- Zertifizierter Product Owner
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Europäische Union
- Schweiz
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden
