Senior AI und ML Engineer
- Verfügbarkeit einsehen
- 0 Referenzen
- 80€/Stunde
- 45128 Essen
- Europa
- en | de
- 27.02.2026
- Contract ready
Kurzvorstellung
Geschäftsdaten
Qualifikationen
Projekt‐ & Berufserfahrung
4/2023 – 2/2026
Tätigkeitsbeschreibung
• Konzeption und Implementierung einer skalierbaren Enterprise-KI-Architektur zur Revolutionierung von E-Commerce-Prozessen mittels LLM-basierter Microservices.
• Entwicklung von Multi-Agenten-Systemen unter Verwendung von LangChain und CrewAI zur Automatisierung komplexer Kundenservice-Workflows und personalisierter Interaktionen.
• Integration von Large Language Models wie GPT-4 und BERT in bestehende Shop-Systeme (Shopware,Magento) über hochperformante FastAPI- und Django-Backends.
• Aufbau von automatisierten Content-Management-Systemen zur Generierung SEO-optimierter Produktbeschreibungen mittels Natural Language Generation (NLG).
• Implementierung von intelligenten Empfehlungs-Engines und Sentiment-Analyse-Tools zur Echtzeit-Auswertung von Kundenrezensionen und Verhaltensdaten.
• Etablierung von MLOps-Pipelines mit MLFlow und GitHub Actions zur Automatisierung von Modell-Training, Testing und Deployment in Cloud-Umgebungen.
• Entwicklung von KI-gestützten Systemen zur Betrugserkennung bei Zahlungsprozessen unter strikter Einhaltung der DSGVO-Richtlinien.
• Orchestrierung von containerisierten Anwendungen mittels Docker und Kubernetes zur Gewährleistung einer hochverfügbaren und belastbaren Systemarchitektur.
• Design von ETL-Strecken und Daten-Pipelines zur Aufbereitung von Big Data für das Fine-Tuning von domänenspezifischen Sprachmodellen.
• Sicherstellung der Systemstabilität durch umfassendes Monitoring, Logging und Observability-Strategien innerhalb einer agilen Scrum Umgebung.
Tech-Stack:
Programmiersprachen: Python, Node.js, Java.
Frameworks & Bibliotheken: FastAPI, Flask, Django, LangChain, CrewAI, PyTorch, Hugging Face, Ollama, llama.cpp, OpenEmbedded.
Infrastruktur & DevOps: Docker, Kubernetes, GitHub Actions, MLFlow, AWS, Azure ML, Databricks.
Datenbanken & Tools: PostgreSQL, Redis, Pinecone (Vector DB), SAP AI Core, Jira.
E-Commerce-Systeme: Shopware, Magento, REST-APIs.
Databricks, Docker, Elasticsearch, Jira, Kubernetes, Langchain, Large Language Models, Node.Js, Pandas, Postgresql, Python, Pytorch, SAP Applications, SQL
4/2022 – 4/2023
Tätigkeitsbeschreibung
• Entwicklung und Deployment einer skalierbaren Enterprise-KI-Architektur zur Optimierung von Energieversorgungsprozessen mittels Python und FastAPI-Microservices.
• Integration von Large Language Models wie GPT-4 und domänenspezifischen Modellen in bestehende Energiemanagementsysteme (EMS) und SCADA-Plattformen zur intelligenten Lastspitzenvorhersage.
• Konzeption und Implementierung von LLM-basierten Multi-Agenten-Systemen zur Automatisierung der Störfallanalyse und technischen Wartungsplanung unter Nutzung von LangChain und CrewAI.
• Aufbau robuster Daten-Pipelines und ETL-Strecken zur Echtzeit-Verarbeitung von Smart-Grid-Sensordaten, Wetterdaten und Marktpreisen für die Steuerung erneuerbarer Energien.
• Entwicklung von KI-gestützten Schnittstellen für Energiehandelsplattformen zur automatisierten Analyse von
Marktbedingungen und Optimierung der Energieverteilung.
• Etablierung von MLOps-Best-Practices durch Implementierung von CI/CD-Pipelines mit GitHub Actions, MLFlow und Docker zur Automatisierung von Modell-Deployments.
• Sicherstellung der Compliance mit EnWG-Regularien und BSI-IT-Sicherheitsstandards durch die Implementierung hochsicherer Authentifizierungs- und Verschlüsselungsprotokolle.
• Orchestrierung der Microservice-Landschaft mittels Kubernetes zur Gewährleistung von Hochverfügbarkeit und Fehlertoleranz in kritischen Infrastrukturkomponenten.
• Implementierung umfassender Monitoring- und Observability-Lösungen mit Prometheus und Grafana zur Überwachung der LLM-Performance und Systemstabilität.
• Entwicklung von Fallback-Mechanismen und Guardrails zur Absicherung der KI-generierten Handlungsempfehlungen für Techniker im Außendienst.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: FastAPI, Flask, LangChain, CrewAI, PyTorch, Hugging Face, Pydantic.
Infrastruktur & DevOps: Docker, Kubernetes, GitHub Actions, MLFlow, Azure ML, Databricks, Terraform.
Datenbanken & Monitoring: PostgreSQL, Redis, Pinecone (Vector DB), Prometheus, Grafana, ELK-Stack.
Domänenspezifische Tools: SCADA-Integration, REST-APIs, SAP AI Core, Jira (Scrum).
Apache Kafka, Bash Shell, Databricks, Docker, Elasticsearch, Kubernetes, Large Language Models, Linux-Systemadministrator, Maschinenführer Füllmaschine, Postgresql, Python, SQL
11/2020 – 4/2022
Tätigkeitsbeschreibung
• Entwicklung und Skalierung einer unternehmensweiten KI-Infrastruktur auf Azure zur Automatisierung von Kernprozessen in der Schadenfallbearbeitung und Risikobewertung.
• Implementierung von End-to-End MLOps-Pipelines mit Azure Machine Learning und MLFlow zur Automatisierung von Modell-Training, Validierung und Deployment für Versicherungsanträge.
• Design und Wartung hochperformanter Python-basierter Microservices unter Verwendung von FastAPI und Flask zur Orchestrierung von ML-Modellen für die Krankenversicherungstarifierung.
• Aufbau einer skalierbaren Data Platform auf Azure zur Integration heterogener Datenquellen wie Kundendaten, Schadenshistorien und externer Marktdaten mittels robuster ETL-Strecken.
• Entwicklung von Algorithmen zur Betrugserkennung und Implementierung von OCR-Systemen zur
automatisierten Dokumentenextraktion aus Versicherungskorrespondenz.
• Orchestrierung containerisierter ML-Services mittels Azure Kubernetes Service (AKS) und Docker zur Gewährleistung von Hochverfügbarkeit und Lastverteilung.
• Etablierung von CI/CD-Pipelines in Azure DevOps für automatisierte Unit-Tests, Modell-Performance-Checks und Blue-Green-Deployment-Strategien.
• Implementierung von Monitoring- und Observability-Lösungen mit Azure Application Insights und Grafana zur Echtzeit-Überwachung der Modell-Drift und Systemstabilität.
• Konzeption von A/B-Testing-Frameworks zur kontinuierlichen Optimierung von Vorhersagemodellen für die Kundenabwanderung (Churn Prediction).
• Sicherstellung der Compliance mit strengen DSGVO-Richtlinien und versicherungsspezifischen Regulierungen durch Implementierung sicherer Datenzugriffsschichten.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: FastAPI, Flask, Scikit-learn, PyTorch, Pandas, NumPy, Pydantic.
Infrastruktur & DevOps: Azure ML Services, Azure DevOps, Docker, Kubernetes (AKS), MLFlow, Terraform,
GitHub Actions.
Daten & Monitoring: Azure Data Lake, SQL Server, Azure Cosmos DB, Application Insights, Grafana, ELK-Stack.
Prozesse: MLOps, CI/CD, Agile (Scrum), Test-Driven Development (TDD).
Bash Shell, Databricks, Docker, Elasticsearch, Java (allg.), Jira, Kubernetes, Linux-Systemadministrator, Microsoft Azure, Node.Js, Pandas, Postgresql, Python, Pytorch, Scikit-learn
11/2019 – 11/2020
Tätigkeitsbeschreibung
• Konzeption und Implementierung hochsicherer KI-gestützter Systeme zur automatisierten Dokumentenverifikation
und biometrischen Identitätsprüfung unter Einhaltung von BSI-Standards.
• Entwicklung von Deep-Learning-Modellen mit Python zur Erkennung von Dokumentenfälschungen, integriert in eine skalierbare Microservice-Architektur auf Basis von FastAPI und Flask.
• Orchestrierung komplexer KI-Pipelines auf Kubernetes-Clustern unter Verwendung von Kubeflow zur Automatisierung von Bildverarbeitungsprozessen und Modell-Inferenz.
• Aufbau robuster MLOps-Workflows mit MLFlow und GitHub Actions zur kontinuierlichen Integration, zum Testing und zum automatisierten Deployment von ML-Modellen.
• Implementierung von Zero-Trust-Sicherheitskonzepten und Integration von Hardware Security Modules (HSM) zur Absicherung sensibler Identitätsdaten in der Cloud-Infrastruktur.
• Entwicklung föderierter Lernansätze (Federated Learning) zur datenschutzkonformen Modellverbesserung gemäß DSGVO und den Anforderungen der EU AI Act-Regulierung.
• Design und Wartung von ETL-Datenstrecken zur Aufbereitung hochauflösender Bilddaten für das Training von Convolutional Neural Networks (CNNs).
• Realisierung von Monitoring- und Observability-Lösungen mit Prometheus und Grafana zur Überwachung von Modell-Drift und Systemperformance in Echtzeit.
• Sicherstellung der Hochverfügbarkeit und Ausfallsicherheit der Dienste durch den Einsatz von Service-Mesh-Technologien wie Istio innerhalb der Kubernetes-Umgebung.
• Enge Zusammenarbeit in agilen Scrum-Teams mit Sicherheitsexperten zur Minimierung von False-Positive-Raten bei kritischen Verifikationsprozessen.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: FastAPI, Flask, PyTorch, TensorFlow, OpenCV, Scikit-learn, Pydantic.
Infrastruktur & DevOps: Kubernetes, Docker, Istio, Kubeflow, MLFlow, GitHub Actions, Helm, Terraform.
Sicherheit & Daten: HSM-Integration, OAuth2, OpenID Connect, PostgreSQL, Redis, Prometheus, Grafana.
Prozesse: MLOps, CI/CD, Agile (Scrum), BSI-IT-Grundschutz, DSGVO-Compliance.
Bash Shell, C++, Docker, Elasticsearch, Kubernetes, Linux-Systemadministrator, MLOps, Opencv, Postgresql, Python
10/2017 – 11/2019
Tätigkeitsbeschreibung
• Entwicklung und Optimierung hochpräziser Computer-Vision-Algorithmen zur automatisierten Identitätsprüfung und Dokumentenauthentifizierung für über 200 Länder.
• Implementierung von Deep-Learning-Modellen zur Erkennung von Dokumentenfälschungen durch Analyse von Sicherheitsmerkmalen wie Hologrammen, UV-Mustern und Wasserzeichen.
• Konzeption und Deployment von Systemen zur Gesichtserkennung und biometrischen Lebenderkennung (Liveness Detection) zur Prävention von Deep Fakes und Spoofing-Angriffen.
• Aufbau einer skalierbaren Microservices-Architektur auf Basis von Python, FastAPI und Flask zur Integration der Bildverarbeitungspipeline in die IDnow-Plattform.
• Entwicklung hochperformanter OCR-Systeme zur automatisierten Extraktion von Dokumenteninformationen unter Nutzung von Convolutional Neural Networks (CNNs).
• Etablierung von MLOps-Best-Practices durch Implementierung von CI/CD-Pipelines mit GitHub Actions und MLFlow zur Automatisierung von Modell-Training und Deployment.
• Orchestrierung der KI-Services mittels Docker und Kubernetes zur Sicherstellung der Hochverfügbarkeit und Skalierbarkeit bei Echtzeit-Identifikationsprozessen.
• Sicherstellung der Compliance mit strengen eIDAS-Verordnungen und BaFin-Anforderungen durch Implementierung sicherer Datenverarbeitungsschichten.
• Durchführung von A/B-Tests und statistischen Fehleranalysen zur kontinuierlichen Minimierung der False-Acceptance-Rate (FAR) und Optimierung der Verarbeitungszeit.
• Design robuster ETL-Strecken zur Aufbereitung großer Bilddatensätze für das Training von Modellen in TensorFlow und PyTorch innerhalb von Cloud-Umgebungen.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: OpenCV, TensorFlow, PyTorch, FastAPI, Flask, Scikit-image, Keras, Pandas,
NumPy.
Infrastruktur & DevOps: Docker, Kubernetes, GitHub Actions, MLFlow, AWS, Azure ML, RESTful APIs.
Datenbanken & Tools: PostgreSQL, Redis, MongoDB, Jira (Scrum), Git.
Prozesse & Compliance: MLOps, CI/CD, eIDAS, BaFin-Regularien, DSGVO, Biometrische Authentifizierung.
C++, Databricks, Docker, Elasticsearch, Kubernetes, Linux-Systemadministrator, Opencv, Pandas, Postgresql, Python, Pytorch, Scikit-learn, SQL, Tensorflow
4/2016 – 10/2017
Tätigkeitsbeschreibung
• Aufbau und Skalierung einer hochverfügbaren MLOps-Infrastruktur zur Prozessierung komplexer Genomsequenzierungsdaten und Proteinstrukturanalysen in der Wirkstoffforschung.
• Entwicklung automatisierter Python-basierter Pipelines für das Training und die Validierung von Deep-Learning-Modellen zur Vorhersage von Protein-Protein-Interaktionen.
• Implementierung von MLFlow als zentrales System für Experiment-Tracking, Modell-Versionierung und Registry zur Sicherstellung der Reproduzierbarkeit wissenschaftlicher Ergebnisse.
• Orchestrierung von GPU-Clustern mittels Kubernetes und Docker zur parallelen Ausführung rechenintensiver Modellexperimente und Bioinformatik-Workflows.
• Design und Implementierung von RESTful APIs mit FastAPI und Flask zur Bereitstellung trainierter Modelle für Forschungsteams und Laborinformationsmanagementsysteme (LIMS).
• Etablierung von CI/CD-Pipelines unter Nutzung von GitHub Actions zur Automatisierung von Modell-Tests und Deployment-Prozessen unter GxP-konformen Bedingungen.
• Entwicklung maßgeschneiderter MLFlow-Plugins zur Integration domänenspezifischer Metriken für die Qualitätskontrolle von Antikörpersequenz-Optimierungen.
• Implementierung umfassender Audit-Trails und Datenintegritätsprüfungen zur Einhaltung strenger regulatorischer Anforderungen in der Biotechnologie-Branche.
• Aufbau von Monitoring- und Observability-Lösungen mit Prometheus und Grafana zur Überwachung der Modellperformance und Systemstabilität in der Forschungsumgebung.
• Integration sicherer Datenzugriffsschichten und Verschlüsselungsprotokolle zur Verarbeitung sensibler
Forschungsdaten in Abstimmung mit Datenschutzrichtlinien.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: FastAPI, Flask, PyTorch, TensorFlow, Pandas, NumPy, Biopython.
Infrastruktur & DevOps: MLFlow, Docker, Kubernetes, GitHub Actions, AWS, Azure ML, Databricks.
Daten & Monitoring: PostgreSQL, Redis, Prometheus, Grafana, LIMS-Integration, ETL-Pipelines.
Prozesse: MLOps, CI/CD, GxP-Compliance, Agile (Scrum), Test-Driven Development (TDD).
Bash Shell, C++, Databricks, Docker, Elasticsearch, Kubernetes, Linux-Systemadministrator, Pandas, Postgresql, Python, Pytorch, Scikit-learn, SQL, Tensorflow
2/2015 – 4/2016
Tätigkeitsbeschreibung
• Entwicklung und Implementierung einer skalierbaren KI-Infrastruktur für das B2B-Banking zur Automatisierung von Kreditrisikobewertungen und Bilanzanalysen.
• Konzeption hochpräziser Machine-Learning-Modelle mit TensorFlow und PyTorch zur Erkennung komplexer Finanzbetrugsmuster und zur Analyse von Cashflow-Prognosen.
• Aufbau von NLP-Systemen zur automatisierten Extraktion und Klassifizierung von Informationen aus Geschäftsberichten und Kreditanträgen mittels Python und FastAPI.
• Implementierung von Echtzeit-Überwachungsalgorithmen für internationale B2B-Zahlungsströme unter Integration in bestehende SWIFT-Netzwerke und Bankeninfrastrukturen.
• Entwicklung von Scoring-Systemen für die automatisierte Kreditvergabe an Geschäftskunden unter strikter Einhaltung der Basel-III-Richtlinien und Compliance-Vorgaben.
• Etablierung von MLOps-Best-Practices durch den Einsatz von AWS SageMaker und MLFlow zur kontinuierlichen Überwachung der Modellperformance und Drift-Erkennung.
• Orchestrierung containerisierter ML-Services mittels Docker und Kubernetes zur Gewährleistung einer hochverfügbaren und regulatorisch konformen Systemarchitektur.
• Design robuster ETL-Datenstrecken zur Aufbereitung heterogener Finanzdaten aus Legacy-Systemen für das Training von Deep-Learning-Modellen.
• Implementierung von CI/CD-Pipelines mit GitHub Actions zur Automatisierung von Modell-Training, Testing und Deployment in Cloud-Umgebungen.
• Enge Zusammenarbeit mit Risikomanagern in einer agilen Scrum-Umgebung zur Reduzierung der Kreditentscheidungszeit von Tagen auf wenige Stunden.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: TensorFlow, PyTorch, FastAPI, Flask, Scikit-learn, Pandas, NumPy, Pydantic.
Infrastruktur & DevOps: AWS SageMaker, Docker, Kubernetes, GitHub Actions, MLFlow, Databricks, Terraform.
Daten & Monitoring: PostgreSQL, Redis, Prometheus, Grafana, SWIFT-Integration, REST-API.
Prozesse & Compliance: MLOps, CI/CD, Basel III, B2B Banking, Agile (Scrum), DSGVO.
Apache Kafka, Apache Spark, Bash Shell, Databricks, Docker, Kubernetes, Linux-Systemadministrator, Pandas, Postgresql, Python, Pytorch, Scikit-learn, SQL, Tensorflow
8/2013 – 2/2015
Tätigkeitsbeschreibung
• Entwicklung und Skalierung hochverfügbarer Backend-Systeme für eine zentrale B2B-Banking-Plattform zur effizienten Verwaltung von Einlagenprodukten.
• Implementierung mikroservicebasierter Architekturen mit Django und FastAPI zur Abwicklung kritischer Bankprozesse wie Kontoerstellung und Legitimationsprüfung.
• Integration komplexer Bankenschnittstellen über EBICS, HBCI und REST-APIs unter strikter Einhaltung von BaFin-Regularien und PSD2-Richtlinien.
• Konzeption und Umsetzung automatisierter KYC-Workflows und Matching-Algorithmen zur effizienten
Zusammenführung von Einlagenanbietern und -nachfragern.
• Design und Optimierung von Reconciliation-Systemen zum automatisierten Abgleich von Zahlungsströmen mittels Apache Kafka für Event-Streaming.
• Aufbau robuster Daten-Pipelines und ETL-Strecken zur Aufbereitung großer Transaktionsvolumina für das regulatorische Reporting an Aufsichtsbehörden.
• Implementierung von Caching-Strategien mit Redis und Optimierung komplexer PostgreSQL-Abfragen zur Sicherstellung maximaler Systemperformance.
• Etablierung von CI/CD-Best-Practices mit GitHub Actions und Docker zur Automatisierung von Testing- und Deployment-Prozessen in Cloud-Umgebungen.
• Entwicklung von Monitoring- und Observability-Lösungen zur Echtzeit-Überwachung von Systemstabilität und Performance-Metriken.
• Realisierung hochsicherer Authentifizierungsmechanismen und Verschlüsselungsprotokolle zum Schutz sensibler Finanzdaten gemäß IT-Sicherheitsstandards.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: Django, FastAPI, Flask, Celery, Pydantic, SQLAlchemy, Pytest.
Infrastruktur & DevOps: Docker, Kubernetes, GitHub Actions, AWS, Redis, Apache Kafka, Terraform.
Daten & Compliance: PostgreSQL, EBICS, HBCI, REST-APIs, BaFin-Regularien, PSD2, KYC-Prozesse.
Prozesse: Agile (Scrum), CI/CD, Microservices, Test-Driven Development (TDD), Monitoring & Logging.
Apache Kafka, Bash Shell, Databricks, Django, Docker, Kubernetes, Linux-Systemadministrator, Node.Js, Pandas, Postgresql, Python, SQL
3/2011 – 8/2013
Tätigkeitsbeschreibung
• Entwicklung und Skalierung komplexer Daten-Pipelines zur Integration von Handelsdaten aus Reuters und Bloomberg unter Einhaltung von MiFID II und Basel III.
• Implementierung robuster ETL-Prozesse mit Python und Pandas zur Konsolidierung heterogener Bankensysteme in eine zentrale Big-Data-Architektur.
• Orchestrierung von Workflow-Automatisierungen mittels Apache Airflow zur Optimierung von Echtzeit-Datenströmen für das globale Risikomanagement.
• Design und Entwicklung von Microservices auf Basis von FastAPI und Flask zur Integration von Zahlungssystemen wie SWIFT und SEPA.
• Aufbau automatisierter Monitoring- und Alerting-Systeme zur Erkennung von Unstimmigkeiten in Finanztransaktionen mittels fortgeschrittener Logging-Mechanismen.
• Implementierung von Machine-Learning-Modellen zur Betrugserkennung und Integration von Data Governance Frameworks zur Sicherstellung der DSGVO-Compliance.
• Automatisierung des regulatorischen Reportings für BaFin und EZB durch die Entwicklung skalierbarer Datenextraktions- und Validierungstools.
• Optimierung der Datenbankperformance durch komplexe SQL-Abfrageoptimierung und Implementierung von Caching-Strategien mit Redis bei hohen Transaktionsvolumina.
• Etablierung von CI/CD-Pipelines mit GitHub Actions und Docker zur Automatisierung von Testing- und Deployment-Prozessen in einer agilen Scrum-Umgebung.
• Konzeption von Disaster-Recovery-Lösungen und hochverfügbaren Schnittstellen für Fintech-Partner innerhalb des Online-Banking-Ökosystems.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: FastAPI, Flask, Django, Pandas, NumPy, SQLAlchemy, Airflow, Celery.
Infrastruktur & DevOps: Docker, Kubernetes, GitHub Actions, MLFlow, Jenkins, Terraform.
Daten & Monitoring: PostgreSQL, Oracle DB, Redis, Apache Kafka, Prometheus, Grafana, ELK-Stack.
Finanz-Schnittstellen: SWIFT, SEPA, Reuters API, Bloomberg Terminal, EBICS.
Prozesse & Compliance: MiFID II, Basel III, BaFin-Regularien, DSGVO, Agile (Scrum), MLOps.
Ansible, Apache Kafka, Bash Shell, Docker, Jenkins, Kubernetes, Linux-Systemadministrator, Mongodb, Pandas, Postgresql, Python, SQL
Ausbildung
London
Über mich
Persönliche Daten
- Englisch (Muttersprache)
- Deutsch (Fließend)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden
