freiberufler Senior AI und ML Engineer auf freelance.de

Senior AI und ML Engineer

zuletzt online vor wenigen Tagen
  • 80€/Stunde
  • 45128 Essen
  • Europa
  • en  |  de
  • 27.02.2026
  • Contract ready

Kurzvorstellung

Ich bin ein erfahrener AI Ingenieur mit über einem Jahrzehnt an Expertise in der Entwicklung und Skalierung von KI-Lösungen für Unternehmen.

Geschäftsdaten

 Gewerbetreibend
 Berufshaftpflichtversicherung aktiv

Qualifikationen

  • CrewAI
  • Databricks11 J.
  • Langchain2 J.
  • MLOps1 J.
  • Pandas13 J.
  • Postgresql15 J.
  • Python15 J.
  • Python-Programmierer
  • Pytorch9 J.
  • SQL12 J.

Projekt‐ & Berufserfahrung

AI Solutions Architect (LLM/Python)
Kundenname anonymisiert, Düsseldorf
4/2023 – 2/2026 (2 Jahre, 11 Monate)
IT & Entwicklung
Tätigkeitszeitraum

4/2023 – 2/2026

Tätigkeitsbeschreibung

• Konzeption und Implementierung einer skalierbaren Enterprise-KI-Architektur zur Revolutionierung von E-Commerce-Prozessen mittels LLM-basierter Microservices.
• Entwicklung von Multi-Agenten-Systemen unter Verwendung von LangChain und CrewAI zur Automatisierung komplexer Kundenservice-Workflows und personalisierter Interaktionen.
• Integration von Large Language Models wie GPT-4 und BERT in bestehende Shop-Systeme (Shopware,Magento) über hochperformante FastAPI- und Django-Backends.
• Aufbau von automatisierten Content-Management-Systemen zur Generierung SEO-optimierter Produktbeschreibungen mittels Natural Language Generation (NLG).
• Implementierung von intelligenten Empfehlungs-Engines und Sentiment-Analyse-Tools zur Echtzeit-Auswertung von Kundenrezensionen und Verhaltensdaten.
• Etablierung von MLOps-Pipelines mit MLFlow und GitHub Actions zur Automatisierung von Modell-Training, Testing und Deployment in Cloud-Umgebungen.
• Entwicklung von KI-gestützten Systemen zur Betrugserkennung bei Zahlungsprozessen unter strikter Einhaltung der DSGVO-Richtlinien.
• Orchestrierung von containerisierten Anwendungen mittels Docker und Kubernetes zur Gewährleistung einer hochverfügbaren und belastbaren Systemarchitektur.
• Design von ETL-Strecken und Daten-Pipelines zur Aufbereitung von Big Data für das Fine-Tuning von domänenspezifischen Sprachmodellen.
• Sicherstellung der Systemstabilität durch umfassendes Monitoring, Logging und Observability-Strategien innerhalb einer agilen Scrum Umgebung.
Tech-Stack:
Programmiersprachen: Python, Node.js, Java.
Frameworks & Bibliotheken: FastAPI, Flask, Django, LangChain, CrewAI, PyTorch, Hugging Face, Ollama, llama.cpp, OpenEmbedded.
Infrastruktur & DevOps: Docker, Kubernetes, GitHub Actions, MLFlow, AWS, Azure ML, Databricks.
Datenbanken & Tools: PostgreSQL, Redis, Pinecone (Vector DB), SAP AI Core, Jira.
E-Commerce-Systeme: Shopware, Magento, REST-APIs.

Eingesetzte Qualifikationen

Databricks, Docker, Elasticsearch, Jira, Kubernetes, Langchain, Large Language Models, Node.Js, Pandas, Postgresql, Python, Pytorch, SAP Applications, SQL

Senior LLM Integration Engineer (Python/FastAPI)
Kundenname anonymisiert, Köln
4/2022 – 4/2023 (1 Jahr, 1 Monat)
Automobilindustrie
Tätigkeitszeitraum

4/2022 – 4/2023

Tätigkeitsbeschreibung

• Entwicklung und Deployment einer skalierbaren Enterprise-KI-Architektur zur Optimierung von Energieversorgungsprozessen mittels Python und FastAPI-Microservices.
• Integration von Large Language Models wie GPT-4 und domänenspezifischen Modellen in bestehende Energiemanagementsysteme (EMS) und SCADA-Plattformen zur intelligenten Lastspitzenvorhersage.
• Konzeption und Implementierung von LLM-basierten Multi-Agenten-Systemen zur Automatisierung der Störfallanalyse und technischen Wartungsplanung unter Nutzung von LangChain und CrewAI.
• Aufbau robuster Daten-Pipelines und ETL-Strecken zur Echtzeit-Verarbeitung von Smart-Grid-Sensordaten, Wetterdaten und Marktpreisen für die Steuerung erneuerbarer Energien.
• Entwicklung von KI-gestützten Schnittstellen für Energiehandelsplattformen zur automatisierten Analyse von
Marktbedingungen und Optimierung der Energieverteilung.
• Etablierung von MLOps-Best-Practices durch Implementierung von CI/CD-Pipelines mit GitHub Actions, MLFlow und Docker zur Automatisierung von Modell-Deployments.
• Sicherstellung der Compliance mit EnWG-Regularien und BSI-IT-Sicherheitsstandards durch die Implementierung hochsicherer Authentifizierungs- und Verschlüsselungsprotokolle.
• Orchestrierung der Microservice-Landschaft mittels Kubernetes zur Gewährleistung von Hochverfügbarkeit und Fehlertoleranz in kritischen Infrastrukturkomponenten.
• Implementierung umfassender Monitoring- und Observability-Lösungen mit Prometheus und Grafana zur Überwachung der LLM-Performance und Systemstabilität.
• Entwicklung von Fallback-Mechanismen und Guardrails zur Absicherung der KI-generierten Handlungsempfehlungen für Techniker im Außendienst.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: FastAPI, Flask, LangChain, CrewAI, PyTorch, Hugging Face, Pydantic.
Infrastruktur & DevOps: Docker, Kubernetes, GitHub Actions, MLFlow, Azure ML, Databricks, Terraform.
Datenbanken & Monitoring: PostgreSQL, Redis, Pinecone (Vector DB), Prometheus, Grafana, ELK-Stack.
Domänenspezifische Tools: SCADA-Integration, REST-APIs, SAP AI Core, Jira (Scrum).

Eingesetzte Qualifikationen

Apache Kafka, Bash Shell, Databricks, Docker, Elasticsearch, Kubernetes, Large Language Models, Linux-Systemadministrator, Maschinenführer Füllmaschine, Postgresql, Python, SQL

MLOps & AI Platform Engineer (Python/Azure)
Kundenname anonymisiert, Hamburg
11/2020 – 4/2022 (1 Jahr, 6 Monate)
Versicherungen
Tätigkeitszeitraum

11/2020 – 4/2022

Tätigkeitsbeschreibung

• Entwicklung und Skalierung einer unternehmensweiten KI-Infrastruktur auf Azure zur Automatisierung von Kernprozessen in der Schadenfallbearbeitung und Risikobewertung.
• Implementierung von End-to-End MLOps-Pipelines mit Azure Machine Learning und MLFlow zur Automatisierung von Modell-Training, Validierung und Deployment für Versicherungsanträge.
• Design und Wartung hochperformanter Python-basierter Microservices unter Verwendung von FastAPI und Flask zur Orchestrierung von ML-Modellen für die Krankenversicherungstarifierung.
• Aufbau einer skalierbaren Data Platform auf Azure zur Integration heterogener Datenquellen wie Kundendaten, Schadenshistorien und externer Marktdaten mittels robuster ETL-Strecken.
• Entwicklung von Algorithmen zur Betrugserkennung und Implementierung von OCR-Systemen zur
automatisierten Dokumentenextraktion aus Versicherungskorrespondenz.
• Orchestrierung containerisierter ML-Services mittels Azure Kubernetes Service (AKS) und Docker zur Gewährleistung von Hochverfügbarkeit und Lastverteilung.
• Etablierung von CI/CD-Pipelines in Azure DevOps für automatisierte Unit-Tests, Modell-Performance-Checks und Blue-Green-Deployment-Strategien.
• Implementierung von Monitoring- und Observability-Lösungen mit Azure Application Insights und Grafana zur Echtzeit-Überwachung der Modell-Drift und Systemstabilität.
• Konzeption von A/B-Testing-Frameworks zur kontinuierlichen Optimierung von Vorhersagemodellen für die Kundenabwanderung (Churn Prediction).
• Sicherstellung der Compliance mit strengen DSGVO-Richtlinien und versicherungsspezifischen Regulierungen durch Implementierung sicherer Datenzugriffsschichten.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: FastAPI, Flask, Scikit-learn, PyTorch, Pandas, NumPy, Pydantic.
Infrastruktur & DevOps: Azure ML Services, Azure DevOps, Docker, Kubernetes (AKS), MLFlow, Terraform,
GitHub Actions.
Daten & Monitoring: Azure Data Lake, SQL Server, Azure Cosmos DB, Application Insights, Grafana, ELK-Stack.
Prozesse: MLOps, CI/CD, Agile (Scrum), Test-Driven Development (TDD).

Eingesetzte Qualifikationen

Bash Shell, Databricks, Docker, Elasticsearch, Java (allg.), Jira, Kubernetes, Linux-Systemadministrator, Microsoft Azure, Node.Js, Pandas, Postgresql, Python, Pytorch, Scikit-learn

AI Systems Developer (Python/Kubernetes)
Kundenname anonymisiert, Berlin
11/2019 – 11/2020 (1 Jahr, 1 Monat)
Öffentliche Verwaltung
Tätigkeitszeitraum

11/2019 – 11/2020

Tätigkeitsbeschreibung

• Konzeption und Implementierung hochsicherer KI-gestützter Systeme zur automatisierten Dokumentenverifikation
und biometrischen Identitätsprüfung unter Einhaltung von BSI-Standards.
• Entwicklung von Deep-Learning-Modellen mit Python zur Erkennung von Dokumentenfälschungen, integriert in eine skalierbare Microservice-Architektur auf Basis von FastAPI und Flask.
• Orchestrierung komplexer KI-Pipelines auf Kubernetes-Clustern unter Verwendung von Kubeflow zur Automatisierung von Bildverarbeitungsprozessen und Modell-Inferenz.
• Aufbau robuster MLOps-Workflows mit MLFlow und GitHub Actions zur kontinuierlichen Integration, zum Testing und zum automatisierten Deployment von ML-Modellen.
• Implementierung von Zero-Trust-Sicherheitskonzepten und Integration von Hardware Security Modules (HSM) zur Absicherung sensibler Identitätsdaten in der Cloud-Infrastruktur.
• Entwicklung föderierter Lernansätze (Federated Learning) zur datenschutzkonformen Modellverbesserung gemäß DSGVO und den Anforderungen der EU AI Act-Regulierung.
• Design und Wartung von ETL-Datenstrecken zur Aufbereitung hochauflösender Bilddaten für das Training von Convolutional Neural Networks (CNNs).
• Realisierung von Monitoring- und Observability-Lösungen mit Prometheus und Grafana zur Überwachung von Modell-Drift und Systemperformance in Echtzeit.
• Sicherstellung der Hochverfügbarkeit und Ausfallsicherheit der Dienste durch den Einsatz von Service-Mesh-Technologien wie Istio innerhalb der Kubernetes-Umgebung.
• Enge Zusammenarbeit in agilen Scrum-Teams mit Sicherheitsexperten zur Minimierung von False-Positive-Raten bei kritischen Verifikationsprozessen.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: FastAPI, Flask, PyTorch, TensorFlow, OpenCV, Scikit-learn, Pydantic.
Infrastruktur & DevOps: Kubernetes, Docker, Istio, Kubeflow, MLFlow, GitHub Actions, Helm, Terraform.
Sicherheit & Daten: HSM-Integration, OAuth2, OpenID Connect, PostgreSQL, Redis, Prometheus, Grafana.
Prozesse: MLOps, CI/CD, Agile (Scrum), BSI-IT-Grundschutz, DSGVO-Compliance.

Eingesetzte Qualifikationen

Bash Shell, C++, Docker, Elasticsearch, Kubernetes, Linux-Systemadministrator, MLOps, Opencv, Postgresql, Python

Computer Vision AI Engineer (Python/OpenCV)
Kundenname anonymisiert, München
10/2017 – 11/2019 (2 Jahre, 2 Monate)
IT & Entwicklung
Tätigkeitszeitraum

10/2017 – 11/2019

Tätigkeitsbeschreibung

• Entwicklung und Optimierung hochpräziser Computer-Vision-Algorithmen zur automatisierten Identitätsprüfung und Dokumentenauthentifizierung für über 200 Länder.
• Implementierung von Deep-Learning-Modellen zur Erkennung von Dokumentenfälschungen durch Analyse von Sicherheitsmerkmalen wie Hologrammen, UV-Mustern und Wasserzeichen.
• Konzeption und Deployment von Systemen zur Gesichtserkennung und biometrischen Lebenderkennung (Liveness Detection) zur Prävention von Deep Fakes und Spoofing-Angriffen.
• Aufbau einer skalierbaren Microservices-Architektur auf Basis von Python, FastAPI und Flask zur Integration der Bildverarbeitungspipeline in die IDnow-Plattform.
• Entwicklung hochperformanter OCR-Systeme zur automatisierten Extraktion von Dokumenteninformationen unter Nutzung von Convolutional Neural Networks (CNNs).
• Etablierung von MLOps-Best-Practices durch Implementierung von CI/CD-Pipelines mit GitHub Actions und MLFlow zur Automatisierung von Modell-Training und Deployment.
• Orchestrierung der KI-Services mittels Docker und Kubernetes zur Sicherstellung der Hochverfügbarkeit und Skalierbarkeit bei Echtzeit-Identifikationsprozessen.
• Sicherstellung der Compliance mit strengen eIDAS-Verordnungen und BaFin-Anforderungen durch Implementierung sicherer Datenverarbeitungsschichten.
• Durchführung von A/B-Tests und statistischen Fehleranalysen zur kontinuierlichen Minimierung der False-Acceptance-Rate (FAR) und Optimierung der Verarbeitungszeit.
• Design robuster ETL-Strecken zur Aufbereitung großer Bilddatensätze für das Training von Modellen in TensorFlow und PyTorch innerhalb von Cloud-Umgebungen.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: OpenCV, TensorFlow, PyTorch, FastAPI, Flask, Scikit-image, Keras, Pandas,
NumPy.
Infrastruktur & DevOps: Docker, Kubernetes, GitHub Actions, MLFlow, AWS, Azure ML, RESTful APIs.
Datenbanken & Tools: PostgreSQL, Redis, MongoDB, Jira (Scrum), Git.
Prozesse & Compliance: MLOps, CI/CD, eIDAS, BaFin-Regularien, DSGVO, Biometrische Authentifizierung.

Eingesetzte Qualifikationen

C++, Databricks, Docker, Elasticsearch, Kubernetes, Linux-Systemadministrator, Opencv, Pandas, Postgresql, Python, Pytorch, Scikit-learn, SQL, Tensorflow

AI Infrastructure Engineer (Python/MLFlow)
Kundenname anonymisiert, Oberhausen
4/2016 – 10/2017 (1 Jahr, 7 Monate)
IT & Entwicklung
Tätigkeitszeitraum

4/2016 – 10/2017

Tätigkeitsbeschreibung

• Aufbau und Skalierung einer hochverfügbaren MLOps-Infrastruktur zur Prozessierung komplexer Genomsequenzierungsdaten und Proteinstrukturanalysen in der Wirkstoffforschung.
• Entwicklung automatisierter Python-basierter Pipelines für das Training und die Validierung von Deep-Learning-Modellen zur Vorhersage von Protein-Protein-Interaktionen.
• Implementierung von MLFlow als zentrales System für Experiment-Tracking, Modell-Versionierung und Registry zur Sicherstellung der Reproduzierbarkeit wissenschaftlicher Ergebnisse.
• Orchestrierung von GPU-Clustern mittels Kubernetes und Docker zur parallelen Ausführung rechenintensiver Modellexperimente und Bioinformatik-Workflows.
• Design und Implementierung von RESTful APIs mit FastAPI und Flask zur Bereitstellung trainierter Modelle für Forschungsteams und Laborinformationsmanagementsysteme (LIMS).
• Etablierung von CI/CD-Pipelines unter Nutzung von GitHub Actions zur Automatisierung von Modell-Tests und Deployment-Prozessen unter GxP-konformen Bedingungen.
• Entwicklung maßgeschneiderter MLFlow-Plugins zur Integration domänenspezifischer Metriken für die Qualitätskontrolle von Antikörpersequenz-Optimierungen.
• Implementierung umfassender Audit-Trails und Datenintegritätsprüfungen zur Einhaltung strenger regulatorischer Anforderungen in der Biotechnologie-Branche.
• Aufbau von Monitoring- und Observability-Lösungen mit Prometheus und Grafana zur Überwachung der Modellperformance und Systemstabilität in der Forschungsumgebung.
• Integration sicherer Datenzugriffsschichten und Verschlüsselungsprotokolle zur Verarbeitung sensibler
Forschungsdaten in Abstimmung mit Datenschutzrichtlinien.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: FastAPI, Flask, PyTorch, TensorFlow, Pandas, NumPy, Biopython.
Infrastruktur & DevOps: MLFlow, Docker, Kubernetes, GitHub Actions, AWS, Azure ML, Databricks.
Daten & Monitoring: PostgreSQL, Redis, Prometheus, Grafana, LIMS-Integration, ETL-Pipelines.
Prozesse: MLOps, CI/CD, GxP-Compliance, Agile (Scrum), Test-Driven Development (TDD).

Eingesetzte Qualifikationen

Bash Shell, C++, Databricks, Docker, Elasticsearch, Kubernetes, Linux-Systemadministrator, Pandas, Postgresql, Python, Pytorch, Scikit-learn, SQL, Tensorflow

ML Engineer
Kundenname anonymisiert, Amsterdam
2/2015 – 4/2016 (1 Jahr, 3 Monate)
Banken
Tätigkeitszeitraum

2/2015 – 4/2016

Tätigkeitsbeschreibung

• Entwicklung und Implementierung einer skalierbaren KI-Infrastruktur für das B2B-Banking zur Automatisierung von Kreditrisikobewertungen und Bilanzanalysen.
• Konzeption hochpräziser Machine-Learning-Modelle mit TensorFlow und PyTorch zur Erkennung komplexer Finanzbetrugsmuster und zur Analyse von Cashflow-Prognosen.
• Aufbau von NLP-Systemen zur automatisierten Extraktion und Klassifizierung von Informationen aus Geschäftsberichten und Kreditanträgen mittels Python und FastAPI.
• Implementierung von Echtzeit-Überwachungsalgorithmen für internationale B2B-Zahlungsströme unter Integration in bestehende SWIFT-Netzwerke und Bankeninfrastrukturen.
• Entwicklung von Scoring-Systemen für die automatisierte Kreditvergabe an Geschäftskunden unter strikter Einhaltung der Basel-III-Richtlinien und Compliance-Vorgaben.
• Etablierung von MLOps-Best-Practices durch den Einsatz von AWS SageMaker und MLFlow zur kontinuierlichen Überwachung der Modellperformance und Drift-Erkennung.
• Orchestrierung containerisierter ML-Services mittels Docker und Kubernetes zur Gewährleistung einer hochverfügbaren und regulatorisch konformen Systemarchitektur.
• Design robuster ETL-Datenstrecken zur Aufbereitung heterogener Finanzdaten aus Legacy-Systemen für das Training von Deep-Learning-Modellen.
• Implementierung von CI/CD-Pipelines mit GitHub Actions zur Automatisierung von Modell-Training, Testing und Deployment in Cloud-Umgebungen.
• Enge Zusammenarbeit mit Risikomanagern in einer agilen Scrum-Umgebung zur Reduzierung der Kreditentscheidungszeit von Tagen auf wenige Stunden.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: TensorFlow, PyTorch, FastAPI, Flask, Scikit-learn, Pandas, NumPy, Pydantic.
Infrastruktur & DevOps: AWS SageMaker, Docker, Kubernetes, GitHub Actions, MLFlow, Databricks, Terraform.
Daten & Monitoring: PostgreSQL, Redis, Prometheus, Grafana, SWIFT-Integration, REST-API.
Prozesse & Compliance: MLOps, CI/CD, Basel III, B2B Banking, Agile (Scrum), DSGVO.

Eingesetzte Qualifikationen

Apache Kafka, Apache Spark, Bash Shell, Databricks, Docker, Kubernetes, Linux-Systemadministrator, Pandas, Postgresql, Python, Pytorch, Scikit-learn, SQL, Tensorflow

Python Backend Developer (Django/FastAPI)
Kundenname anonymisiert, Hamburg
8/2013 – 2/2015 (1 Jahr, 7 Monate)
Banken
Tätigkeitszeitraum

8/2013 – 2/2015

Tätigkeitsbeschreibung

• Entwicklung und Skalierung hochverfügbarer Backend-Systeme für eine zentrale B2B-Banking-Plattform zur effizienten Verwaltung von Einlagenprodukten.
• Implementierung mikroservicebasierter Architekturen mit Django und FastAPI zur Abwicklung kritischer Bankprozesse wie Kontoerstellung und Legitimationsprüfung.
• Integration komplexer Bankenschnittstellen über EBICS, HBCI und REST-APIs unter strikter Einhaltung von BaFin-Regularien und PSD2-Richtlinien.
• Konzeption und Umsetzung automatisierter KYC-Workflows und Matching-Algorithmen zur effizienten
Zusammenführung von Einlagenanbietern und -nachfragern.
• Design und Optimierung von Reconciliation-Systemen zum automatisierten Abgleich von Zahlungsströmen mittels Apache Kafka für Event-Streaming.
• Aufbau robuster Daten-Pipelines und ETL-Strecken zur Aufbereitung großer Transaktionsvolumina für das regulatorische Reporting an Aufsichtsbehörden.
• Implementierung von Caching-Strategien mit Redis und Optimierung komplexer PostgreSQL-Abfragen zur Sicherstellung maximaler Systemperformance.
• Etablierung von CI/CD-Best-Practices mit GitHub Actions und Docker zur Automatisierung von Testing- und Deployment-Prozessen in Cloud-Umgebungen.
• Entwicklung von Monitoring- und Observability-Lösungen zur Echtzeit-Überwachung von Systemstabilität und Performance-Metriken.
• Realisierung hochsicherer Authentifizierungsmechanismen und Verschlüsselungsprotokolle zum Schutz sensibler Finanzdaten gemäß IT-Sicherheitsstandards.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: Django, FastAPI, Flask, Celery, Pydantic, SQLAlchemy, Pytest.
Infrastruktur & DevOps: Docker, Kubernetes, GitHub Actions, AWS, Redis, Apache Kafka, Terraform.
Daten & Compliance: PostgreSQL, EBICS, HBCI, REST-APIs, BaFin-Regularien, PSD2, KYC-Prozesse.
Prozesse: Agile (Scrum), CI/CD, Microservices, Test-Driven Development (TDD), Monitoring & Logging.

Eingesetzte Qualifikationen

Apache Kafka, Bash Shell, Databricks, Django, Docker, Kubernetes, Linux-Systemadministrator, Node.Js, Pandas, Postgresql, Python, SQL

Python Data Integration Engineer
Kundenname anonymisiert, Frankfurt
3/2011 – 8/2013 (2 Jahre, 6 Monate)
Banken
Tätigkeitszeitraum

3/2011 – 8/2013

Tätigkeitsbeschreibung

• Entwicklung und Skalierung komplexer Daten-Pipelines zur Integration von Handelsdaten aus Reuters und Bloomberg unter Einhaltung von MiFID II und Basel III.
• Implementierung robuster ETL-Prozesse mit Python und Pandas zur Konsolidierung heterogener Bankensysteme in eine zentrale Big-Data-Architektur.
• Orchestrierung von Workflow-Automatisierungen mittels Apache Airflow zur Optimierung von Echtzeit-Datenströmen für das globale Risikomanagement.
• Design und Entwicklung von Microservices auf Basis von FastAPI und Flask zur Integration von Zahlungssystemen wie SWIFT und SEPA.
• Aufbau automatisierter Monitoring- und Alerting-Systeme zur Erkennung von Unstimmigkeiten in Finanztransaktionen mittels fortgeschrittener Logging-Mechanismen.
• Implementierung von Machine-Learning-Modellen zur Betrugserkennung und Integration von Data Governance Frameworks zur Sicherstellung der DSGVO-Compliance.
• Automatisierung des regulatorischen Reportings für BaFin und EZB durch die Entwicklung skalierbarer Datenextraktions- und Validierungstools.
• Optimierung der Datenbankperformance durch komplexe SQL-Abfrageoptimierung und Implementierung von Caching-Strategien mit Redis bei hohen Transaktionsvolumina.
• Etablierung von CI/CD-Pipelines mit GitHub Actions und Docker zur Automatisierung von Testing- und Deployment-Prozessen in einer agilen Scrum-Umgebung.
• Konzeption von Disaster-Recovery-Lösungen und hochverfügbaren Schnittstellen für Fintech-Partner innerhalb des Online-Banking-Ökosystems.
Tech-Stack:
Programmiersprachen: Python, Java, Node.js.
Frameworks & Bibliotheken: FastAPI, Flask, Django, Pandas, NumPy, SQLAlchemy, Airflow, Celery.
Infrastruktur & DevOps: Docker, Kubernetes, GitHub Actions, MLFlow, Jenkins, Terraform.
Daten & Monitoring: PostgreSQL, Oracle DB, Redis, Apache Kafka, Prometheus, Grafana, ELK-Stack.
Finanz-Schnittstellen: SWIFT, SEPA, Reuters API, Bloomberg Terminal, EBICS.
Prozesse & Compliance: MiFID II, Basel III, BaFin-Regularien, DSGVO, Agile (Scrum), MLOps.

Eingesetzte Qualifikationen

Ansible, Apache Kafka, Bash Shell, Docker, Jenkins, Kubernetes, Linux-Systemadministrator, Mongodb, Pandas, Postgresql, Python, SQL

Ausbildung

Universität von London
Bachelor in Informatik
2013
London

Über mich

Senior AI Ingenieur mit über 10 Jahren Erfahrung in der Softwareentwicklung und einem speziellen Fokus auf die Gestaltung, den Aufbau und die Skalierung von Generative-AI-Lösungen für Unternehmen. Experte in Python und Backend-Architekturen mit FastAPI und Django zur Bereitstellung von LLM-basierten Systemen von Proof-of-Concept bis zur Produktion. Erfahren in der Entwicklung von Multi-Agent-Systemen und RAG-Architekturen mit LangChain und CrewAI in verschiedenen Sektoren wie E-Commerce, Energie und Finanzen. Tiefgreifende Kenntnisse in MLOps und CI/CD-Praktiken mit MLFlow, Docker, Kubernetes und Azure ML zur Automatisierung von Modelltrainings- und Bereitstellungsworkflows. Starke Erfahrung in der Architektur skalierbarer Datenpipelines und verteilter Systeme für die Big-Data-Verarbeitung unter strikter Einhaltung von GDPR und BSI-Sicherheitsstandards.

Persönliche Daten

Sprache
  • Englisch (Muttersprache)
  • Deutsch (Fließend)
Reisebereitschaft
Europa
Arbeitserlaubnis
  • Europäische Union
Home-Office
bevorzugt
Profilaufrufe
70
Berufserfahrung
15 Jahre und 1 Monat (seit 03/2011)
Projektleitung
11 Jahre

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden