freiberufler Senior Python Developer & Cloud Architect (Backend / AI / Data) auf freelance.de

Senior Python Developer & Cloud Architect (Backend / AI / Data)

zuletzt online vor 2 Tagen
  • 120€/Stunde
  • 47051 Duisburg
  • auf Anfrage
  • de  |  en
  • 10.12.2025
  • Contract ready

Kurzvorstellung

Senior Python/Cloud Engineer (11+ J.) – Enterprise-Scale Backend, AI/ML, Distributed Systems, Tech-Lead-Erfahrung, internationale Projekte

Geschäftsdaten

 Freiberuflich
 Steuernummer bekannt
 Berufshaftpflichtversicherung aktiv

Qualifikationen

  • Full Stack Developer10 J.
  • Python10 J.
  • Software Architecture9 J.
  • Cloud Spezialist6 J.
  • Data Scientist3 J.
  • DevOps6 J.
  • Docker3 J.
  • FastAPI
  • Machine Learning4 J.
  • Microservices

Projekt‐ & Berufserfahrung

Senior Python Backend Developer | GOO Trading Platform
E.ON Energy Markets GmbH, Essen
1/2025 – 6/2025 (6 Monate)
Energiebranche
Tätigkeitszeitraum

1/2025 – 6/2025

Tätigkeitsbeschreibung

Entwicklung, Erweiterung und Betrieb des Backends einer Trading-Applikation für Herkunftszertifikate (GOOs) sowie weitere Produkte im Energiehandel. Fokus auf API-Design, Datenmodellierung, DevOps-Automatisierung und stabilen, skalierbaren Cloud-Deployments.

Aufgaben & Verantwortung:
- Analyse fachlicher Anforderungen (Trading, Zertifikate, Compliance) und technische Spezifikation neuer Backend-Funktionalitäten
- Implementierung von Features in einem Python/FastAPI-Stack (REST-APIs, asynchrone Verarbeitung, Background-Tasks)
- Weiterentwicklung der bestehenden Architektur unter neuen organisatorischen und technischen Rahmenbedingungen (Refactoring, Modularisierung, API-Konsolidierung)
- Optimierung von Build-, Test- und Release-Pipelines (GitLab CI/CD, automatisierte Deployments, IaC)
- Monitoring, Logging und Stabilitätsanalyse produktiver Workloads (Azure Monitor, Application Insights, Sentry)
- Performanceoptimierung und Troubleshooting im laufenden Betrieb

Technologien & Tools:
Python, FastAPI, pydantic, asyncio, uv, MongoDB, Docker, GitLab CI/CD, Terraform, Azure (App Service, Functions, Cognitive Search), Angular, TypeScript, Sentry, REST, Microservices

Eingesetzte Qualifikationen

Angular, API-Entwickler, Cloud Spezialist, Continuous Delivery, Continuous Integration, Data Engineer, DevOps, Distributed Computing, Docker, ETL, Full Stack Developer, Git, Microsoft Azure, Mongodb, Python, Representational State Transfer (REST), Software Architecture, Typescript

Senior Python/Cloud Engineer | ML-based Logistics Optimisation Platform
ALDI SÜD Digital GmbH & Co. OHG (via PwC), Mülheim a. d. Ruhr
6/2024 – 12/2024 (7 Monate)
Handel
Tätigkeitszeitraum

6/2024 – 12/2024

Tätigkeitsbeschreibung

Optimierung und Weiterentwicklung eines ML-gestützten Systems zur täglichen Berechnung von Kommissionieraufträgen, Lagerbestandsprognosen und Shop-Verfügbarkeiten für ein speziell betriebenes Fulfillment-Center des ALDI SÜD e-food Lieferdienstes MeinALDI. Der Service lief als containerisierte Anwendung in einem Azure-basierten Kubernetes-Cluster und war eng integriert in die internationale e-Commerce Plattform, deren Backend-Entwicklung ich im vorangegangenen Projekt geleitet habe.

Aufgaben & Verantwortung:
- Weiterentwicklung des täglichen Optimierungsprozesses (ML/Operations Research), der große Datenmengen verarbeitet und Prognosen sowie Kommissionierpläne erzeugt
- Anpassung und Modernisierung eines bestehenden Python-FastAPI-Services zur Steuerung der Supply-Chain-Logik und automatisierten Lagerprozesse
- Integration der Optimierungsergebnisse mit der internationalen ALDI e-Commerce Plattform (Inventory-Verfügbarkeit, Bestellsteuerung, Picking-Tasks)
- Refactoring, Modularisierung und Stabilisierung der bestehenden Architektur innerhalb eines Azure-Kubernetes-Clusters (Containerization, horizontal scaling, resilience engineering)
- Erweiterung der ETL-Pipelines, Datenvalidierung, Monitoring und Logging
- Performanceoptimierung und Troubleshooting in produktiven Pipelines

Technologien & Tools:
Python, FastAPI, Pandas/Polars, asyncio, pydantic, poetry, pytest, Azure Kubernetes Service (AKS), Azure Storage, Azure Event Grid, Docker, GitLab CI/CD, REST APIs, Microservices, ML Operations, Operations Research, Data Pipelines

Eingesetzte Qualifikationen

Cloud Spezialist, Continuous Delivery, Continuous Integration, Data Science, DevOps, Distributed Computing, Docker, ETL, Full Stack Developer, Git, Kubernetes, Machine Learning, Microsoft Azure, Pandas, Panorama Software, Postgresql, Python, Representational State Transfer (REST), Scikit-learn, Serviceorientierte Architektur, Software Architecture, Solution Architektur

Senior Solution Architect / Tech Lead | Backend
ALDI International Services SE & Co. oHG, Mülheim a. d. Ruhr
4/2022 – 12/2023 (1 Jahr, 9 Monate)
Handel
Tätigkeitszeitraum

4/2022 – 12/2023

Tätigkeitsbeschreibung

Aufbau und Rollout der deutschen E-Food/E-Commerce-Plattform MeinALDI im Rahmen einer internationalen strategischen Initiative von ALDI SÜD, um im Bereich Lebensmittellieferdienste aufzubauen und in Deutschland ein Discount-Pendant zu Anbietern wie z.B. Picnic zu etablieren.

Durch meine vorangegangene Mitarbeit in zwei innovationsfokussierten R&D-Projekten war ich tief in die technische Vorarbeit involviert. Dies führte dazu, dass ich anschließend die technische Leitung der deutschen Backend-Entwicklung übernahm und mehrere Teams durch Architekturentscheidungen, Implementationskonzepte und Plattformintegration steuerte.

Aufgaben & Verantwortung:
- Technische Gesamtverantwortung für das deutsche Backend im internationalen Multi-Store-Spryker-Programm
- Koordination mehrerer vertikaler Feature-Teams einschließlich Backend-Entwickler, QA, PO, Business Analysten und Frontend-Lead
- Entwurf und Spezifikation der Backend-Architektur, inkl. Domain-Design, Service-Schnittstellen, Integrationsmuster und Erweiterung der internationalen Plattform
- Analyse und Design von Kernalgorithmen für E-Food-spezifische Funktionen wie: Verfügbarkeitsprognosen | Kommissionier- und Lieferoptimierung | Warenbestandslogik für regionale Liefergebiete
- DevOps Engineering: Aufbau & Konfiguration der Spryker-Infrastructure-Stacks, CI/CD, Installation & Deployment, Environments
- Integration komplexer heterogener Systemlandschaften: internationale E-Commerce-Plattform | regionale Backend-Services | Legacy-Systeme | externe Systeme (Lieferflotten, automatisierte Pick-up-Stationen)
- Technische Leitung im zentral gesteuerten internationalen Release-Prozess (mehrere Länder, abgestimmte Deployments)
- Rapid Prototyping & PoC-Entwicklung für neue Funktionen im Logistik- und Fulfillment-Bereich

Technologien & Tools:
Spryker (PHP/Symfony), MariaDB, Redis, Elasticsearch, Azure, Docker, Kubernetes/Container-Orchestration, Git, CI/CD, REST APIs, Microservices, Event-Driven Architecture

Eingesetzte Qualifikationen

Cloud Spezialist, Continuous Delivery, Continuous Integration, DevOps, Distributed Computing, Docker, E-Commerce, Elasticsearch, Full Stack Developer, Git, Kubernetes, Lead Developer, Mariadb, Microsoft Azure, PHP, PHP-Entwickler, Python, Release-Management, Representational State Transfer (REST), Serviceorientierte Architektur, Software Architecture, Solution Architektur, Symfony, Technische Projektleitung / Teamleitung

Cloud Architect / Cloud Specialist | Migration AWS → Azure
ALDI International Services SE & Co. oHG, Mülheim a. d. Ruhr
2/2022 – 11/2022 (10 Monate)
Handel
Tätigkeitszeitraum

2/2022 – 11/2022

Tätigkeitsbeschreibung

Im Rahmen einer gruppenweiten Cloud-Strategie war ich für die Vorbereitung der Migration einer bestehenden serverlosen AWS-Architektur in die zentral verwaltete internationale Azure-Umgebung verantwortlich. Das Projekt diente als Übergang zwischen der MVP-/Innovationsphase und dem späteren Enterprise-Rollout des E-Food-Programms (MeinALDI).

Auf Basis der in der Forschungs- und Prototyping-Phase entwickelten Services (u. a. im Bereich Datenverarbeitung und Supply-Chain-Logik) war meine Aufgabe, eine tragfähige technische Grundlage für die Integration in die internationale Systemlandschaft zu schaffen.

Aufgaben & Verantwortung:
- Analyse und Bewertung der bestehenden AWS-Architektur (serverless, event-driven) hinsichtlich Migrationstauglichkeit
- Konzeption eines technischen Migrationspfads von AWS Lambda, Fargate und SQS/SNS zu Azure Functions, Container-Lösungen und Azure-basiertem Messaging
- Technische Due-Diligence: Risikobewertung der Azure Serverless-Produkte und Identifikation strategischer Limitierungen
- Architekturentscheidung und Re-Design der Services auf Basis des ALDI-interen Kubernetes-/Container-Standards
- Erstellung technischer Konzepte für zukünftige Integrationen mit der internationalen E-Commerce- und Backend-Landschaft
- Vorbereitung der Services auf die spätere Anbindung an Spryker und die internationale Multi-Store-Infrastruktur
- Abstimmung mit dem globalen Cloud- und Plattformteam sowie Dokumentation der Migrationspfade
- Durchführung der Migration und Implementierung konzern-interner Cloud-Produkte mittels Terraform

Technologien & Tools:
AWS (Lambda, SQS/SNS, ECS Fargate), Azure (Functions, Storage Queues, Container Services), Kubernetes, Docker, Python, FastAPI, PostgreSQL, Serverless Architectures, Event-driven Systems, CI/CD, Git, Grafana, JavaScript/TypeScript, Terraform

Eingesetzte Qualifikationen

Amazon Web Services (AWS), Cloud Spezialist, Continuous Delivery, Continuous Integration, Cyber Security, DevOps, Distributed Computing, Docker, ETL, Full Stack Developer, Git, Infrastrukturarchitektur, Kubernetes, Microsoft Azure, Postgresql, Python, Representational State Transfer (REST), Serviceorientierte Architektur, Software Architecture, System Architektur, Systemarchitekt, Systemmigration

Data Scientist / DevOps Engineer / Full-Stack Developer | Innovations- und R&D-Team E-Food (Festanstellung)
ALDI SÜD Dienstleistungs-SE & Co. oHG, Mülheim a. d. Ruhr
2/2020 – 1/2022 (2 Jahre)
Handel
Tätigkeitszeitraum

2/2020 – 1/2022

Tätigkeitsbeschreibung

Mitarbeit in einem kleinen, direkt unter einem Director IT geführten Innovations- und R&D-Team zur Entwicklung früher Prototypen für zukünftige E-Food-/Last-Mile-Services von ALDI SÜD. Das Projekt war ein strategischer Vorläufer des späteren MeinALDI-Programms und kombinierte Softwareentwicklung, Cloud-Engineering, Data Science und praktische Prozessgestaltung im Fulfillment- und Lieferumfeld.

Ich war sowohl für technische Grundlagen (Architektur, Cloud, Datenpipelines, Prototyping) als auch für operative und produktnahe Aufgaben verantwortlich, um ein tiefes Verständnis der gesamten Wertschöpfungskette aufzubauen.

Aufgaben & Verantwortung:
- Aufbau und Betrieb der Cloud-Infrastruktur (AWS) für schnelle Prototypen und produktnahe Experimente
- Professionalisierung der Entwicklungsumgebung, Einführung von CI/CD, Monitoring, Deployment-Prozessen und Entwicklungsstandards
- Rapid Prototyping von Softwarekomponenten für zukünftige E-Food-Services (Backend, Frontend, kleine ML-Pipelines)
- Data Engineering für die Bereitstellung, Bereinigung und Modellierung großer Stammdatenbestände
- Krisengetriebene Entwicklung eines Click-&-Collect-Prototyps während der COVID-19-Pandemie: nächtliche Bereitstellung großer Stammdatenmengen | Enge Zusammenarbeit mit Fachbereich, Operations und Filialunterstützung | Unterstützung beim Design eines deutschlandweiten Abholprozesses
- Praxisnahe Prozessanalyse: Mitarbeit in Lager- und Fulfillment-Workflows, Testlieferungen, Evaluierung von Fahrzeug- und Behälterkonzepten
- Unterstützung bei der Produktgestaltung (Lieferkonzeptszenarien, Prozessdesign, Workflows, Kostenschätzungen, Machbarkeitsanalysen)
- Vorbereitung mehrerer technischer und logistischer Konzepte, die später in das MeinALDI-Programm überführt wurden

Technologien & Tools:
AWS (Lambda, SQS/SNS, API Gateway, ECS Fargate), Python, poetry, Pandas, scikit-learn, pytest, Flask, PostgreSQL, Node.js, Vue.js, REST APIs, Terraform, CI/CD, Data Pipelines, Serverless Architecture, Microservices, Prototyping, Git

Eingesetzte Qualifikationen

Amazon Web Services (AWS), Apache Hadoop, Apache Spark, Cloud Spezialist, Continuous Delivery, Continuous Integration, Data Scientist, Datenanalyse, DevOps, Full Stack Developer, IT-Strategieberatung, Lean Startup, Machine Learning, Node.Js, Python, Representational State Transfer (REST), Serviceorientierte Architektur, Software Architecture, Solution Architektur, System Architektur

Full-Stack Developer (Schwerpunkt Backend) | Vertragsabschluss-Plattform für neues Versicherungsprodukt (Festanstellung)
SIGNAL IDUNA, Dortmund
1/2020 – 1/2020 (1 Monat)
Versicherungen
Tätigkeitszeitraum

1/2020 – 1/2020

Tätigkeitsbeschreibung

Entwicklung eines formulargeführten Online-Prozesses für den Vertragsabschluss eines neuen Versicherungsprodukts für Hotelbetriebe. Der Prozess integrierte sich in die bestehende, komplexe Backend- und Bestandslandschaft der SIGNAL IDUNA und wurde als moderner Microservice-Ansatz in einer OpenShift-Umgebung umgesetzt.

Ich war im Zweierteam mit einem weiteren Full-Stack-Consultant tätig und verantwortete primär Architektur und Entwicklung des Backend-Services, inklusive Schnittstellendesign, Microservice-Implementierung und technischer Abstimmung mit der Enterprise-Architektur.

Aufgaben & Verantwortung:
- Backend-Entwicklung eines eigenständigen Microservices auf Basis von Java (Spring Boot / Dropwizard)
- Konzeption & Umsetzung einer REST-API zur Anbindung an führende Versicherungsprozesse und interne Backendsysteme
- Integration in eine OpenShift-basierte Containerumgebung inkl. CI/CD über Jenkins
- Erstellung technischer Komponenten für Validierung, Persistenz und fachliche Prozesslogik
- Full-Stack-Mitarbeit im Frontend (TypeScript, Angular 8, Angular Dynamic Forms) zur Umsetzung des webbasierten Abschlussprozesses
- Enge Zusammenarbeit mit einem multidisziplinären Team (Frontend, Backend, Architekten, Fachbereich, QA)
- Technische Dokumentation und Abstimmung der Architekturentscheidungen gemäß internen Standards
- Agile Zusammenarbeit im Scrum-Setup

Technologien & Tools:
Java, Spring Boot, Dropwizard, REST, Angular 8, TypeScript, AngularJS (Legacy-Kontext), Jenkins, OpenShift, Git, JIRA, CI/CD, Microservices, Container

Eingesetzte Qualifikationen

Angular, DevOps, Full Stack Developer, Java (allg.), Jenkins, Openshift, Representational State Transfer (REST), Software Architecture, Spring Framework, Typescript, Web Entwicklung

Core Developer | Open Source / Code Generation / DSL & Compiler Engineering (Festanstellung)
BROCKHAUS AG, Lünen
9/2019 – 1/2020 (5 Monate)
IT & Entwicklung
Tätigkeitszeitraum

9/2019 – 1/2020

Tätigkeitsbeschreibung

Kernentwickler des Open-Source-Projekts openVALIDATION (openvalidation.io), einer Plattform zur automatisierten Übersetzung natürlichsprachlicher Validierungsregeln in ausführbaren Quellcode (Java, C#, JavaScript, Python). openVALIDATION kombiniert Konzepte aus Compilerbau, DSL-Design und Codegenerierung und sollte Teil des damals neuen Versicherungsstandards BiPRO RNext werden.

Aufgaben & Verantwortung:
- Strategische und technologische Mitgestaltung des gesamten Open-Source-Projekts
- Entwicklung des Python-Codegenerators, einschließlich AST-Transformationen und Template-Framework
- Implementierung neuer Features im Compiler-Core (Parser, Validator, Execution Model)
- Entwicklung automatisierter Integrations- und Generations-Tests für mehrere Zielsprachen
- Aufbau und Pflege der CI/CD-Infrastruktur (GitHub Actions, Maven Release Automation)
- Open-Source-Kollaboration: Code Reviews, Architekturentscheidungen, Release-Management, GitHub-Projektpflege

Technologien & Tools:
ANTLR, Java, Python, JavaScript, C#, Maven, GitHub Actions, CI/CD, Codegenerierung, DSL-Design, Compilerbau, Testautomatisierung, Open Source

Eingesetzte Qualifikationen

Apache Maven, C#, Cloud Spezialist, Continuous Delivery, Continuous Integration, DevOps, Full Stack Developer, Git, Java (allg.), JavaScript, Natural Language Processing, Open Source, Python, Software Architecture, Test Automation

Machine Learning Engineer / NLP & Computer Vision | Prototyp für automatisierte Dokumentenverarbeitung im Underwriting (Festanstellung)
Kundenname anonymisiert, Münster
7/2019 – 9/2019 (3 Monate)
Versicherungen
Tätigkeitszeitraum

7/2019 – 9/2019

Tätigkeitsbeschreibung

Ich entwickelte im Rahmen meiner Tätigkeit bei der BROCKHAUS AG ein prototypisches KI-System zur automatisierten Dokumentenverarbeitung im Underwriting einer großen Rückversicherung. Das System bestand aus mehreren Python-Services und einer REST-API und kombinierte bildbasierte Dokumentenklassifikation und semantisches Parsing zur Extraktion fachlich relevanter Informationen aus unstrukturierten Dokumenten in ein strukturiertes JSON-Zielformat. Der Prototyp wurde bei einem Workshop beim Kunden vorgestellt.

Aufgaben:
- Architekturdesign konvolutionaler neuronaler Netze auf Basis aktueller wissenschaftlicher Erkenntnisse (CNN, TensorFlow/Keras, CUDA)
- Entwicklung eines bildbasierten Dokumentenklassifikators mit vorgelagerter Normalisierung sämtlicher Eingangsformate über OCR- und Konvertierungsprozesse
- Implementierung einer Semantic-Parsing-Pipeline, die Deep-Learning-Verfahren, spaCy-basierte NLP-Komponenten und computerlinguistische Ansätze kombiniert
- Extraktion von Entitäten, Textbausteinen und Strukturelementen aus unstrukturierten Dokumenten und Mapping auf flexible JSON-Zielschema
- Entwicklung eines Feedback-Learning-Verfahrens zur kontinuierlichen Selbstoptimierung der ML-Modelle auf Basis manueller Korrekturen und Confidence-Scores
- Implementierung mehrerer Python-Microservices und einer REST-API zur Integration der gesamten Pipeline
- Durchführung eines Workshops beim Kunden in Münster zur Präsentation der Architektur, Modelle und Use Cases
- Dokumentation und Übergabe des Prototyps zur möglichen Weiterentwicklung

Eingesetzte Technologien:
Python, TensorFlow, Keras, CUDA, konvolutionale neuronale Netze, spaCy, NLP, Computerlinguistik, OCR/Tesseract, REST, Microservices, Docker, Azure Cloud, Semantic Parsing, Dokumentenklassifizierung, JSON Schema, Prototyping

Eingesetzte Qualifikationen

Agile Methodologie, Backend, Backend Entwickler, Cloud Spezialist, CUDA, Data Scientist, DevOps (allg.), Docker, Full Stack Developer, Machine Learning, Microsoft Azure, Natural Language Processing, Natural Language Understanding, Neuronale Netze, Prototyping, Python, Python-Programmierer, Software Architecture, Softwareentwickler, Tensorflow

Data Scientist / Backend Engineer | Mobility Innovation (Festanstellung)
Deutsche Bahn AG, Berlin
9/2018 – 6/2019 (10 Monate)
Logistikdienstleister
Tätigkeitszeitraum

9/2018 – 6/2019

Tätigkeitsbeschreibung

Ich war Teil des Entwicklungsteams der „Bahn-X-App“ im Kontext des Rollouts von Wifi@DB. Ziel des Projekts war der Aufbau eines digitalen Reisebegleiters mit Funktionen wie Echtzeit-Reiseinformationen, kontextualisiertem Content, POI-Daten, Meldungen zu Bahnhofseinrichtungen sowie Integrationen externer Entertainment-Dienste. Das Projekt war als Lean-Startup organisiert und basierte auf schneller MVP-Iteration und datengetriebenen Hypothesentests, während im Backend eine moderne, event-sourcing-basierte Architektur aufgebaut wurde.

Aufgaben:
- Statistische Analyse großer Mengen an Frontend-Tracking-Daten zur Validierung von Hypothesen und MVP-Funktionalitäten (BigQuery, DataStudio)
- Implementierung des Tracking-Frameworks in der React-Native-App (Firebase)
- Mitarbeit im Architekturboard zur Konzeption einer neuen API-Plattform auf GraphQL-Basis
- Design und Entwicklung von Backend-Funktionalitäten für domänenspezifische Services im Kontext von Domain-driven Design und Service-orientierter Architektur
- Entwicklung eines Python-Microservices zur kontextuellen Content-Kuratierung mittels NLP-Methoden (z. B. Named Entity Recognition mit spaCy)
- Mitwirkung am Event-Sourcing-Backbone der Anwendung
- Mitarbeit in einem späteren Feature Team mit Fokus auf „Content“ zur Bereitstellung personalisierter, ortsbezogener Informationen
- Unterstützung im Bereich DevOps und Cloud-Infrastruktur (Kubernetes, Docker, GCP)

Technologien:
Python, spaCy, FastAPI, TypeScript/JavaScript, React Native, GraphQL, Firebase, Google BigQuery, Google Cloud Platform, Docker, Kubernetes, Event Sourcing, Data Analytics

Eingesetzte Qualifikationen

Big Data, Business Intelligence (BI), Cloud Spezialist, Data Scientist, DevOps, Full Stack Developer, Google Cloud, Graphql, Kubernetes, Lean Startup, Machine Learning, Mobile Application Development, Natural Language Processing, Node.Js, Python, React Native, Serviceorientierte Architektur, Software Architecture, Softwareentwickler

Test Automation Engineer / Technical Consultant | Maklersystem / Offshoring (Festanstellung)
ITERGO Informationstechnologie GmbH, Düsseldorf
4/2018 – 9/2018 (6 Monate)
Versicherungen
Tätigkeitszeitraum

4/2018 – 9/2018

Tätigkeitsbeschreibung

Ich war Teil eines groß angelegten Entwicklungs- und Transformationsprojekts (100+ Projektmitglieder) zur Weiterentwicklung des webbasierten Außendienst- und Maklersystems der ERGO Group. Meine Rolle bestand in der Konzeption und Umsetzung einer datengetriebenen Testautomatisierungsstrategie, die es einem großen Team manueller Tester ermöglichte, ohne Programmierkenntnisse vollwertige UI-Tests zu erstellen und auszuführen.

Aufgaben:
- Konzeption und Implementierung einer Excel-basierten No-Code-Testautomatisierung für UI-Tests
- Entwicklung eines modularen Systems vorgefertigter Testbausteine für reproduzierbare End-to-End-Testabläufe
- Implementierung eines C#/.NET- und Selenium-basierten Runners zur automatischen Ausführung der Testszenarien
- Enge Zusammenarbeit mit manuellen Testern zur Einführung und Weiterentwicklung der Methode
- Technischer Wissenstransfer und Onboarding eines neu aufgebauten Offshore-Testteams einer namhaften indischen Consulting-Firma
- Prototypische Erweiterung der Automatisierungswerkzeuge und Beratung zur langfristigen Teststrategie

Technologien:
C#, .NET Framework, Selenium, GUI-Testautomatisierung, datengetriebene Tests, Excel/CSV-basierte DSL, Softwarearchitektur, Testdesign, Agile Methoden, Offshoring-Kommunikation

Eingesetzte Qualifikationen

.NET-Entwickler, Agile Methodologie, C#, DevOps, Full Stack Developer, IT-Berater, IT Test Ingenieur, Offshoring, Selenium, Software Architecture, Softwareentwickler, Test Automation, Testdesign (IT)

Full-Stack Developer | Chatbot & NLP System (Festanstellung)
ERGO Beratung und Vertrieb AG, Düsseldorf
2/2018 – 4/2018 (3 Monate)
Versicherungen
Tätigkeitszeitraum

2/2018 – 4/2018

Tätigkeitsbeschreibung

Ich war für Betrieb und Weiterentwicklung eines Chat-Assistenten verantwortlich, der vom 1st-Level-Kundensupport genutzt wurde. Die Lösung basierte auf klassischen NLP-Methoden (Named Entity Recognition, Intent-Klassifikation) und führte Nutzer durch mehrstufige, formularbasierte Dialoge. Die Architektur bestand aus einem C#/.NET-Backend, einem Angular-Frontend sowie dem Microsoft Bot Framework und frühen AI Services.

Aufgaben:
- Weiterentwicklung und Wartung des Chatbot-Backends (C#/.NET)
- Anpassung und Erweiterung des Angular-Frontends
- Integration von Microsoft Bot Framework-Komponenten und NLP-Funktionalitäten
- Implementierung von Dialog- und Routing-Logik für verschiedene Support-Szenarien
- Analyse und Optimierung der Klassifikations- und Routing-qualität
- Betrieb, Fehleranalyse und Deployment der produktiven Anwendung

Technologien:
C#, .NET, Angular, TypeScript, Microsoft Bot Framework, frühe Microsoft AI Services, NLP (NER, Intent-Klassifikation), REST APIs, DevOps, Agile Methoden

Eingesetzte Qualifikationen

.Net, Data Scientist, DevOps, Full Stack Developer, Git, Machine Learning, Natural Language Processing, Natural Language Understanding, Python

Research Assistant | Scientific Computing / Numerical Modelling (Festanstellung)
Universität Duisburg-Essen, Duisburg
1/2016 – 4/2016 (4 Monate)
Hochschulen und Forschungseinrichtungen
Tätigkeitszeitraum

1/2016 – 4/2016

Tätigkeitsbeschreibung

Entwicklung einer physikalisch-numerischen Simulation zur Wärmetransportanalyse im Marsregolith unter Laserbestrahlung. Implementierung mathematischer Modelle (Finite Elements Analysis und Fluiddynamik) mittels C++ und COMSOL Multiphysics sowie datengetriebener Modellkalibrierung, wie sie auch im modernen Machine Learning und Data Science Frameworks zum Einsatz kommt.

Technologien:
C++, numerische Simulationen, Scientific Computing, FEA, COMSOL Multiphysics, Java, Mathematica

Eingesetzte Qualifikationen

Computational Fluid Dynamics, Finite-Elemente-Methoden, C++, Data Scientist, Java (allg.), Machine Learning, Mathematik, Physik, Physiker, Python, Wissenschaftlicher Mitarbeiter

Fachinformatiker Anwendungsentwicklung (Festanstellung)
Essener Systemhaus, Essen
9/2005 – 9/2008 (3 Jahre, 1 Monat)
IT & Entwicklung
Tätigkeitszeitraum

9/2005 – 9/2008

Tätigkeitsbeschreibung

3rd Level Support, Entwicklung einer Dienstreise-Verwaltung in PHP, Entwicklung von Python-Skripten zur Generierung von 3D-Modellen auf Basis von Messdaten des Hochbauamtes

Eingesetzte Qualifikationen

Software Architecture, C++, Full Stack Developer, IT-Spezialist, PHP, PHP-Entwickler, Python, Python-Programmierer, Softwareentwickler

Zertifikate

Data Scientist Basic Level
Fraunhofer Institut
2018
Camunda BPM für Java-Entwickler
camunda services GmbH
2018

Ausbildung

M.Sc.
Physik
Universität Duisburg-Essen
2017
Duisburg
Fachinformatiker Anwendungsentwickung
Ausbildung
Essener Systemhaus
2009

Über mich

I am a senior backend and cloud engineer with a strong focus on Python, distributed systems and data-driven architectures. My background spans enterprise backend development, cloud engineering (AWS & Azure), machine learning, and rapid prototyping in high-impact innovation teams. In my work, I combine deep technical expertise with a strong ability to collaborate with business stakeholders, translating complex requirements into pragmatic and scalable technical solutions.

I have led the backend architecture for ALDI SOUTH’s e-commerce platform, coordinated multiple feature teams, and delivered complex systems in trading, logistics, mobility, insurance and retail.

With an academic background in physics, I approach problems analytically and systematically, especially in AI/ML-related challenges. I bring extensive experience in designing scalable architectures, integrating heterogeneous systems, and delivering production-grade software in demanding enterprise environments.

Weitere Kenntnisse

Core Expertise
- Python (Backend, Data, ML)
- Cloud Architecture (AWS, Azure)
- AI/ML (NLP, Deep Learning, LLM-based solutions)
- Distributed Systems & Microservices
- DevOps & CI/CD Automation

Additional Competencies
- Typescript (React, Vue)
- Java, C#, C++
- Data Pipelines (Polars, Spark)
- Kubernetes & OpenShift
- Event-driven & message-based architectures

Persönliche Daten

Sprache
  • Deutsch (Muttersprache)
  • Englisch (Muttersprache)
Reisebereitschaft
auf Anfrage
Arbeitserlaubnis
  • Europäische Union
Home-Office
unbedingt
Profilaufrufe
477
Alter
36
Berufserfahrung
10 Jahre und 3 Monate (seit 09/2015)
Projektleitung
2 Jahre

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden