Senior Python Developer & Cloud Architect (Backend / AI / Data)
- Verfügbarkeit einsehen
- 0 Referenzen
- 120€/Stunde
- 47051 Duisburg
- auf Anfrage
- de | en
- 12.01.2026
- Contract ready
Kurzvorstellung
Geschäftsdaten
Qualifikationen
Projekt‐ & Berufserfahrung
1/2025 – 6/2025
Tätigkeitsbeschreibung
Entwicklung, Erweiterung und Betrieb des Backends einer Trading-Applikation für Herkunftszertifikate (GOOs) sowie weitere Produkte im Energiehandel. Fokus auf API-Design, Datenmodellierung, DevOps-Automatisierung und stabilen, skalierbaren Cloud-Deployments.
Aufgaben & Verantwortung:
- Analyse fachlicher Anforderungen (Trading, Zertifikate, Compliance) und technische Spezifikation neuer Backend-Funktionalitäten
- Implementierung von Features in einem Python/FastAPI-Stack (REST-APIs, asynchrone Verarbeitung, Background-Tasks)
- Weiterentwicklung der bestehenden Architektur unter neuen organisatorischen und technischen Rahmenbedingungen (Refactoring, Modularisierung, API-Konsolidierung)
- Optimierung von Build-, Test- und Release-Pipelines (GitLab CI/CD, automatisierte Deployments, IaC)
- Monitoring, Logging und Stabilitätsanalyse produktiver Workloads (Azure Monitor, Application Insights, Sentry)
- Performanceoptimierung und Troubleshooting im laufenden Betrieb
Technologien & Tools:
Python, FastAPI, pydantic, asyncio, uv, MongoDB, Docker, GitLab CI/CD, Terraform, Azure (App Service, Functions, Cognitive Search), Angular, TypeScript, Sentry, REST, Microservices
Angular, API-Entwickler, Cloud Spezialist, Continuous Delivery, Continuous Integration, Data Engineer, DevOps, Distributed Computing, Docker, ETL, Full Stack Developer, Git, Microsoft Azure, Mongodb, Python, Representational State Transfer (REST), Software Architecture, Typescript
6/2024 – 12/2024
Tätigkeitsbeschreibung
Optimierung und Weiterentwicklung eines ML-gestützten Systems zur täglichen Berechnung von Kommissionieraufträgen, Lagerbestandsprognosen und Shop-Verfügbarkeiten für ein speziell betriebenes Fulfillment-Center des ALDI SÜD e-food Lieferdienstes MeinALDI. Der Service lief als containerisierte Anwendung in einem Azure-basierten Kubernetes-Cluster und war eng integriert in die internationale e-Commerce Plattform, deren Backend-Entwicklung ich im vorangegangenen Projekt geleitet habe.
Aufgaben & Verantwortung:
- Weiterentwicklung des täglichen Optimierungsprozesses (ML/Operations Research), der große Datenmengen verarbeitet und Prognosen sowie Kommissionierpläne erzeugt
- Anpassung und Modernisierung eines bestehenden Python-FastAPI-Services zur Steuerung der Supply-Chain-Logik und automatisierten Lagerprozesse
- Integration der Optimierungsergebnisse mit der internationalen ALDI e-Commerce Plattform (Inventory-Verfügbarkeit, Bestellsteuerung, Picking-Tasks)
- Refactoring, Modularisierung und Stabilisierung der bestehenden Architektur innerhalb eines Azure-Kubernetes-Clusters (Containerization, horizontal scaling, resilience engineering)
- Erweiterung der ETL-Pipelines, Datenvalidierung, Monitoring und Logging
- Performanceoptimierung und Troubleshooting in produktiven Pipelines
Technologien & Tools:
Python, FastAPI, Pandas/Polars, asyncio, pydantic, poetry, pytest, Azure Kubernetes Service (AKS), Azure Storage, Azure Event Grid, Docker, GitLab CI/CD, REST APIs, Microservices, ML Operations, Operations Research, Data Pipelines
Cloud Spezialist, Continuous Delivery, Continuous Integration, Data Science, DevOps, Distributed Computing, Docker, ETL, Full Stack Developer, Git, Kubernetes, Machine Learning, Microsoft Azure, Pandas, Panorama Software, Postgresql, Python, Representational State Transfer (REST), Scikit-learn, Serviceorientierte Architektur, Software Architecture, Solution Architektur
4/2022 – 12/2023
Tätigkeitsbeschreibung
Aufbau und Rollout der deutschen E-Food/E-Commerce-Plattform MeinALDI im Rahmen einer internationalen strategischen Initiative von ALDI SÜD, um im Bereich Lebensmittellieferdienste aufzubauen und in Deutschland ein Discount-Pendant zu Anbietern wie z.B. Picnic zu etablieren.
Durch meine vorangegangene Mitarbeit in zwei innovationsfokussierten R&D-Projekten war ich tief in die technische Vorarbeit involviert. Dies führte dazu, dass ich anschließend die technische Leitung der deutschen Backend-Entwicklung übernahm und mehrere Teams durch Architekturentscheidungen, Implementationskonzepte und Plattformintegration steuerte.
Aufgaben & Verantwortung:
- Technische Gesamtverantwortung für das deutsche Backend im internationalen Multi-Store-Spryker-Programm
- Koordination mehrerer vertikaler Feature-Teams einschließlich Backend-Entwickler, QA, PO, Business Analysten und Frontend-Lead
- Entwurf und Spezifikation der Backend-Architektur, inkl. Domain-Design, Service-Schnittstellen, Integrationsmuster und Erweiterung der internationalen Plattform
- Analyse und Design von Kernalgorithmen für E-Food-spezifische Funktionen wie: Verfügbarkeitsprognosen | Kommissionier- und Lieferoptimierung | Warenbestandslogik für regionale Liefergebiete
- DevOps Engineering: Aufbau & Konfiguration der Spryker-Infrastructure-Stacks, CI/CD, Installation & Deployment, Environments
- Integration komplexer heterogener Systemlandschaften: internationale E-Commerce-Plattform | regionale Backend-Services | Legacy-Systeme | externe Systeme (Lieferflotten, automatisierte Pick-up-Stationen)
- Technische Leitung im zentral gesteuerten internationalen Release-Prozess (mehrere Länder, abgestimmte Deployments)
- Rapid Prototyping & PoC-Entwicklung für neue Funktionen im Logistik- und Fulfillment-Bereich
Technologien & Tools:
Spryker (PHP/Symfony), MariaDB, Redis, Elasticsearch, Azure, Docker, Kubernetes/Container-Orchestration, Git, CI/CD, REST APIs, Microservices, Event-Driven Architecture
Cloud Spezialist, Continuous Delivery, Continuous Integration, DevOps, Distributed Computing, Docker, E-Commerce, Elasticsearch, Full Stack Developer, Git, Kubernetes, Lead Developer, Mariadb, Microsoft Azure, PHP, PHP-Entwickler, Python, Release-Management, Representational State Transfer (REST), Serviceorientierte Architektur, Software Architecture, Solution Architektur, Symfony, Technische Projektleitung / Teamleitung
2/2022 – 11/2022
Tätigkeitsbeschreibung
Im Rahmen einer gruppenweiten Cloud-Strategie war ich für die Vorbereitung der Migration einer bestehenden serverlosen AWS-Architektur in die zentral verwaltete internationale Azure-Umgebung verantwortlich. Das Projekt diente als Übergang zwischen der MVP-/Innovationsphase und dem späteren Enterprise-Rollout des E-Food-Programms (MeinALDI).
Auf Basis der in der Forschungs- und Prototyping-Phase entwickelten Services (u. a. im Bereich Datenverarbeitung und Supply-Chain-Logik) war meine Aufgabe, eine tragfähige technische Grundlage für die Integration in die internationale Systemlandschaft zu schaffen.
Aufgaben & Verantwortung:
- Analyse und Bewertung der bestehenden AWS-Architektur (serverless, event-driven) hinsichtlich Migrationstauglichkeit
- Konzeption eines technischen Migrationspfads von AWS Lambda, Fargate und SQS/SNS zu Azure Functions, Container-Lösungen und Azure-basiertem Messaging
- Technische Due-Diligence: Risikobewertung der Azure Serverless-Produkte und Identifikation strategischer Limitierungen
- Architekturentscheidung und Re-Design der Services auf Basis des ALDI-interen Kubernetes-/Container-Standards
- Erstellung technischer Konzepte für zukünftige Integrationen mit der internationalen E-Commerce- und Backend-Landschaft
- Vorbereitung der Services auf die spätere Anbindung an Spryker und die internationale Multi-Store-Infrastruktur
- Abstimmung mit dem globalen Cloud- und Plattformteam sowie Dokumentation der Migrationspfade
- Durchführung der Migration und Implementierung konzern-interner Cloud-Produkte mittels Terraform
Technologien & Tools:
AWS (Lambda, SQS/SNS, ECS Fargate), Azure (Functions, Storage Queues, Container Services), Kubernetes, Docker, Python, FastAPI, PostgreSQL, Serverless Architectures, Event-driven Systems, CI/CD, Git, Grafana, JavaScript/TypeScript, Terraform
Amazon Web Services (AWS), Cloud Spezialist, Continuous Delivery, Continuous Integration, Cyber Security, DevOps, Distributed Computing, Docker, ETL, Full Stack Developer, Git, Infrastrukturarchitektur, Kubernetes, Microsoft Azure, Postgresql, Python, Representational State Transfer (REST), Serviceorientierte Architektur, Software Architecture, System Architektur, Systemarchitekt, Systemmigration
2/2020 – 1/2022
Tätigkeitsbeschreibung
Mitarbeit in einem kleinen, direkt unter einem Director IT geführten Innovations- und R&D-Team zur Entwicklung früher Prototypen für zukünftige E-Food-/Last-Mile-Services von ALDI SÜD. Das Projekt war ein strategischer Vorläufer des späteren MeinALDI-Programms und kombinierte Softwareentwicklung, Cloud-Engineering, Data Science und praktische Prozessgestaltung im Fulfillment- und Lieferumfeld.
Ich war sowohl für technische Grundlagen (Architektur, Cloud, Datenpipelines, Prototyping) als auch für operative und produktnahe Aufgaben verantwortlich, um ein tiefes Verständnis der gesamten Wertschöpfungskette aufzubauen.
Aufgaben & Verantwortung:
- Aufbau und Betrieb der Cloud-Infrastruktur (AWS) für schnelle Prototypen und produktnahe Experimente
- Professionalisierung der Entwicklungsumgebung, Einführung von CI/CD, Monitoring, Deployment-Prozessen und Entwicklungsstandards
- Rapid Prototyping von Softwarekomponenten für zukünftige E-Food-Services (Backend, Frontend, kleine ML-Pipelines)
- Data Engineering für die Bereitstellung, Bereinigung und Modellierung großer Stammdatenbestände
- Krisengetriebene Entwicklung eines Click-&-Collect-Prototyps während der COVID-19-Pandemie: nächtliche Bereitstellung großer Stammdatenmengen | Enge Zusammenarbeit mit Fachbereich, Operations und Filialunterstützung | Unterstützung beim Design eines deutschlandweiten Abholprozesses
- Praxisnahe Prozessanalyse: Mitarbeit in Lager- und Fulfillment-Workflows, Testlieferungen, Evaluierung von Fahrzeug- und Behälterkonzepten
- Unterstützung bei der Produktgestaltung (Lieferkonzeptszenarien, Prozessdesign, Workflows, Kostenschätzungen, Machbarkeitsanalysen)
- Vorbereitung mehrerer technischer und logistischer Konzepte, die später in das MeinALDI-Programm überführt wurden
Technologien & Tools:
AWS (Lambda, SQS/SNS, API Gateway, ECS Fargate), Python, poetry, Pandas, scikit-learn, pytest, Flask, PostgreSQL, Node.js, Vue.js, REST APIs, Terraform, CI/CD, Data Pipelines, Serverless Architecture, Microservices, Prototyping, Git
Amazon Web Services (AWS), Apache Hadoop, Apache Spark, Cloud Spezialist, Continuous Delivery, Continuous Integration, Data Scientist, Datenanalyse, DevOps, Full Stack Developer, IT-Strategieberatung, Lean Startup, Machine Learning, Node.Js, Python, Representational State Transfer (REST), Serviceorientierte Architektur, Software Architecture, Solution Architektur, System Architektur
1/2020 – 1/2020
Tätigkeitsbeschreibung
Entwicklung eines formulargeführten Online-Prozesses für den Vertragsabschluss eines neuen Versicherungsprodukts für Hotelbetriebe. Der Prozess integrierte sich in die bestehende, komplexe Backend- und Bestandslandschaft der SIGNAL IDUNA und wurde als moderner Microservice-Ansatz in einer OpenShift-Umgebung umgesetzt.
Ich war im Zweierteam mit einem weiteren Full-Stack-Consultant tätig und verantwortete primär Architektur und Entwicklung des Backend-Services, inklusive Schnittstellendesign, Microservice-Implementierung und technischer Abstimmung mit der Enterprise-Architektur.
Aufgaben & Verantwortung:
- Backend-Entwicklung eines eigenständigen Microservices auf Basis von Java (Spring Boot / Dropwizard)
- Konzeption & Umsetzung einer REST-API zur Anbindung an führende Versicherungsprozesse und interne Backendsysteme
- Integration in eine OpenShift-basierte Containerumgebung inkl. CI/CD über Jenkins
- Erstellung technischer Komponenten für Validierung, Persistenz und fachliche Prozesslogik
- Full-Stack-Mitarbeit im Frontend (TypeScript, Angular 8, Angular Dynamic Forms) zur Umsetzung des webbasierten Abschlussprozesses
- Enge Zusammenarbeit mit einem multidisziplinären Team (Frontend, Backend, Architekten, Fachbereich, QA)
- Technische Dokumentation und Abstimmung der Architekturentscheidungen gemäß internen Standards
- Agile Zusammenarbeit im Scrum-Setup
Technologien & Tools:
Java, Spring Boot, Dropwizard, REST, Angular 8, TypeScript, AngularJS (Legacy-Kontext), Jenkins, OpenShift, Git, JIRA, CI/CD, Microservices, Container
Angular, DevOps, Full Stack Developer, Java (allg.), Jenkins, Openshift, Representational State Transfer (REST), Software Architecture, Spring Framework, Typescript, Web Entwicklung
9/2019 – 1/2020
Tätigkeitsbeschreibung
Kernentwickler des Open-Source-Projekts openVALIDATION (openvalidation.io), einer Plattform zur automatisierten Übersetzung natürlichsprachlicher Validierungsregeln in ausführbaren Quellcode (Java, C#, JavaScript, Python). openVALIDATION kombiniert Konzepte aus Compilerbau, DSL-Design und Codegenerierung und sollte Teil des damals neuen Versicherungsstandards BiPRO RNext werden.
Aufgaben & Verantwortung:
- Strategische und technologische Mitgestaltung des gesamten Open-Source-Projekts
- Entwicklung des Python-Codegenerators, einschließlich AST-Transformationen und Template-Framework
- Implementierung neuer Features im Compiler-Core (Parser, Validator, Execution Model)
- Entwicklung automatisierter Integrations- und Generations-Tests für mehrere Zielsprachen
- Aufbau und Pflege der CI/CD-Infrastruktur (GitHub Actions, Maven Release Automation)
- Open-Source-Kollaboration: Code Reviews, Architekturentscheidungen, Release-Management, GitHub-Projektpflege
Technologien & Tools:
ANTLR, Java, Python, JavaScript, C#, Maven, GitHub Actions, CI/CD, Codegenerierung, DSL-Design, Compilerbau, Testautomatisierung, Open Source
Apache Maven, C#, Cloud Spezialist, Continuous Delivery, Continuous Integration, DevOps, Full Stack Developer, Git, Java (allg.), JavaScript, Natural Language Processing, Open Source, Python, Software Architecture, Test Automation
7/2019 – 9/2019
Tätigkeitsbeschreibung
Ich entwickelte im Rahmen meiner Tätigkeit bei der BROCKHAUS AG ein prototypisches KI-System zur automatisierten Dokumentenverarbeitung im Underwriting einer großen Rückversicherung. Das System bestand aus mehreren Python-Services und einer REST-API und kombinierte bildbasierte Dokumentenklassifikation und semantisches Parsing zur Extraktion fachlich relevanter Informationen aus unstrukturierten Dokumenten in ein strukturiertes JSON-Zielformat. Der Prototyp wurde bei einem Workshop beim Kunden vorgestellt.
Aufgaben:
- Architekturdesign konvolutionaler neuronaler Netze auf Basis aktueller wissenschaftlicher Erkenntnisse (CNN, TensorFlow/Keras, CUDA)
- Entwicklung eines bildbasierten Dokumentenklassifikators mit vorgelagerter Normalisierung sämtlicher Eingangsformate über OCR- und Konvertierungsprozesse
- Implementierung einer Semantic-Parsing-Pipeline, die Deep-Learning-Verfahren, spaCy-basierte NLP-Komponenten und computerlinguistische Ansätze kombiniert
- Extraktion von Entitäten, Textbausteinen und Strukturelementen aus unstrukturierten Dokumenten und Mapping auf flexible JSON-Zielschema
- Entwicklung eines Feedback-Learning-Verfahrens zur kontinuierlichen Selbstoptimierung der ML-Modelle auf Basis manueller Korrekturen und Confidence-Scores
- Implementierung mehrerer Python-Microservices und einer REST-API zur Integration der gesamten Pipeline
- Durchführung eines Workshops beim Kunden in Münster zur Präsentation der Architektur, Modelle und Use Cases
- Dokumentation und Übergabe des Prototyps zur möglichen Weiterentwicklung
Eingesetzte Technologien:
Python, TensorFlow, Keras, CUDA, konvolutionale neuronale Netze, spaCy, NLP, Computerlinguistik, OCR/Tesseract, REST, Microservices, Docker, Azure Cloud, Semantic Parsing, Dokumentenklassifizierung, JSON Schema, Prototyping
Agile Methodologie, Backend, Backend Entwickler, Cloud Spezialist, CUDA, Data Scientist, DevOps (allg.), Docker, Full Stack Developer, Machine Learning, Microsoft Azure, Natural Language Processing, Natural Language Understanding, Neuronale Netze, Prototyping, Python, Python-Programmierer, Software Architecture, Softwareentwickler, Tensorflow
9/2018 – 6/2019
Tätigkeitsbeschreibung
Ich war Teil des Entwicklungsteams der „Bahn-X-App“ im Kontext des Rollouts von Wifi@DB. Ziel des Projekts war der Aufbau eines digitalen Reisebegleiters mit Funktionen wie Echtzeit-Reiseinformationen, kontextualisiertem Content, POI-Daten, Meldungen zu Bahnhofseinrichtungen sowie Integrationen externer Entertainment-Dienste. Das Projekt war als Lean-Startup organisiert und basierte auf schneller MVP-Iteration und datengetriebenen Hypothesentests, während im Backend eine moderne, event-sourcing-basierte Architektur aufgebaut wurde.
Aufgaben:
- Statistische Analyse großer Mengen an Frontend-Tracking-Daten zur Validierung von Hypothesen und MVP-Funktionalitäten (BigQuery, DataStudio)
- Implementierung des Tracking-Frameworks in der React-Native-App (Firebase)
- Mitarbeit im Architekturboard zur Konzeption einer neuen API-Plattform auf GraphQL-Basis
- Design und Entwicklung von Backend-Funktionalitäten für domänenspezifische Services im Kontext von Domain-driven Design und Service-orientierter Architektur
- Entwicklung eines Python-Microservices zur kontextuellen Content-Kuratierung mittels NLP-Methoden (z. B. Named Entity Recognition mit spaCy)
- Mitwirkung am Event-Sourcing-Backbone der Anwendung
- Mitarbeit in einem späteren Feature Team mit Fokus auf „Content“ zur Bereitstellung personalisierter, ortsbezogener Informationen
- Unterstützung im Bereich DevOps und Cloud-Infrastruktur (Kubernetes, Docker, GCP)
Technologien:
Python, spaCy, FastAPI, TypeScript/JavaScript, React Native, GraphQL, Firebase, Google BigQuery, Google Cloud Platform, Docker, Kubernetes, Event Sourcing, Data Analytics
Big Data, Business Intelligence (BI), Cloud Spezialist, Data Scientist, DevOps, Full Stack Developer, Google Cloud, Graphql, Kubernetes, Lean Startup, Machine Learning, Mobile Application Development, Natural Language Processing, Node.Js, Python, React Native, Serviceorientierte Architektur, Software Architecture, Softwareentwickler
4/2018 – 9/2018
Tätigkeitsbeschreibung
Ich war Teil eines groß angelegten Entwicklungs- und Transformationsprojekts (100+ Projektmitglieder) zur Weiterentwicklung des webbasierten Außendienst- und Maklersystems der ERGO Group. Meine Rolle bestand in der Konzeption und Umsetzung einer datengetriebenen Testautomatisierungsstrategie, die es einem großen Team manueller Tester ermöglichte, ohne Programmierkenntnisse vollwertige UI-Tests zu erstellen und auszuführen.
Aufgaben:
- Konzeption und Implementierung einer Excel-basierten No-Code-Testautomatisierung für UI-Tests
- Entwicklung eines modularen Systems vorgefertigter Testbausteine für reproduzierbare End-to-End-Testabläufe
- Implementierung eines C#/.NET- und Selenium-basierten Runners zur automatischen Ausführung der Testszenarien
- Enge Zusammenarbeit mit manuellen Testern zur Einführung und Weiterentwicklung der Methode
- Technischer Wissenstransfer und Onboarding eines neu aufgebauten Offshore-Testteams einer namhaften indischen Consulting-Firma
- Prototypische Erweiterung der Automatisierungswerkzeuge und Beratung zur langfristigen Teststrategie
Technologien:
C#, .NET Framework, Selenium, GUI-Testautomatisierung, datengetriebene Tests, Excel/CSV-basierte DSL, Softwarearchitektur, Testdesign, Agile Methoden, Offshoring-Kommunikation
.NET-Entwickler, Agile Methodologie, C#, DevOps, Full Stack Developer, IT-Berater, IT Test Ingenieur, Offshoring, Selenium, Software Architecture, Softwareentwickler, Test Automation, Testdesign (IT)
2/2018 – 4/2018
Tätigkeitsbeschreibung
Ich war für Betrieb und Weiterentwicklung eines Chat-Assistenten verantwortlich, der vom 1st-Level-Kundensupport genutzt wurde. Die Lösung basierte auf klassischen NLP-Methoden (Named Entity Recognition, Intent-Klassifikation) und führte Nutzer durch mehrstufige, formularbasierte Dialoge. Die Architektur bestand aus einem C#/.NET-Backend, einem Angular-Frontend sowie dem Microsoft Bot Framework und frühen AI Services.
Aufgaben:
- Weiterentwicklung und Wartung des Chatbot-Backends (C#/.NET)
- Anpassung und Erweiterung des Angular-Frontends
- Integration von Microsoft Bot Framework-Komponenten und NLP-Funktionalitäten
- Implementierung von Dialog- und Routing-Logik für verschiedene Support-Szenarien
- Analyse und Optimierung der Klassifikations- und Routing-qualität
- Betrieb, Fehleranalyse und Deployment der produktiven Anwendung
Technologien:
C#, .NET, Angular, TypeScript, Microsoft Bot Framework, frühe Microsoft AI Services, NLP (NER, Intent-Klassifikation), REST APIs, DevOps, Agile Methoden
.Net, Data Scientist, DevOps, Full Stack Developer, Git, Machine Learning, Natural Language Processing, Natural Language Understanding, Python
1/2016 – 4/2016
Tätigkeitsbeschreibung
Entwicklung einer physikalisch-numerischen Simulation zur Wärmetransportanalyse im Marsregolith unter Laserbestrahlung. Implementierung mathematischer Modelle (Finite Elements Analysis und Fluiddynamik) mittels C++ und COMSOL Multiphysics sowie datengetriebener Modellkalibrierung, wie sie auch im modernen Machine Learning und Data Science Frameworks zum Einsatz kommt.
Technologien:
C++, numerische Simulationen, Scientific Computing, FEA, COMSOL Multiphysics, Java, Mathematica
Computational Fluid Dynamics, Finite-Elemente-Methoden, C++, Data Scientist, Java (allg.), Machine Learning, Mathematik, Physik, Physiker, Python, Wissenschaftlicher Mitarbeiter
9/2005 – 9/2008
Tätigkeitsbeschreibung3rd Level Support, Entwicklung einer Dienstreise-Verwaltung in PHP, Entwicklung von Python-Skripten zur Generierung von 3D-Modellen auf Basis von Messdaten des Hochbauamtes
Eingesetzte QualifikationenSoftware Architecture, C++, Full Stack Developer, IT-Spezialist, PHP, PHP-Entwickler, Python, Python-Programmierer, Softwareentwickler
Zertifikate
Fraunhofer Institut
camunda services GmbH
Ausbildung
Universität Duisburg-Essen
Duisburg
Essener Systemhaus
Über mich
I have led the backend architecture for ALDI SOUTH’s e-commerce platform, coordinated multiple feature teams, and delivered complex systems in trading, logistics, mobility, insurance and retail.
With an academic background in physics, I approach problems analytically and systematically, especially in AI/ML-related challenges. I bring extensive experience in designing scalable architectures, integrating heterogeneous systems, and delivering production-grade software in demanding enterprise environments.
Weitere Kenntnisse
- Python (Backend, Data, ML)
- Cloud Architecture (AWS, Azure)
- AI/ML (NLP, Deep Learning, LLM-based solutions)
- Distributed Systems & Microservices
- DevOps & CI/CD Automation
Additional Competencies
- Typescript (React, Vue)
- Java, C#, C++
- Data Pipelines (Polars, Spark)
- Kubernetes & OpenShift
- Event-driven & message-based architectures
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Muttersprache)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden
