Cloud & Data Engineer | Kubernetes, Snowflake, Python, Edge AI
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- Bad Bergzabern
- National
- de | ru | en
- 17.04.2026
- Contract ready
Kurzvorstellung
Geschäftsdaten
Qualifikationen
Projekt‐ & Berufserfahrung
3/2026 – offen
TätigkeitsbeschreibungMitbegründer eines KI-Startups für On-Device-Atemüberwachung in Baby-Kameras. Technische Gesamtverantwortung: Aufbau der ML-Operations-Plattform (14+ .NET-Microservices, Kubernetes, PostgreSQL), Entwicklung Edge-optimierter KI-Modelle für Echtzeit-Videoanalyse auf eingebetteten Geräten. Privacy-First-Architektur ohne Cloud-Abhängigkeit. B2B-Lizenzierung an Kamerahersteller.
Eingesetzte QualifikationenPostgresql, Secure Access Service Edge (SASE), Computer Vision, MLOps, Pytorch, C# Developer, Python-Programmierer, Docker, ASP.NET, Kubernetes
7/2024 – 3/2026
TätigkeitsbeschreibungTechnischer Betrieb und Stabilisierung von Datenprozessen im Oracle-Umfeld. Mitwirkung an der Migration auf Snowflake/dbt-Zielarchitektur. Aufbau Kubernetes-basierter Infrastruktur und IaC im Rahmen der internen Cloud Native Community. Konzeption und Durchführung von Schulungen zu Airflow und Big-Data-Technologien. CI/CD-Prozessgestaltung und qualitätsgesicherte Entwicklung über GitHub.
Eingesetzte QualifikationenOracle-Berater, SQL, Python-Programmierer, Docker, Cloud Computing, Snowflake, Kubernetes, Engineering data management (EDM)
3/2024 – 7/2024
TätigkeitsbeschreibungEntwicklung von KorrekturKumpel, einem KI-gestützten Korrekturassistenten für Lehrkräfte. Full-Stack-Umsetzung der Webanwendung (Python, Vue, FastAPI) inkl. KI/LLM-Integration für automatisierte Bewertung von Bildungsmaterialien.
Eingesetzte QualifikationenRestaurant Manager, Postgresql, Python-Programmierer, Docker, Typescript, Vue.Js
10/2020 – 3/2024
TätigkeitsbeschreibungKonzipierung skalierbarer ETL-/Datenplattformen mit verschiedensten Technologien (Python, Java). Treiber von Data-Lake-/Data-Mesh-Konzepten (S3, Trino, Superset, DataHub). Aufbau der DevOps-Infrastruktur: Airflow, GitLab CI/CD, Kubernetes-Integration. Entwicklung einer internen ChatGPT-ähnlichen Plattform. Mentoring und Leitung von Projektgruppen.
Eingesetzte QualifikationenApache Kafka, ETL, Java Database Connectivity, SQL, Python-Programmierer, Docker, Amazon Web Services (AWS), Elasticsearch, Kubernetes, Engineering data management (EDM)
10/2020 – 1/2023
Tätigkeitsbeschreibung
Konzipierung und Entwicklung, sowie die Steuerung der Inbetriebnahme ETL-spezifischer Software-Lösungen für automatisierte Prozesse im Bereich der Daten Gewinnung, Integrationen und Modellierung mittels verschiedener Programmiersprachen und Speichertechnologien.
Mitgestaltung und Implementierung von Datenbanken für Business Intelligence Zwecke. Hierbei geht der Aufgabenbereich über das Konzipieren von Datenbankstrukturen, einem Rechte-Rollensystem bis hin zum Erstellen von Prozeduren, ETL-Jobs, sowie deren Automatisierung mittels Scheduling-Tools, wie z.B. Airflow.
Durchführung von Schulungen, sowie Beratung und Unterstützung von RStudio / Jupyterlab Anwendern beim generellen Umgang und anspruchsvollen Code Optimierungen im Bereich der Massendatenverarbeitung.
Entwicklung und Review von DevOps Prozessen mittels verschiedener Tools zur Code-Versionierung (Gitlab), automatisierter Tests und dem automatisierten Erstellen von Artefakten, sowie dem Laden der Artefakte in dafür geeigneten Repositorys (Container-Images / Pypi / R / Helm).
Treiber von Ideen und Konzepten im Bereich des Data Lakes / Data-Mesh und Umsetzung entsprechender POC´s, sowie die Präsentation dieser in Gruppe/ Team von 15 Mitarbeitern.
Mitwirkung bei der Planung und Systemintegration von Big-Data / Business Intelligence Technologien in die Cloud mittels Container-Orchestrierungs-Infrastrukturen (Kubernetes) und DevOps Pipelines.
Big Data, Datenbankentwicklung, Datenmodelierung, Kubernetes, Software Architecture, Software engineering / -technik, Software Quality, Softwareanforderungsanalyse
10/2017 – 10/2020
TätigkeitsbeschreibungPraxisphasen in Big Data & AI, Product Development und Cloud Services. Bachelorarbeit: Vorhersagemodell für Hosting-Kundenprobleme (Big Data & AI Competence Center).
Eingesetzte QualifikationenJava Database Connectivity, SQL, Machine Learning Engineer, Python-Programmierer, Docker, Amazon Web Services (AWS)
Ausbildung
Duale Hochschule Baden-Württemberg Karlsruhe
Über mich
Schwerpunkte:
- Cloud-native Plattformen mit Kubernetes und Infrastructure as Code
- Datenarchitektur und ETL/ELT-Pipelines (Snowflake, dbt, Airflow)
- Edge AI und On-Device-KI für Echtzeit-Videoanalyse
- Microservice-Architekturen und API-Entwicklung
- CI/CD, GitOps und DevOps-Automatisierung
- Full-Stack-Entwicklung (Python, TypeScript, C#)
- MLOps und KI-Integration in Produktivsysteme
Aktuell Mitbegründer von ChronoLite Technologies — On-Device-KI-Plattform für Atemüberwachung in Baby-Kameras, Privacy-First, ohne Cloud-Abhängigkeit.
Weitere Kenntnisse
Persönliche Daten
- Deutsch (Muttersprache)
- Russisch (Muttersprache)
- Englisch (Gut)
- Europäische Union
- Schweiz
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden
