freiberufler Cloud Data Engineer & Architect – End-to-End Engineering von Datenplattformen. auf freelance.de

Cloud Data Engineer & Architect – End-to-End Engineering von Datenplattformen.

zuletzt online vor wenigen Tagen
  • auf Anfrage
  • 10245 Berlin
  • Europa
  • ru  |  de  |  en
  • 30.01.2026
  • Contract ready

Kurzvorstellung

Über 15 Jahre Erfahrung in Data Engineering, Datenarchitektur und Data Governance mit Schwerpunkt auf Cloud-Technologien (AWS, GCP). Fundierte Kenntnisse in der Konzeption und Umsetzung von Lakehouse-Architekturen, Data Pipelines und ETL-Prozessen.

Geschäftsdaten

 Freiberuflich
 Steuernummer bekannt
 Berufshaftpflichtversicherung aktiv

Qualifikationen

  • Amazon Web Services (AWS)10 J.
  • Apache Hadoop4 J.
  • Apache Spark12 J.
  • Big Data4 J.
  • Data Mining4 J.
  • Google Cloud4 J.
  • Java (allg.)13 J.
  • Maschinelles Lernen4 J.
  • Mongodb12 J.
  • Named-entity recognition (NER)12 J.
  • Natural Language Processing13 J.
  • Spring Framework12 J.

Projekt‐ & Berufserfahrung

Lead Data engineer / Data architect
DB InfraGo, Frankfurt
3/2023 – 11/2025 (2 Jahre, 9 Monate)
Logistikdienstleister
Tätigkeitszeitraum

3/2023 – 11/2025

Tätigkeitsbeschreibung

- Design und Umsetzung von Lakehouse-Architektur.
- Entwicklung von Datenmodellen und Sicherstellung von
- Etablierung von Best Practices und Standards in den
Bereichen Data Governance, Analytics und Security.
- Unterstützung bei der Umsetzung von
Data-Engineering-Aufgaben in AWS-Umgebungen und
anderen Cloud-Infrastrukturen.
- Auswahl und Integration geeigneter Datenplattformen, die
Skalierbarkeit, Performance und Kosteneffizienz
berücksichtigen.
- Entwicklung und Pflege von Architektur- und
Geschäftsprozessmodellen, die auf die Anforderungen des
Unternehmens abgestimmt sind.
- Enge Zusammenarbeit mit anderen Architekten zur
Erstellung eines Business Information Models, das
Daten-Domänen, Themenbereiche, Datenobjekte und
Attribute definiert.
- Entwicklung von datengetriebenen Produkten und
Dienstleistungen in Zusammenarbeit mit Stakeholdern.

Eingesetzte Qualifikationen

Amazon Web Services (AWS), Apache Spark, Architektur (allg.), Data Engineer, Docker, Git, Kubernetes, Kundenberater, Software Architecture

Lead data engineer / Data architect
DB Fernverkehr AG, Frankfurt
4/2020 – 10/2023 (3 Jahre, 7 Monate)
Logistikdienstleister
Tätigkeitszeitraum

4/2020 – 10/2023

Tätigkeitsbeschreibung

- Konzeption und Entwicklung eines Data Architekturs in AWS
- Entwicklung und Betrieb von Pipelines
- Aufbau eines Dataflow Frameworks
- Migration nach AWS und Optimierung von bestehende
Pipelines auf basis von Cloudera
- Entwicklung von wiederverwendbaren Elementen für ETL,
Data Flows, Best Practices, Code Standards und Data
Architektur

Eingesetzte Qualifikationen

Software Architecture, Data Engineer, Amazon Web Services (AWS), Apache Spark, DevOps, DevOps (allg.), Docker, Kubernetes, Kundenberater, Python, Scala

Data Engineer - Data governance and Compliance
Zalando SE, Berlin
10/2019 – 1/2020 (4 Monate)
Großhandel
Tätigkeitszeitraum

10/2019 – 1/2020

Tätigkeitsbeschreibung

Konzeption und Entwicklung eines Data Governance and Compliance Agents.
Go-live technischer und fachlicher Konzeption
Datenpipeline Entwicklung
Monitoring and Alerting
DataOps / DevOps

Eingesetzte Qualifikationen

Amazon Web Services (AWS), Apache Hadoop, Apache Spark, Data Engineer, Databricks, Java (allg.), Python

Senior data engineer
Datalovers AG, Berlin
9/2015 – 8/2019 (4 Jahre)
Dienstleistungsbranche
Tätigkeitszeitraum

9/2015 – 8/2019

Tätigkeitsbeschreibung

Data mining and Information extraction.
Designing and implementing software architecture and spark data processing pipelines.

Eingesetzte Qualifikationen

Amazon Web Services (AWS), Apache Hadoop, Apache Spark, Big Data, Data Mining, Google Cloud, Maschinelles Lernen, Natural Language Processing

Data engineer
Car Mobile Systems, Berlin
12/2013 – offen (12 Jahre, 4 Monate)
Automobilindustrie
Tätigkeitszeitraum

12/2013 – offen

Tätigkeitsbeschreibung

Data mining and Information extraction.
Designing software infrastructure.
Designing and implementing data processing pipelines using Apache Spark

Eingesetzte Qualifikationen

Mongodb, Apache Spark, Named-entity recognition (NER), Natural Language Processing, Java (allg.), Spring Framework

Senior Jave Developer
Zoomers INC, Berlin
2/2013 – 10/2014 (1 Jahr, 9 Monate)
Telekommunikation
Tätigkeitszeitraum

2/2013 – 10/2014

Tätigkeitsbeschreibung

Conception and development of near realtime data analysis.

Eingesetzte Qualifikationen

Natural Language Processing, Java (allg.), Python

data engineer
Kundenname anonymisiert, Berlin
1/2013 – 7/2013 (7 Monate)
Social Media
Tätigkeitszeitraum

1/2013 – 7/2013

Tätigkeitsbeschreibung

Realtime twitter sentiment analyzer
Technologies: python, NLTK, ML

Eingesetzte Qualifikationen

Mongodb, Naive Bayes, Scikit-learn, Support Vector Machine, Natural Language Processing, Python

Ausbildung

computer science
NA
2012
Universität Potsdam

Über mich

Über 15 Jahre Erfahrung in Data Engineering, Datenarchitektur und Data Governance mit Schwerpunkt auf Cloud-Technologien (AWS, GCP). Fundierte Kenntnisse in der Konzeption und Umsetzung von Lakehouse-Architekturen, Data Pipelines und ETL-Prozessen. Expertise in Data Governance, Security, Machine Learning und NLP. Umfangreiche Erfahrung in der Entwicklung und Optimierung von Datenplattformen für Skalierbarkeit, Performance und Kosteneffizienz. Sicher in der Zusammenarbeit mit Stakeholdern sowie in der Entwicklung datengetriebener Produkte und Services. Technologisch versiert in Apache Spark, Python, Scala, Java, Kubernetes, Docker, CI/CD und modernen Cloud-Infrastrukturen.

Weitere Kenntnisse

Technische Kompetenzen
Umfangreiche Erfahrung in der Konzeption, Entwicklung und Optimierung moderner Datenplattformen in AWS und GCP. Sicherer Umgang mit Cloud-Services wie S3, Glue, Athena, EMR, Lambda, RDS, Step Functions, Lake Formation, CloudFormation, CDK, BigQuery, Dataproc, Pub/Sub und Dataflow. Versiert im Einsatz von Docker, Kubernetes, ArgoCD und Terraform sowie in CI/CD mit GitLab, CircleCI und Jenkins.

Tiefgehende Kenntnisse in Data Engineering mit Apache Spark, PySpark, Hadoop, Hive, Hudi und der Umsetzung von Data Lake- und Lakehouse-Architekturen. Erfahrung in der Datenmodellierung, ETL/ELT-Entwicklung und Streaming-/Realtime-Verarbeitung.

Programmiererfahrung in Python, Scala, Java, SQL und Bash mit Fokus auf Framework-, Microservice- und Serverless-Entwicklung. Expertise in Data Governance, Metadatenmanagement, Datenqualität, Compliance und Sicherheit (z. B. AWS Glue Catalog, Collibra, Alation).

Erfahrung in Analytics und Machine Learning mit Pandas, NumPy, scikit-learn, TensorFlow, gensim und NLP, ergänzt durch Visualisierung und Reporting mit Power BI, QuickSight und Looker.

Fundierte Kenntnisse in Infrastructure as Code, Monitoring (CloudWatch, Prometheus, Grafana) und API-Entwicklung (REST, GraphQL) sowie in Sicherheitskonzepten wie IAM, Verschlüsselung, Zugriffskontrolle und Auditing.

Persönliche Daten

Sprache
  • Russisch (Muttersprache)
  • Deutsch (Fließend)
  • Englisch (Fließend)
Reisebereitschaft
Europa
Arbeitserlaubnis
  • Europäische Union
Home-Office
bevorzugt
Profilaufrufe
2469
Alter
45
Berufserfahrung
13 Jahre und 2 Monate (seit 01/2013)
Projektleitung
3 Jahre

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden