Cloud Data Engineer & Architect – End-to-End Engineering von Datenplattformen.
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- 10245 Berlin
- Europa
- ru | de | en
- 30.01.2026
- Contract ready
Kurzvorstellung
Geschäftsdaten
Qualifikationen
Projekt‐ & Berufserfahrung
3/2023 – 11/2025
Tätigkeitsbeschreibung
- Design und Umsetzung von Lakehouse-Architektur.
- Entwicklung von Datenmodellen und Sicherstellung von
- Etablierung von Best Practices und Standards in den
Bereichen Data Governance, Analytics und Security.
- Unterstützung bei der Umsetzung von
Data-Engineering-Aufgaben in AWS-Umgebungen und
anderen Cloud-Infrastrukturen.
- Auswahl und Integration geeigneter Datenplattformen, die
Skalierbarkeit, Performance und Kosteneffizienz
berücksichtigen.
- Entwicklung und Pflege von Architektur- und
Geschäftsprozessmodellen, die auf die Anforderungen des
Unternehmens abgestimmt sind.
- Enge Zusammenarbeit mit anderen Architekten zur
Erstellung eines Business Information Models, das
Daten-Domänen, Themenbereiche, Datenobjekte und
Attribute definiert.
- Entwicklung von datengetriebenen Produkten und
Dienstleistungen in Zusammenarbeit mit Stakeholdern.
Amazon Web Services (AWS), Apache Spark, Architektur (allg.), Data Engineer, Docker, Git, Kubernetes, Kundenberater, Software Architecture
4/2020 – 10/2023
Tätigkeitsbeschreibung
- Konzeption und Entwicklung eines Data Architekturs in AWS
- Entwicklung und Betrieb von Pipelines
- Aufbau eines Dataflow Frameworks
- Migration nach AWS und Optimierung von bestehende
Pipelines auf basis von Cloudera
- Entwicklung von wiederverwendbaren Elementen für ETL,
Data Flows, Best Practices, Code Standards und Data
Architektur
Software Architecture, Data Engineer, Amazon Web Services (AWS), Apache Spark, DevOps, DevOps (allg.), Docker, Kubernetes, Kundenberater, Python, Scala
10/2019 – 1/2020
Tätigkeitsbeschreibung
Konzeption und Entwicklung eines Data Governance and Compliance Agents.
Go-live technischer und fachlicher Konzeption
Datenpipeline Entwicklung
Monitoring and Alerting
DataOps / DevOps
Amazon Web Services (AWS), Apache Hadoop, Apache Spark, Data Engineer, Databricks, Java (allg.), Python
9/2015 – 8/2019
Tätigkeitsbeschreibung
Data mining and Information extraction.
Designing and implementing software architecture and spark data processing pipelines.
Amazon Web Services (AWS), Apache Hadoop, Apache Spark, Big Data, Data Mining, Google Cloud, Maschinelles Lernen, Natural Language Processing
12/2013 – offen
Tätigkeitsbeschreibung
Data mining and Information extraction.
Designing software infrastructure.
Designing and implementing data processing pipelines using Apache Spark
Mongodb, Apache Spark, Named-entity recognition (NER), Natural Language Processing, Java (allg.), Spring Framework
2/2013 – 10/2014
TätigkeitsbeschreibungConception and development of near realtime data analysis.
Eingesetzte QualifikationenNatural Language Processing, Java (allg.), Python
1/2013 – 7/2013
Tätigkeitsbeschreibung
Realtime twitter sentiment analyzer
Technologies: python, NLTK, ML
Mongodb, Naive Bayes, Scikit-learn, Support Vector Machine, Natural Language Processing, Python
Ausbildung
Universität Potsdam
Über mich
Weitere Kenntnisse
Umfangreiche Erfahrung in der Konzeption, Entwicklung und Optimierung moderner Datenplattformen in AWS und GCP. Sicherer Umgang mit Cloud-Services wie S3, Glue, Athena, EMR, Lambda, RDS, Step Functions, Lake Formation, CloudFormation, CDK, BigQuery, Dataproc, Pub/Sub und Dataflow. Versiert im Einsatz von Docker, Kubernetes, ArgoCD und Terraform sowie in CI/CD mit GitLab, CircleCI und Jenkins.
Tiefgehende Kenntnisse in Data Engineering mit Apache Spark, PySpark, Hadoop, Hive, Hudi und der Umsetzung von Data Lake- und Lakehouse-Architekturen. Erfahrung in der Datenmodellierung, ETL/ELT-Entwicklung und Streaming-/Realtime-Verarbeitung.
Programmiererfahrung in Python, Scala, Java, SQL und Bash mit Fokus auf Framework-, Microservice- und Serverless-Entwicklung. Expertise in Data Governance, Metadatenmanagement, Datenqualität, Compliance und Sicherheit (z. B. AWS Glue Catalog, Collibra, Alation).
Erfahrung in Analytics und Machine Learning mit Pandas, NumPy, scikit-learn, TensorFlow, gensim und NLP, ergänzt durch Visualisierung und Reporting mit Power BI, QuickSight und Looker.
Fundierte Kenntnisse in Infrastructure as Code, Monitoring (CloudWatch, Prometheus, Grafana) und API-Entwicklung (REST, GraphQL) sowie in Sicherheitskonzepten wie IAM, Verschlüsselung, Zugriffskontrolle und Auditing.
Persönliche Daten
- Russisch (Muttersprache)
- Deutsch (Fließend)
- Englisch (Fließend)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden
