Archiviertes Projekt - Data Cloud Engineer (m/w/d)
Firmenname für PREMIUM-Mitglieder sichtbar
- Mai 2024
- Dezember 2024
- D-Großraum Köln
- auf Anfrage
- Remote
- 28.05.2024
- 11127
Projektbeschreibung
Liebes Netzwerk,
für unseren Kunden in Köln suchen wir einen Data Cloud Engineer (m/w/d).
Existierende ETL-Strecken auf AWS Glue übertragen
Entwickeln unterschiedlicher Use Cases und Begleitung der Fachbereiche von der Ideation- bis zur Anwendungsphase
Datentransformation und ETL-Strecken in die Cloud verlagern
Mittelfristige Nutzung von Databricks auf AWS
Mitarbeit bei der Migration von klassischen On Premise DWH Lösung Richtung (hybrid) Cloud Architektur
Unterstützung der Weiterentwicklung der Data und Analytics Plattform sowie Roadmap
Nutzung von PySpark und SQL in AWS
Anforderungen:
Mehrjährige Berufserfahrung mit Cloud-technologien/-architekturen Insbesondere AWS (Lakehouse-Technologien) sowie mit Spark und Databricks
Sehr gute Kenntnisse in Terraform, Airflow, AWS S3 und weiteren typischen AWS- Diensten
Fundierte IT-Systemkenntnisse sowie Kenntnisse in Datenbanken (DWH&ETL) und DevOps
Migration der Logik von On-Premise in die Cloud
Erfahrungen und Kenntnisse in der Arbeit nach Scrum
Kenntnisse mit
Kenntnisse in Machine Learning und AI
Ausgeprägte Kommunikations- und Teamfähigkeit
Gute Deutschkenntnisse
Start: Mai 2024
Dauer: 9 MM ++
Ort: Köln
Projekt: #11127
Bewerbungsfrist: 07.06.2024
Haben Sie Zeit und Interesse an einem spannenden Projekt?
Dann freuen wir uns auf Ihre Kontaktaufnahme!
für unseren Kunden in Köln suchen wir einen Data Cloud Engineer (m/w/d).
Existierende ETL-Strecken auf AWS Glue übertragen
Entwickeln unterschiedlicher Use Cases und Begleitung der Fachbereiche von der Ideation- bis zur Anwendungsphase
Datentransformation und ETL-Strecken in die Cloud verlagern
Mittelfristige Nutzung von Databricks auf AWS
Mitarbeit bei der Migration von klassischen On Premise DWH Lösung Richtung (hybrid) Cloud Architektur
Unterstützung der Weiterentwicklung der Data und Analytics Plattform sowie Roadmap
Nutzung von PySpark und SQL in AWS
Anforderungen:
Mehrjährige Berufserfahrung mit Cloud-technologien/-architekturen Insbesondere AWS (Lakehouse-Technologien) sowie mit Spark und Databricks
Sehr gute Kenntnisse in Terraform, Airflow, AWS S3 und weiteren typischen AWS- Diensten
Fundierte IT-Systemkenntnisse sowie Kenntnisse in Datenbanken (DWH&ETL) und DevOps
Migration der Logik von On-Premise in die Cloud
Erfahrungen und Kenntnisse in der Arbeit nach Scrum
Kenntnisse mit
Kenntnisse in Machine Learning und AI
Ausgeprägte Kommunikations- und Teamfähigkeit
Gute Deutschkenntnisse
Start: Mai 2024
Dauer: 9 MM ++
Ort: Köln
Projekt: #11127
Bewerbungsfrist: 07.06.2024
Haben Sie Zeit und Interesse an einem spannenden Projekt?
Dann freuen wir uns auf Ihre Kontaktaufnahme!
Kontaktdaten
Als registriertes Mitglied von freelance.de können Sie sich direkt auf dieses Projekt bewerben.
Kategorien und Skills
Sie suchen Freelancer?
Schreiben Sie Ihr Projekt aus und erhalten Sie noch heute passende Angebote.
Jetzt Projekt erstellen