DevOps / Cloud Engineer / Data Engineer
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- 50169 Kerpen, Rheinland
- National
- de | en
- 02.06.2023
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
11/2020 – offen
Tätigkeitsbeschreibung
• Migration eines Data Warehouses und den damit verbundenen ETL-Prozessen in die AWS Cloud mittels Terraform & Terragrunt und Python & Spark
• Optimierung bestehender Prozesse und Modernisierung der genutzten Toolsets
• Administration und Weiterentwicklung der vom Konzern zur Verfügung gestellten Cloud-Umgebung
DevOps
8/2020 – 11/2020
Tätigkeitsbeschreibung
• Implementierung eines Bestandssystems und dazugehöriger Microservcie-Orientierten REST API mittels AWS Lambda & Python
• Implementierung der zum System bzw. der API zugehörigen AWS basierten Infrastruktur mittels Terraform & Terragrunt
DevOps, Python, Amazon Web Services (AWS)
11/2019 – 6/2020
Tätigkeitsbeschreibung
• Implementierung von ETL Jobs mittels Jupyterlab/Python/Pandas/SQLAlchemy, REST/SOAP/SFTP/OAUTH APIs und Oracle/PostgreSQL
• Dockerisierung von ETL Jobs zur Ausführung via AWS Batch mittels Docker und Docker-Compose
• Content Migration von Datenbanken nach AWS RDS mittels Flyway und Bash
• Aufsetzen von benötigter AWS basierter Infrastruktur mittels Terraform
Python, Amazon Web Services (AWS)
8/2019 – 11/2019
Tätigkeitsbeschreibung
• Erweiterung und Wartung bestehender ETL-Pipelines mittels Jupyter/Python/Pandas/SQLAlchemy/Selenium/JQuery, REST/SFTP APIs, Oracle/PostgreSQL und GIT
• Dockerisierung bestehender Anwendungen mittels Docker und Docker-Compose
• Datenhaltung, -analyse und –migration mittels Superset, SQL und der UNIX Bash
• Aufbau und Betrieb der IT-Landschaft in Form von Nginx/Tornado, GitLab, OpenStack, MySQL und Check_MK/Prometheus/Grafana
Data Science, Datawarehouse / DWH, ETL, Python
1/2015 – 8/2019
Tätigkeitsbeschreibung
• Implementierung und Betrieb von ETL-Pipelines und Web-Crawlern mittels Jupyter/Python/Pandas/SQLAlchemy, REST/SFTP APIs, Oracle/PostgreSQL
• Datenhaltung und -analyse mittels Superset und SQL
• Training und Betrieb von Vorhersagemodellen mittels Scikit-Learn/Tensorflow/Keras
• Aufbau und Betrieb der IT-Landschaft in Form von Nginx/Tornado, GitLab, OpenStack und Check_MK/Prometheus/Grafana
• Implementierung von AWS Infrastruktur mittels Terraform
Data Science, Datawarehouse / DWH, ETL, Python
Ausbildung
Köln
Köln
Kerpen
Weitere Kenntnisse
Cloud Engineering
Data Engineering
Softwareentwicklung
Python
SQL
Cloud
AWS
Terraform
Terragrunt
Big Data
Spark
Pandas
SQLAlchemy
Scikit-Learn
Datenbank
PostgreSQL
MySQL
Oracle
Dynamo DB
CI/CD
GitLab
Bitbucket
IT-Infrastruktur
Airflow
Docker
Linux
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden