freiberufler eviit GmbH - Data Engineering, DevOps, Product Owner auf freelance.de

eviit GmbH - Data Engineering, DevOps, Product Owner

offline
  • 90€/Stunde
  • 22941 Bargteheide
  • Weltweit
  • de  |  en  |  fr
  • 12.10.2021

Kurzvorstellung

eviit GmbH - Fundiertes Wissen, umfangreiche Erfahrung und eine ausgeprägte Leidenschaft für Innovation und neue Ideen bilden die Plattform für Erfolg.

Qualifikationen

  • Amazon Web Services (AWS)
  • C#
  • Cloud (allg.)
  • Continuous Delivery (CDE)
  • Datawarehouse / DWH
  • DevOps
  • ETL
  • Google Cloud
  • Microsoft Azure
  • VBA (Visual Basic for Applications)

Projekt‐ & Berufserfahrung

Product Owner (PO) eines Scrum Teams
Otto Gmbh & Co. KG, Hamburg
6/2020 – 12/2020 (7 Monate)
Handel
Tätigkeitszeitraum

6/2020 – 12/2020

Tätigkeitsbeschreibung

* Organisation eines Scrum Teams
* Team übergreifende Kommunikation
* Übernahme und Weiterentwicklung von Anwendungen in die Verantwortung des Teams

* Support für andere Teams bei Fragen bzgl. spezifischer Technologien
* Migration eine BI-Infrastruktur in die Google Cloud organisation Talend Ramp-Down auf Cloud native Technologien

Methodik & Technologien: 

Jira, Confluence, Talend, Exasol, OpenShift, Docker, Container, Talend DI, Talend ESB, Java, Terradata, Google Cloud, Google Datastudio, Google BigQuery, Google DataFlow

Eingesetzte Qualifikationen

Datenbankentwicklung, ETL, SQL, Confluence (Atlassian), Enterprise Service Bus (ESB), Jira, Google Cloud, OpenShift

Entwickler und DevOps - DWH Data Quality
Deutsche Hypothenkenbank, Hannover
3/2020 – 6/2020 (4 Monate)
Banken
Tätigkeitszeitraum

3/2020 – 6/2020

Tätigkeitsbeschreibung

* Weiterentwicklung eines zeitgemäßen Data Quality Ansatzes
* Planung eines Talend Upgrads
* Planung eines DB2 Upgrades inkl. der Einführung der DB2 BLU für das gesamte DWH auf Data Vault 2 Basis

Methodik und Technologien:
Talend DI, Data Vault 2, IBM DB2

Eingesetzte Qualifikationen

DB2, ETL, SQL

Solution Architekt, Entwickler und DevOps - Aufbau eines Projekt-Management-Syst
Kundenname anonymisiert, Hamburg
1/2020 – 12/2020 (1 Jahr)
Medienbranche
Tätigkeitszeitraum

1/2020 – 12/2020

Tätigkeitsbeschreibung

* Planung und Entwicklung einer generischen CI/CD Pipeline mit GitLab CI für das Deployment in Google Cloud Run
* Planung und Entwicklung eines DWHs in Google BigQuery
* Near-Real-Time Beladung von Marktdaten mit Python-ETL-Jobs in Google-Func8ons
* Entwicklung einer kompletten Software-as-a-Service (SaaS) Lösung
* Entwicklung von neuralen Netzen zur Berechnung diverser Kennzahlen

Methodik und Technologien:
Python, Javascript, BigQuery, Google Functions, Docker, Kubernetes, Google Cloud, Google Datastudio, Google Storage, Gitlab, Elasticsearch, html, CSS

Eingesetzte Qualifikationen

Big Data, Docker, Python, Google Cloud, JavaScript, Kubernetes

Teamleiter, Solution Architekt und Entwickler - Neuaufbau eines DWHs
Lufthansa Technik, Hamburg
9/2019 – 3/2020 (7 Monate)
Luft- und Raumfahrtindustrie
Tätigkeitszeitraum

9/2019 – 3/2020

Tätigkeitsbeschreibung

* MVP eines modernen und unternehmensweit einheitlichen DWH nach Data Vault
* Evaluierung verschiedener Architekturansätze im Rahmen der technischen Gegebenheiten
* Planung, Konzeption und Bau verschiedenster hoch dynamischer ETL-Strecken in Talend DI
* Entwicklung eines dynamsichen DDL-Generators in Python
* Entwicklung von ELT-Beladungsprozessen in HANA SQL Script
* Teamweite und Unternehms übergreifend Aufgabenverteilung mit Anlehnung an Scrum
* Enge Kommunikation mit den Stakeholdern (Anforderungs- & Erwartungsmangement)

Methodik und Technologien:
Talend DI, Python, SAP ERP, SAP HANA, Oracle, Data Vault, AWS

Eingesetzte Qualifikationen

ETL, Oracle Database, SAP HANA, Amazon Web Services (AWS)

Solution Architekt, Entwickler und DevOps - Natural Language Processing API
Kundenname anonymisiert, Hamburg
1/2019 – 12/2019 (1 Jahr)
Medienbranche
Tätigkeitszeitraum

1/2019 – 12/2019

Tätigkeitsbeschreibung

* Planung und Entwicklung einer modernen Rest-API auf Django (Python Framework) für Natural Language Processing Workflows
* Training von NLP Modellen (Neurale Netzwerke)
* Planung und Entwicklung einer generischen CI/CD Pipeline mit GitLab CI für das Deployment in Azure
* Planung und Entwicklung eines DWHs in Google BigQuery
* Near-Real-Time Beladung von Marktdaten mit Python-ETL-Jobs in Google-Functions
* Analyse von Trenddaten durch die NLP API mit dem Google Datastudio
* Bau einer Google Chrome Extension für die NLP API

Methodik und Technologien:
Python, Javascript, BigQuery, Google Functions, Docker, Kubernetes, Google Cloud, Azure, Google Datastudio, Gitlab

Eingesetzte Qualifikationen

Docker, Git, Jira, Python, Google Cloud, Microsoft Azure, JavaScript, Kubernetes

Solution Architekt, Entwickler und DevOps - AI gestützte Fahrzeugbewertung
Kundenname anonymisiert, Hamburg
1/2019 – 3/2019 (3 Monate)
Medienbranche
Tätigkeitszeitraum

1/2019 – 3/2019

Tätigkeitsbeschreibung

* Planung und Entwicklung einer modernen iOS-App, die durch Bilderkennung und intelligente AI-Algorithmen die Art und den Wert eines Fahrzeuges ermittelt und auch hinweise auf kommende Reparaturen und die vermutlichen Kosten gibt
Methodik und Technologien:

xCode, Swift, Javascript, Google Storage, MongoDB

Eingesetzte Qualifikationen

MongoDB, Swift (Apple), Google Cloud, JavaScript

Architekt und Coach
Hermes, Hamburg
6/2018 – 6/2018 (1 Monat)
Logistikdienstleister
Tätigkeitszeitraum

6/2018 – 6/2018

Tätigkeitsbeschreibung

* Validierung bisher entwickelter ETL-Strecken
* Validierung der bisherigen DWH-Struktur
* Validierung der Vorgehensweise (Deployment, Testing, etc.)

Methodik und Technologien:
Talend Data Integration, Exasol, Data Vault

Eingesetzte Qualifikationen

Datenbankentwicklung, ETL, SQL

DevOps
S-Servicepartner, Hamburg
1/2018 – 5/2018 (5 Monate)
Banken
Tätigkeitszeitraum

1/2018 – 5/2018

Tätigkeitsbeschreibung

* Konzeption und Planung der Migration
* Durchführung der Migration
* Dokumentation der Migration
* Beratung bei der Wahl der Hardware bezüglich der zu erwartenden Auslastung

Methodik und Technologien:
Pentaho, MySQL, Bash

Eingesetzte Qualifikationen

ETL, SQL, Linux (Kernel), Bash (Shell), Docker

DWH-Entwickler und DevOps
Xing, Hamburg
6/2017 – 9/2018 (1 Jahr, 4 Monate)
Medienbranche
Tätigkeitszeitraum

6/2017 – 9/2018

Tätigkeitsbeschreibung

* Entwicklung und Konzeption eines neuen DWH-Systems
* Planung der Aufgaben und Koordination des ETL-Teams
* Einarbeitung und Hands-on-Training im Bereich Talend DI und Big Data
* Betreuung der Systeme (TAC, Git, etc.) bei Produktionsproblemen

Eingesetzte Qualifikationen

Big Data, ETL, SQL, Lua, AMQP

Trainer
Kundenname anonymisiert, Hamburg
1/2017 – 7/2019 (2 Jahre, 7 Monate)
Handel
Tätigkeitszeitraum

1/2017 – 7/2019

Tätigkeitsbeschreibung

* Ausarbeitung eines Trainings für Talend Best Practices mit dem Schwerpunkt cimt Job Instance Framework und Continuous Delivery für Talend
* Erstellung von Schulungsmaterialien
* Durchführung der Schulung

Eingesetzte Qualifikationen

ETL, Continuous Delivery (CDE), Apache Maven, Jenkins

Java-Entwickler
Otto Gmbh & Co. KG, Hamburg
1/2017 – 6/2017 (6 Monate)
Handel
Tätigkeitszeitraum

1/2017 – 6/2017

Tätigkeitsbeschreibung

* Requirements Engineering: Aufnahme, Konsolidierung und Bewertung von Anforderungen
* Erstellung nachvollziehbarer Tesoälle zur Nachstellung der Fehlersitua8onen
* Analyse vorhandener komplexer Daten- und SQL-Strukturen
* Weiterentwicklung des Frameworks als Webservices

Methodik und Technologien:
Java SE, Talend Data Integra8on, Teradata SQL

Eingesetzte Qualifikationen

JDBC (Java Database Connectivity), SQL, Teradata, J2EE (Java EE)

Java-Entwickler
Otto Gmbh & Co. KG, Hamburg
1/2017 – 6/2017 (6 Monate)
Handel
Tätigkeitszeitraum

1/2017 – 6/2017

Tätigkeitsbeschreibung

* Requirements Engineering: Aufnahme, Konsolidierung und Bewertung von Anforderungen
* Erstellung nachvollziehbarer Tesoälle zur Nachstellung der Fehlersitua8onen
* Analyse vorhandener komplexer Daten- und SQL-Strukturen
* Weiterentwicklung des Frameworks als Webservices

Methodik und Technologien:
Java SE, Talend Data Integra8on, Teradata SQL

Eingesetzte Qualifikationen

JDBC (Java Database Connectivity), SQL, Teradata, J2EE (Java EE)

Entwickler und DevOps
Otto Gmbh & Co. KG, Hamburg
9/2016 – 1/2017 (5 Monate)
Handel
Tätigkeitszeitraum

9/2016 – 1/2017

Tätigkeitsbeschreibung

* Analyse bestehender Deployment-Prozesse
* Optimierung einer Continuous Delivery Pipeline mit Jenkins
  * Aktualisierung und Optimierung des Jenkins CI Servers
  * Optimierung von Talend DI Build Prozessen
  * Entwicklung von Groovy Scripts zur Build- Unterstützung
  * Einführung von Talend Unit Tests (Test Cases)
* Betreuung der Docker Swarm-Infrastruktur
  * Wiederherstellung einer stabilen Produktionsumgebung
  * Optimierung des Docker Clusters auf Basis von Swarm
  * Betreuung und Übergabe an Operations

Methodik und Technologien:
Talend Data Integration, Jenkins, Java, jUnit, GIT, Docker, Groovy, Docker Swarm, Python

Eingesetzte Qualifikationen

ETL, Continuous Delivery (CDE), Docker, J2EE (Java EE), Jenkins, Python, OpenShift

Ausbildung

Mathematik
Bachelor
2018
Hamburg

Weitere Kenntnisse

Scrum, Big Data, Certified Developer, Certified Performance, Jira, ITIL, AWS, Java SE, Python, Ruby, Groovy, PHP, LUA, SQL, MDX, Javascript, HTML, Swift, Datenbanken, Exasol, MySQL, Postgres, Oracle, Hbase, Teradata, CouchDB, DB2, BigQuery, MongoDB, Linux, Windows, Mac, Talend Data Integration (DI) mit BigData, Talend Data Mapper, Talend, Metadata Manager, Talend Data Catalog, Data Lineage, Google, Cloud, Google Datastudio, Google Cloud Run, Google DataFlow, Alibaba Cloud, Azure, Terraform, GitLab, Pentaho DI, MapR, AMQP, Docker Swarm, Kubernetes, Pentaho BI Server, Jenkins, Maven, SVN, Git, Mondrian, PyCharme, Saiku, Olap, Rapid Miner, Apache Tomcat, SonarQube, Gambio, Kanban, Agile, Jira, Confluence, Docker, DI, Talend ESB, Java, Terradata, Google BigQuery, DevOps, GitLab CI, ETL, SaaS, Google Functions, Google Storage, CSS, DWH, Data Quality, Data Vault, IBM DB2, Natural Language Processing, API, Django, Flask, Python Framework, NLP, NLP API, Google Chrome Extension, DDL, HANA SQL Script, SAP ERP, SAP HANA, iOS, PL/SQL, Oracle Exadata, River-Bridge-Modell, Pentaho, Bash, Social Media, Webservices, Talend Data Integration, Teradata SQL, Delivery Pipeline, jUnit, HP ALM, Cherwell ITSM, Oracle SQL, Exasol SQL, BMC Control-M, Data Capture, Talend DI, CDC, Pentaho Business Intelligence Server (BI), MS Access, Machine Learning, AI, DWH, ETL, ELT, Data-Warehouse, Big Data, Data Engineer, Data Engineering, Engineering

Persönliche Daten

Sprache
  • Deutsch (Muttersprache)
  • Englisch (Fließend)
  • Französisch (Grundkenntnisse)
  • Russisch (Grundkenntnisse)
Reisebereitschaft
Weltweit
Arbeitserlaubnis
  • Europäische Union
  • Schweiz
  • Vereinigte Staaten von Amerika
Home-Office
bevorzugt
Profilaufrufe
2877
Alter
36
Berufserfahrung
12 Jahre und 7 Monate (seit 08/2011)
Projektleitung
2 Jahre

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden