CEO phenetic GmbH, Data Engineer, Full Stack Software Developer, Consultant

Profil Foto
Verfügbarkeit einsehen
Umkreis (bis 200 km)
de  |  en
auf Anfrage
50674 Köln
09.11.2018

Kurzvorstellung

Data Architect, Data Engineer, Scala Entwickler (Scala, Akka, Akka Streams, Play Framework) im Bereich Big Data und Hadoop (Spark, Kafka, HBase, Hive, HDFS).
Consultant im Bereich Big Data, Hadoop, Distributed Systems, Stream Processing Platforms.

Ich biete

IT, Entwicklung
  • Apache Hadoop
  • DevOps
  • Functional reactive programming (FRP)
  • Scala
  • Big Data
  • IT-Beratung (allg.)
  • Software Architektur / Modellierung
  • ETL
  • System Architektur
  • Cloud Computing

Projekt‐ & Berufserfahrung

Data Architekt, Data Engineer, Software Developer
Kundenname anonymisiert, München
4/2017 – 4/2017 (1 Monat)
Großhandel
Tätigkeitszeitraum

4/2017 – 4/2017

Tätigkeitsbeschreibung

Toolset: Scala, Spark, Spark SQL

- Ingest von Google Analytics Big Query Exports in den Hadoop Datalake
- Implementierung von Spark SQL Jobs zur Anlyse bestimmter Ereignispfade/Ereignisse

Eingesetzte Qualifikationen

Apache Hadoop, Data Mining, Scala, Functional reactive programming (FRP), IT-Beratung (allg.)


Consultant, DevOps
Kundenname anonymisiert, Berlin
3/2017 – 8/2017 (6 Monate)
Banken
Tätigkeitszeitraum

3/2017 – 8/2017

Tätigkeitsbeschreibung

Toolset: Hortonworks, Cloudera, MapR, Ansible

- Deployment mehrerer Hadoop Distributionen (Hortonworks, Cloudera, MapR) in gesicherter Umgebung zur Evaluation operationaler Aspekte des Kunden
- Beratung des Betriebs zum Operieren der Hadoop Distribution Hortonworks

Eingesetzte Qualifikationen

Apache Hadoop, DevOps, IT-Beratung (allg.)


Consultant, Solution Architekt, Data Engineer, Software Developer, DevOps
Kundenname anonymisiert, Herzogenaurach
12/2016 – 10/2017 (11 Monate)
Konsumgüterindustrie
Tätigkeitszeitraum

12/2016 – 10/2017

Tätigkeitsbeschreibung

Toolset: Scala, Play Framework, Kafka, Spark, HDFS, AWS EMR, AWS, Terraform, Ansible

Consultant/Data Architect
Konzeption einer Datenintegrations Referenzarchitektur inkl. Hadoop Datalake und near-realtime Zugriffszenarien

Cloud Architect/DevOps
Design der Architektur und automatisierte Basisprovisionierung auf AWS mittels Terraform und Ansible

Data Architekt/Data Engineer/Software Developer
- Implementierung eines PoC zum ingest von transaktionalen Datenströmen in den Datalake
- Konzept/Implementierung einer generic Streaming integration von Cloudservices mittels Kafka in den Datalake zum automatisierten Aufbau von Ingest Pipelines und laden in interne Datenbank

Eingesetzte Qualifikationen

Apache Hadoop, Big Data, ETL, DevOps, Software Architektur / Modellierung, Scala, Functional reactive programming (FRP), Cloud Computing, System Architektur, IT-Beratung (allg.)


Data Engineer, DevOps
Institut für Materialforschung, Köln
11/2016 – 12/2016 (2 Monate)
Hochschulen und Forschungseinrichtungen
Tätigkeitszeitraum

11/2016 – 12/2016

Tätigkeitsbeschreibung

Toolset: Ansible, Scala, Flume, Logstash, Elasticsearch

- Konzept des Hadoop Clusters von 10 Nodes und dessen Komponentenverteilung
- Deployment der Hadoop Distribution Hortonworks via Ansible
- Konzept und Implementierung der Ingest Pipelines via Flume und Logstash
- Implementierung der Deploymentautomatisierung und Konfiguration der Edge Services

Eingesetzte Qualifikationen

Apache Hadoop, ETL, DevOps, Scala, Functional reactive programming (FRP)


Consultant, Software Developer, DevOps
Kundenname anonymisiert, Düsseldorf
6/2016 – 12/2016 (7 Monate)
Großhandel
Tätigkeitszeitraum

6/2016 – 12/2016

Tätigkeitsbeschreibung

Toolset: Ansible, Scala, Akka, Play Framework, Cassandra, PostgreSQL, Docker

- Review der bestehenden Deploymentprozesse, im speziellen von Cassandra
- Consulting im Bereich Ansible, Prozessautomatisierung
- Konzept und Implementierung einer Microservicearchitektur auf Basis von Akka zum automatisierten Deployment von Clustered Applications mitels REST API zum Instrumentieren von Ansible
- Beratung im Thema Monitoring von Cassandra per InfluxDB und Grafana

Eingesetzte Qualifikationen

Software Architektur / Modellierung, Scala, Functional reactive programming (FRP), IT-Beratung (allg.)


Software Developer
Kundenname anonymisiert, Köln
6/2016 – 10/2016 (5 Monate)
Versicherungen
Tätigkeitszeitraum

6/2016 – 10/2016

Tätigkeitsbeschreibung

Toolset: Scala, Spark, Hadoop, YARN, Hashicorp Nomad, Docker

- Automatisiertes Setup des Clusterseitigen Development Environments
- Automatisiertes Deployment/Setup von verteilten Applikationen via Ansible
- Apache Spark im Standalone Mode
- Apache YARN
- Apache Spark on YARN
- Apache Hadoop HDFS
- Apache Zeppelin
- Konzeptionierung und Implementierung Cluster/Container Manager Hashicorp Nomad
- Konzeptionierung und Implementierung Service Discovery via Hashicorp Consul

Eingesetzte Qualifikationen

Apache Hadoop, DevOps


Data Engineer, Software Developer, DevOps
Kundenname anonymisiert, Köln
6/2016 – 10/2016 (5 Monate)
Großhandel
Tätigkeitszeitraum

6/2016 – 10/2016

Tätigkeitsbeschreibung

Toolset: Scala, Kafka, Spark, Spark Streaming, HDFS, Flume

- Konzept des Hadoop Clusers und dessen Komponenten
- Automatisiertes Deployment und Setup des Betriebssystems (CentOS 7)
- Automatisiertes Deployment von Flume Komponenten
- Konzeptionierung und Implementierung der Automatisierten Ingest Pipelines
- Konzeptionierung und Implementierung des Data Warehouses
- Vorbereiten und Führen von Schulungen von Mitarbeitern
- Implementieren weiterer Ingest Pipelines via Apache Flume
- Benutzen von Apache Zeppelin und Einweisung in Apache Spark
- Implementieren von Spark Jobs
- Erforschen von Dependency Injection mit Spark Jobs via Google Guice

Eingesetzte Qualifikationen

Apache Hadoop, Big Data, Software Architektur / Modellierung, Scala, Functional reactive programming (FRP)


Data Engineer, Full Stack Software Developer
Kundenname anonymisiert, Köln
6/2016 – 10/2016 (5 Monate)
Großhandel
Tätigkeitszeitraum

6/2016 – 10/2016

Tätigkeitsbeschreibung

Toolset: Scala, Spark, Play Framework, Elasticsearch, Machine Learning, ReactJS

- Anforderungsanalyse
- Erfassen der benötigten Datenquellen
- Konzeption der Applikation
- Ingest von externen Quellen
- Stream/Batch Processing via Spark
- Implementierung Machine Learning: Time Series Analyse der eingebundenen Sales Daten
- Konzeptionierung und Implementierung REST API mittels Play Framework
- Einarbeiten in React JS
- Implementierung eines Dashboards zur Visualiserung der Sales Forecast Daten
- Vorbereitende Konzeption und Implementierung des PIM Management (Daten Integration)

Eingesetzte Qualifikationen

Machine learning, Apache Hadoop, Big Data, Scala, Functional reactive programming (FRP), Google Analytics, React (JavaScript library)


Data Engineer, Full Stack Software Developer
Kundenname anonymisiert, Köln
6/2016 – 7/2016 (2 Monate)
Medienbranche
Tätigkeitszeitraum

6/2016 – 7/2016

Tätigkeitsbeschreibung

Toolset: Scala, Spark, Akka, Elasticsearch, Machine Learning, Docker, AngularJS

- Akka (Microservices)
- Apache Kafka (Message Broker)
- Apache Cassandra (Persistence)
- Kamon (Monitoring Scala API via aspectj), InfluxDB und Grafana
- Docker/Docker-Compose/SBT Docker (Development Environment)
- Play Framework (REST API)
- Angular JS (Frontend, SPA)

Eingesetzte Qualifikationen

Machine learning, Apache Hadoop, Software Architektur / Modellierung, Scala, Functional reactive programming (FRP)


Data Engineer, Software Developer, DevOps
Kundenname anonymisiert, Köln
1/2016 – 6/2016 (6 Monate)
Medienbranche
Tätigkeitszeitraum

1/2016 – 6/2016

Tätigkeitsbeschreibung

Toolset: Scala, Spark, Akka, Play Framework, Flume, HDFS, Avro

- Deployment eines cross DC Cloudera Clusters
- Implementierung eines Akka Job Schedulers mit nachgelagertem Actor System
- Streambasierte Ingestion von externen Services in den Hadoop Datalake als Avro Files und Elasticsaerch zur späteren Aggregation
- HTTP API zum Abfragen aggregierter Result Sets

Eingesetzte Qualifikationen

Apache Hadoop, Big Data, DevOps, Scala, Functional reactive programming (FRP), Representational State Transfer (REST)


Ausbildung

Fachinformatiker Anwendungsentwicklung
(Ausbildung)
Jahr: 2014
Ort: Köln

Qualifikationen

* Backend/Microservice/Webservice Development mit Scala, Akka, Play Framework
* Big Data Engineering mit Apache Hadoop, Apache Spark, Apache HBase, Apache Cassandra, Apache Kafka incl. Deployment von Hadoop Clustern der Distributionen Hortonworks/Cloudera/Vanilla Hadoop, Spark on YARN und anschließender Implementierung von Big Data Applikationen
* Implementierung von Suchfunktionen mittels Elasticsearch
* Implementierungen erfolgen vorzugsweise funktional reaktiv und nach dem Clean Code Prinzip

Über mich

# Software Engineering

Fundierte Kenntnisse und mehrjährige Erfahrung im Bereich der Software Entwicklung, im Speziellen Scala (Functional Programming) und des Typesafe Stacks (Play Framework, Akka, Akka Streams).
Service orientierte Architekturen mit Akka HTTP/Play Framework asynchroner Kommunikation per Apache Kafka, Event Sourcing/Persistenz via Cassandra.

# Data Engineering

Mehrjährige Erfahrung mit dem Hadoop Ökosystem und artverwandten Technologien, wie columnar/document oriented Storage, Message Brokers, Stream Processing Frameworks, etc, wie zum Beispiel:
- Hadoop HDFS (Avro, Parquet)
- HBase
- YARN
- Hive/Impala
- Kudu
- Spark/Spark Streaming
- Kafka
- Cassandra
- Elasticsearch
- Logstash, Kibana => ELK


# Dev Ops Engineering

Plattformen mit oben genannten Technologien werden entweder bei den üblichen Cloud Providern (AWS, Google Cloud, Azure) aufgebaut - oder eben On-Premise beim Kunden.
Im Speziellen auf AWS haben wir in den letzten Jahren einige Projekte umgesetzt und gute Erfahrungen gemacht.

Entweder wurden managed Services der Cloud Provider genutzt (z.b. AWS EMR, Hortonworks on Azure), Hadoop Distributionen automatisiert von uns aufgebaut (Hortonworks, Cloudera, MapR) oder zum Teil auch Vanilla im Clusterbetrieb deployed (z.b. Spark Standalone, Kafka Cluster, Cassandra Cluster).

Infrastrukturautomatisierung wird wenn möglich per Terraform implementiert und per Ansible provisioniert.

Zu den Plattformen werden verständlicherweise auch mehrere CI/CD Pipelines per GIT, Jenkins und Docker aufgebaut.

Hierbei entstehen nicht selten PaaS Produkte, die es dem Kunden selbst ermuoglichen Managed Services innerhalb der Organisation anzubieten - z.b. Managed Cassandra, Kafka, Spark, etc.


# Architektur

Bei den meisten Kunden steht die Datenintegration und BI im Vordergrund, die meist Batchgetrieben ist. Je nach Use Case wurde ETL in Batches bzw. Streams betrieben - sowohl auf Hadoop Platformen, als auch maßgeschneidert mit oben genannten Technologien. Dies können z.b. Stream Processing Plattformen sein, die eventgetrieben einen hohen Durchsatz mit geringer Verarbeitungslatenz als Anforderung hatten.
Dabei wurden in der Regel Service Oriented Infrastructures entworfen, um den Anforderungen des Kunden seitens Skallierung, Fault Tolerance und Maintenance gerecht zu werden.
Durch moderaten Durchsatz an Projekten werden häufig neue Technologien evaluiert und wenn möglich eingesetzt - zugeschnitten auf den jeweiligen Use Case.


# End-to-End Projekte möglich:

- Consulting im Bereich Big Data, Hadoop, Architektur
- Design und Implementierung von Big Data Processing Plattformen
- Implementierung von ETL Pipelines zur Datenintegration
- Analyse der integrierten Daten
- Bereitstellung der Aggregate für nachgelagerte Systeme
- Workshops zwecks Wissenstransfer an Mitarbeiter des Kunden

Persönliche Daten

Sprache
  • Deutsch (Muttersprache)
  • Englisch (Gut)
Reisebereitschaft
Umkreis (bis 200 km)
Arbeitserlaubnis
  • Europäische Union
Profilaufrufe
1138
Alter
29
Berufserfahrung
4 Jahre und 4 Monate (seit 08/2014)

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden »