(agile) Requirements Engineer, Data Engineer, (Big) Data Analyst, DataOps

freiberufler (agile) Requirements Engineer, Data Engineer, (Big) Data Analyst, DataOps auf freelance.de
Verfügbarkeit einsehen
Weltweit
de  |  en
auf Anfrage
61231 Bad Nauheim
01.08.2020

Kurzvorstellung

Ich arbeitet seit über 20 Jahren im Bereich Data Management und agilem Requirements Engineering und unterstütze hierbei nationale und international agierende Unternehmen beim Aufbau datenzentrierter Anwendungen und Systeme.

Ich biete

IT, Entwicklung
  • Software Architektur / Modellierung
  • Agile Entwicklung
  • Datenanalyse
  • Big Data
  • Schulung / Training (IT)
  • Requirement Analyse
  • DevOps (allg.)
  • Kubernetes
  • MariaDB
  • Datenbankentwicklung
  • System Analyse
  • Datenbankadministration
  • Ansible
Management, Unternehmen, Strategie
  • Projektleitung / Teamleitung
Forschung, Wissenschaft, Bildung
  • Data Science

Fokus
  • Data Management
  • Data Engineering

Projekt‐ & Berufserfahrung

Optimierung Data Management System Umgebung
INFOnline GmbH, Bonn
6/2020 – offen (3 Monate)
IT & Entwicklung
Tätigkeitszeitraum

6/2020 – offen

Tätigkeitsbeschreibung

• Analyse / Bestandsaufnahme der bestehenden Datenbanksysteme
• Ausarbeitung von möglichen Optimierungspotenzialen
• Aufbau von Datenbank-Clustern (MariaDB Galera Cluster mit Maxscale)
zur Verbesserung der Stabilität und Upgradefähigkeit
• Entwicklung synthetischer Abläufe für Lasttest und Stabilitätsmessungen

Eingesetzte Qualifikationen

Datenbankadministration, Datenbankentwicklung, MariaDB, System Analyse, Ansible


Beratung, Architektur und Training für den Aufbau einer Data Analytics Platform
Energiemarkt, Börse, Leipzig
1/2020 – 5/2020 (5 Monate)
Finanzdienstleister
Tätigkeitszeitraum

1/2020 – 5/2020

Tätigkeitsbeschreibung

• Analyse und Dokumentation der Anforderungen
• Erstellung und Abstimmung der Komponentenarchitektur
• Festlegung entsprechender Container zur Komponenten-Gruppierung
• Kalkulation und Skalierung der Infrastruktur pro Container
• Entwicklung Proof of Concept (PoC) zur Validierung der Anforderungen
• Erstellung Blueprint zum Aufbau der Umgebung (Infrastructure as Code)
• Tool-Evaluierung für
◦ Data Flow & Data Processing (Apache Nifi, Apache Airflow, Prefect)
◦ Orchestration & Execution (Kubernetes, Docker, FaaS, Microservices)

Eingesetzte Qualifikationen

Big Data, Datenanalyse, Software Architektur / Modellierung, Cloud (allg.), Schulung / Training (IT), Proof of Concept (POC)


Beratung und Training Data Management
Finanzdienstleistung, Halle (Saale)
10/2019 – 6/2020 (9 Monate)
Finanzdienstleister
Tätigkeitszeitraum

10/2019 – 6/2020

Tätigkeitsbeschreibung

• Beratung und Training des Inhouse-Teams im Bereich Data Engineering
und Daten(-bank)-Design
• Optimierung, Fehler- & Performanceanalyse der Bestands- und
Entwicklungssysteme (Datenmodelle, Aufbau und Nutzung Indizes, etc.)
• Deployment/Versionierung von Datenbanken, Konzeption/Strategie
Backup, Konzeption/Durchführung Datenbank-Migration
• Nutzung verteilter Datenbanksysteme (Cluster) in Bezug auf Performance,
Redundanz, Sicherheit (MariaDB Galera Cluster)
• Unterstützung und Durchführung Oracle DB Migration
• Vorstellung von Big Data Technologien zur Unterstützung bei
Datenanalysen

Eingesetzte Qualifikationen

Datenbankentwicklung, MariaDB, mySQL, Oracle Database, SQL, Schulung / Training (IT)


Methodische Unterstützung beim Aufbau übergreifender Datenmodelle
Automotive, Stuttgart
10/2019 – offen (11 Monate)
Automobilindustrie
Tätigkeitszeitraum

10/2019 – offen

Tätigkeitsbeschreibung

• Vorstellung Datenmodellierungsmethoden und deren Werkzeuge
• Training der Modellierungs- und Umsetzungsteams
• Ausarbeitung von Blueprints und Principals der Datenmodellierung
• Integration der Artefakte in operative Systeme

Eingesetzte Qualifikationen

Agile Entwicklung, Software Architektur / Modellierung, Schulung / Training (IT)


Einführung agiler Softwareentwicklungsmethoden zur Effizienz- und Transparenzste
Wirtschaftsprüfung, Frankfurt am Main
1/2019 – 3/2019 (3 Monate)
Dienstleistungsbranche
Tätigkeitszeitraum

1/2019 – 3/2019

Tätigkeitsbeschreibung

• Training agiler Methoden und wichtiger Werte agiler Entwicklung
• Erarbeitung essentieller Artefakte (DoR, DoD)
• Train the Trainer für Product Owner und Scrum Master
• Aufbau Methoden, Werkzeuge und Strukturen

Eingesetzte Qualifikationen

Agile Entwicklung, SCRUM, Schulung / Training (IT)


Entwicklung der Architektur für den Aufbau einer (IoT) Big Data Advanced Analyti
Transport und Logistik, Frankfurt am Main
1/2018 – 6/2019 (1 Jahr, 6 Monate)
Logistikdienstleister
Tätigkeitszeitraum

1/2018 – 6/2019

Tätigkeitsbeschreibung

• Analyse der Anforderungen und Daten
• Aufbau eines Architektur-Blueprints für Speicherung (Storage, Data Lake)
und Auswertung (Compute, Analytics) in der Cloud (Multi-Cloud-Strategie:
Amazon AWS, Microsoft Azure)
• Auswahl einer Toolchain (Hadoop, HDFS, HBase, Parquet, Dremio, AWS
S3, NiFi, Kafka, Python, Jupyter, Collibra) unter Berücksichtigung des zu
analysierenden Datenvolumens und der notwendigen
Schutzbedarfsanforderungen (Data Security, Data Governance) (DataOps)
• Abstimmung der Architektur mit essentiellen Stakeholdern (Management,
Projektleitung, Enterprise Architektur, Strategieabteilungen, ...)
• Aufbau der Umgebungen mittels Infrastructure as Code in der AWS Cloud
(DevOps, Ansible), Monitoring der Verfügbarkeit (Prometheus/Grafana)
• Design, Entwicklung und Best Practices für den Aufbau von Microservices
(mathematische Modelle) inkl. Continous Integration (CI, Jenkins) und
Continous Deployment (CD, Ansible)
• Orchestrierung, Registrierung und Bereitstellung von Funktionen und
Microservices (Kubernetes, FaaS, Lambda, Nomad, Consul, Tyk)
• Einführung von Best Practices zur Nutzung der Analytics Cluster und Entwicklungsumgebungen
• (Leistungs-)Vergleich: Cloud Native vs. Cloud Infrastructure vs. On-
Premise vs. Hybrid, Function as a Service (FaaS) vs. Orchestrierung
Microservices, Container Orchestrierung

Eingesetzte Qualifikationen

Big Data, Datenanalyse, DevOps (allg.), Machinelles Lernen (allg.), Software Architektur / Modellierung, Cloud (allg.), Amazon Web Services (AWS), Kubernetes, Schulung / Training (IT)


Training zum Aufbau einer Big Data Advanced Analytics Plattform zur Verarbeitung
Automobil-Zulieferer, Stuttgart
10/2017 – 6/2018 (9 Monate)
Automobilindustrie
Tätigkeitszeitraum

10/2017 – 6/2018

Tätigkeitsbeschreibung

• Data Analytics Prozesse
• Data Engineering
• Data Analytics, Data Science, Data Mining, Advanced Analytics, Machine
Learning, Deep Learning
• Software-Verteilung, Versionsverwaltung, Continous Integration,
Infrastructure as Code
• Data Virtualization
• Data Security, Data Governance
• Nutzung der Plattform in (Micro-)Services und Function as a Service
(FaaS)
• Kostenvergleich: Cloud vs. Hybrid vs. On-Premise

Eingesetzte Qualifikationen

Big Data, Data Mining, Datenanalyse, Object Detection, Software Architektur / Modellierung, Cloud (allg.), Cloud Computing, Schulung / Training (IT)


agile Coach / SCRUM Master: Big Data Analytics Plattform, Projektkoordination
Currency Technology, München
10/2017 – 12/2017 (3 Monate)
High-Tech- und Elektroindustrie
Tätigkeitszeitraum

10/2017 – 12/2017

Tätigkeitsbeschreibung

agile Coach / SCRUM Master: Big Data Analytics Plattform:
• Coaching des agilen Entwicklungsteams
• Unterstützung bei der Definition von SCRUM Artefakten (DoR, DoD)
• agile Requirements Engineering und Unterstützung der Product Owner bei
der Definition von User Stories

Projektkoordination:
• Planung und Leitung von Workshops mit Kunden (Nationalbanken)
• Abstimmung mit externen Dienstleistern

Eingesetzte Qualifikationen

Datenanalyse, Agile Entwicklung, SCRUM, Schulung / Training (IT)


Data Engineer und agile Requirements Engineer für Big Data Advanced Analytics, P
Transport und Logistik, Frankfurt am Main
10/2016 – 9/2017 (1 Jahr)
Logistikdienstleister
Tätigkeitszeitraum

10/2016 – 9/2017

Tätigkeitsbeschreibung

Data Engineer und agile Requirements Engineer für Big Data Advanced Analytics:
• Bereitstellung der Big Data Infrastruktur auf Basis von Apache Hadoop
Technologien (Hadoop, Hive, HBase, Phoenix, Spark, NiFi, Kafka) und
Python Data Analytics (Jupyter, Pandas)
• Aufbau: Data Lake und Data Analytics Platform (DevOps, Ansible)
• Vergleich: Cloud Native vs. Distribution vs. Vendor Packages
• Last- und Performancemessung zur Validierung der gewählten Produkte
und eingesetzten Analyse-Methoden; nachfolgendes Monitoring der
Umgebungen via Prometheus/Grafana, ElasticSearch/Kibana
• Analyse und Design der Daten und Datenmodelle, analytische
Auswertungen und Realtime-Analysen
• Cloud Services: Amazon Web Services AWS
• Infrastructure as a Service (IaaS), Software as a Service (SaaS)
• Cloud Storage: Amazon S3

Product Owner für Reisendeninformationen:
• übergreifende Anforderungsabstimmung im Projekt und im Programm
• Erstellung von Features und User Stories für Sprint Planung und
Durchführung (Scaled Agile)
• zentraler Ansprechpartner für das Entwicklungsteam

Eingesetzte Qualifikationen

Big Data, Data Mining, Datenanalyse, Agile Entwicklung, SCRUM, Software Architektur / Modellierung, Product Owner, Projektleitung / Teamleitung


IT-Projektmanager für Grobkonzept zur Konsolidierung der Kunden-Stammdaten- Syst
Bank, Frankfurt am Main
4/2016 – 9/2016 (6 Monate)
Finanzdienstleister
Tätigkeitszeitraum

4/2016 – 9/2016

Tätigkeitsbeschreibung

IT-Projektmanager für Grobkonzept zur Konsolidierung der Kunden-Stammdaten-Systeme:
• Projektplanung und -koordination
• Stakeholder Analyse
• Moderation von Workshops: Change Management und Requirements
Engineering
• System- und Schnittstellenanalyse zur Ermittlung der Anforderungen der
Umsysteme
• Datenanalyse und -modellierung zur Erweiterung des Datenmodells
• Erarbeitung des Architektur-Zielbildes für die Erweiterung der
Bestandsanwendung
• Kostenkalkulation zur Budgetierung der Umsetzung in nachfolgender agiler
Software-Entwicklung

agile Requirements Engineering for Data Management / Big Data:
• Unterstützung bei der Auswahl der möglichen Datenbank-Systeme zur
zukünftigen Speicherung und Analyse der konsolidierten Kunden-
Stammdaten

Eingesetzte Qualifikationen

Projektmanagement (IT), Software Architektur / Modellierung, Schnittstellenentwicklung, Requirement Analyse


Interimsmanager: Bereichsleitung Technik und Leitung Softwareentwicklung PIM
Digitale Medien, Stuttgart
1/2014 – 3/2016 (2 Jahre, 3 Monate)
IT & Entwicklung
Tätigkeitszeitraum

1/2014 – 3/2016

Tätigkeitsbeschreibung

• Strategische und technische Weiterentwicklung des aktuellen
Produktportfolios (in Zusammenarbeit mit dem Team) der Product Information Management Suite
• Begleitung der Veränderungen im Unternehmen (Change Management)
• Überwachung der Planung und Durchführung von Kundenprojekten
• Unterstützung der Zusammenarbeit der Teams an unterschiedlichen
Standorten (Deutschland, Österreich) in gemeinsamen Kunden- und
Entwicklungsprojekten, Erkennung und Realisierung von Synergieeffekten
• Unterstützung der vertrieblichen Aktivitäten sowie des angestrebten
Wachstums durch technische Hilfestellung, Analyse und Beratung
• Disziplinarische und fachliche Führung der Bereiche Softwareentwicklung,
Support und Professional Service (bis zu 35 Mitarbeiter an zwei
Standorten)

Realisierung folgender Schwerpunkt-Themen:
• Einführung agile Software-Entwicklung
• Einführung leichtgewichtige, skalierbare Architektur
• Einführung Coding Culture
• Einführung Testautomation
• Aufbau und Leitung des Architekturteams
• Releaseplanung und -koordination
• Projektmanagement

Eingesetzte Qualifikationen

Agile Entwicklung, Kanban (Softwareentwicklung), Projektleitung / Teamleitung (IT), SCRUM, Produktmanagement, Produktdatenmanagement (PDM)


Business Analyse / Data Analyst „Kunden-Stammdaten-Systeme“
Bank, Frankfurt am Main
4/2012 – 3/2014 (2 Jahre)
Finanzdienstleister
Tätigkeitszeitraum

4/2012 – 3/2014

Tätigkeitsbeschreibung

Analyse der Daten (Data Analytics of structured and unstructured Data), Prozesse
und Anforderungen zum Aufbau eines Customer Data Management Systems für
das Corporate Banking und Investment Banking
(Teil-)Projektleitung der Umsysteme „BetreuungsVerbund“ und Customer
Relationship Management (CRM)
Schwerpunkte sind die Analyse und das Design folgender Bereiche:
a) Datenmodellierung
b) Suchtechnologien
c) Securitykonzept
d) Batchverarbeitung
e) Error-Handling
f) Verbundstrukturen (Betreuung, Finance, Risk, ...)
g) Web Services, Service Oriented Architecture
h) Anbindung der Auslandseinheiten

Eingesetzte Qualifikationen

CRM Beratung (allg.), Software Architektur / Modellierung, Requirement Analyse, Business Analyse, CRM (Customer Relationship Management), Corporate Security


Data Architect, Requirements Engineering „Kunden-Stammdaten Systeme“
Verlagswesen, Digitale Medien, Freiburg
10/2011 – 3/2012 (6 Monate)
IT & Entwicklung
Tätigkeitszeitraum

10/2011 – 3/2012

Tätigkeitsbeschreibung

Anforderungsanalyse verschiedener Fachbereiche zu dem Kundendatenmodell
der Zukunft, Modellierung des fachlichen Objektmodells zur Abstimmung:
a) Partner, Kunden und Interessenten
b) Ansprechpartner, Mitarbeiter
b) Adressen (postalisch, elektronisch)
c) Kundenhierarchien
d) Dubletten und deren Zusammenführung
e) Produkte, Aufträge

Eingesetzte Qualifikationen

CRM Beratung (allg.), Software Architektur / Modellierung, Requirement Analyse


Zertifikate

Big Data Analytics
Januar 2018

Change Management
September 2016

Train-the-Trainer
April 2013

Advanced Data Modeling Using PowerDesigner
Januar 2010

OOA/OOD
Juni 2009

UML Professional
Juni 2009

Requirement Engineering (Certified Professional)
Mai 2009

Requirement Engineering
April 2009

Capability Maturity Model Integration CMMI
April 2009

Requirement Engineering
April 2007

Ausbildung

Elektro-Technik Energietechnik
(Dipl.-Ing. (FH))
Jahr: 1997
Ort: Soest

Qualifikationen

Data Management
DataOps, DevOps (Data Analytics (Cloud) Infrastruktur)
Requirements Engineering
Change Management

Über mich

Ich arbeitet seit über 20 Jahren im Bereich Data Management und agilem Requirements Engineering und unterstütze hierbei nationale und international agierende Unternehmen beim Aufbau datenzentrierter Anwendungen und Systeme.

Als Trainer und Solution Architekt für Big Data Technologien, Advanced Analytics Methoden und agiler Entwicklung kombiniere ich technologisches Know How (beispielsweise zu Amazon AWS, Microsoft Azure, Kubernetes, FaaS, (Micro-)Services)) mit wichtigen Soft Skills (wie z.B. Agilität, Teamfähigkeit, Kreativität, Analytische Kompetenz), um Lösungen nutzbar und erlebbar zu machen.

Im Bereich Data Management liegt mein Schwerpunkt, neben der effizienten Nutzung von Systemen, in der einfachen Verwendung von Technologien zur Daten-Virtualisierung, -Exploration und -Visualisierung und der Operationalierung, sowohl von Infrastruktur, wie auch Daten und Modellen (DevOps, DataOps, MLOps).

Persönliche Daten

Sprache
  • Deutsch (Muttersprache)
  • Englisch (Fließend)
Reisebereitschaft
Weltweit
Arbeitserlaubnis
  • Europäische Union
Profilaufrufe
359
Alter
51
Berufserfahrung
23 Jahre und 10 Monate (seit 10/1996)
Projektleitung
5 Jahre

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden »