freiberufler Freiberuflicher IT-Berater auf freelance.de

Freiberuflicher IT-Berater

zuletzt online vor wenigen Tagen
  • 115‐130€/Stunde
  • 60318 Frankfurt am Main
  • auf Anfrage
  • de  |  en  |  ar
  • 01.01.2024

Kurzvorstellung

Kommunikativer und analytischer IT-Berater mit über fünf Jahren Erfahrung in verschiedenen Data und Analytics Projekten bei internationalen Großkonzernen. Fokussthemen sind Data Engineering, Business Intelligence, Data Warehouse und ETL.

Qualifikationen

  • Business Intelligence (BI)
  • Continuous Delivery (CDE)
  • Data Engineering
  • Datawarehouse / DWH
  • ETL
  • Git
  • Kontinuierliche Integration (CI)
  • Microsoft Azure
  • Python
  • Requirement Analyse
  • SAP HANA
  • SAP Web IDE
  • SCRUM
  • SQL

Projekt‐ & Berufserfahrung

Data Engineer
Kundenname anonymisiert, Berlin
1/2023 – offen (1 Jahr, 3 Monate)
Öffentliche Verwaltung
Tätigkeitszeitraum

1/2023 – offen

Tätigkeitsbeschreibung

Aufbau eines Datawarehouse inklusive diverser Frontend-Tools für verschiedene Reporting und Analyse Use Cases. Die Rolle des Senior Data Engineer umfasst dabei:
- Entwicklung verschiedener ETL Strecken als Apache Airflow DAGs, inklusive Datentransformationen basierend auf Python Skripte sowie Procedures und Calculation Views in SAP HANA
- Anbindung verschiedener Open Source Datenquellen
- Entwicklung mehrerer Datenmodelle je Datenquelltyp in der SAP HANA über mehrere Schemata hinweg
- Regelmäßige Deployments von DEV über die TEST nach PROD, in Absprache mit sämtlichen Datenkonsumenten
Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse, ETL
Methoden: Scrum, CI/CD, Solution Design, Release Management
Programmiersprachen: SQL, Python
Tools: Apache Airflow, SAP Web IDE, SAP HANA XSA Cockpit, Git, VSCode, DBeaver, JIRA, Microsoft Office
Frameworks: Pandas
Modelle: Entity–relationship
Datenbanken: SAP HANA, Minio (S3 Storage)

Eingesetzte Qualifikationen

Continuous Delivery (CDE), Kontinuierliche Integration (CI), SAP HANA, SAP Web IDE, Git, Python, Datawarehouse / DWH, SQL

Stream Lead Solution Development und Proxy Product Owner (Festanstellung)
Kundenname anonymisiert, Remote und vor Ort in München
10/2021 – 12/2022 (1 Jahr, 3 Monate)
Versicherungen
Tätigkeitszeitraum

10/2021 – 12/2022

Tätigkeitsbeschreibung

Für einen führenden globalen Versicherer wurde eine neue globale Cloud-Datenplattform inklusive ETL-Strecken auf der grünen Wiese entwickelt. Ziel dieser globalen Datenplattform ist es, Policen- und Schadensdaten von Geschäftskunden aus verschiedenen Landeseinheiten zu importieren und zu einer harmonisierten Datenbasis zusammenzuführen. Zentrale Funktionen des Systems sind die Ableitung eines monatlichen Deltas, die Überprüfung der Datenqualität inklusive Entfernen fehlerhafter Datensätze, dem Mapping lokaler Werte in globale Werte und die Historisierung. Basierend darauf, wurden verschiedene Geschäftsanwendungsfälle durch weitere ETL-Strecken, Data Marts und Power BI Dashboards entwickelt. Die zentrale Rolle des Stream Leads für das gesamte Entwicklungsteam und des Proxy-Product Owners umfasste dabei:
- Fachliche Leitung sowie Koordination des zwölfköpfigen Entwicklerteams bestehend aus Architekten, Data Engineers, Data Scientists, DevOps Engineers und Test Engineers
- Operative Unterstützung des Teams durch das Design, die Entwicklung, der Dokumentation und dem Unit-Testing mehrerer Module sowie bei der Analyse und dem Beheben von Bugs
- Review der gesamten End-to-End-Implementierung in Azure Data Factory (ADF), ADF Data Flows, Azure Data Lake Storage Gen2 und PostgreSQL, um sicherzustellen, dass Kundenanforderungen korrekt umgesetzt wurden
- Entwicklung und Einsatz eines Generators zur dynamischen Erstellung von ADF Data Flows und Pipelines basierend auf Python und der pandas Library
- Übergabe des Systems an den 2nd und 3rd Level Support durch regelmäßige Wissenstransfers und Shadowing-Session über mehrere Monate hinweg
- Unterstützung des Testteams bei der Erstellung von geeigneten Test-Cases
- Support des DevOps Teams bei der Entwicklung der CI/CD-Pipeline basierend auf GitHub Enterprise und GitHub Actions
- Bestellung von Cloud-Infrastruktur bei der unternehmensinternen Cloud-Infrastruktur Einheit für die verschiedenen Umgebungen (DEV, TEST, INT, UAT, PROD)
- Abstimmungen mit den unternehmensinternen Datenarchitekten bezüglich des Datenmodells zum einheitlichen Import der Daten aus den verschiedenen Landeseinheiten
- Entwerfen der Lösungsarchitektur in Zusammenarbeit mit dem Architektenteam und weiteren Stakeholdern der IT
- Regelmäßige Präsentation und Moderation der Zwischenergebnisse gegenüber einem breitem Kundenpublikum, inklusive dem höheren Management in Form von Jour Fixes oder Sprint Reviews
- Erstellung und Priorisierung von User Storys im JIRA Backlog
- Moderation von Sprint Events wie Dailys, Sprint Reviews, Sprint Plannings und Backlog Refinement Meetings
- Design eines Rollenkonzepts inklusive Mandantentrennung für den Zugang zur PostgreSQL Datenbank und den Power BI Reports für verschiedene User-Gruppen basierend auf Azure Active Directory Sicherheitsgruppen
- Aufbau einer sicheren Verbindung zwischen dem Power BI Service und dem PostgreSQL Server via Gateway-Verbindungen und parametrisierten Datenbankverbindungen (relevant um Reports ohne großen Aufwand vom DEV- zur INT- und letztendlich zum PROD- Workspace in Power BI Service zu deployen)
- Staffing des Alexander Thamm GmbH Entwicklungsteams (Aufzeigen von Bedarfen und Suche nach geeigneten Kandidatinnen und Kandidaten)
- Erstellung von Leistungsnachweisen für die Rechnungserstellung anhand der JIRA-Buchungen inklusive der Budgetplanung

Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse, ETL, Data Quality
Methoden: Scrum, CI/CD, Solution Design, Release Management, Requirements Engineering, Data Historization, Anonymization and Pseudonymization of Data, Reference Data Management
Cloud: Microsoft Azure
Programmiersprachen: SQL, Python
Tools: Azure Data Factory, ADF Data Flows, Azure KeyVault, Azure DevOps, Power BI Service, Power BI Client, VSCode, DBeaver, JIRA, Azure Purview, Microsoft Office
Frameworks: Spark, Pandas
Modelle: Data vault, Star schema
Datenbanken: PostgreSQL, Azure Data Lake Storage Gen2

Eingesetzte Qualifikationen

Apache Spark, Big Data, Business Intelligence (BI), Data Vault, Datawarehouse / DWH, Datenanalyse, Datenbankentwicklung, Datenmodellierung, Datenschutz, Engineering data management (EDM), ETL, Jira, Kontinuierliche Integration (CI), Microsoft Azure, Microsoft Office 365, Microsoft Power BI, Pandas DataFrame, PostgreSQL, Python, Release Management, Requirement Analyse, SCRUM, Solution Architektur, SQL, Storage

Projekt Manager (Festanstellung)
Kundenname anonymisiert, Remote
7/2021 – 4/2022 (10 Monate)
Versicherungen
Tätigkeitszeitraum

7/2021 – 4/2022

Tätigkeitsbeschreibung

Organisation und Vorbereitung von Data Science Schulungen für Kunden der Alexander Thamm GmbH. Ziel dieser Schulungen war, die eigenen Fachbereiche (Underwriter) mit den Thema Data Science vertraut zu machen, um die Zusammenarbeit mit Data Scientists zu optimieren und offen für neue Use Cases zu sein. Die Rolle des Projektmanagers umfasste dabei:
- Vorbereitung der Lehrmaterialen gemeinsam mit den Trainern
- Suche nach geeigneten Trainern im eigenen Unternehmen
- Koordination der Schulungen in Absprache mit dem Kunden
- Erstellung von Leistungsnachweisen für die Rechnungserstellung anhand der JIRA-Buchungen inklusive der Budgetplanung
Fokusthemen: Machine Learning, Business Intelligence
Tools: JIRA, Confluence, Microsoft Office
Frameworks: Pandas, scikit-learn

Eingesetzte Qualifikationen

Business Intelligence (BI), Jira, Maschinelles Lernen, Microsoft Office 365

Solution Development Lead (Festanstellung)
Kundenname anonymisiert, Remote
7/2021 – 9/2021 (3 Monate)
Versicherungen
Tätigkeitszeitraum

7/2021 – 9/2021

Tätigkeitsbeschreibung

Für einen führenden globalen Versicherer wurde in kurzer Zeit ein Proof of Concept (POC) entwickelt für eine neue Datenplattform auf Basis von Azure Cloud Services. Ziel war es, zu beweisen, dass mit Hilfe von Cloud Ressourcen die Datenhaltung als auch alle notwendigen ETL-Strecken schnell und skalierbar entwickelt werden können. Auch das Konsumieren der Daten im Rahmen von Power BI Dashboards war Teil des POCs. Die Rolle des Projektmanagers umfasste dabei:
• Leitung des Entwicklerteams bestehend aus einem Architekten, zwei Data Engineers und einem Terraform-Entwickler
• Review der Implementierung in Azure Data Factory (ADF), ADF Data Flows, Azure Data Lake Storage Gen2 und PostgreSQL, um sicherzustellen, dass Kundenanforderungen korrekt umgesetzt wurden
• Unterstützung des Development Teams bei der Entwicklung von Data Quality Regeln in ADF Data Flows
• Entwicklung eines Power BI Dashboards zur Demonstration von Reporting-Funktionen, unter anderem der Möglichkeit Daten anhand der Row-Level-Security Daten für verschiedene Mandanten zu trennen
• Regelmäßige Vorstellung der Zwischenstände gegenüber dem höheren Management des Kunden
• Durchführung und Vorbereitung der finalen Produktpräsentation vor dem Top Management
• Verknüpfung der POC-Plattform mit Azure Purview zur Demonstration des Data Governance Tools
• Intensive Unterstützung des eignen Vertriebs für Folgebeauftragungen und der Weiterentwicklung der Lösung
• Erstellung von Leistungsnachweisen für die Rechnungserstellung anhand der JIRA-Buchungen inklusive der Budgetplanung
Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse, ETL, Data Quality
Methoden: Scrum, CI/CD, Solution Design
Cloud: Microsoft Azure
Programmiersprachen: SQL, Python
Tools: Azure Data Factory, ADF Data Flows, Azure KeyVault, Azure DevOps, Power BI Service, Power BI Client, VSCode, DBeaver, JIRA, Azure Purview, Terraform, Microsoft Office
Frameworks: Spark, Pandas
Modelle: Data vault, Star schema
Datenbanken: PostgreSQL, Azure Data Lake Storage Gen2

Eingesetzte Qualifikationen

Business Intelligence (BI), Data Vault, Datawarehouse / DWH, Engineering data management (EDM), ETL, Jira, Kontinuierliche Integration (CI), Microsoft Azure, Microsoft Office 365, PostgreSQL, Python, SCRUM, Solution Architektur, SQL

Requirements Engineer (Festanstellung)
Statistisches Bundesamt, Wiesbaden
4/2020 – 6/2021 (1 Jahr, 3 Monate)
Öffentliche Verwaltung
Tätigkeitszeitraum

4/2020 – 6/2021

Tätigkeitsbeschreibung

Kernaufgabe der Anforderungsanalyse war die Erstellung von Lastenheften, User Storys und BPMN-Modellen. Während des Projekts wechselte man von einer agilen Entwicklung (Scrum) zum Waterfall-Modell, weshalb sowohl agile als auch Waterfall-Methoden zum Einsatz kamen. Die Rolle des Anforderungsanalysten umfasste dabei:
- Analyse und Ausarbeitung der fachlichen Anforderungen in Zusammenarbeit mit dem Fachbereich
- Dokumentation der Anforderungen in Lastenhefte auf Confluence und Aufteilung dieser in Releases
- Dokumentation der Anforderungen in User Storys in JIRA und Zuweisung der Storys in Epics
- Absprachen mit dem Fachbereich, der Architektur und der Spezifikation zur Klärung offener Punkte während der Anforderungsanalyse
- Übergabe der fachlichen Anforderungen an die Spezifikation
- Ansprechpartner bei fachlichen Fragen für die Architektur, Spezifikation, Entwicklung und Test
- Review der Spezifikation (Pflichtenheft) in Confluence zur Freigabe für den Beginn der Entwicklung
Fokusthemen: Requirements Engineering
Methoden: Scrum, Waterfall, Release Management, BPMN
Programmiersprachen: SQL
Tools: JIRA, Confluence, Microsoft Office
Modelle: Entity-relationship
Datenbanken: Oracle

Eingesetzte Qualifikationen

Business Process Model and Notation (BPMN), Jira, Microsoft Office 365, Oracle Database, Release Management, Requirement Analyse, SCRUM, SQL

IT-Berater (Festanstellung)
Capgemini Deutschland GmbH (internes Projekt), Frankfurt am Main
3/2020 – 5/2020 (3 Monate)
IT & Entwicklung
Tätigkeitszeitraum

3/2020 – 5/2020

Tätigkeitsbeschreibung

Für die Practice Business & Technology Solutions der Capgemini Deutschland GmbH wurde ein Framework für die Implementierung von Robotic Process Automation (RPA) Use Cases entwickelt, basierend auf Insights welche durch Process Mining gewonnen werden. Dies beinhaltete die folgenden Aufgaben:
- Allgemeine Dokumentation der Konzepte von Process Mining und der entsprechenden Software von Celonis
- Darstellung der verschiedenen Deployment-Szenarien für die Celonis Software
- Entwicklung einer Roadmap, beginnend mit einem Proof of Value (POV) für einen ausgewählten Retail-Prozess (z.B. Order to Cash (O2C) oder Purchase-to-Pay (P2P)) bis hin zur Operationalisierung und Skalierung des Frameworks auf weitere Geschäftsprozesse
Fokusthemen: Process Mining
Cloud: Celonis Intelligent Business Cloud
Programmiersprachen: SQL
Tools: Microsoft Office, Celonis Process Mining
Modelle: Entity-relationship
Datenbanken: Celonis Data Store

Eingesetzte Qualifikationen

Data Mining, Microsoft Office 365, Prozessoptimierung, SQL

Systemübergreifender Solution Designer
Kundenname anonymisiert, Remote und vor Ort in Bonn
10/2018 – 3/2020 (1 Jahr, 6 Monate)
Telekommunikation
Tätigkeitszeitraum

10/2018 – 3/2020

Tätigkeitsbeschreibung

Für einen großen deutschen Telekommunikationsanbieter wurde das Reporting über den Absatz mobiler Endgeräte um mehrere KPIs bezüglich verschiedener Hersteller-Werbekostenzuschüsse erweitert. Hierfür wurde das Data Warehouse (Backend) um weitere Schnittstellen, Tabellen, Tabellenattribute sowie Berechnungen und Anreicherungen erweitert, sodass der entsprechende Cognos Cube (Frontend) mit den entsprechenden Kennzahlen erweitert werden konnte. Die Rolle als systemübergreifender Solution Designer innerhalb eines Scrum-Teams umfasste dabei:
- Design verschiedener Lösungsarchitekturen im Model Driven Design Ansatz unter Nutzung des Tools MID Innovator
- Spezifikation neuer User Storys in JIRA anhand fachlicher Anforderungen in Zusammenarbeit mit dem Product Owner sowie die Zuweisung der JIRA Epics zu einem Release
- Analyse neuer Datenquellen und Spezifikation neuer Schnittstellen (Datenattribute, Frequenz, Delta-Ermittlung, Fehlerverhalten, Medium)
- Design neuer ETL-Strecken für neue Datenquellen inklusive der Anpassung von Business-Logiken zur Darstellung neuere Kennzahlen im Frontend
- Durchführung von Code-Reviews, um sicherzustellen, dass die fachliche Anforderungen korrekt realisiert wurden
- Unterstützung des Farshore Entwicklungsteams und des Nearshore Testing Teams bei fachlichen Fragen
- Analyse und Verbesserung der Datenqualität durch Optimierung der Schnittstellen oder Anpassung der eigenen Datentransformationen
- Optimierung der Datenbank-Laufzeiten für die pünktliche Bereitstellung der Reports
- Agile Transformation des Projekts vom Waterfall-Modell zu Scrum
- Begleitung bei der Integration des Scrum Teams in ein SAFe Programm
Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse, ETL, Data Quality
Methoden: Scrum, SAFe, Release Management, Requirements Engineering, Waterfall, Solution Design, Model Driven Design, BPMN, OLAP/ Data Cubes, Data Historization
Programmiersprachen: SQL
Tools: Git, MID Innovator, SQL Developer, JIRA, Microsoft Office, Cognos BI, Automic
Modelle: Star schema
Datenbanken: Oracle

Eingesetzte Qualifikationen

Business Intelligence (BI), Business Process Model and Notation (BPMN), Cognos (IBM), Datawarehouse / DWH, Datenmodellierung, Engineering data management (EDM), ETL, Git, Jira, Microsoft Office 365, Modellgetriebene Softwareentwicklung (MDSD), Online Analytical Processing (OLAP), Oracle Database, Release Management, Requirement Analyse, SCRUM, Solution Architektur, SQL, UC4

Scrum Trainer (Festanstellung)
TU Darmstadt, Darmstadt
3/2018 – 3/2020 (2 Jahre, 1 Monat)
Hochschulen und Forschungseinrichtungen
Tätigkeitszeitraum

3/2018 – 3/2020

Tätigkeitsbeschreibung

Für Studierende der TU Darmstadt wurden jährliche Scrum Workshops organisiert und vor Ort (2018 und 2019) als auch digital (2020) durchgeführt, um diese bereits vor dem Berufseinstieg mit der agilen Methodik vertraut zu machen. Die Rolle des Trainers umfasste dabei:
- Entwicklung der Präsentation und der Zusammenfassung von Scrum
- Vorbereitung der Simulation „Scrum Lego City“ (2018 und 2019) bzw. der digitalen Alternative mit Minecraft anstelle von Lego (2020)
- Präsentation der Methode im Rahmen einer Vorlesung an der TU Darmstadt (2018 und 2019) bzw. digital (2020)
- Durchführung der Simulation vor Ort (2018 und 2019) und digital (2020)
Fokusthemen: Scrum
Methoden: Simulation “Scrum Lego City”, Scrum Simulation mit Minecraft

Eingesetzte Qualifikationen

SCRUM

Solution Designer
Kundenname anonymisiert, Remote und vor Ort in Bonn
3/2018 – 12/2018 (10 Monate)
Telekommunikation
Tätigkeitszeitraum

3/2018 – 12/2018

Tätigkeitsbeschreibung

Erstellung eines Frameworks zur automatischen Anonymisierung personenbezogener Daten innerhalb des Data Warehouse eines großen deutschen Telekommunikationsanbieters samt Nachweis. Sowohl historische Daten(einmalig) als auch aktuelle Daten (täglich) wurden durch das Framework anonymisiert, ohne dabei die Aussagekraft bestehender Reports zu beeinträchtigen. Eine Besonderheit stellte hier die Pseudonymisierung der MSISDN (Mobilfunknummer) dar, da dieses Attribut in vielen Tabellen als Schlüsselattribut fungiert und eine MSISDN nach einer gewissen Frist neu vergeben werden kann. Die Rolle des Solution Designers innerhalb eines Scrum-Teams umfasste dabei:
- Auswahl relevanter Tabellen und Attribute gemäß DSGVO (EU GDPR) in Absprache mit den Datenschutzbeauftragten
- Analyse und Gruppierung betroffener Tabellen in Cluster
- Konzeption geeigneter Löschkonzepte (Pseudonymisierung sowie verschiedene Anonymisierungsformen) je Attributart und je Tabelle
- Design von Tabellen für das Speichern von Löschnachweisen
- Modellierung und Dokumentation des Frameworks
Fokusthemen: Business Intelligence, Data Warehouse
Methoden: Anonymization and Pseudonymization of Data, Model Driven Design, BPMN, Scrum, Requirements Engineering, Solution Design, Release Management
Programmiersprachen: SQL
Tools: MID Innovator, SQL Developer, JIRA, Git, Automic, Microsoft Office
Modelle: Star schema
Datenbanken: Oracle

Eingesetzte Qualifikationen

Business Intelligence (BI), Business Process Model and Notation (BPMN), Datawarehouse / DWH, Datenschutz, Git, Jira, Microsoft Office 365, Modellgetriebene Softwareentwicklung (MDSD), Oracle Database, Release Management, Requirement Analyse, SCRUM, Solution Architektur, SQL, UC4

Solution Designer
Kundenname anonymisiert, Remote und vor Ort in Bonn
10/2017 – 3/2018 (6 Monate)
Telekommunikation
Tätigkeitszeitraum

10/2017 – 3/2018

Tätigkeitsbeschreibung

Für einen großen deutschen Telekommunikationsanbieter mussten die Cognos Power Play Cubes zu Dynamic Cubes migriert werden, um die Betreibbarkeit mehrerer Reports weiterhin zu gewährleisten. Hierfür mussten mehrere Tabellen im Data Warehouse (Backend) angepasst werden, als auch neue erstellt werden, um performante Live-Abfragen durch die neuen Dynamic Cubes zu ermöglichen. Die Aufgaben als Solution Designer umfassten:
- Analyse alter Power Play Cubes zur Definition aller relevanten Fakten und Dimensionen
- Identifizierung der relevanten Tabellen je Cube im Data Warehouse (Backend)
- Modellierung neuer Sternschemata zur optimierten Live-Abfrage von Daten über Dynamic Cubes
- Dokumentation der neuen Modelle im Rahmen des Model Driven Design im Tool MID Innovator
Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse
Methoden: Waterfall, Release Management, Solution Design, OLAP/ Data Cubes, Model Driven Design, BPMN
Programmiersprachen: SQL
Tools: Cognos BI, MID Innovator, SQL Developer, Git, JIRA, Microsoft Office
Modelle: Star schema
Datenbanken: Oracle

Eingesetzte Qualifikationen

Business Intelligence (BI), Business Process Model and Notation (BPMN), Cognos (IBM), Datawarehouse / DWH, Engineering data management (EDM), Git, Jira, Microsoft Office 365, Modellgetriebene Softwareentwicklung (MDSD), Online Analytical Processing (OLAP), Oracle Database, Release Management, Solution Architektur, SQL

Zertifikate

Dataiku Core Designer - Zertifikat: -Hyperlink entfernt-
2021
Data Analysis with Python - Zertifikat: -Hyperlink entfernt-
2020
Databases and SQL for Data Science - Zertifikat: -Hyperlink entfernt-
2020
Data Science Methodology - Zertifikat: -Hyperlink entfernt-
2020
Data Science Methodology - Zertifikat: -Hyperlink entfernt-
2020
Tools for Data Science - Zertifikat: -Hyperlink entfernt-
2020
What is Data Science? - Zertifikat: -Hyperlink entfernt-
2020
Certified Celonis Data Analyst - Zertifikat: -Hyperlink entfernt-
2020
Certified Celonis Data Engineer - Zertifikat: -Hyperlink entfernt-
2020
Capgemini Insights and Data School - Zertifikat: -Hyperlink entfernt-
2018
found in certificate text 10 Professional Scrum Master 1 - Zertifikat: -Hyperlink entfernt-
2017

Ausbildung

Media And Design Management (M.A.)
Master of Arts
2017
Wiesbaden
General Management (M.B.A.)
Master of Business Administration
2016
Bangkok, Thailand
Zeitbasierte Medien (B.A.)
Bachelor of Arts
2014
Mainz

Über mich

Kommunikativer und analytischer IT-Berater mit über fünf Jahren Erfahrung in verschiedenen Data und Analytics Projekten bei internationalen Großkonzernen. Als Stream Lead ein zwölfköpfiges Team geführt und ein neue globale Cloud-basierte Datenplattform entwickelt; von der Designphase über die Entwicklung bis hin zur Übergabe und Aufnahme in den Betrieb. Besonders auszeichnend ist die Kombination aus technischer und fachlicher Stärke, welche in der Vergangenheit durch Einsätze vom Data Engineering bis hin zur Anforderungsanalyse erfolgreich unter Beweis gestellt wurden. Dadurch konnten technisch komplexe Sachverhalte den Businessabteilungen stets verständlich erläutert werden, während das Entwickeln von Software immer fachliche Anforderungen erfüllte.

Weitere Kenntnisse

Sprachen
Deutsch (Muttersprache)
Englisch (Verhandlungssicher)
Arabisch (Grundlagen)

Branchen
Telekommunikation (2.5 Jahre)
Versicherung (1.5 Jahre)
Öffentlicher Sektor (1.5 Jahre)
Medien (6 Jahre)

Fokusthemen
Data Engineering (4 Jahre)
Business Intelligence (4 Jahre)
Data Warehouse (4 Jahre)
ETL (4 Jahre)
Data Quality (4 Jahre)
Machine Learning (1 Jahr)
Process Mining (1 Jahr)

Methoden
Scrum (5.5 Jahre)
SAFe (0.5 Jahre)
Waterfall (2 Jahre)
Release Management (5.5 Jahre)
CI/CD (2 Jahre)
Requirements Engineering (5.5 Jahre)
Solution Design (4 Jahre)
OLAP/ Data Cubes (2.5 Jahre)
Data Historization (4 Jahre)
Anonymization and Pseudonymization of Data (2.5 Jahre)
Reference Data Mgmt. (1.5 Jahre)
Model Driven Design (2 Jahre)
BPMN (2 Jahre)

Cloud
Microsoft Azure (1.5 Jahre)

Programming
SQL (5.5 Jahre)
Python (2 Jahre)

Tools
Azure Data Factory (1.5 Jahre)
ADF Data Flows (1.5 Jahre)
Azure KeyVault (1.5 Jahre)
Azure DevOps (0.5 Jahre)
Power BI Service (1 Jahr)
Power BI Client (0.5 Jahre)
Cognos BI (2.5 Jahre)
Automic (2.5 Jahre)
Dataiku Data Science Studio (0.5 Jahre)
Celonis Process Mining (1 Jahr)
GitHub Enterprise (2 Jahre)
Git (4 Jahre)
MID Innovator (2.5 Jahre)
VSCode (2 Jahre)
DBeaver (2 Jahre)
SQL Developer (2.5 Jahre)
Microsoft Storage Explorer (1 Jahr)
Azure CLI (0.5 Jahre)
JIRA (5.5 Jahre)
Confluence (3 Jahre)
Azure Purview (1 month)
Microsoft Office (12 Jahre)

Frameworks
Spark (0.5 Jahre)
Pandas (1 Jahr)
scikit-learn (0.5 Jahre)

Modelle
Data Vault (1.5 Jahre)
Sternschema (4 Jahre)
Entity–Relationship (1.5 Jahre)

Datenbanken
Oracle (4 Jahre)
PostgreSQL (1.5 Jahre)
Azure Data Lake Storage Gen2 (1.5 Jahre)

Persönliche Daten

Sprache
  • Deutsch (Muttersprache)
  • Englisch (Fließend)
  • Arabisch (Grundkenntnisse)
Reisebereitschaft
auf Anfrage
Arbeitserlaubnis
  • Europäische Union
Home-Office
bevorzugt
Profilaufrufe
535
Alter
32
Berufserfahrung
6 Jahre und 8 Monate (seit 07/2017)
Projektleitung
2 Jahre

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden