freiberufler Requirements Engineer | Data/Process Analyst | Data Steward (vor Ort/Remote) auf freelance.de

Requirements Engineer | Data/Process Analyst | Data Steward (vor Ort/Remote)

zuletzt online vor 6 Tagen
  • 90€/Stunde
  • 60323 Frankfurt am Main
  • Europa
  • uz  |  de  |  en
  • 27.02.2026
  • Contract ready

Kurzvorstellung

„Delivery-first Anforderungen-/Daten-/Prozess-Hybrid“ mit 10+ Jahren Erfahrung von Workshop bis Rollout. Technisch stark, enge Zusammenarbeit mit Devs, klare Abstimmung Fachbereich/IT via Deliverables. Optional Testing & Prod-Support.

Auszug Referenzen (2)

"Gute Zusammenarbeit im Rahmen unseres CRM-System Wechsels. Hohe Datenexpertise, gute Projektplanung und unkomplizierte Abstimmung."
Business- und Daten-Analyst: CRM-Migration: Datenqualität, Integrationen, Prozessautomatisierung
Kundenname anonymisiert
Tätigkeitszeitraum

10/2025 – 1/2026

Tätigkeitsbeschreibung

TechQuartier migrierte von HubSpot zu Pipedrive, um das CRM für Vertrieb und Marketing zu vereinfachen und zu skalieren. Die größte Herausforderung war ein großer, inkonsistenter Datenbestand, der ein direktes Lift-and-Shift zu riskant machte. Die Migration wurde als kontrollierter Neuaufbau durchgeführt: sauberes Zieldatenmodell, gestufter Migrationsprozess mit Validierung sowie Neuimplementierung von Automatisierungen und Integrationen für End-to-End-Prozesse.

- Durchführung von Discovery-Workshops zur Bestätigung der Anforderungen und Entfernung redundanter Objekte/Felder
- Extraktion von HubSpot-Daten via API und Exports; Sicherstellung der Vollständigkeit für den Migrationsumfang
- Aufbau einer gestuften Migrationspipeline mit n8n + Cloud PostgreSQL für Data Staging/Processing
- Profilierung, Bereinigung und Abstimmung von Kontakten/Unternehmen mit SQL-basierten Qualitätsprüfungen
- Entwicklung von Python-Cleanup-Scripts für Musteranalyse und systematische Standardisierung
- Erstellung von Source-to-Target-Mapping inkl. Enum-/Value-Mapping und Atomic-Value-Standards
- Nutzung der OpenAI API zur Normalisierung anonymisierter, nicht-sensitiver Freitext-Felder
- Konfiguration von Pipedrive, Import via API, Neuaufbau von Automatisierungen + API-Integrationen.

Tools & Methoden: Miro, SharePoint, SQL, Postgres, DataGrip, Python, PyCharm, dbt, Jupyter Notebooks, Git, REST APIs, Postman, ETL/ELT-Pipelines, PowerShell, n8n, HubSpot, Pipedrive, GitHub, GenAI/LLMs, OpenAI API, Kanban, UML

Eingesetzte Qualifikationen

Datenanalyse, Datenmodelierung, Relationale Datenbanken, SQL, Datenbank-Analytiker, GPT, Systemmigration, Data Analyst, Data Engineer, Anforderungsspezifikationen, Workshop - Kundenorientierung, CRM-Berater, CRM Beratung (allg.), CRM (Customer Relationship Management), ETL, Generative KI, Git, Postgresql, Python, Requirement Analyse, Requirements Engineer, UML

"Develop an online training program that includes courses for HVAC specialists as well as guides and templates for continuous self-development"
Technischer Product Owner: LMS-Rollout: Bildungsprodukte und Salesforce-Integration
Yaroslav Topolev
Tätigkeitszeitraum

11/2021 – 12/2022

Tätigkeitsbeschreibung

Uponor führte Docebo als neues Enterprise-LMS ein und integrierte es mit Salesforce. Die Umsetzung kombinierte E-Learning-Produktion mit geschäftslogikgesteuertem Datenaustausch zwischen LMS und CRM (Provisioning, Enrolments, Abschlüsse/Zertifizierungen). Die Arbeit umfasste iteratives Prototyping in Scrum, Testing über Sandbox und Produktion, Deployment-Koordination und Post-Go-Live-Monitoring in einer risikosensitiven Umgebung.

- Übersetzung von Geschäftsanforderungen in technische Anforderungen; Verantwortung für Backlog-Pflege
- Spezifikation der LMS-Salesforce-Integrationsregeln (Users, Enrolments, Abschlüsse, Zertifikate)
- Koordination von SMEs, Instructional Designers, Low-Code-Entwicklern und Video-/Content-Teams
- Lieferung von ~15 interaktiven E-Learning-Kursen, abgestimmt auf Business-Lernziele
- Management von QA/UAT über Sandbox und Produktion; Handling von Defects und Release-Readiness
- Verwaltung von Content-Packaging und Deployment zu Docebo; Unterstützung der Go-Live-Stabilisierung
- Stakeholder-Kommunikation und Delivery Governance (Risiken, Abhängigkeiten, Budget)

Tools & Methoden: Miro, Figma, Notion, Scrum, Articulate Storyline, Docebo

Eingesetzte Qualifikationen

Bildung (allg.), CRM-Berater, CRM Beratung (allg.), Salesforce.Com, API-Entwickler, Scrum, Figma, Usability Testing, CRM (Customer Relationship Management), E-Learning, Product Owner

Geschäftsdaten

 Freiberuflich
 Steuernummer bekannt
 Berufshaftpflichtversicherung aktiv

Qualifikationen

  • Anforderungsspezifikationen3 J.
  • BPMN
  • Daten-Governance
  • Datenanalyse6 J.
  • Generative KI
  • Product Owner1 J.
  • Prozessberatung1 J.
  • Requirement Analyse4 J.
  • Requirements Engineer4 J.
  • UML3 J.

Projekt‐ & Berufserfahrung

Business- und Daten-Analyst: CRM-Migration: Datenqualität, Integrationen, Prozessautomatisierung
TechQuartier, Frankfurt am Main
10/2025 – 1/2026 (4 Monate)
Dienstleistungsbranche
Tätigkeitszeitraum

10/2025 – 1/2026

Tätigkeitsbeschreibung

TechQuartier migrierte von HubSpot zu Pipedrive, um das CRM für Vertrieb und Marketing zu vereinfachen und zu skalieren. Die größte Herausforderung war ein großer, inkonsistenter Datenbestand, der ein direktes Lift-and-Shift zu riskant machte. Die Migration wurde als kontrollierter Neuaufbau durchgeführt: sauberes Zieldatenmodell, gestufter Migrationsprozess mit Validierung sowie Neuimplementierung von Automatisierungen und Integrationen für End-to-End-Prozesse.

- Durchführung von Discovery-Workshops zur Bestätigung der Anforderungen und Entfernung redundanter Objekte/Felder
- Extraktion von HubSpot-Daten via API und Exports; Sicherstellung der Vollständigkeit für den Migrationsumfang
- Aufbau einer gestuften Migrationspipeline mit n8n + Cloud PostgreSQL für Data Staging/Processing
- Profilierung, Bereinigung und Abstimmung von Kontakten/Unternehmen mit SQL-basierten Qualitätsprüfungen
- Entwicklung von Python-Cleanup-Scripts für Musteranalyse und systematische Standardisierung
- Erstellung von Source-to-Target-Mapping inkl. Enum-/Value-Mapping und Atomic-Value-Standards
- Nutzung der OpenAI API zur Normalisierung anonymisierter, nicht-sensitiver Freitext-Felder
- Konfiguration von Pipedrive, Import via API, Neuaufbau von Automatisierungen + API-Integrationen.

Tools & Methoden: Miro, SharePoint, SQL, Postgres, DataGrip, Python, PyCharm, dbt, Jupyter Notebooks, Git, REST APIs, Postman, ETL/ELT-Pipelines, PowerShell, n8n, HubSpot, Pipedrive, GitHub, GenAI/LLMs, OpenAI API, Kanban, UML

Eingesetzte Qualifikationen

Datenanalyse, Datenmodelierung, Relationale Datenbanken, SQL, Datenbank-Analytiker, GPT, Systemmigration, Data Analyst, Data Engineer, Anforderungsspezifikationen, Workshop - Kundenorientierung, CRM-Berater, CRM Beratung (allg.), CRM (Customer Relationship Management), ETL, Generative KI, Git, Postgresql, Python, Requirement Analyse, Requirements Engineer, UML

Datenanalyst und Data Steward: Anti-Financial-Crime Daten-Governance und Data Stewardship
Deutsche Bank, Frankfurt am Main
1/2024 – 5/2024 (5 Monate)
Banken
Tätigkeitszeitraum

1/2024 – 5/2024

Tätigkeitsbeschreibung

Teil des Anti-Financial-Crime Transaction Monitoring Teams der Deutschen Bank, Analyse von Produktionsdaten in EMEA und APAC zur Identifizierung und Steuerung der Behebung von Data-Governance- und Data-Quality-Problemen für AML/Sanctions/Fraud/Tax Use Cases. Unterstützung des Rollouts einer neuen TM-Applikation auf GCP und einer Data-Staging-Schicht mit audit- und regulatorisch konformen Nachweisen, abgestimmt mit Internal Audit, KPMG und BaFin.

- Untersuchung von Datenlücken mittels Root-Cause-Analyse und Governance-Reviews
- Unterstützung bei Audit-/Regulatorik-Nachweisen und Dokumentation (Internal Audit, KPMG, BaFin)
- Erhebung und Verfeinerung technischer Anforderungen für Analyse- und Behebungsaktivitäten
- Durchführung von Data Discovery und Ursache-Wirkungs-Analyse über 20+ Systeme und 20+ Länder
- Bewertung kritischer Elemente gegen Governance-Richtlinien und Standards/Nachrichtenformate
- Analyse von Lineage/Metadaten/EDM-Artefakten; Klärung von Richtlinien mit Data Owners
- Erstellung von Übergabe- und Audit-Abschluss-Dokumentation für CB/PB-Stakeholder
- Verfolgung des Behebungsfortschritts und Erstellung von Management-Reporting (Kanban-Workflow)

Tools & Methoden: Jira, Confluence, SQL, Impala, Python, VBA, Collibra, Waltz, Kanban

Eingesetzte Qualifikationen

Relationale Datenbanken, Google Cloud, Data Analyst, Analytiker (Sonstige), Confluence, Daten-Governance, Datenanalyse, Datenbank-Analytiker, Datenbankrecherche (allg.), Datenschutz, It-Governance, Jira, Kanban, Online Transaction Processing, Python, Scrum, SQL

Prozessanalyst: Migration von Enterprise Analytics: Prozessmodellierung/-automatisierung
Europäische Zentralbank, Frankfurt am Main
2/2023 – 6/2023 (5 Monate)
Banken
Tätigkeitszeitraum

2/2023 – 6/2023

Tätigkeitsbeschreibung

Die EZB migrierte von einer 25 Jahre alten Legacy-Analytics-Plattform zu SPACE. Das globale Programm (~200 IT-Mitarbeiter) erforderte die Modellierung und Automatisierung von 96 Geschäftsprozessen, die die Report-Produktion für die Geldpolitik der EZB orchestrieren. Ich übersetzte Abteilungsanforderungen in BPMN-Designs, die in Camunda ausführbar sind, abgestimmt mit manuellen Ausführungspfaden in Jupyter/RStudio unter strengen Performance- und Vertraulichkeitsanforderungen.

- Erhebung und Dokumentation fachlich-technischer Anforderungen von 30+ EZB-Abteilungen
- Analyse und Optimierung von End-to-End-Prozessen inkl. Rollen, Übergaben, Ausnahmen, Regeln
- Design von BPMN 2.0-Prozessmodellen in Camunda Modeler, abgestimmt auf Engine-Ausführung
- Unterstützung von 15 Delivery Teams bei der Klärung von Prozessintention, Edge Cases und Anforderungen
- Review und Ausführung von Python/R-Scripts zur Abstimmung automatisierter vs. manueller Schritte (Jupyter/RStudio)
- Moderation von Workshops, Demos und Trainings in einem großen, vollständig remoten Setup
- Monitoring von Durchsatz-/Performance-Constraints und Rückführung der Erkenntnisse in das Prozessdesign

Tools & Methoden: Jira, SQL, Python, R, RStudio, Jupyter Notebooks, Git, Camunda, SAFe, BPMN 2.0, UML, API, Kanban

Eingesetzte Qualifikationen

Datenanalyse, R (Programmiersprache), UML, Git, Jira, Python, Business Process Model and Notation, Prozessoptimierung, Requirement Analyse, Unternehmensberater Geschäftsprozessoptimierung, Simulation Geschäftsprozesse, Requirements Engineer, Requirements Management, Techniker Prozessentwicklung, Technisches Testing, Prozessberatung

Technischer Product Owner: LMS-Rollout: Bildungsprodukte und Salesforce-Integration
Uponor (heute GF/Georg Fischer), Frankfurt am Main
11/2021 – 12/2022 (1 Jahr, 2 Monate)
Bauwirtschaft, Anlagen- und Schiffbau
Tätigkeitszeitraum

11/2021 – 12/2022

Tätigkeitsbeschreibung

Uponor führte Docebo als neues Enterprise-LMS ein und integrierte es mit Salesforce. Die Umsetzung kombinierte E-Learning-Produktion mit geschäftslogikgesteuertem Datenaustausch zwischen LMS und CRM (Provisioning, Enrolments, Abschlüsse/Zertifizierungen). Die Arbeit umfasste iteratives Prototyping in Scrum, Testing über Sandbox und Produktion, Deployment-Koordination und Post-Go-Live-Monitoring in einer risikosensitiven Umgebung.

- Übersetzung von Geschäftsanforderungen in technische Anforderungen; Verantwortung für Backlog-Pflege
- Spezifikation der LMS-Salesforce-Integrationsregeln (Users, Enrolments, Abschlüsse, Zertifikate)
- Koordination von SMEs, Instructional Designers, Low-Code-Entwicklern und Video-/Content-Teams
- Lieferung von ~15 interaktiven E-Learning-Kursen, abgestimmt auf Business-Lernziele
- Management von QA/UAT über Sandbox und Produktion; Handling von Defects und Release-Readiness
- Verwaltung von Content-Packaging und Deployment zu Docebo; Unterstützung der Go-Live-Stabilisierung
- Stakeholder-Kommunikation und Delivery Governance (Risiken, Abhängigkeiten, Budget)

Tools & Methoden: Miro, Figma, Notion, Scrum, Articulate Storyline, Docebo

Eingesetzte Qualifikationen

Bildung (allg.), CRM-Berater, CRM Beratung (allg.), Salesforce.Com, API-Entwickler, Scrum, Figma, Usability Testing, CRM (Customer Relationship Management), E-Learning, Product Owner

Requirements Engineer: Migration eines Reporting-Anbieters: API-Spezifikationen & Cutover
Deutsche Bank, Frankfurt am Main
6/2021 – 11/2021 (6 Monate)
Banken
Tätigkeitszeitraum

6/2021 – 11/2021

Tätigkeitsbeschreibung

Umsetzung innerhalb des Transaction Reporting Engine (TRE) Programms der Deutschen Bank für MiFID II/MiFIR Transaction Reporting (T+1). In einem internationalen Scrum-Setup verantwortete ich einen Anbietermigrations-Stream: Übergang vom bestehenden Deutsche Börse Reporting-Anbieter (ARM) zu einer UK-basierten Alternative, inklusive TRE-seitiger Anforderungen, Mapping, Testing und Cutover-Koordination.

- Definition von Sign-off-Kriterien und Akzeptanz-Gates für Reporting-Vollständigkeit/-Korrektheit
- Abstimmung interner Reporting-Prozesse mit MiFID II/MiFIR und Zielanbieter-Schnittstellen
- Pflege von systemübergreifenden AS-IS/TO-BE-Dokumenten inkl. Prozessflüsse, Übergaben, Schnittstellen
- Erstellung von Specs für Source-to-Target-Mapping, Transformationen und API-/Schnittstellenverträge
- Definition von Batch-Run-Anforderungen: Zeitplan, Abhängigkeiten, Abstimmung, Cutover-Checks
- Koordination von Stakeholdern, Entwicklungsteams und Anbieter; Unterstützung von E2E-Testing

Tools & Methoden: Jira, Confluence, Jama, Enterprise Architect, SQL, Oracle SQL Developer, REST APIs, Swagger, ETL/ELT pipelines, Scrum, UML

Eingesetzte Qualifikationen

Datenanalyse, Online Transaction Processing, SQL, Confluence, Scrum, Softwareanforderungsanalyse, UML, Jira, Requirement Analyse, Spezialist Regulatory Affairs, Requirements Engineer, Anforderungsspezifikationen, Requirements Management, MIFID, Regulatory Affairs, Daten-Governance, Business Analyst, Business Analysis

Prozessanalyst und Automatisierungsberater: CRM HubSpot Automatisierung: KPI-Reporting und Integrationen
TechQuartier, Frankfurt am Main
8/2020 – 5/2021 (10 Monate)
Dienstleistungsbranche
Tätigkeitszeitraum

8/2020 – 5/2021

Tätigkeitsbeschreibung

TechQuartier nutzte HubSpot neben einem CMS und Web Analytics, aber Funnel-Tracking und Reporting waren inkonsistent und manuell. Das Ziel war die Etablierung eines RevOps-Betriebsmodells: Definition von Lifecycle-Stages und KPIs, Automatisierung von Lead-Handling und Übergaben sowie Bereitstellung zuverlässiger täglicher Reports. Die Lösung kombinierte HubSpot-Konfiguration und Workflows mit API-basierten Integrationen und Enrichment über umliegende Tools. Ergebnis: klarere Funnel-Sichtbarkeit, schnellere Follow-ups und reduzierter manueller Admin-Aufwand.

- Definition teamübergreifender Lifecycle-Stages, der erforderlichen Felder und Übergaberegeln
- Aufbau von HubSpot-Workflows für Lead-Erfassung, Routing, Follow-ups und Erinnerungen
- Implementierung automatisierter täglicher KPI-Dashboards für Funnel- und Pipeline-Reporting
- Integration von HubSpot mit CMS und Web Analytics für Attribution/Segmentierung
- Implementierung von API-basiertem Enrichment und Datenaustausch mit externen Services
- Bereinigung und Standardisierung von CRM-Daten zur Verbesserung von Reporting-Genauigkeit und Usability
- Validierung von Datenflüsse und Metriken mit SQL/Python-Checks und Stakeholder-Reviews
- Dokumentation von Prozessen und Unterstützung der Adoption während Rollout und Iterationen

Tools & Methoden: Miro, Notion, Python, REST APIs, Postman, PowerShell, Make, HubSpot, Google Analytics, BPMN 2.0, UML

Eingesetzte Qualifikationen

Mitarbeiter Fast-Food-Restaurant, CRM-Berater, Datenanalyse, CRM Beratung (allg.), Make (Software), Python, Windows Powershell, Google Analytics, Google Tag Manager, Prozessoptimierung, CRM (Customer Relationship Management), Prozessberatung

Prozessanalyst und Automatisierungsberater: Tableau HR-Reporting: Datenaufbereitung, KPI-Dashboards, Automatisierung
CGI, Sulzbach (Taunus)
7/2019 – 2/2020 (8 Monate)
IT & Entwicklung
Tätigkeitszeitraum

7/2019 – 2/2020

Tätigkeitsbeschreibung

CGI führte eine interne Initiative zur Modernisierung des HR-Reportings und zur Reduzierung des manuellen Aufwands durch Standardisierung von KPIs und Ermöglichung von Self-Service-Analytics. Die größte Herausforderung war fragmentierte Reporting-Logik und wiederkehrende manuelle Vorbereitung. Der Ansatz kombinierte Requirements-Workshops und Datenanalyse mit schnellem Tableau-Prototyping (Prep/Desktop/Server) und strukturiertem Enablement zur Förderung der Adoption. Parallel erkundeten zusätzliche Prototypen Near-Real-Time Event Analytics und Voice-Interaktion als Innovation Use Cases. Ergebnis: klareres Reporting, schnellere Zyklen und stärkere interne Tableau-Kompetenz

- Analyse von HR-Reporting-Anforderungen via Stakeholder-Interviews und Prozess-Walkthroughs
- Definition von KPIs und Datenanforderungen; Dokumentation von Transformations-/Automatisierungsbedarf
- Erstellung und Präsentation des Business Case für die HR-Reporting-Modernisierungsinitiative
- Prototyping von Management-Dashboards mit Tableau Prep, Desktop und Server
- Implementierung automatisierter Data-Prep-Schritte zur Reduzierung des manuellen Reporting-Aufwands
- Planung und Durchführung von Tableau-Enablement-Sessions; Koordination externer Trainer-Workshops
- Erstellung eines Event-Analytics-PoC mit Integration von QR-Scan-Service und Tableau-Dashboards
- Entwicklung eines Alexa-Voice-Prototyps in JavaScript für Innovation-/Demo-Kontexte

Tools & Methoden: Tableau, Python, REST APIs, Postman, JavaScript

Eingesetzte Qualifikationen

Datenanalyse, Tableau, Python, Prozessoptimierung, Unternehmensberater Geschäftsprozessoptimierung, Prozessvalidierung, Prozessmanagement, Prozessberatung

Requirements Engineer und Tester: MiFID/MiFIR Transaction Reporting Engine: Business-Analyse, Anforderungsengineering, S
Deutsche Bank, Frankfurt am Main
1/2017 – 6/2019 (2 Jahre, 6 Monate)
Banken
Tätigkeitszeitraum

1/2017 – 6/2019

Tätigkeitsbeschreibung

Frühere Phase desselben TRE-Programms (2017–2019). Das Projekt startete Anfang 2017 als Wasserfallmodell und wurde in ein agiles Projekt mit DevOps-Modell transformiert. Ich war der Einzige mit Scrum-Projekterfahrung in unserem Projektteam. Dies half dem Team bei einem reibungslosen Übergang zu Scrum.

- Erstellung funktionaler/technischer Specs inkl. API-Verträge, Regeln, Services, Schemas, Daten
- Verantwortung für Frontend-Anforderungen: Wireframes, UI-Module, Interaktionslogik, API-Touchpoints
- Erstellung von SIT/UAT-Tests; Unterstützung von E2E-Testing über UI, Services und Data Layer
- Defect-Management (Triage, Fix-Verifikation); Unterstützung der Testautomatisierung (UI-Objekte, Daten)
- L3-Produktionssupport: Incident-/Datenanalyse, Root-Cause und Stakeholder-Kommunikation
- Koordination von Business, Dev-/Test-Teams, Anbietern und regulatorisch orientierten Stakeholdern
- Moderation von Workshops zur Abstimmung von Scope, Regeln, Schnittstellen und Delivery-Readiness
- Unterstützung des Scrum/DevOps-Übergangs; Aufbau der Req-to-Test-Traceability in Jira/Confluence

Tools & Methoden: Jira, Confluence, Jama, HP ALM, Visio, Enterprise Architect, SharePoint, SQL, Oracle SQL Developer, Git, REST APIs, Swagger, ETL/ELT-Pipelines, Docker, PowerShell, Bitbucket, Scrum, UML

Eingesetzte Qualifikationen

Schnittstellenentwicklung, 2nd & 3rd Level Support, Anforderungsspezifikationen, Application lifecycle management (ALM), Basel II / Basel III, Business Analysis, Business Consultant, Confluence, Datenanalyse, Datenbank-Analytiker, DevOps (allg.), Digital mock-up (DMU) / Digitales Versuchsmodell (D-VM), Enterprise Architect (EA), ETL, Git, IT Test Ingenieur, Jira, MIFID, Regulatory Affairs, Requirement Analyse, Requirements Engineer, Requirements Management, Scrum, Softwareanforderungsanalyse, Softwaretester, Spezialist Regulatory Affairs, SQL, Technisches Testdesign, Technisches Testing, Testdesign (IT), Testen, Tester (Sonstige), UML, Usability Testing, Webdesign, Webdesigner, Webseiten-Tester

Daten- und Functional Analyst: Predictive-Maintenance-Analytics-Prototyp
Volkswagen AG / MAN, München
10/2015 – 5/2016 (8 Monate)
Automobilindustrie
Tätigkeitszeitraum

10/2015 – 5/2016

Tätigkeitsbeschreibung

Innovation-Lab-Engagement bei MAN (Volkswagen AG) zur schnellen Prototypenentwicklung von Predictive-Maintenance-Analytics unter Verwendung von LKW-Telematikdaten. Ziel war die Erkundung ausfall-relevanter Signale, Validierung von Annahmen durch explorative/statistische Analyse und Umsetzung der Erkenntnisse in ein Dashboard-/Prototyp-Konzept für Frühwarnung und Wartungsplanung.

- Lieferung eines PoC in Scrum; Umsetzung von Predictive-Maintenance-Hypothesen in Prototypen
- Vorbereitung von Telematikdaten (Extraktion/Bereinigung); Erkundung von Features und ausfall-relevanten Signalen
- Erstellung von Dashboard-/Prototyp-Konzepten zur Visualisierung von KPIs, Trends und Anomalie-Mustern
- Implementierung schneller Iterationen in R/RShiny mit Stakeholder-Feedback-Schleifen

Tools & Methoden: R, Shiny, RStudio, QlikView, Scrum

Eingesetzte Qualifikationen

Datenanalyse, Predictive Analytics, Proof of Concept (POC), Qlikview, R (Programmiersprache), Scrum

Product Owner: Marketing-BI-Platform
Volkswagen AG / ŠKODA, Prag
10/2014 – 3/2015 (6 Monate)
Automobilindustrie
Tätigkeitszeitraum

10/2014 – 3/2015

Tätigkeitsbeschreibung

Entwicklung einer Cloud-BI-Plattform zur Messung der Online-/Offline-Marketing-Performance von ŠKODA unter Verwendung eines Lean-KPI-Ansatzes und Datenvisualisierung. Als Product Owner stimmte ich KPI-Definitionen, Tracking-/Messlogik und Reporting-Anforderungen mit Digital-Marketing-Stakeholdern ab, unter Nutzung von Google Analytics als Kerndatenquelle für kanalübergreifendes Kampagnen-Performance-Tracking.

- Verantwortung für Backlog und Requirements für Analytics-/Reporting-Features (Personas, Stories)
- Definition von Lean KPIs und Messlogik aus Kampagnen- und Conversion-Daten
- Spezifikation von Tracking und API-/Datenschnittstellen für zuverlässige Datenerfassung und Reporting
- Unterstützung der A/B-Test-Messung und Iteration von Dashboards via Usability-Feedback

Tools & Methoden: Trello, REST APIs, Postman, Google Analytics, Kanban

Eingesetzte Qualifikationen

Schnittstellenentwicklung, Datenanalyse, Digital Marketing, Google Analytics, Kanban, Kanban (Softwareentwicklung), Marketing, Marketing-Analytiker, Product Owner, Requirement Analyse, Requirements Engineer, Requirements Management, Scrum

Zertifikate

Make Foundation
Make
2025
n8n Intermediate
n8n Academy
2025
QlikView Developer
2016
Scrum Master
2016

Ausbildung

Data Science
MSc (Berufsbegleitendes Teilzeitstudium, ohne Abschluss)
Hochschule Albstadt-Sigmaringen
2017
Albstadt
International Business Administration
MBA
Wiesbaden Business School, Hochschule RheinMain
2015
Wiesbaden
International Management
Postgrad. Cert.
University of Brighton
2008
Brighton, Vereinigtes Königreich
Economics
BA
Universität für Weltwirtschaft und Diplomatie
2005
Taschkent, Usbekistan

Über mich

Ich bringe über 10 Jahre Erfahrung in der Umsetzung datenintensiver Projekte mit, vom ersten Workshop bis zum Rollout. Mit ausgeprägtem technischem Verständnis arbeite ich eng mit Entwicklern zusammen und sorge für eine klare Abstimmung zwischen Fachbereich und IT durch eindeutige Deliverables. Ich bin erfahren in agiler Delivery (Certified Scrum Master) und kann bei Bedarf Testing und Produktionssupport übernehmen. Mein Projekthintergrund umfasst DAX-Konzerne und große Organisationen (Deutsche Bank, European Central Bank, Volkswagen) sowie mittelständische Unternehmen und Start-ups. Ich passe mich schnell sowohl an Konzernstrukturen als auch an dynamische Umgebungen an.

BRANCHEN
- Finanzdienstleistungen (Banken)
- Versicherung
- Einzelhandel
- Regulatorik, Compliance
- Automotive
- Bauwesen, Immobilien
- Industrie
- E-Learning

KUNDEN
Deutsche Bank, Europäische Zentralbank, Volkswagen (MAN, ŠKODA), Uponor (heute GF), EUMESAT, TechQuartier

KERNKOMPETENZEN
- Stakeholder-Interviews, Anforderungs-Workshops, Discovery und Scope-Definition
- Epics, User Stories, Use Cases, Backlog Refinement und Akzeptanzkriterien
- AS-IS/TO-BE-Analyse, Gap-Analyse, Business Rules/Decision Logic und Root-Cause-Analyse
- Prozess- und Datenanforderungen, End-to-End-Workflows inkl. Exceptions sowie Schnittstellen-/Datenflussdokumentation
- API-/Schnittstellenspezifikationen (REST), Integrationen, Data Mapping und SQL-basierte Validierung
- SQL-Analyse, Data Profiling, Source-to-Target Mapping und Datenmodellierung
- ETL/ELT-Pipeline-Anforderungen sowie Daten-Staging/Processing-Konzepte
- Datenbereinigung und Standardisierung, Data-Quality-Regeln/Schwellenwerte, Monitoring und Remediation-Workflows
- KPI-Definition, Dashboard-Prototyping und Reporting-Automation
- Nicht-funktionale Anforderungen (Security/Performance)
- Test & Quality: SIT/UAT-Planung, UAT-Koordination, Test-Support und Defect Triage
- Go-Live-Readiness, Hypercare und L3-Produktionssupport
- Frontend-Anforderungen, Wireframes und Low-Fi interaktive Prototypen
- Change-Request-Management und Scope-Impact-Bewertung
- Data Dictionary/Katalog sowie Metadaten- und Data-Lineage-Dokumentation
- Datenrichtlinien und Standards (DSGVO, DGA, DORA, EU AI Act) inkl. audit-fähiger Nachweise
- BPMN 2.0 Prozessdesign und -optimierung, ausführbare Modelle in Camunda
- Automatisierung mit n8n/Make sowie RevOps-/CRM-Automation (HubSpot, Pipedrive)
- Anbieterauswahl und Vendor Management
- OpenAI API/LLMs für Normalisierung/Enrichment (z. B. Freitextfelder) sowie Assistenz für DQ/Mapping/Tests mit Datenschutz-/Governance-Fokus

TYPISCHE DELIVERABLES
- Fach-/Technikkonzepte, Funktions- & Schnittstellenspezifikationen
- Datenflüsse/Mappings, DQ-Regeln, Prüfberichte, Testfälle/UAT-Pakete, Go-Live Checklisten
- BPMN/UML Modelle, Prozessdokumentation, KPI-/BI-Dashboards

Weitere Kenntnisse

TOOLS & METHODEN
Umsetzung / Requirements / Produkt:
Jira, Confluence, Jama, HP ALM, Miro, Visio, Enterprise Architect, Figma, Balsamiq, Trello, Asana, MS Office, SharePoint, Teams

Daten / Analytics / Engineering:
SQL, Postgres, Power BI, Tableau, Python, VBA, dbt, Git, REST APIs, Postman, Swagger, ETL/ELT Pipelines, Docker

Automatisierung / Plattformen / KI:
n8n, Make, Camunda, HubSpot, Pipedrive, Google Analytics, GitHub, Collibra, Waltz, GenAI, LLMs, OpenAI API, Docebo

Methoden:
Scrum, SAFe, Kanban, BPMN 2.0, UML

ZERTIFIKATE
Scrum Master

Persönliche Daten

Sprache
  • Usbekisch (Muttersprache)
  • Deutsch (Fließend)
  • Englisch (Fließend)
Reisebereitschaft
Europa
Arbeitserlaubnis
  • Europäische Union
Home-Office
bevorzugt
Profilaufrufe
2189
Alter
42
Berufserfahrung
18 Jahre und 3 Monate (seit 01/2008)
Projektleitung
2 Jahre

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden