Technical Lead | Senior Data Engineer | Software Engineer | Cloud & Analytics Specialist
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- 35630 Ehringshausen, Dill
- National
- de | en
- 11.03.2026
- Contract ready
Kurzvorstellung
Geschäftsdaten
Qualifikationen
Projekt‐ & Berufserfahrung
11/2025 – offen
TätigkeitsbeschreibungTechnische Gesamtverantwortung für Cloud-, Software- und Datenprojekte, Entwicklung technischer Roadmaps und Zielarchitekturen im Azure-Umfeld, Architekturentscheidungen unter Berücksichtigung von Skalierbarkeit, Sicherheit und Wartbarkeit, Einführung und Durchsetzung verbindlicher Engineering-Standards, Definition strukturierter Teststrategien, Technische Risikoanalyse und Priorisierung nach Business-Impact, Übersetzung fachlicher Anforderungen in tragfähige technische Konzepte, Projektplanung, Aufwandsschätzung und Meilenstein-Definition, Durchführung technischer Workshops sowie Enablement und Coaching von Entwicklungsteams
Eingesetzte QualifikationenLead Developer, Projektplanung / -vorbereitung, Microsoft Azure
4/2024 – 11/2025
Tätigkeitsbeschreibung
Als Data Engineer bei VECTORIAL GmbH konzipiere und realisiere ich moderne Cloud- und Datenarchitekturen mit starkem Fokus auf Microsoft Azure und verantworte mehrere End-to-End-Kundenprojekte.
Cloud & Data Architecture (Azure-Fokus)
- Architekturdesign und Implementierung skalierbarer Azure-Data-Platforms (Databricks, Dataflows, Power BI, Unity Catalog)
- Aufbau von Lakehouse-/DWH-Architekturen inkl. Umgebungs-Strategie und CI/CD
- Entwicklung performanter ETL/ELT-Pipelines und Sicherstellung von Data Quality & Governance
- Integration föderaler Data Lakes sowie Anbindung an Google Cloud & BigQuery
- Konzeption und Umsetzung anspruchsvoller BI-Lösungen inkl. Custom Visuals
Advanced Data Engineering
- Entwicklung modularen Python-ETL-Pipelines (Polars, SQLAlchemy)
- Duplikaterkennung, Klassifikation, Schema-Reflexion und automatisiertes Reporting
- Aufbereitung -, Datenvalidierung - und Performance-Optimierung von Trackingdaten
- Versionierung und Deployment von Analytics-Artefakten über strukturierte Release-Prozesse
Software & API Engineering
- Entwicklung modularer Webanwendungen (Vanilla JS, Angular)
- Entwicklung performanter Backend-APIs (NestJS, TypeScript, Redis, BullMQ)
- Eventbasierte Verarbeitung, Caching-Strategien und Queue-Architekturen
Apache Spark, Big Data, Business Intelligence (BI), Data Warehousing, Databricks, Power Bi, Git, Python, Typescript, Google Cloud, Bull, Angular, JavaScript, Backend, Datenmodelierung, ETL, Microsoft Azure, Projektleiter im Bereich Information
1/2023 – 3/2024
Tätigkeitsbeschreibung
Als Data Engineer & Data Warehouse Developer bei Buderus Edelstahl GmbH verantworte ich den Aufbau, die Administration und Weiterentwicklung einer Cloud-basierten Daten- und Analyseplattform sowie die technische Integration komplexer Datenprozesse in einem Unternehmen mit über 1000 Mitarbeitenden.
Aufgaben:
- Administration der Microsoft Azure Cloud, Power BI Service und föderalen Data Lake-Umgebungen.
- Konzeption, Entwicklung und Automatisierung modularer ETL-Prozesse sowie CI/CD.
- Datenbank- und Datenmodell-Design für Data Warehouse- und Data Lake-Strukturen.
- Integration, Aufbereitung und Bereitstellung von heterogenen Daten.
- Anbindung diverser Datenquellen zur Unterstützung datengetriebener Prozesse.
- Analyse & Bewertung von Use-Cases zu Datenverfügbarkeit, Machbarkeit und Nutzen für Reporting & BI.
- Digitalisierung, Automatisierung und Enterprise Application Integration zur Optimierung von Workflows.
- Unterstützung bei Entwicklung und Deployment von Data-Science-Lösungen inkl. fachlicher Konzeption.
- Entwicklung von Schnittstellen (Cloud, IoT, ERP, OPC UA) und .NET-basierten Anwendungen.
- Qualitätssicherung, Testing und Stabilisierung produktiver Daten- und Analytics-Prozesse.
- Projektleitung inkl. Lasten-/Pflichtenhefterstellung, technischer Dokumentation und Anwenderschulungen.
- Third-Level-Support für Microsoft Azure, Power BI, SSRS und iMES-Systeme.
Data Engineer, Apache Spark, Azure Synapse Analytics, Data Warehousing, Databricks, Datenanalyse, Datenmodelierung, ETL, Microsoft Azure, Power Bi, Python, SQL, SQL-Datenbankadministrator, SQL Entwickler
8/2019 – 1/2023
Tätigkeitsbeschreibung
Als Data Engineer & Data Warehouse Developer bei Buderus Edelstahl GmbH verantworte ich den Aufbau, die Administration und Weiterentwicklung einer Cloud-basierten Daten- und Analyseplattform sowie die technische Integration komplexer Datenprozesse in einem Unternehmen mit über 1000 Mitarbeitenden.
Aufgaben:
- Administration der Microsoft Azure Cloud, Power BI Service und föderalen Data Lake-Umgebungen.
- Konzeption, Entwicklung und Automatisierung modularer ETL-Prozesse sowie CI/CD.
- Datenbank- und Datenmodell-Design für Data Warehouse- und Data Lake-Strukturen.
- Integration, Aufbereitung und Bereitstellung von heterogenen Daten.
- Anbindung diverser Datenquellen zur Unterstützung datengetriebener Prozesse.
- Analyse & Bewertung von Use-Cases zu Datenverfügbarkeit, Machbarkeit und Nutzen für Reporting & BI.
- Digitalisierung, Automatisierung und Enterprise Application Integration zur Optimierung von Workflows.
- Unterstützung bei Entwicklung und Deployment von Data-Science-Lösungen inkl. fachlicher Konzeption.
- Entwicklung von Schnittstellen (Cloud, IoT, ERP, OPC UA) und .NET-basierten Anwendungen.
- Qualitätssicherung, Testing und Stabilisierung produktiver Daten- und Analytics-Prozesse.
- Projektleitung inkl. Lasten-/Pflichtenhefterstellung, technischer Dokumentation und Anwenderschulungen.
- Third-Level-Support für Microsoft Azure, Power BI, SSRS und iMES-Systeme.
Apache Spark, Azure Synapse Analytics, Data Warehousing, Datenmodelierung, ETL, Microsoft SQL-Server (MS SQL), SQL, SQL-Datenbankadministrator, DevOps, SAP S/4HANA, SQL Entwickler, C#, Python, Microsoft Azure, Digitalisierung, Power Bi
Zertifikate
Frontend Masters
IT-Vision
Ausbildung
Gießen
Gießen
Lahn-Dill-Kreis
Über mich
Cloud & Data Engineering
Azure Data Factory & Dataflows: Entwicklung und Orchestrierung skalierbarer ETL/ELT-Pipelines
Azure Databricks: Implementierung performanter Datenpipelines und Lakehouse-Architekturen
Azure Synapse Analytics: Datenintegration, Data Warehousing und analytische Workloads
Microsoft Fabric & Power BI: Aufbau von Data-Lake-/Lakehouse-Architekturen, Datenmodellierung, Performance-Tuning und Self-Service-Analytics
Azure SQL, Data Lake Storage, Unity Catalog, Serverless-Compute-Patterns
Integration heterogener Datenquellen (ERP, IoT, APIs), Data Quality, Governance
Anbindung von Google Cloud & BigQuery in hybriden Architekturen
Programmiersprachen & Entwicklung
SQL & DAX: Performante Abfragen, Measures, Datenmodell-Optimierung
Python (Polars, Pandas, Pandera, SQLAlchemy): Datenverarbeitung, Validierung, ETL-Frameworks
TypeScript & JavaScript (ES Modules): Backend- und modulare Webarchitekturen
C#/.NET: Integrationslösungen und Schnittstellenentwicklung
Grundkenntnisse in Rust für performante Tools und Systemkomponenten
Frameworks & Tools
Apache Spark: Verteilte Datenverarbeitung und Performance-Optimierung
NestJS, FastAPI: Entwicklung robuster REST-APIs, modulare Architekturen
Angular & Vanilla JS: Interaktive Webanwendungen
Redis & BullMQ: Caching- und Queue-basierte Verarbeitung
Microsoft Graph API & Webhooks-Integration
Power BI: Enterprise-Reporting, Custom Visuals, Versionierung
Azure DevOps, CI/CD & Git: Automatisierte Deployments, Branching-Strategien
Methoden, Architektur & Zusammenarbeit
Agile Methoden in verteilten Teams
Cloud-Architekturdesign mit Fokus auf Skalierbarkeit, Sicherheit und Wartbarkeit
Einführung von Engineering-Standards (Code-Reviews, Teststrategien, CI/CD)
Technische Roadmaps, Architektur-Reviews und Technologie-Evaluierung
Stakeholder-Management und Übersetzung fachlicher Anforderungen in tragfähige technische Konzepte
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden
