Senior Data Engineer
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- 12689 Marzahn-Hellersdorf
- Weltweit
- bn | en | de
- 11.09.2025
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
1/2025 – offen
Tätigkeitsbeschreibung
Entwicklung und Wartung skalierbarer Datenpipelines für Immobilien- und Finanzanalysen unter Verwendung von SQL, Python und Snowflake
Leitung der Implementierung von Datenmodellen zur Unterstützung von Geschäftsberichten und Self-Service-Analysen
Verantwortlich für die End-to-End-Datenbereitstellung unter Verwendung des Data-Vault-2.0-Modellierungsansatzes
Entwicklung von ELT-Prozessen mit dbt und Orchestrierung von Workflows über Apache Airflow
Implementierung von Echtzeit- und Batchverarbeitung zur Unterstützung verschiedenster Anwendungsfälle
Zusammenarbeit mit bereichsübergreifenden Teams zur Definition von Datenanforderungen und zur Übersetzung von Geschäftsbedürfnissen in technische Lösungen
Implementierung von Datenqualitätsprüfungen, Lineage-Tracking und Versionskontrolle zur Sicherstellung der Datenintegrität und -genauigkeit
Business Intelligence (BI), Data Warehousing, Datenanalyse, Data Vault, Datenbankentwicklung, Datenmodelierung, ETL, Mongodb, Postgresql, Snowflake
2/2022 – 12/2024
Tätigkeitsbeschreibung
Daten-Pipeline-Entwicklung:
Entwurf, Entwicklung und Wartung von Daten-Pipelines.
Extrahieren von Daten aus verschiedenen Quellen, Transformation in ein nutzbares Format und Laden in Datenlager.
Datenmodellierung:
Erstellung und Verwaltung von Datenmodellen.
Definition der Struktur und Beziehungen von Datenentitäten zur effizienten Speicherung und Abfrage.
Datenintegration:
Integration von Daten aus verschiedenen Quellen, einschließlich Datenbanken, APIs und externen Anbietern.
Sicherstellung der Datenpräzision und -konsistenz durch Datenbereinigung und Transformation.
Datenarchitektur:
Beitrag zur Gestaltung und Optimierung der Datenarchitektur.
Treffen von Entscheidungen hinsichtlich Speichertechnologien, Datenlakes und Datenlagern zur Unterstützung der Skalierbarkeit.
Leistungssteigerung:
Überwachung und Optimierung von Daten-Pipelines und Datenbanken.
Verbesserung der Datenverarbeitung und Abfrageleistung.
Datenqualitätssicherung:
Implementierung von Datenqualitätsprüfungen und Validierungsprozessen.
Sicherstellung der Datenpräzision und -zuverlässigkeit.
Datensicherheit:
Sicherstellung der Datensicherheit durch Implementierung von Zugangskontrollen, Verschlüsselung und Einhaltung der Datenschutzbestimmungen.
Zusammenarbeit:
Enge Zusammenarbeit mit interdisziplinären Teams, einschließlich Datenanalysten und Data Scientists.
Verständnis für deren Datenanforderungen und Bereitstellung von sauberen, gut strukturierten Daten für Analysen.
Dokumentation:
Pflege umfassender Dokumentation von Daten-Pipelines, Modellen und Prozessen. Sicherstellung von Transparenz und Wissensaustausch innerhalb der Organisation.
Amazon Web Services (AWS), Data Vault, Data Warehousing, ETL, Open Source, Python, Snowflake
2/2020 – 2/2022
Tätigkeitsbeschreibung"Ich habe ein zentrales Datenlager für alle Geschäftsbereiche wie HR, CR, FM, FI und andere implementiert. Meine Arbeit half ihnen, ihr Berichtssystem von Excel-basiert auf eine moderne Datenbank umzustellen. Ich habe die ETL-Pipeline vorbereitet, um Daten aus verschiedenen Quellen, einschließlich SAP, zu extrahieren. Darüber hinaus habe ich ein robustes und skalierbares Datenmodell für das Datenlager entworfen, um eine effiziente Datenhaltung sicherzustellen."
Eingesetzte QualifikationenMicrosoft SQL Server Analysis Services (SSAS), Microsoft SQL Server Integration Services (SSIS), Microsoft SQL-Server (MS SQL), Java (allg.)
10/2018 – 1/2020
TätigkeitsbeschreibungIch habe an einem sehr großen Projekt für eines der führenden Versicherungsunternehmen gearbeitet, bei dem ich einen Java-basierten Connector entwickelt habe, um Daten aus SAP zu extrahieren und die Daten in ein spezifiziertes Format für ein anderes Non-SAP-Modul zu übertragen. Darüber hinaus habe ich auch an einigen anderen Data-Warehouse-Projekten gearbeitet.
Eingesetzte QualifikationenJava (allg.), Oracle Business Intelligence (BI), Open Source, Postgresql
11/2013 – 9/2018
Tätigkeitsbeschreibung
Umsetzung von Datenbankanwendungen
• Objektorientierte Programmierung, Sauberer Code
• Datenvalidierung
• Wartung, Verwaltung, Aktualisierung, Wiederherstellung und
Installation von Datenbanken.
• Datenmodellierung, Schreiben von SQL-Abfragen, Trigger, gespeicherte
Prozeduren, Ansichten und Funktionen
• Optimierung von SQL-Abfragen für Leistung
• Laufzeit-Berichtsgenerator
• Module für die Validierung von Software und Aufgabenmanagement
• Fehlerbehebung
Delphi, Microsoft SQL-Server (MS SQL), Pascal
Ausbildung
University of Bremen
Bremen
Über mich
Weitere Kenntnisse
Modern Data Stack: Aufbau von ELT-Pipelines mit Python, SQL, dbt, Snowflake und AWS (S3, EC2, Lambda)
End-to-End Ownership: Steuerung von Datenprojekten vom Design bis zum Go-Live mit Fokus auf Business Value
Interdisziplinäre Zusammenarbeit: Enge Abstimmung mit Product Managern, Analysten und Entwicklern zur Erstellung sauberer, zuverlässiger Datenprodukte
Clean Code & Best Practices: Hoher Anspruch an wartbaren, testbaren Code, CI/CD, modulare Architektur und klare Dokumentation
Data Governance & Sicherheit: Fundierte Erfahrung im Bereich Datenqualität, Datenschutz und Compliance, insbesondere im Hinblick auf GDPR-konforme Prozesse und sichere Datenarchitekturen
Persönliche Daten
- Englisch (Fließend)
- Deutsch (Fließend)
- Bengalisch (Muttersprache)
- Europäische Union
- Schweiz
- Vereinigte Staaten von Amerika
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden
