freiberufler Data Scientist auf freelance.de

Data Scientist

offline
  • auf Anfrage
  • 10587 Berlin
  • DACH-Region
  • de  |  en  |  vi
  • 18.06.2024

Kurzvorstellung

Data Scientist mit Fokus auf Datenanalyse, ML und Automatisierung. Meine Kernkompetenzen: Daten entdecken, Muster erkennen, automatisieren. Besonders Prototypenbau und Machbarkeitsstudien, wo kreative Lösungen gefragt sind, sind meine Stärke.

Qualifikationen

  • Amazon Web Services (AWS)1 J.
  • Azure Databricks2 J.
  • Datawarehouse / DWH1 J.
  • Datenanalyse1 J.
  • Docker
  • Git
  • Goggle cloud platform
  • Maschinelles Lernen2 J.
  • Microsoft Azure2 J.
  • Microsoft Power BI2 J.
  • Microsoft SQL-Server (MS SQL)1 J.
  • Python3 J.
  • SQL3 J.
  • TensorFlow

Projekt‐ & Berufserfahrung

Data Analyst
Kundenname anonymisiert, Wien
11/2023 – offen (11 Monate)
Maschinen-, Geräte- und Komponentenbau
Tätigkeitszeitraum

11/2023 – offen

Tätigkeitsbeschreibung

Entwicklung eines Modells, welche Änderungen von Bestellungen aufzeigt, in Abhängigkeit zur verbleibenden Zeit bis zur Auslieferung.

Thema: Entwicklung eines Analyse-Modells, welche die Varianz der Bestellungen aufzeigt
Branche: Maschinenbau - Supply-Chain-Management
Tools: Databricks, pyspark, SQL, Python

Eingesetzte Qualifikationen

Datawarehouse / DWH, Datenanalyse

Data Scientist
Kundenname anonymisiert, München
4/2023 – offen (1 Jahr, 6 Monate)
Maschinen-, Geräte- und Komponentenbau
Tätigkeitszeitraum

4/2023 – offen

Tätigkeitsbeschreibung

Verantwortlich für die Bereinigung zeitabhängiger Sensordaten und die Erstellung von Modellen, die zur Klassifizierung der zugehörigen Zeitreihen geeignet sind. Nutzung der Python-Bibliothek sktime, um diese Modelle effizient zu entwickeln. Um die zahlreichen Versuche und Modelle effektiv zu verfolgen, wurde MLflow eingesetzt. Außerdem wurde Databricks eingesetzt, um die Datenverarbeitungsfunktionen zu optimieren und die Gesamteffizienz des Projekts zu steigern.

Thema: Klassifizierung von Zeitreihen
Branche: Maschinen - Sensordaten
Tools: Python, sktime, MLflow, Databricks, pyspark

Eingesetzte Qualifikationen

Azure Databricks, Maschinelles Lernen, Python, SQL

Data Engineer
Kundenname anonymisiert, Lüdenscheid
8/2022 – 5/2023 (10 Monate)
Maschinen-, Geräte- und Komponentenbau
Tätigkeitszeitraum

8/2022 – 5/2023

Tätigkeitsbeschreibung

Verantwortlich für die Aufnahme von Bedingungen und deren Umsetzung in der Datenbank. Dies beinhaltete die Konzeption und Implementierung von ETL-Prozessen, um die nahtlose Integration von Daten zu gewährleisten. die Wartung des Data Warehouse, um dessen reibungslosen Betrieb und optimale Leistung sicherzustellen. Darüber hinaus trugen sie aktiv zur Entwicklung der Projektinfrastruktur bei und nutzten ihr Fachwissen zur Verbesserung der Datenverwaltung und -zugänglichkeit.

Thema: Pflegen von ETL Prozessen
Branche: Produktion
Tools: SQL, Terraform, Azure Data Factory, Power BI

Eingesetzte Qualifikationen

Microsoft Azure, Microsoft Power BI, Microsoft SQL-Server (MS SQL)

Data Engineer
Kundenname anonymisiert, Berlin
4/2022 – 12/2022 (9 Monate)
Handel
Tätigkeitszeitraum

4/2022 – 12/2022

Tätigkeitsbeschreibung

Aktive Beteiligung an der Entwicklung eines Alarmsystems, das die Markenleitung bei wesentlichen Änderungen umgehend benachrichtigen soll. Dazu gehörte vor allem die Arbeit mit SQL-Abfragen, um bestimmte Bedingungen zu ermitteln, die das System auslösen würden. Sobald diese Bedingungen erfüllt waren, wurde ein Auslöser aktiviert, der das Senden einer Nachricht an das System initiierte.

Thema: Implementierung von Lambda Funktionen
Branche: E-Commerce
Verwendete Tools: SQL, snowflake, CDK, AWS, Lambda-Funktionen

Eingesetzte Qualifikationen

Amazon Web Services (AWS), snowflake, SQL

Data Engineer
Kundenname anonymisiert, Berlin
5/2021 – 3/2022 (11 Monate)
Medienbranche
Tätigkeitszeitraum

5/2021 – 3/2022

Tätigkeitsbeschreibung

In dieser Funktion drehte sich das zentrale Ziel um die Entwicklung eines praktischen Prototyps, der auf Vorhersage ausgerichtet ist Umsatzwachstum und visuell zugängliche Vermittlung dieser Erkenntnisse. Dieses Bestreben beinhaltete den Zusammenschluss von Daten aus SQL- und Excel-Quellen, die nahtlos in eine Reihe sorgfältig formulierter Annahmen integriert wurden. Das Übergeordnetes Ziel war es, ein umfassendes Dashboard zu konstruieren, das die Entwicklung effektiv beleuchten würde Landschaft der Verkaufstrends und Schlüsselentwicklungen.

Die treibende Kraft hinter dieser Initiative war die Verpflichtung, Entscheidungsprozesse datengesteuert zu verbessern Einblicke. Der Prototyp wurde nicht nur als Vorhersagewerkzeug konzipiert, sondern auch als Mittel, um die Stakeholder mit einem zu stärken tiefes Verständnis der zugrunde liegenden Faktoren, die die Verkaufstrends beeinflussen. Auf diese Weise sollte eine Information ermöglicht werden strategische Planung und Anleitung kritischer Geschäftsentscheidungen, was die unverzichtbare Rolle der Datenanalyse unterstreicht und Visualisierung im Streben nach Geschäftserfolg.

Hauptaufgaben
Prototyperstellung: Entwickelte einen Prototyp zur Vorhersage des Verkaufswachstums mit Python- und Azure-Funktionen.
Datenintegration: Integrierte SQL- und Excel-Datenquellen mit Azure-Funktionen für eine umfassende Analyse.
Dashboard-Visualisierung: Verwendete Power BI, um visuell informative Sales-Trend-Dashboards zu erstellen.
Annahmetests: Angestelltes Python zum strengen Testen und Implementieren von Annahmen zum Umsatzwachstum.
Übergang zu SSIS ETL-Prozessen: Ersetzte Azure-Funktionen durch SSIS ETL-Prozesse und optimierte SQL-Abfragen für effiziente Datentransformation und -belastung.

Eingesetzte Qualifikationen

Microsoft Power BI, SQL, Python, Microsoft Azure

Data Analyst
Kundenname anonymisiert, Düsseldorf
5/2021 – 3/2022 (11 Monate)
Großhandel
Tätigkeitszeitraum

5/2021 – 3/2022

Tätigkeitsbeschreibung

In dieser Rolle lag der Schwerpunkt auf der Bereitstellung wertvoller Hilfe bei der Einrichtung und Wartung von ETL (Auszug, Transformations-, Last-) Prozesse zum Zwecke der Preisoptimierung mit Ziant. Dies umfasste eine Reihe von Verantwortlichkeiten zur Optimierung von Preisstrategien und zur Gewährleistung eines effizienten Datenflusses.

Hauptaufgaben
ETL-Prozesseinrichtung: Zusammenarbeit beim Einrichten von ETL-Prozessen, wobei die Funktionen von Ziant zum Extrahieren genutzt werden relevante Preisdaten, transformieren Sie sie, um bestimmte Geschäftsanforderungen zu erfüllen, und laden Sie sie in das System.

Datenintegration: Spielte eine entscheidende Rolle bei der Integration verschiedener Datenquellen, um eine umfassende zu ermöglichen Analyse von Preisfaktoren, die letztendlich eine bessere Entscheidungsfindung unterstützen.

Wartung und Optimierung: Beteiligte sich aktiv an der laufenden Wartung der ETL-Prozesse und stellte Daten sicher Genauigkeit und kontinuierliche Optimierung dieser Prozesse für verbesserte Effizienz und Genauigkeit.

Preisoptimierungsunterstützung: Unterstützung bei der Verwendung der Tools und Techniken von Ziant zur Optimierung von Preisstrategien, Beitrag zur Fähigkeit des Unternehmens, wettbewerbsfähige und profitable Preise festzulegen

Thema: Preisoptimierung
Branche: Großhandel - E-Commerce
Tools: SQL

Eingesetzte Qualifikationen

SQL

Data Analyst
Kundenname anonymisiert, Berlin
4/2021 – 8/2021 (5 Monate)
Handel
Tätigkeitszeitraum

4/2021 – 8/2021

Tätigkeitsbeschreibung

Das Hauptziel dieser Aufgabe war es, einen gründlichen Vergleich zwischen zwei Datenbanken durchzuführen, eine aus der Controlling Abteilung und die andere von Finance. Der spezifische Schwerpunkt lag auf der Aufdeckung von Abweichungen bei den Verkaufszahlen und die Ursprünge dieser Unterschiede verstehen.

Um dies zu erreichen, wurde eine Kombination von Tools gekonnt eingesetzt, darunter SQL, Python und Excel. SQL wurde verwendet, um Extrahieren, transformieren und analysieren Sie Daten aus beiden Datenbanken, um die Identifizierung von Unterschieden zu erleichtern. Python gespielt eine wichtige Rolle bei der Automatisierung von Datenanalyseprozessen und bei Bedarf bei komplexeren Berechnungen. Excel, mit Seine vielseitigen Datenvisualisierungsfunktionen wurden verwendet, um Ergebnisse klar und verständlich darzustellen.

Hauptaufgaben
Datenextraktion und -transformation mit SQL: Extrahierte relevante Daten aus Controlling- und Finanzdatenbanken unter Verwendung von SQL und führte die erforderlichen Datentransformationen durch, um es für den Vergleich vorzubereiten.

Datenanalyse mit Python: Verwendete Python für eine eingehende Datenanalyse, einschließlich der Ermittlung von Umsatzunterschieden Zahlen und untersuchen ihre Grundursachen.

Berechnungsautomatisierung: Verwenden Sie Python, um Berechnungen zu automatisieren und komplexe Datenvorgänge durchzuführen, um dies sicherzustellen Genauigkeit in der Analyse.

Datenvisualisierung mit Excel: Präsentierte die Ergebnisse und Erkenntnisse visuell klar und verständlich Verwendung der Datenvisualisierungsfunktionen von Excel.

Eingesetzte Qualifikationen

SQL, Python, MS Excel

Ausbildung

Dipl. Ing.
Maschinenbau
Technische Universität Dresden
2017
Dresden

Über mich

Hello,

ich bin ein Data Analyst und Data Scientist mit einem Schwerpunkt auf Datenanalyse, maschinellem Lernen und Automatisierung. Meine Expertise liegt darin, Daten sorgfältig zu untersuchen, um Muster und Trends zu identifizieren.
In meinen über sechs Jahren Erfahrung in verschiedenen Branchen habe ich mich besonders in den Bereichen Datenbereinigung, -analyse und Modellentwicklung zur Schaffung solider Entscheidungsgrundlagen vertiefen können. Die Automatisierung fasziniert mich, da sie dazu beiträgt, effiziente Datenpipelines und Prozesse zu schaffen, die Zeit und Ressourcen schonen.

✨ Datenanalyse
✨ Machine Learning
✨ Automatisierung

Ebenfalls verfüge über ein vielseitiges Toolkit, das von klassischen Datenbankabfragen bis hin zu modernen ML-Bibliotheken reicht. So unterstütze ich Unternehmen dabei, datengetriebene Entscheidungen zu treffen und ihre Effizienz zu steigern. Neben meinen technischen Fähigkeiten lege ich großen Wert auf klare Kommunikation von datenbasierten Erkenntnissen und Visualisierungen. Zusätzlich bringe ich Erfahrung in Automatisierungs- und Workflow-Tools sowie in der Nutzung von Plattformen wie GitHub, Linux, Databricks und Cloudplattformen mit.

? Python | Matlab
? SQL | Snowflake
? Github | Terraform
? Azure | AWS | GCP

Es ist für mich stets eine Bereicherung, mich in neue Fachgebiete einzuarbeiten und dabei neue Methoden und Tools einzusetzen.

Persönliches:
? Pycharm > VSC
? Linux > MacOS > Windows

Weitere Kenntnisse

Python | MATLAB | Go
Qlik Sense | PowerBI
Databricks
SQL
Terraform
Git
Azure | AWS | GCP
Hugo

Persönliche Daten

Sprache
  • Deutsch (Muttersprache)
  • Englisch (Fließend)
  • Vietnamesisch (Gut)
Reisebereitschaft
DACH-Region
Arbeitserlaubnis
  • Europäische Union
Home-Office
unbedingt
Profilaufrufe
232
Alter
33
Berufserfahrung
6 Jahre und 5 Monate (seit 04/2018)

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden