freiberufler Cloud Engineer / Software Engineer / DevOps Engineer auf freelance.de

Cloud Engineer / Software Engineer / DevOps Engineer

zuletzt online vor wenigen Tagen
  • 105€/Stunde
  • 85055 Ingolstadt
  • DACH-Region
  • de  |  en
  • 02.04.2025

Kurzvorstellung

Meine Kompetenzen sind im Bereich DevOps, Software Entwicklung, Big Data und Cloud.

Qualifikationen

  • Apache Spark
  • Big Data
  • Cloud (allg.)
  • Continuous Delivery
  • DevOps2 J.
  • Git2 J.
  • Java (allg.)2 J.
  • Maschinelles Lernen
  • Python5 J.
  • Scala1 J.

Projekt‐ & Berufserfahrung

Data Engineer
KARL STORZ SE & Co. KG, Remote
1/2021 – 1/2025 (4 Jahre, 1 Monat)
Gesundheitswesen
Tätigkeitszeitraum

1/2021 – 1/2025

Tätigkeitsbeschreibung

-Entwurf der Systemarchitektur der Datenplattform.
-Vergleich von On-Premises- vs. Cloud-Lösungen sowie verschiedene Cloud-Optionen, einschließlich Hybrid- vs. vollständige Cloud, AWS vs. Azure.
-Einrichtung der CI/CD-Pipeline, automatisierter Unit-/Integrationstests und Bereitstellung.
-Analyse und Entwurf der Datenarchitektur.
-Einrichtung des Netzwerkmanagements und der Netzwerksicherheit.
Anforderungsanalyse mit verschiedenen Stakeholdern.

Systemumgebung: Power BI, Azure Data Factory,  Databricks, Azure Data
Lake Gen2, Azure Functions, GitHub Actions, Python, Flask, Azure
Machine Learning, Linux, Azure DevOps

Eingesetzte Qualifikationen

IT-Spezialist

DevSecOps Engineer
Volkswagen OTLG, Berlin
10/2020 – 10/2022 (2 Jahre, 1 Monat)
Automobilindustrie
Tätigkeitszeitraum

10/2020 – 10/2022

Tätigkeitsbeschreibung

Der Kunde möchte das Kundenerlebnis während der Fahrt verbessern, indem er Fahrer über mögliche Probleme informiert und deren Fragen korrekt und ohne Verzögerung beantwortet. Wir entwickeln ein sprachbasiertes KI-System, das Spracherkennung und Natural Language Understanding (NLU) nutzt, um mit den Kunden im Auto zu kommunizieren. Das System liefert alle benötigten Informationen per Sprachoutput an den Nutzer.

Technische Umsetzung:

Einrichtung der CI/CD-Pipeline, automatisierter Unit-/Integrationstests und Bereitstellung mit Azure und GitHub Actions.
Integration von kontinuierlichen Sicherheits-Scans und Schwachstellenberichten in den Softwareentwicklungsprozess.
Festlegung der Softwarearchitektur.
Vorbereitung der Anwendungen für die Cloud mit Azure Functions.
Anforderungsanalyse mit verschiedenen Stakeholdern.
Automatisierte Bereitstellung der Infrastruktur mit Terraform.

Systemumgebung: Bandit, Swagger, Pylint, SQL, Excel VBA, Makros, Terraform, Azure
Functions, Azure, GitHub Enterprise, Python, Flask, CI / CD, Pytest,
Unit test, Linux, PowerShell, Jira, Confluence, REST-API, Azure
DevOps

Eingesetzte Qualifikationen

DevOps, Microsoft Azure, Python, Test Automation

DevOps Engineer, Big Data Developer
Deutsch Börse, Frankfurt
5/2019 – 9/2020 (1 Jahr, 5 Monate)
Öffentliche Verwaltung
Tätigkeitszeitraum

5/2019 – 9/2020

Tätigkeitsbeschreibung

Deutsche Börse AG (DBAG) entwickelt den Serviceplattform Buy-In Agent für die Clearing-Mitglieder, Deutsche Börse Group (DBG) Kunden und andere Marktteilnehmer um eine Lösung für nicht-zentralisierte verrechnete Wertpapiertransaktionen zu ermöglichen. Dadurch werden tägliche Datenverarbeitung im hohen Bereich in Real Time aufgenommen, verarbeitet und analysiert.
- Aufsetzen des Cloudera on-premise DevOps Pipelines mit CI / CD, automatisierten Unit- / Integration-Tests und Deployment
- Erstellung der Architektur
- Entwicklung der Spark Jobs
- Bereitstellung der Anwendung mit Docker und Kubernetes - Aufsetzen des Data-Streaming-Pipelines

Eingesetzte Qualifikationen

Apache Hadoop, Apache Spark, Docker, Git, Java (allg.), Jenkins, Jira, Junit, Python, Scala, Spring Framework, RTSP (RealTime Streaming Protocol), Amazon Web Services (AWS), Kubernetes

Cloud Engineer, Data Scientist
Audi AG, Ingolstadt
3/2019 – 6/2020 (1 Jahr, 4 Monate)
Automobilindustrie
Tätigkeitszeitraum

3/2019 – 6/2020

Tätigkeitsbeschreibung

Wir entwickeln ein vollautomatisiertes System für die Identifikation und Klassifizierung der Fahrsituationen mit dem Ziel, manuelle Arbeit und die damit entstandenen Kosten zu sparen. Für die Analyse verwenden wir Anomalie-Erkennung um die gesamte Zeitreihe in kleinere Situationen zu schneiden. Anschließend verwenden wir Unsupervised Learning und Hierachical Clustering um die ähnliche Situationen in gleichen Gruppen zu sortieren. Das Ergebnis wird durch eine interaktive Webseite dargestellt.
- Deployment der Anwendung in die Azure Cloud.
- Clustering der Zeitabschnitten unter Anwendung von Machine Learning Methoden.
- Scaling der Methode mithilfe von Big Data Technologien.

Eingesetzte Qualifikationen

Data Science, Scikit-learn, Apache Spark, Git, Python, Microsoft Azure

DevOps Engineer, Cloud Engineer
Audi AG, Ingolstadt
7/2018 – 3/2019 (9 Monate)
Automobilindustrie
Tätigkeitszeitraum

7/2018 – 3/2019

Tätigkeitsbeschreibung

Durch den digitalen Wandel in der Automobilindustrie – hin zur Elektrifizierung, dem autonomen Fahren sowie der Vernetzung – wird der Anteil an Elektronik und Software im Fahrzeug weiter stark ansteigen. Ein signifikanter Kostentreiber des Gesamtfahrzeugs der Zukunft liegt im Bereich Softwareentwicklung, welche zu großen Teilen von externen Lieferanten zugekauft werden wird.
Ziel dieses Projekts ist es eine Datenbank inclusive Rechenkern zu entwickeln, die durch Datenanalyse und künstliche Intelligenz den Abgleich unterschiedlicher Angebote für Entwicklungskosten ermöglicht.
-Teilprojektleitung, verantwortlich für die technische Konzeption.
-Full-Stack Software Entwicklung.
-Aufsetzen des AWS DevOps und CI / CD Pipelines mit automatisierten Deployment und automatisierten Tests.

Eingesetzte Qualifikationen

Natural Language Processing, Python, Amazon Web Services (AWS), Django

DevOps Engineer, Data Scientist
Deutsche Bahn AG, München
6/2018 – 9/2018 (4 Monate)
Öffentliche Verwaltung
Tätigkeitszeitraum

6/2018 – 9/2018

Tätigkeitsbeschreibung

Es wird ein Tool zur automatischen Ermittlung der Personenkapazität in an den Zugleisen entwickelt. Als Technologie sollte die Video- und Bilderkennung mit Deep Learning und anderen Open Source Produkte im Fokus stehen.
-Aufsetzen des CI / CD Pipeline mit Gitlab und Jenkins
-Erstellung des Deployment mit Docker
-Automatisierte Unit-Test erstellen.

Eingesetzte Qualifikationen

Opencv, Tensorflow, Docker, Jenkins, Python, Django

DevOps Engineer, Entwickler
FIDUCIA & GAD IT AG / BAFI, Frankfurt
6/2017 – 5/2018 (1 Jahr)
Finanzdienstleister
Tätigkeitszeitraum

6/2017 – 5/2018

Tätigkeitsbeschreibung

Alle deutschen Banken haben Meldepflicht an die Bundesbank. Der Vorgang sollte automatisiert werden. Es wird eine Data-Pipeline entwickelt, die die Daten aus den verschiedenen Systemen nehmen, sie bereinigen und bearbeiten. Anschließend werden Meldungen erstellt und automatisch an die Bundesbank geliefert.
-Erstellung und Durchführung von Refactoring der Softwarearchitektur.
-Automatisierte Unit- und Integration-Tests erstellen -Aufsetzen des CI / CD Pipeline mit Jenkins
-Erstellung des Deployment mit Docker und Kubernetes

Eingesetzte Qualifikationen

Docker, Java (allg.), Jenkins, Junit, Spring Framework, Kubernetes

Developer, Data Scientist
msg systems ag, München
1/2017 – 7/2017 (7 Monate)
IT & Entwicklung
Tätigkeitszeitraum

1/2017 – 7/2017

Tätigkeitsbeschreibung

In diesem Projekt wurde ein Anwendungsbeispiel aus dem Bereich IoT mit kleinen Spielzeugautos der Marke Anki OVERDRIVE realisiert. Die Autos besitzen Sensoren und einen Mikroprozessor, um beispielsweise ihre Position und Geschwindigkeit zu messen. Daten und Befehle werden mit Hilfe von Bluetooth-Low-Energy (BLE) an die Fahrzeuge beziehungsweise die Steuerung übertragen.
Die gesammelten Sensordaten wurden in einer Lambda-Architektur, welche hauptsächlich aus Open-Source Softwarelösungen basierte, gespeichert. Von dort aus wurde verschiedene Szenarien, wie beispielsweise Anti-Kollision, implementiert. Ebenfalls Teil des Projektes war die Evaluierung von Frameworks im Bereich maschinelles Lernen und inwiefern damit das Fahrverhalten verbessert werden konnte.
-Design der Lambda-Architektur für die Verarbeitung der Sensordaten
-Präsentationen des Showcases bei Konferenzen und Workshops -Entwicklung Machine Learning Use Cases.
-Erkennung von Anomalien

Eingesetzte Qualifikationen

Apache Spark, Scrum, Python, RTSP (RealTime Streaming Protocol)

Entwickler
Audi AG, Ingolstadt
1/2017 – 6/2017 (6 Monate)
Automobilindustrie
Tätigkeitszeitraum

1/2017 – 6/2017

Tätigkeitsbeschreibung

Eine Webanwendung zur Steuerung wichtiger Kennzahlen soll entwickelt werden. Ein Benutzer kann verschiedene Frames gleichzeitig anzeigen lassen. Jedes Frame beinhaltet entweder Kennzahlen, Berichterstattungen, Kommentare, Grafiken, oder interne Links. Die Daten stammen aus verschiedenen SAP Systemen. Anschließend werden verschiedene Analyse basierend auf die Kennzahlen durchgeführt
-Entwicklung der Datenmodelle
-Entwicklung der Softwarekomponenten
-Erstellen von Mockups in Abstimmung mit Kunden

Eingesetzte Qualifikationen

Oracle-Anwendungen, Git, Java (allg.), Junit, Spring Framework, Representational State Transfer (REST)

Zertifikate

​Certified Scrum Product Owner
2018
​Professional Scrum Master
2017

Ausbildung

International Information Systems
Master of Science
2016
FAU Erlangen Nürnberg
Informatik
Bachelor of Science
2014
Technische Hochschule Ingolstadt

Weitere Kenntnisse

Hier die Liste meiner Kompetenzen:

Programmiersprachen:
-Python
-Scala
-Java

Big Data & Analytics:
-Spark
-Hive
-Impala
-Hadoop
-Kafka
-Cloudera
-Kibana
-DevOps
-Docker
-Kubernetes
-Jenkins
-Maven
-Gradle
-CI / CD
-Github
-Gitlab
-Jira

Machine Learning:
-scikit-learn
-Natural Language Toolkit
-OpenCV
-tensorflow
-kerras
-numpy
-pandas
-matplotlib

Software Entwicklung:
-Python Django
-Spring Stacks
-Google Guice

Cloud Technologien:
-AWS
-Azure

Persönliche Daten

Sprache
  • Deutsch (Muttersprache)
  • Englisch (Fließend)
Reisebereitschaft
DACH-Region
Arbeitserlaubnis
  • Europäische Union
Home-Office
bevorzugt
Profilaufrufe
1794
Alter
33
Berufserfahrung
13 Jahre (seit 08/2012)
Projektleitung
2 Jahre

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden