
Cloud Engineer / Software Engineer / DevOps Engineer
- Verfügbarkeit einsehen
- 0 Referenzen
- 105€/Stunde
- 85055 Ingolstadt
- DACH-Region
- de | en
- 02.04.2025
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
1/2021 – 1/2025
Tätigkeitsbeschreibung
-Entwurf der Systemarchitektur der Datenplattform.
-Vergleich von On-Premises- vs. Cloud-Lösungen sowie verschiedene Cloud-Optionen, einschließlich Hybrid- vs. vollständige Cloud, AWS vs. Azure.
-Einrichtung der CI/CD-Pipeline, automatisierter Unit-/Integrationstests und Bereitstellung.
-Analyse und Entwurf der Datenarchitektur.
-Einrichtung des Netzwerkmanagements und der Netzwerksicherheit.
Anforderungsanalyse mit verschiedenen Stakeholdern.
Systemumgebung: Power BI, Azure Data Factory, Databricks, Azure Data
Lake Gen2, Azure Functions, GitHub Actions, Python, Flask, Azure
Machine Learning, Linux, Azure DevOps
IT-Spezialist
10/2020 – 10/2022
Tätigkeitsbeschreibung
Der Kunde möchte das Kundenerlebnis während der Fahrt verbessern, indem er Fahrer über mögliche Probleme informiert und deren Fragen korrekt und ohne Verzögerung beantwortet. Wir entwickeln ein sprachbasiertes KI-System, das Spracherkennung und Natural Language Understanding (NLU) nutzt, um mit den Kunden im Auto zu kommunizieren. Das System liefert alle benötigten Informationen per Sprachoutput an den Nutzer.
Technische Umsetzung:
Einrichtung der CI/CD-Pipeline, automatisierter Unit-/Integrationstests und Bereitstellung mit Azure und GitHub Actions.
Integration von kontinuierlichen Sicherheits-Scans und Schwachstellenberichten in den Softwareentwicklungsprozess.
Festlegung der Softwarearchitektur.
Vorbereitung der Anwendungen für die Cloud mit Azure Functions.
Anforderungsanalyse mit verschiedenen Stakeholdern.
Automatisierte Bereitstellung der Infrastruktur mit Terraform.
Systemumgebung: Bandit, Swagger, Pylint, SQL, Excel VBA, Makros, Terraform, Azure
Functions, Azure, GitHub Enterprise, Python, Flask, CI / CD, Pytest,
Unit test, Linux, PowerShell, Jira, Confluence, REST-API, Azure
DevOps
DevOps, Microsoft Azure, Python, Test Automation
5/2019 – 9/2020
Tätigkeitsbeschreibung
Deutsche Börse AG (DBAG) entwickelt den Serviceplattform Buy-In Agent für die Clearing-Mitglieder, Deutsche Börse Group (DBG) Kunden und andere Marktteilnehmer um eine Lösung für nicht-zentralisierte verrechnete Wertpapiertransaktionen zu ermöglichen. Dadurch werden tägliche Datenverarbeitung im hohen Bereich in Real Time aufgenommen, verarbeitet und analysiert.
- Aufsetzen des Cloudera on-premise DevOps Pipelines mit CI / CD, automatisierten Unit- / Integration-Tests und Deployment
- Erstellung der Architektur
- Entwicklung der Spark Jobs
- Bereitstellung der Anwendung mit Docker und Kubernetes - Aufsetzen des Data-Streaming-Pipelines
Apache Hadoop, Apache Spark, Docker, Git, Java (allg.), Jenkins, Jira, Junit, Python, Scala, Spring Framework, RTSP (RealTime Streaming Protocol), Amazon Web Services (AWS), Kubernetes
3/2019 – 6/2020
Tätigkeitsbeschreibung
Wir entwickeln ein vollautomatisiertes System für die Identifikation und Klassifizierung der Fahrsituationen mit dem Ziel, manuelle Arbeit und die damit entstandenen Kosten zu sparen. Für die Analyse verwenden wir Anomalie-Erkennung um die gesamte Zeitreihe in kleinere Situationen zu schneiden. Anschließend verwenden wir Unsupervised Learning und Hierachical Clustering um die ähnliche Situationen in gleichen Gruppen zu sortieren. Das Ergebnis wird durch eine interaktive Webseite dargestellt.
- Deployment der Anwendung in die Azure Cloud.
- Clustering der Zeitabschnitten unter Anwendung von Machine Learning Methoden.
- Scaling der Methode mithilfe von Big Data Technologien.
Data Science, Scikit-learn, Apache Spark, Git, Python, Microsoft Azure
7/2018 – 3/2019
Tätigkeitsbeschreibung
Durch den digitalen Wandel in der Automobilindustrie – hin zur Elektrifizierung, dem autonomen Fahren sowie der Vernetzung – wird der Anteil an Elektronik und Software im Fahrzeug weiter stark ansteigen. Ein signifikanter Kostentreiber des Gesamtfahrzeugs der Zukunft liegt im Bereich Softwareentwicklung, welche zu großen Teilen von externen Lieferanten zugekauft werden wird.
Ziel dieses Projekts ist es eine Datenbank inclusive Rechenkern zu entwickeln, die durch Datenanalyse und künstliche Intelligenz den Abgleich unterschiedlicher Angebote für Entwicklungskosten ermöglicht.
-Teilprojektleitung, verantwortlich für die technische Konzeption.
-Full-Stack Software Entwicklung.
-Aufsetzen des AWS DevOps und CI / CD Pipelines mit automatisierten Deployment und automatisierten Tests.
Natural Language Processing, Python, Amazon Web Services (AWS), Django
6/2018 – 9/2018
Tätigkeitsbeschreibung
Es wird ein Tool zur automatischen Ermittlung der Personenkapazität in an den Zugleisen entwickelt. Als Technologie sollte die Video- und Bilderkennung mit Deep Learning und anderen Open Source Produkte im Fokus stehen.
-Aufsetzen des CI / CD Pipeline mit Gitlab und Jenkins
-Erstellung des Deployment mit Docker
-Automatisierte Unit-Test erstellen.
Opencv, Tensorflow, Docker, Jenkins, Python, Django
6/2017 – 5/2018
Tätigkeitsbeschreibung
Alle deutschen Banken haben Meldepflicht an die Bundesbank. Der Vorgang sollte automatisiert werden. Es wird eine Data-Pipeline entwickelt, die die Daten aus den verschiedenen Systemen nehmen, sie bereinigen und bearbeiten. Anschließend werden Meldungen erstellt und automatisch an die Bundesbank geliefert.
-Erstellung und Durchführung von Refactoring der Softwarearchitektur.
-Automatisierte Unit- und Integration-Tests erstellen -Aufsetzen des CI / CD Pipeline mit Jenkins
-Erstellung des Deployment mit Docker und Kubernetes
Docker, Java (allg.), Jenkins, Junit, Spring Framework, Kubernetes
1/2017 – 7/2017
Tätigkeitsbeschreibung
In diesem Projekt wurde ein Anwendungsbeispiel aus dem Bereich IoT mit kleinen Spielzeugautos der Marke Anki OVERDRIVE realisiert. Die Autos besitzen Sensoren und einen Mikroprozessor, um beispielsweise ihre Position und Geschwindigkeit zu messen. Daten und Befehle werden mit Hilfe von Bluetooth-Low-Energy (BLE) an die Fahrzeuge beziehungsweise die Steuerung übertragen.
Die gesammelten Sensordaten wurden in einer Lambda-Architektur, welche hauptsächlich aus Open-Source Softwarelösungen basierte, gespeichert. Von dort aus wurde verschiedene Szenarien, wie beispielsweise Anti-Kollision, implementiert. Ebenfalls Teil des Projektes war die Evaluierung von Frameworks im Bereich maschinelles Lernen und inwiefern damit das Fahrverhalten verbessert werden konnte.
-Design der Lambda-Architektur für die Verarbeitung der Sensordaten
-Präsentationen des Showcases bei Konferenzen und Workshops -Entwicklung Machine Learning Use Cases.
-Erkennung von Anomalien
Apache Spark, Scrum, Python, RTSP (RealTime Streaming Protocol)
1/2017 – 6/2017
Tätigkeitsbeschreibung
Eine Webanwendung zur Steuerung wichtiger Kennzahlen soll entwickelt werden. Ein Benutzer kann verschiedene Frames gleichzeitig anzeigen lassen. Jedes Frame beinhaltet entweder Kennzahlen, Berichterstattungen, Kommentare, Grafiken, oder interne Links. Die Daten stammen aus verschiedenen SAP Systemen. Anschließend werden verschiedene Analyse basierend auf die Kennzahlen durchgeführt
-Entwicklung der Datenmodelle
-Entwicklung der Softwarekomponenten
-Erstellen von Mockups in Abstimmung mit Kunden
Oracle-Anwendungen, Git, Java (allg.), Junit, Spring Framework, Representational State Transfer (REST)
Zertifikate
Ausbildung
FAU Erlangen Nürnberg
Technische Hochschule Ingolstadt
Weitere Kenntnisse
Programmiersprachen:
-Python
-Scala
-Java
Big Data & Analytics:
-Spark
-Hive
-Impala
-Hadoop
-Kafka
-Cloudera
-Kibana
-DevOps
-Docker
-Kubernetes
-Jenkins
-Maven
-Gradle
-CI / CD
-Github
-Gitlab
-Jira
Machine Learning:
-scikit-learn
-Natural Language Toolkit
-OpenCV
-tensorflow
-kerras
-numpy
-pandas
-matplotlib
Software Entwicklung:
-Python Django
-Spring Stacks
-Google Guice
Cloud Technologien:
-AWS
-Azure
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden