AI & Data Engineer – LLM-Pipelines, Python, Azure
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- 1010 Wien
- Weltweit
- de | en
- 28.03.2026
- Contract ready
Kurzvorstellung
Geschäftsdaten
Qualifikationen
Projekt‐ & Berufserfahrung
2/2026 – offen
Tätigkeitsbeschreibung
- Architektur und Entwicklung einer datenschutzkonformen Vertragsanalyse-Pipeline mit austauschbarer LLM-Provider-Abstraktion
- Deployment von Open-Source-LLMs lokal via Ollama sowie auf dedizierter Cloud-GPU-Infrastruktur (Nvidia H100) via vLLM – Daten verlassen zu keinem Zeitpunkt die eigene Infrastruktur
Systematisches Benchmarking von sechs Open-Source-LLMs (8B–72B Parameter) auf Consumer-Hardware und Cloud-GPU-Infrastruktur.
- Kernfrage: Führt Skalierung bei ambigen Dokumenten zu stabileren Klassifikationsergebnissen?
- Methodik und Ergebnisse veröffentlicht auf jngb.online/notes.
IT-Infrastrukturspezialist, Large Language Models
1/2026 – offen
Tätigkeitsbeschreibung
• Eigenprojekt: Konzeption, Architektur und Entwicklung einer SaaS-Plattform zur Identifikation von Nachfolge- und Exit-Signalen in österreichischen KMU
• Aufbau einer 4-stufigen event-driven Pipeline auf Azure Functions mit Cosmos DB Change Feeds: automatisierte Datenerfassung → kanonische Transformation → Mehrjahreskonsolidierung → deterministisches Scoring.
• Entwicklung eines SOAP-API-Collectors zur Erfassung von XML-Jahresabschlüssen aus dem österreichischen Firmenbuch (JustizOnline) mit Upload in Azure Blob Storage.
• Design und Implementierung eines regelbasierten Scoring-Systems mit 11 Signalen über 3 Dimensionen (Nachfolge, Unternehmensqualität, Verhaltens-Signale).
• Integration der Anthropic Claude API zur automatisierten Generierung von Unternehmens-Narrativen.
• Tech-Stack: Python, Azure Functions, Cosmos DB, Azure Blob Storage, FastAPI, Chart.js, Anthropic Claude API
Microsoft Azure, Python
9/2025 – offen
Tätigkeitsbeschreibung
• Eigenprojekt: Konzeption, Architektur und Entwicklung einer KI-gestützten SaaS-Plattform zur Aggregation, Anreicherung und semantischen Suche von Unternehmensverkaufsangeboten in 5 europäischen Ländern – vollständig in Eigenregie.
• Entwicklung von 6 automatisierten Web-Scrapern inkl. Change Detection, containerisiert mit Docker und orchestriert via systemd auf Linux (robots.txt-konform, SHA-256 Hashing, Versionierung).
• Architektur einer 5-stufigen event-driven ETL-Pipeline auf Azure Functions mit Cosmos DB Change Feeds über 7 Datenbanken und 20+ Container.
• Integration von GPT-4 (Azure OpenAI) zur automatisierten Kategorisierung, Klassifikation (EU-KMU, NACE-Codes) und Zusammenfassung unstrukturierter Angebotsdaten.
• Implementierung vektorbasierter semantischer Suche mit Azure AI Search (4 Embedding-Felder) und Cohere-Reranking für multilinguales Retrieval.
• Entwicklung von 3 Web-Applikationen: Investoren-Marktplatz mit Semantic Search (DeepDive), Analytics-Dashboard (InsightSuite) und öffentlicher Marktplatz (OwnThis) – FastAPI-Backend, modulares Vanilla-JS-Frontend, Firebase Auth.
• Tech-Stack: Python, Azure Functions, Cosmos DB, Azure AI Search, Azure OpenAI (GPT-4, Embeddings), Cohere, PostgreSQL, FastAPI, Docker, Linux, Firebase
Debian Linux, Docker, Microsoft Azure, Postgresql, Python, SQL
nicht angegeben
10/2023 – 9/2025
TätigkeitsbeschreibungMitentwicklung eines Datenqualitäts-Frameworks über mehrere Unternehmenssysteme hinweg. Mitwirkung an der Enterprise-Architekturplanung für ein großes eCommerce-Marktplatzprogramm.
Ausbildung
Wien
Mailand
Wien
Über mich
Weitere Kenntnisse
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden
