Aufgaben
- Als Microsoft Fabric und Datalake Engineer bist du verantwortlich für das Ingestieren, Transformieren und Verarbeiten großer Datensätze aus unterschiedlichsten Quellen (Dynamics, Dateien, SQL-Datenbanken)
- Eben der Optimierung unserer Datenpipelines und der Spark-Performance für Bronze-, Silver- und Gold-Layer, kümmerst du dich auch um die Migration bestehender Power BI Reports in unsere Fabric Lakehouse-Umgebung
- Du bist sowohl für die Konzeption und Wartung robuster Datenpipelines mit Microsoft Fabric zuständig als auch für die Analyse, Optimierung und Weiterentwicklung bestehender Notebooks (Azure Databricks, PySpark)
- Die Modellierung und Pflege unseres Lakehouse-Datenmodells gehört ebenfalls zu deinen Kernaufgaben
-
Durch die Überwachung der Datenprozesse und die Konfiguration entsprechender Alerts trägst du maßgeblich zur Entwicklung und Pflege der Datenarchitektur bei
Profil
- Du verfügst über fundierte Kenntnisse in Microsoft Fabric, SQL, PySpark, Power BI, Azure Data Factory und Azure Data Lake (ADLS Gen2), wodurch du komplexe Datenherausforderungen souverän meisterst
- Idealerweise hast du bereits Erfahrung mit Python und Azure Databricks gesammelt
- Als echter Teamplayer arbeitest du nicht nur gerne im Team, sondern bringst dich aktiv mit deinen Ideen ein, teilst dein Wissen proaktiv und übernimmst Verantwortung
- Du zeichnest dich durch eine zuverlässige, strukturierte und lösungsorientierte Arbeitsweise aus und schätzt den persönlichen Austausch, den du gerne mindestens einmal pro Woche vor Ort in Ulm oder Stuttgart pflegst
- Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift runden dein Profil ab
Benefits
- Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen Branche
- Ein hoch motiviertes Team und ein offener Kommunikationsstil