Du migrierst Legacy-Datenanwendungen auf Databricks und entwickelst skalierbare Datenverarbeitungslösungen
Du analysierst Daten, erstellst OLAP-Modelle und entwickelst robuste ETL-/ELT-Pipelines
Du bindest verschiedene Quellsysteme an und integrierst Daten in den Konzern Data Lake
Du optimierst bestehende Datenprozesse durch Refactoring, Standardisierung und Qualitätssicherung
Du wirkst an der Standardisierung im Unity Catalog und an architektonischen Konzepten mit
Was du mitbringst
Ein abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science oder einem verwandten Fachgebiet
Erfahrung mit Databricks, Apache Spark oder ähnlichen Datenplattformen
Kenntnisse in ETL-/ELT-Prozessen, Datenmodellierung (z. B. OLAP) und der Anbindung von Quellsystemen
Vertrautheit mit Cloud-Datenarchitekturen
Idealerweise Erfahrung mit dem Unity Catalog oder ähnlichen Data-Governance-Lösungen
Verhandlungssichere Deutschkenntnisse
Analytisches Denkvermögen, eigenständige Arbeitsweise und Teamfähigkeit
Was wir bieten
Darüber hinaus arbeitest Du in einem flexiblen Arbeitszeitmodell
Du erhältst eine persönliche Einarbeitung vor Ort
Wir bilden Dich zum Experten aus und bieten Dir vielfältige Weiterbildungsmöglichkeiten on und off the Job an (z.B. verschiedene Zertifizierungen, univativ e-academy und individuelle Weiterbildungen)
Während Deines Einsatzes hast Du einen persönlichen Ansprechpartner, der als Dein Karrierebegleiter für Dich da ist