Job Description
Als führender nationaler Audiovermarkter bieten wir Werbekunden ein leistungsstarkes Portfolio und eine ganzheitliche Beratung über alle Audiokanäle – sei es reichweitenstarkes Radio, zielgruppengenaues Targeting über Digital Audio oder Podcastwerbung.
Wir sind leidenschaftlicher Innovationstreiber im Audiowerbemarkt, gestalten für unsere Partner seit vielen Jahren die Entwicklung von Radio zum Multichannel-Medium Audio und prägen den rasant wachsenden Audiomarkt.
Für unsere spannenden Herausforderungen suchen wir echte Teamplayer:innen mit Begeisterung für Audio, die für RMS den Markt mitgestalten möchten. Neben interessanten, anspruchsvollen Aufgaben dürfen sich neue Kolleg:innen bei uns auf ein wertschätzendes Miteinander und viel Freude an der Arbeit in einer modernen New Work Umgebung freuen.
- Du bist verantwortlich für den Betrieb und die Weiterentwicklung des Cloud Data Warehouse / Lakehouse als zentraler Baustein unserer Datenstrategie
- Du bearbeitest Komponenten entlang der gesamten Datenintegrations-Pipeline: von der Extraktion der Daten aus operativen Systemen und Integration externer Data Provider, über Transformationen, bis hin zur Speicherung
- Du entwickelst komplexe ETL- / ELT-Prozesse gemäß der Stakeholder-Anforderungen und integrierst Daten aus Quellsystemen mit Hilfe von gängigen ETL-Werkzeugen oder Programmiersprachen, z. B. Python, T-SQL, Spark, Synapse Analytics etc.
- Du sicherst und erhöhst die Datenqualität durch die Konzeption automatisierter Datenanalysen sowie den Aufbau und die Integration in Prozesse (Datenqualitäts-Monitoring, Alerting)
- Du erstellst flexible, leicht wartbare Datenmodelle und arbeitest eng mit unseren Data Analysten zusammen, um die Daten für Analysen, Reports und andere Anwendungsfälle bereitzustellen
- Ein erfolgreich abgeschlossenes Studium in einem MINT-Fach oder eine vergleichbare abgeschlossene Ausbildung
- Mindestens 2 Jahre Berufserfahrung im Bereich Data Engineering in der Cloud
- Du verfügst idealerweise über Kenntnisse der Azure Cloud oder sogar über eine Zertifizierung als Azure Data Engineer (DP-203)
- Du bist versiert in höheren Programmiersprachen (v.a. Python) und kannst Erfahrung in der Entwicklung und dem Betrieb von ETL- bzw. ELT-Strecken vorweisen
- Idealerweise verfügst du über Kenntnisse gängiger DevOps Methoden wie CI/CD oder Infrastructure as Code (IaC) Tools wie Terraform
- Ausgeprägte praktische Erfahrung im BI-Umfeld, z. B. bei der Integration und Aufbereitung von Daten
- Verantwortungsbewusstsein, Kommunikationsstärke und sichere Deutschkenntnisse
- Spaß an der Arbeit, eine Hands-on-Mentalität sowie Teamfähigkeit, um unser Team tatkräftig zu unterstützen
- Flexibler Arbeitsort: Arbeiten von zuhause und im modernen, direkt am schönen Fleet gelegenen Büro in zentraler Lage (Winterhude) möglich
- Mobilität wird großgeschrieben: Deutschlandticket für 25€
- Flexible Arbeitszeiten: Individuelle Arbeitszeitmodelle
- Familienfreundlich: Beratungen zu Themen wie Kinderbetreuung, Pflege u.v.m.
- Altersvorsorge: Wir leisten eine attraktive finanzielle Unterstützung bei Abschluss über unseren Vertragspartner
- Urlaub: 30 Tage Urlaub
- Heiligabend und Silvester frei
- Weitere Benefits: moderne Kommunikationsmittel (Laptop und Mobiltelefon), Vergünstigungen bei Fitness- und Shoppingpartnern, kostenlose Getränke und Obst, ein umfassendes Weiterbildungsangebot, Maßnahmen im betrieblichen Gesundheitsmanagement (z.B. höhenverstellbare Schreibtische, Grippeschutzimpfung), regelmäßige Feiern und Events
Zuhören – ist auch im Umgang miteinander unser Zauberwort. Begriffe wie Teamarbeit, gegenseitige Wertschätzung und Verantwortung sind mehr als bloße Worte. Du kannst es erleben: Das freundliche Lächeln am Empfang, der ungezwungene Austausch auf den Fluren, das Wir-Gefühl von Studierenden bis zur Geschäftsführung. Wir leben das tatsächlich. Jeden Tag.
View More