What are the responsibilities and job description for the Publicis Media - Data Engineer (m/w/d) - deutschlandweit position at Publicis Groupe?
Unternehmensbeschreibung
Publicis Media ist das weltweit zweitgrößte Mediaagenturnetzwerk und Teil des französischen Kommunikationskonzerns Publicis Groupe. Als globale Holding lebt Publicis Media durch seine globalen Agenturmarken Zenith, Starcom und Spark, die das Kundengeschäft in der strategischen Kommunikationsberatung in über 100 Ländern steuern und ständig weiterentwickeln. Darüber hinaus unterstützen bei Publicis Media zentrale Spezialistenteams die Kunden der Agenturen in den Bereichen: Data und Technology, Analytics und Insights, Research, Content, Performance, Buying und Business Development.
Stellenbeschreibung
In unseren (globalen) Projekten übernimmst du die Expertenrolle für jegliche Fragen zum Thema Data Pipelines und evaluierst bzw. überführst Anforderungen an eine Schnittstelle in ein technisches Konzept. Du arbeitest eng mit unseren jeweiligen Spezialistenteams zusammen und bist maßgeblich mitverantwortlich für die Weiterentwicklung unserer Datenlandschaft.
Du bist u.a. verantwortlich für:
- Federführende Gestaltung unserer Cloud Data Plattform
- Weiterführendes Design & Architektur unseres Data Lakes
- Optimierung / Weiterentwicklung bestehender, sowie neuer Data Pipeline Prozesse
- Analyse sämtlicher Datenschnittstellen und Überführung in die Gesamtarchitektur der Data Plattform
- Übergabe von Betrieb,- und (teil) Entwicklungsthemen an das Offshore-Team
- Das Etablieren und Gewährleisten von Standards, Qualität, Stabilität und Robustheit entlang der gesamten Prozesskette
Qualifikationen
- Du hast Experten-Knowhow im Bereich Python, (Azure) Databricks & DeltaLake
- Du bringst ein sehr gutes Datenverständnis mit und verfügst über fundierte Kenntnisse in der Datenmodellierung sowie der performanten und effizienten Verarbeitung dieser
- Dir sind verschiedenste Modellierungsansätze von Data Lake, Data Lakehouse und Datawarehouse nicht fremd und du kannst Anforderungen entsprechend zuordnen
- Die Handhabung von csv, json, avro, parquet Dateiformaten ist für dich nicht neu
- Du hast idealerweise Erfahrungen in der Nutzung & Konfiguration von Spark sowie den Umgang mit Spark Clustern
- Kenntnisse gängiger DWH Lösungen (Synapse, Snowflake, Exasol) sowie Erfahrungen im Azure Umfeld (Logical Apps, Blob Storages, Data Factories …) sind wünschenswert
- Du besitzt ein hohes Verantwortungsbewusstsein, Selbstständigkeit und Eigeninitiative mit ‚Hands-On‘ Mentalität
- Du verfügst über eine hohe technische Affinität und eine ausgeprägte analytische Denkweise
- Du bist offen für innovative Themen, bringen Neugier & Lernwilligkeit mit
- Du kommunizierst verhandlungssicher in Deutsch und Englisch
Zusätzliche Informationen
- Hohen Arbeitskomfort: Moderne lichtdurchflutete Bürogebäude und Arbeitsplätze im Zentrum Düsseldorfs mit sehr guter Verkehrsanbindung
- Weiterbildung und Karriere: Kontinuierliche Aus- und Weiterbildung unserer Mitarbeiter/innen im Rahmen von Marcel Classes sowie vielfältige Karriereperspektiven in einem der weltweit größten Agenturnetzwerke
- Perspektive: Unbefristeter Arbeitsvertrag von Beginn an
- Feel-Well: Kostenlosen Agentursport, Getränke Flatrate, frisches Obst und Massagen
- Mobile Office: Modernste Technologien ermöglichen ein ortsunabhängiges und flexibles Arbeiten
- Echten Teamspirit: Hohe Kollegialität und Spaß an der Arbeit sowie gemeinsame Feiern und Event