RESPONSABILITÉS : Dans le cadre de l'évolution d'une plateforme data, vous interviendrez sur un ETL développé en Python, capable de traiter et d'injecter de forts volumes de données dans plusieurs bases. La mission débute dans un environnement on-premise avant une transition vers Google Cloud Platform, avec des enjeux forts autour de la performance, de la scalabilité et de la modernisation des traitements. Missions principales • Faire évoluer un ETL Python déployé sur Kubernetes assurant l'injection de volumes importants de données • Assurer la synchronisation entre différentes bases de données • Réaliser l'extraction, la transformation et la mise en forme des données • Gérer l'injection massive de fichiers volumineux • Calculer et produire des KPIs à partir des données traitées • Participer à l'évolution de l'ETL dans un environnement on-premise puis à sa migration vers GCP (notamment Dataflow) Responsabilités • Développer et maintenir des traitements backend en Python • Assurer le déploiement et l'exploitation des applications sur Kubernetes • Garantir la performance, la fiabilité et la scalabilité des traitements de données • Contribuer aux choix d'architecture et à la migration vers le cloud GCP • Collaborer étroitement avec les équipes fonctionnelles et techniques PROFIL RECHERCHÉ : Profil recherché • Très bonne maîtrise de Python avec au moins 4 ans d'expérience en développement • Expérience significative dans le traitement de la donnée (ETL, data pipelines, volumétrie) • Bonne compréhension des enjeux fonctionnels et métiers liés à la data • Solides connaissances de Kubernetes (K8S) • Capacité à évoluer dans des environnements complexes et à forte volumétrie Atouts • Expérience sur Google Cloud Platform (GCP), notamment Dataflow • Connaissance des architectures data distribuées • Sensibilité aux problématiques de performance et de scalabilité