Ce poste est fait pour vous si vous aimez concevoir des architectures robustes, casser des problèmes complexes, et livrer de la donnée propre là où elle compte. Vous rejoignez une équipe technique engagée sur des missions Big Data & Cloud à fort impact, au sein d'environnements clients exigeants de la région Côte d'Azur. Vos missions concrètes : * Développer et maintenir les briques backend de plateformes data à grande échelle * Concevoir des APIs, traitements batch, dashboards et modules de déploiement * Piloter (ou co-piloter) des migrations on-premises → GCP — lift & shift ou réécriture, selon les besoins * Rédiger la documentation technique et les tests (unitaires & fonctionnels) * Livrer du code prêt pour la production — pas des prototypes Votre profil : * 3 ans minimum en environnement Data exigeant * Spark (batch ou streaming) — niveau expert * Python ou Java/Scala — niveau avancé * NoSQL & Kubernetes — maîtrise opérationnelle * À l'aise autant seul·e face à un problème technique qu'en échange avec une équipe pluridisciplinaire Notre société SpikeeLabs est une entreprise de services du numérique spécialisée dans la conception, le développement et l’intégration de solutions logicielles métiers. Elle conçoit des solutions logicielles durables, adaptées aux enjeux métier de ses clients et parfaitement intégrées à leurs systèmes d'information. Sa vocation : faire du numérique un levier concret et efficace au service de la performance des entreprises. Notre expertise s’articule autour de 6 piliers complémentaires : * Réalisation logicielle : développement d’applications sur mesure, back-end et front-end * Intégration de solutions métiers : mise en œuvre de progiciels et plateformes spécifiques * Architecture & Urbanisation : conception d’architectures robustes, évolutives et sécurisées * Infrastructure et Cloud : automatisation, cloud, conteneurisation, supervision, DevOps/SRE * Data & IA : valorisation des données, data engineering, machine learning * Design UX/U