L’ENTREPRISE
Rejoignez une entreprise innovante engagée pour l’avenir de la mobilité électrique !
Spécialisée dans la décarbonation des transports, cette société simplifie la recharge des véhicules électriques en connectant constructeurs automobiles, opérateurs d’infrastructures et services de mobilité à travers une plateforme unique.
Chiffres clés :
• 500 000 points de recharge dans plus de 30 pays.
• 100 millions de sessions de recharge par an.
• Des milliers de contrats d’itinérance opérés et des millions de transactions gérées.
Depuis plus de 10 ans, ils sont au cœur des échanges, collectant et analysant des données pour aider leurs clients à réussir leur transition énergétique et à développer des solutions de mobilité durable.
Avec une roadmap ambitieuse, ils développent de nouveaux services innovants grâce à la data-science et l’intelligence artificielle, tout en garantissant une expérience utilisateur optimale.
Pourquoi les rejoindre ?
- Contribuer à un secteur d’avenir en pleine croissance
- Travailler sur des défis techniques stimulants dans un environnement innovant
- Prendre part à un projet à impact, pour une mobilité plus durable et accessible à tous
- Un environnement stimulant et collaboratif
- Une stack moderne sur GCP avec une forte culture engineering
- Des projets variés à fort impact métier
- Un rôle clé pour bâtir la mobilité de demain
LA MISSION
Dans le cadre du renforcement de l’équipe data, ils recherchent un·e Data Engineer pour construire et maintenir des pipelines de données robustes, tout en participant au développement de solutions analytiques sur GCP et Tableau. Une sensibilité DataOps est indispensable pour assurer des livraisons fiables et scalables. Des compétences en statistiques et en Machine Learning seront des atouts importants dans une logique de collaboration étroite avec les data scientists et analysts.
Missions principales :
- Développer, maintenir et monitorer des pipelines de données sur GCP (BigQuery, Dataflow, Cloud Composer…)
- Implémenter des pratiques DataOps (CI/CD, testing, versioning, monitoring)
- Construire et optimiser les sources de données exploitées dans Tableau pour les équipes métiers
- Appliquer des méthodes statistiques pour valider des données, créer des indicateurs avancés, ou alimenter des modèles analytiques
- Participer à l’intégration et à la mise en production de modèles de Machine Learning
- Documenter les flux de données, les choix techniques, et garantir une bonne gouvernance des données
- Contribuer à la veille technologique et à l’amélioration continue des processus data
PROFIL RECHERCHÉ
Compétences techniques indispensables :
- Expérience d’environ 5 ans sur un poste similaire
- Maîtrise des services data de Google Cloud Platform (BigQuery, Dataflow, Cloud Functions, etc.)
- Solide expérience en Python, SQL et manipulation de données (Pandas, NumPy…)
- Connaissances en statistiques appliquées : analyse exploratoire, tests, indicateurs, modélisation simple
- Maîtrise d’outils de visualisation, en particulier Tableau
- Maîtrise des bonnes pratiques DataOps (CI/CD, monitoring, gestion de versions…)
- Anglais professionnel (écrit et parlé)
Atouts complémentaires :
- Expérience sur des projets de Machine Learning
- Connaissance d’un autre cloud (AWS, Azure)
- Pratiques DevOps, conteneurisation (Docker, Kubernetes), orchestration
Soft skills :
- Rigueur, autonomie, sens de l’initiative
- Esprit d’équipe et culture du partage
- Curiosité technique et veille active
MODALITÉS
- Type de contrat : CDI
- Rémunération selon profil : 45-52K€ en package (fixe+variable)
- Localisation : Sèvres (92) accessible en voiture, métro, tram, bus
- Télétravail : 3 jours / semaine
- Avantages : tickets restaurant, mutuelle, séminaires, salles de sport dans les locaux, crèche…
- Processus de recrutement interne :
- 1 entretien RH en visio (+ test de personnalité)
- 1 entretien avec N+1 en visio
- 1 entretien technique sur site + rencontre équipe
- 1 prise de références