Description de l'entreprise
Chez Free, tu trouveras une culture interne singulière et très marquée. Il règne un fort état d’esprit collectif. Le recrutement est ouvert, sans a priori : on ne juge les gens ni sur leur âge, ni sur leur background.
On aime aller vite, faire les choses nous-mêmes, et on mise sur l’autonomie pour être efficace. Tu verras : chez Free, on se sent libre !
Description du poste
Rattaché(e) au Head of Network Automation, le/la Senior Data Engineer / Architect est responsable de la conception de l'architecture globale des données, assurant l'évolutivité et la robustesse des solutions de données.
Il/elle supervise les efforts d'ingénierie des données, met en œuvre des politiques de gouvernance des données, et veille à la qualité et à la gestion des métadonnées.
Ce rôle implique également de travailler en étroite collaboration avec les équipes de data scientists et de DevOps pour assurer une intégration fluide et des performances optimales des solutions de données.
En plus, le rôle inclut un aspect de leadership technique en tant que Tech/Dev Lead. Il/elle assure la supervision technique de l'équipe et ou de la squad de Data Engineers/Devs, guide les meilleures pratiques de développement.
Votre rôle :
Conception de l'architecture: Concevoir l'architecture des lacs de données et des entrepôts, en veillant à ce qu'elle soit évolutive et performante.
Supervision de l'ingénierie des données: Superviser le développement et l'optimisation des pipelines de données, des API RESTful, et des processus ETL.
Gouvernance des données: Mettre en œuvre des politiques de gouvernance des données, assurer la qualité des données et gérer les métadonnées.
Collaboration technique: Travailler en collaboration avec les équipes de data science et de DevOps pour intégrer les solutions de données dans l'infrastructure existante.
Leadership technique: Fournir un encadrement technique aux ingénieurs de données, résoudre des
Qualifications
Compétences requises :
Architecture de données : Expertise dans la conception de data lakes et data storage, avec une connaissance des architectures Lambda et Kappa.
Traitement des données & ETL: Maîtrise des outils comme Apache Nifi, Talend, Apache Kafka, Airflow pour l'ingestion et le traitement des données.
Technologies de bases de données: Expérience avec ClickHouse pour le stockage et la requête de données à grande échelle.
Gouvernance des données: Expérience avec des outils comme Collibra, Alation pour la gestion des données et la qualité des métadonnées.
Développement et Scripting: Compétences en Python, Java, Scala pour le développement et l'automatisation.
Plateformes Cloud: Connaissance des plateformes AWS, Azure, GCP pour le stockage et le traitement des données.
Leadership technique: Expérience en gestion technique d'équipes, résolution de problèmes techniques complexes, et encadrement des meilleures pratiques de développement.
Soft-skills :
Informations complémentaires
Avantages :
Carte restaurant SWILE (10,5€ par jour pris en charge à 60%)
Intéressement/Participation
Télétravail jusqu'à 6 jours par mois (après phase d’intégration)