CONTEXTE :
Notre stack technique est principalement constitué de Python, Spark, SQL, BigQuery, Dataplex pour la qualité des données, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation.
La stack inclut aussi d’autres services de la Google Cloud Platform.
Mission de l’ équipe
1. Déployer les datasets normés sur un ou plusieurs des data domain
2. Accompagner les utilisateurs des datasets normés dans leurs usages
3. Mettre en place le contrôle qualité sur ces datasets
MISSIONS :
Dans un premier temps, la prestation consiste à :
•Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog
• Industrialiser ces contrôles grâce à Terraform et Terragrunt
• Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données
• Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra
En marge de l’objectif de livraison de livraison précédent et en interaction avec les membres de l’équipe, la suite de la mission consiste à :
• Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe
• Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données
•Construire et maintenir de pipelines data robustes et scalables
•Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données
•Organiser et structurer le stockage des données
• Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données
•Construire et maintenir les workflows de la CI/CD
•Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur
• Assurer l’évolutivité, la sécurité, la stabilité des environnements
• Participer aux différentes instances des data ingénieurs
• Contribuer et veiller à la mise à jour de la documentation
•Faire de la veille technologique active dans le domaine
Expertises demandées pour la réalisation de la prestation
• Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data
• Compétences solides en data : structures de données, code, architecture
• Expériences dans la conception et la réalisation de pipelines data
• Expériences dans un environnement du cloud Google (GCP)
• Expériences intégrant BigQuery et Dataplex Universal Catalog
•Expériences intégrant les langages Python et SQL
•Expériences intégrant Spark
•Expériences intégrant des flux avec l’API Collibra
•Expériences intégrant Terraform et Terragrunt
• Expériences intégrant Gitlab et Gitlab CI/CD
•Expériences intégrant les méthodologies Agile : Scrum ou Kanban
• Capacité à vulgariser et à communiquer sur des aspects purement techniques
• Junior : moins de 3 ans d’expérience significative dans le type d’expertise demandé
• Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé
• Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé
Candidature : CV+ LM + Copie des diplômes à envoyer à contact@keoni.fr
Crée en 2008, Kéoni Consulting est une société de conseil et d’ingénierie informatique spécialisée dans le secteur de la banque, de la finance de marché, et de l’assurance, et de l’industrie. Nous sommes le partenaire dans la transformation digitale des grands Comptes. Nous les aidons à transformer leur modèle économique, aligner vos processus opérationnels, sélectionner les meilleures technologies, atténuer et palier les risques liés au digital.
Kéoni Consulting aide les entreprises à :
Faire la différence
Innover et créer
Réinventer votre business
Satisfaire les clients
Gagner en avantages compétitifs
Devenir le leader de leur secteur
Devenir le leader de votre secteur
Notre activité couvre la totalité du cycle de vie des systèmes d’informations (Pilotage et Gestion de projet, Conseil en MOA, Conception, Réalisation, Maintenance, Production Exploitation).