Ingénieur de données

Description du poste

Poste permanent
40h/semaine

Astek recherche pour un de ses clients un Ingénieur de données

Résumé du poste :

En tant qu’ingénieur de données, vous jouerez un rôle central dans l’amélioration de notre infrastructure de données, l’optimisation des pipelines de données et la garantie d’une livraison de données fiable et efficace pour notre organisation. Vous collaborerez avec des équipes interfonctionnelles, comprenant des ingénieurs logiciels, des analystes commerciaux et des chefs de produit, pour concevoir, développer et mettre en œuvre des solutions de données évolutives et robustes. Votre expertise en ingénierie et analyse de données nous permettra d’obtenir des informations précieuses à partir d’ensembles de données complexes, conduisant finalement à une prise de décision éclairée par les données dans toute l’organisation.

Responsabilités:

● Évaluer l’infrastructure de données actuelle : Effectuer une évaluation approfondie de notre infrastructure de données, de nos systèmes et de nos processus existants, en identifiant les domaines d’amélioration.
● Concevoir et développer des solutions de données : Concevoir, créer et déployer des solutions de données évolutives et maintenables, y compris des pipelines de données, des processus ETL/ELT et des entrepôts de données, qui répondent aux besoins en constante évolution de nos exigences en matière d’analyse de données.
● Modélisation et optimisation des données :Concevoir et mettre en œuvre des modèles de données efficaces, garantissant l’intégrité, les performances et l’évolution des données. Optimiser les processus de stockage et de récupération des données pour améliorer les performances globales du système.
● Développement de pipeline de données : Développer et maintenir des pipelines de données robustes, garantissant une extraction, une transformation et un chargement (ETL) fluides et fiables des données provenant de diverses sources dans l’entrepôt de données ou le lac de données.
● Assurance qualité des données : Mettre en œuvre des contrôles de la qualité des données, des validations et des processus de nettoyage pour garantir l’exactitude, la cohérence et la fiabilité des données dans l’ensemble des systèmes d’analyse.
● Collaboration et documentation : Collaborer avec des équipes interfonctionnelles, y compris des ingénieurs logiciels, des analystes commerciaux, des chefs de produit, pour comprendre leurs besoins en données et fournir des conseils techniques. Documenter les processus d’ingénierie des données, les flux de travail et les meilleures pratiques.
● Surveillance et entretien : Surveiller les pipelines de données, identifier et résoudre les problèmes de manière proactive, et assurer la haute disponibilité et les performances des systèmes d’analyse de données. Mettre en œuvre des stratégies appropriées de sauvegarde et de récupération des données.
● Sécurité et conformité : Mettre en œuvre des mesures de sécurité et de confidentialité des données, en respectant les normes de l’industrie et les exigences réglementaires telles que GDPR ou CCPA.
● Amélioration continue: Rester à jour avec les dernières tendances et avancées en matière d’ingénierie et d’analyse de données. Proposer et mettre en œuvre des améliorations et des optimisations pour améliorer l’efficience et l’efficacité globales de notre infrastructure de données.
● La collaboration d’équipe: Travailler en collaboration avec d’autres membres de l’équipe, encadrer des ingénieurs de données juniors ou des passionnés, et participer activement aux initiatives de partage des connaissances et de formation croisée.

Qualifications:

● Baccalauréat ou maîtrise en informatique, en science des données ou dans un domaine connexe.
● Expérience avérée en tant qu’ingénieur de données, de préférence dans un projet similaire ou de migration. Au moins 2 ans d’expérience dans un poste précédent.
● Maîtrise des langages de programmation tels que Python.
● Expérience avec les outils et frameworks de pipeline de données (AirFlow, DBT, Kafka, Stitch, …).
● Connaissance approfondie des bases de données relationnelles et NoSQL, de la modélisation des données et de SQL.
● Familiarité avec les plates-formes de stockage et de traitement de données basées sur le cloud (par exemple, AWS).
● Familiarité avec les outils de reporting décisionnel (Tableau, QuickSight, Looker, …)
● Compréhension des concepts et des technologies d’entreposage de données (par exemple, Snowflake, Redshift, ).
● Maîtrise des systèmes de contrôle de version (par exemple, Git) et des méthodologies de développement agiles.
● Solide compréhension des pratiques de gouvernance, de sécurité et de conformité des données.
● Solides compétences en résolution de problèmes et capacité à travailler dans un environnement en évolution rapide.
● Excellentes compétences en communication, tant à l’oral qu’à l’écrit, en français et en anglais
● Souci du détail et engagement à fournir un travail de haute qualité