Sauvegarder
Postuler
Avec notre client, vous travaillerez à l’avant-garde de l’innovation en matière de données, en collaborant avec des équipes et des parties prenantes de haut niveau pour créer des solutions ayant un impact concret. En utilisant des outils modernes comme Databricks, Unity Catalog, et Azure Cloud, vous aurez l’occasion de façonner l’avenir de notre infrastructure de données.
Ce que vous ferez :
Construire des pipelines de données de nouvelle génération :
- Concevoir, développer et maintenir des pipelines ETL/ELT évolutifs en utilisant Databricks.
- Transformer et traiter des ensembles de données massifs avec PySpark/Spark et SQL.
- Intégrer des données provenant de diverses sources comme Azure Blob Storage, ADLS, et des systèmes relationnels/non-relationnels.
Collaborer et innover :
- Travailler en partenariat avec des équipes interfonctionnelles pour préparer les données destinées aux tableaux de bord et aux outils BI.
- Traduire les besoins d’affaires en solutions de données sur mesure apportant une valeur mesurable.
Optimiser pour la réussite :
- Maximiser la performance et l’efficacité des coûts des charges de travail sur Databricks.
- Assurer la fiabilité et la précision des pipelines de données grâce à une surveillance et un dépannage rigoureux.
Leadership en gouvernance et sécurité :
- Mettre en œuvre des normes de gouvernance des données, de contrôle d’accès et de sécurité en utilisant Unity Catalog.
- S’assurer que les politiques de données respectent les normes organisationnelles et réglementaires.
Simplifier les déploiements :
- Utiliser Databricks Asset Bundles pour des déploiements fluides de tâches, notebooks et configurations.
- Gérer le contrôle de version et promouvoir les meilleures pratiques de développement.
Ce que vous apportez :
Compétences clés :
- Expérience approfondie avec Databricks (Delta Lake, Unity Catalog, Lakehouse Architecture, Delta Live Pipelines, Databricks Runtime).
- Maîtrise des services cloud d’Azure.
- Excellente connaissance de Spark et PySpark pour le traitement de grandes données.
- Solide compréhension des bases de données relationnelles.
- Familiarité avec Databricks Asset Bundles et GitLab.
Compétences souhaitées :
- Expérience avec les environnements Databricks Runtime et les configurations avancées.
- Connaissance des frameworks de streaming comme Spark Streaming.
- Réalisations probantes dans le développement de solutions de données en temps réel.
Certifications (un atout) :
- Azure Data Engineer Associate ou Databricks Certified Data Engineer Associate.
Ce que nous offrons :
- L’opportunité de travailler sur des projets d’envergure en utilisant les dernières technologies de données.
- Collaboration avec des professionnels de l’industrie dans un environnement de travail stimulant et axé sur la croissance.
- La chance de façonner l’avenir de l’infrastructure de données et de faire une différence tangible.
Prêt à franchir la prochaine étape de votre carrière ? Rejoignez une équipe qui valorise l’innovation, la collaboration et l’excellence en ingénierie des données. Postulez dès aujourd’hui pour devenir notre prochain Ingénieur de données Azure et faites partie de quelque chose d’extraordinaire !