Rabat Technopolis (Hybride)
6 mois renouvelables
ASAP au plus tard sous un mois
WeLinK est un cabinet de Conseil & Consulting IT fondé en 2011, spécialisé dans le Placement/Head Hunting de freelances IT.
WeLink est actuellement le N°1 des missions freelances au Maroc, et dispose de références solides au Maroc : CAPGEMINI, ATOS, IBM, SOFRECOM, CGI, GFI, Omnidata, SOPRA BANKING, HPS, UMANIS, SQLI, BDSI, WAFA ASSURANCE, DXC, ATTIJARI BANK, CFG BANK, MAJOREL, WEBHELP…
Ainsi que diverses références à l'international.
Depuis sa création, WELINK a pu intervenir sur plus de 600 Missions long termes (> 6 Mois). Quant à notre équipe actuelle, elle dépasse 150 Consultants Freelances IT en mission.
Pour le compte de notre client, multinationale spécialisée dans l'infogérance et l'intégration informatique, nous recrutons un Data Engineer Databricks pour une mission freelance de 6 mois renouvelables
Vous interviendrez dans des missions variées telles que :
• Concevoir, développer et maintenir des pipelines de données performants et scalables sur Databricks (PySpark, Delta Lake, MLflow, etc.)
• Mettre en œuvre des architectures Data Lakehouse en lien avec les équipes Data Science et Business Intelligence
• Définir et appliquer les meilleures pratiques en matière de performance, sécurité, et gouvernance des données
• Intégrer Databricks avec les principaux services du cloud (Azure, AWS ou GCP)
• Collaborer avec les équipes métiers pour comprendre les besoins et les traduire en solutions data concrètes
• Mettre en place et maintenir les processus de CI/CD pour les pipelines Databricks (Databricks Repos, Git, DevOps, etc.)
• Former et accompagner les équipes internes sur l’usage de Databricks
• Participer à la veille technologique autour des outils Big Data, IA et Data Engineering
Ingénieur en Informatique de formation (ou équivalent), vous justifiez d'une expérience minimale de 5 ans d’expérience sur Databricks.
• Databricks (environnement workspace, clusters, jobs, notebooks, Delta Lake)
• Langages : Python, PySpark, SQL
• Cloud : Azure (Azure Databricks, ADLS, Synapse, Data Factory) / AWS (Glue, S3, Redshift)
• CI/CD : Git, Azure DevOps, Jenkins ou équivalents
• Data Modeling et optimisation de performance
• Connaissance des frameworks de gouvernance (Unity Catalog, RBAC, sécurité des données)
• Notions de Machine Learning ou MLflow appréciées
• Autonomie et rigueur
• Anticipation et prise d’initiative
• Bonne capacité d’analyse et d’adaptation
• Travail en équipe
• Respect des dates de livraison