Détails de la mission
Lieu de la mission

Casablanca (Hybride)

Durée

6 mois renouvelables

Date de début

ASAP au plus tard sous un mois

Entreprise :

WeLinK est un cabinet de Conseil & Consulting IT fondé en 2011, spécialisé dans le Placement/Head Hunting de freelances IT.

WeLink est actuellement le N°1 des missions freelances au Maroc, et dispose de références solides au Maroc : CAPGEMINI, ATOS, IBM, SOFRECOM, CGI, GFI, Omnidata, SOPRA BANKING, HPS, UMANIS, SQLI, BDSI, WAFA ASSURANCE, DXC, ATTIJARI BANK, CFG BANK, MAJOREL, WEBHELP…
Ainsi que diverses références à l'international.

Depuis sa création, WELINK a pu intervenir sur plus de 600 Missions long termes (> 6 Mois). Quant à notre équipe actuelle, elle dépasse 150 Consultants Freelances IT en mission.

Poste

Pour le compte de notre client, multinationale spécialisée dans l'infogérance et l'intégration informatique, nous recrutons un Data Engineer Databricks pour une mission en Freelance à Casablanca pour une durée de 6 mois renouvelable.

Missions principales:

- Concevoir et développer des pipelines de données ETL/ELT sur Databricks SQL et Spark SQL.
- Migrer et optimiser les architectures Data Lake vers Databricks.
- Assurer la performance, l'optimisation et la gestion des coûts des traitements sur Databricks.
- Mettre en place des pipelines CI/CD pour automatiser le déploiement des traitements de données.
- Collaborer avec les équipes métier et techniques pour comprendre les besoins et proposer des solutions adaptées.
- Garantir la qualité et la robustesse des développements via des tests automatisés et le respect des bonnes pratiques.
- Documenter les process et assurer un transfert de connaissances auprès des équipes.

Profil

Ingénieur en Informatique de formation (ou équivalent), vous justifiez d'une expérience minimale de 4 ans dans un poste similaire.

Compétences techniques requises:

- Expertise sur Databricks et son écosystème (Spark, Delta Lake).
- Bonne maîtrise des architectures ETL/ELT et des principes d’optimisation des traitements Data.
- Expérience en développement d’API et intégration de données.
- Connaissance des outils CI/CD et DevOps (Azure DevOps, Git, Terraform).
- Expérience sur des projets de migration de Data Lake vers Databricks.
- Maîtrise d'autres plateformes Cloud (AWS, GCP).
- Connaissance des outils de visualisation de données (Power BI, Tableau).
- Certification Databricks (un plus).

Aptitudes / Qualités personnelles requises :

- Autonomie et capacité à gérer un projet de bout en bout.
- Bonne communication et capacité à travailler en équipe.
- Esprit analytique et force de proposition