Détails de la mission
Lieu de la mission

Casablanca

Durée

6 mois renouvelable

Date de début

Asap au plus tard sous un mois

Entreprise :

WeLinK est un cabinet de Conseil & Consulting IT fondé en 2011, spécialisé dans le Placement/Head Hunting de freelances IT.

WeLink est actuellement le N°1 des missions freelances au Maroc, et dispose de références solides au Maroc : CAPGEMINI, ATOS, IBM, SOFRECOM, CGI, GFI, Omnidata, SOPRA BANKING, HPS, UMANIS, SQLI, BDSI, WAFA ASSURANCE, DXC, ATTIJARI BANK, CFG BANK, MAJOREL, WEBHELP…
Ainsi que diverses références à l'international.

Depuis sa création, WELINK a pu intervenir sur plus de 600 Missions long termes (> 6 Mois). Quant à notre équipe actuelle, elle dépasse 150 Consultants Freelances IT en mission.

Poste

Pour le compte de notre client, multinationale spécialisée en infogérance et intégration informatique, nous recherchons plusieurs profils Bigdata en Freelance à Casablanca pour une mission de 6 mois renouvelable.
- Expert en Data Gouvernance BIGDATA
- AMOA/Consultants fonctionnels Séniors avec la bonne maîtrise des domaines de la BI/BIGDATA
- PMO BIG DATA
- Architecte DigData Senior

Profil

Ingénieur en informatique de formation (ou équivalent), Possédant une ou plusieurs expériences significatives dans le BigData.
Profil avec 10 ans d'expérience globale.

Compétences techniques requises:

• Maîtriser des aspects fondamentaux du Big Data
• spécialistes dans les nouvelles technologies retenues pour ce projet par exemple Hadoop, Spark, …
• Maîtrise des technologies du Big Data permettant le traitement et la manipulation de données volumineux
(Hadoop, Spark, Kafka…) et ceux-ci doivent être suffisamment sécurisés et lisibles pour les Data Analystes et Data Scientistes,
• Maîtriser les éléments clés liés aux architectures des SI
• Maîtrise de divers systèmes d’exploitation (UNIX, Linux, AIX) et les solutions intégrées (Exadata et Appliance Big Data d’oracle)
• Connaissances en solutions de bases de données (SQL, NoSQL…),
• Maîtriser les infrastructures serveurs (Hadoop, Spark)
• Maîtrise des langages structurés (R, Scala, Python, Java …),
• Forte expertise dans le stockage de données (Data Lake, Delta Lake ...) et les outils ETL.
• Maîtriser le stockage de données, le stockage en mémoire
• Capable de définir les règles d'organisation, de sécurisation et de gestion des données dans le Data Lake/Delta Lake
• Capable de dimensionner besoins en termes d'architecture technique pour répondre aux exigences de niveau de services des use cases
• Mise à jour permanente sur les technologies et langages utilisés dans le but de partager ses connaissances et aider à l’avancement du projet,
Technologies
• Ecosystème Hadoop, Cloudera, HDFS, Hive, HBase, Oracle ;
• Spark, Spark streaming, Kafka ;
• SQL Server, PL SQL, PAAS, IAAS,
• Modèle de donnée Telco compliant TMF ;
• Docker, Kubernetes ;
• Redhat, Linux ;
• Python, R, JAVA, SCALA.

Aptitudes / Qualités personnelles requises :

- Autonomie & Rigueur
- Aisance relationnelle
- Curiosité intellectuelle.