Data Analyst GCP

Publiée le 20/10/2020 par FREELANCE VISION

Lieu : Aubervilliers
Durée : 6 MOIS
Tarif : Tarif non renseigné
Télétravail : Non
Début : ASAP

Description de la mission :



Data Analyst GCP - Projet RUN ( 2/3 ans d’exp minimum )

Contexte de la mission

L’objectif du poste Data Analyst RUN dans le service IS&T Fonctions Support se décline en deux missions rassemblées autour de sujets de digitalisation (Data Lake et RPA) :

● Le premier objectif permet de garantir l’exploitation des solutions Data Lake sur GCP mises à disposition aux fonctions support du client. Cette exploitation se traduit par du monitoring d’interfaces, de la maintenance corrective, de la participation à l’évolution des modèles de données mis en place dans Big Query (GCP) et le suivi des évolutions de la demande métier (recueil du besoin) à la mise en production. Ces actions sont réalisées sur les outils GCP Google Cloud Platform alimentés de données en provenance d’outils de service back Office (Finance, Achats, HR, Juridique,...) ainsi que de toutes les solutions développées autour : rapports de data visualisation (Google DataStudio, Google Sheet,...)

● Le deuxième objectif du poste est de maintenir les robots construits sur la technologie RPA UI Path dans un environnement Amazon Appstream.

Objectifs de la mission et tâches

Maintenance Datalake/Big Query (GCP) :

▪ Compréhension de la mécanique d’intégration des données dans le data lake et disponibilité des librairies sous forme de dataset / projet disponible pour modélisation ainsi que le monitoring de l’intégration de ces données.

▪ Compréhension de la modélisation des résultats dans Google Big Query afin de fournir des visualisations pertinentes et/ou détecter la cause d’anomalie. Etre capable d’élaborer des critères de segmentation pour exploiter les données de façon optimale dans un objectif d’amélioration continue.

▪ Participation à la compréhension des problématiques métiers et opérationnelles afin de les traduire dans des dimensions statistiques et algorithmiques. Principalement pour les domaines métier de support (Finance, Achats, HR, )

▪ Corrections/Evolutions de rapports dans des outils de Data visualisation du type Google Data Studio. Etre capable d’analyser des situations d’anomalie et de remonter le fil d’analyse jusqu’à la détection de la cause de l’anomalie.

▪ Reporting au responsable du service Mutual Run sur l’activité de monitoring, de maintenance corrective et de maintenance évolutive.

▪ Maintien de la documentation fonctionnelle et technique suivant les changements apportés lors de la maintenance.

Maintenance RPA (Robotic Automatisation Process)

▪ Compréhension des processus métier Procurement ayant été automatisés avec l’aide d’UI Path à la base de logigrammes ▪ Etre capable de reprendre le script des robots, de l’appréhender et de le modifier si nécessaire. ▪ Monitorer les différentes exécutions des robots à la base des logs techniques, maintenir les statistiques de performance et corriger le script le cas échéant si anomalie. ▪ Corrections/Evolutions à apporter sur les robots qui permettent l’automatisation de processus métier. ▪ Etre en contact direct et quotidien avec les équipes métier responsable des processus automatisés. ▪ Maintien de la documentation fonctionnelle et technique suivant les changements apportés lors de la maintenance.

Maintenance ChatBot

▪ Superviser et monitorer les performances du Chat Bot. ▪ Aider à l’apprentissage du Chat Bot

. ▪ Corriger/Modifier les paramétrages du Chat Bot afin de correspondre au mieux au besoin des utilisateurs.

▪ Paramétrer de nouvelles tables pour élargir le périmètre couvert par le Chat Bot.

▪ Maintien de la documentation fonctionnelle et technique suivant les changements apportés lors de la maintenance.

Gestion des échanges avec les différents partenaires internes sur le volet TMA:

o Suivi des incidents et évolutions avec projet au sein de l’équipe Fonctions Support et avec le métier,

o Echanges avec les autres équipes : Projet, Datalake, Data scientists, Responsables des applications émettrices, autres acteurs de la DSI.

Profil :

Bac + 4 - École d’ingénieur ou équivalent et 2 à 3 ans d’expérience équivalente

Maîtrise de l’exploitation et de l’analyse de données massives

La connaissance des produits Google Cloud Platform, et notamment Google Big Query et Data Studio est indispensable.

Connaissance des conceptes basiques de la programmation est indispensabe et connaissance (Python, Googe Apps Script, SQL, Bash/Shell, etc.) des outils de robotisation (de préférence UI Path) serait un plus.

Au-delà de solides compétences techniques, ce poste requiert une culture scientifique large, une vraie curiosité pour l’ensemble des process opérationnels de l’entreprise (notamment Finance et Procurement) et une capacité à analyser, et modéliser des data dans un environnement cloud.
La connaissance des chatbots en environement GCP et une appétence pour leNLP(NaturalLanguageProcessing) seraient un plus.

La connaissance des process ITIL serait un plus.


Postuler à cette mission :
Si vous cherchez un CDI ou CDD, le jobboard Carriere-info est plus adapté.