Data Analyst

Certification RNCP37429
Formacodes 31025 | Data analytics
Nomenclature Europe Niveau 6
Les métiers associés à la certification RNCP37429 : Études et développement informatique

Codes NSF 326 | Informatique, traitement de l'information, réseaux de transmission
Voies d'accès : Formation initiale Contrat d'apprentissage Formation continue Contrat de professionnalisation VAE

Prérequis : Aucun diplôme n’est exigé. Il faut être majeur et disposer de certains prérequis techniques : - être à l’aise dans l’utilisation des outils informatiques en général, des tableurs en particulier (feuilles de calcul comme Microsoft Excel ou Google Sheet), -

Certificateurs :
Certificateur SIRET
WILD CODE SCHOOL 79492606300247


Activités visées :
Le data analyst transforme les données brutes en informations pertinentes permettant la prise de décision.
Pour cela, il est amené à pratiquer les activités suivantes : * Il identifie et analyse des besoins d’entreprises, d’organisations et d’utilisateurs concernant des utilisations de données.
* Il définit et propose une stratégie de prise de décision par les données suivant les besoins métier * Il traduit des datas afin de les rendre utilisables et exploitables en fonction des besoins et objectifs d’utilisateurs.
* Il analyse des bases de données, effectue des traitements et des analyses sur des données existantes.
Il réalise des tableaux de bord (dashboards) d’organisations.
* Il conçoit et structure les étapes de collecte et de traitement de données pour les optimiser au mieux.
* Il effectue des requêtes et il modifie les bases de données grâce au langage SQL.
* Il réalise des agrégations, des jointures et des sous-requêtes sur des bases de données relationnelles SQL.
* Il automatise des collectes de contenu sur des pages web (scraping HTML), et effectue des requêtes grâce aux API REST.
* Il prend en compte les enjeux du RGPD et les responsabilités de chacun liées à la collecte, au traitement et à l’utilisation de données.
* Il sélectionne, paramètre, utilise des logiciels de rédaction et d'exécution de code * Il participe activement à la gestion d’un projet “data”, en utilisant les méthodologies modernes (agile, scrum, etc…) * Il utilise différents algorithmes, notamment en langage Python (variables, boucles, itérateur, conditions, fonctions), se sert des structures de données pour effectuer des analyses.
* Il effectue des calculs matriciels (NumPy), utilise les DataFrames (Pandas) pour la création, l’import, la manipulation, le retraitement de données et de valeurs.
* Il interprète des données, utilise des plateformes de data science (de type KNIME, dataiku), les statistiques descriptives pour analyser des datas.
* Il explique des résultats d’analyses de datas, différencie les corrélations et les causalités en développant son sens critique par rapport à la science.
* Il réalise des Dashboards (tableaux de bords) avec des logiciels adaptés et définit des cartographies (Folium) de collecte et de compilation de données.
* Il utilise des tableurs (de type Excel) et réalise des tableaux croisés dynamiques afin de permettre à des utilisateurs d’effectuer des requêtes sur des datas spécifiques.
* Il accompagne des utilisateurs et des équipes dans l’utilisation d’outils, dans des recherches, des interprétations de données brutes et retraitées.
* Il analyse des utilisations d’outils et datas retraitées par des utilisateurs afin de proposer des évolutions et améliorations des outils.
* Il identifie des possibilités d’amélioration des recherches et exploitations de datas par des organisations et des utilisateurs.
* Il relaie l’information au sein de son équipe en utilisant une communication efficace et adaptée.
* Il réalise une veille permanente sur la date, se forme aux nouveaux outils et fait évoluer sa pratique.
* Il conseille les utilisateurs sur la protection des données, sur l’éthique des algorithmes, sur la prise en compte du handicap et la responsabilité numérique de chacun.Il/elle présente à l'oral et à l'écrit de manière claire, concise et sans ambiguïté, les informations.

Capacités attestées :
* Identifier les possibilités d’utilisation des données, en fonction des besoins métier, en étant force de proposition dans l'exploration, l'évaluation de la qualité et l’interprétation de ces données
* Définir une stratégie de prise de décision par les données suivant les besoins métier
* Modéliser des bases de données relationnelles
* Réaliser des requêtes avancées répondant à des besoins métier complexes
* Automatiser des collectes de données
* Mettre en place une interface standard de partage automatique de données entre différentes applications et langages
* Contrôler les modalités de collecte et d’utilisation de données et mesurer les enjeux du RGPD
* Effectuer des choix méthodologiques pour l'automatisation des traitements et les documenter avec clarté et concision
* Utiliser les outils et méthodes modernes : méthodes agiles afin de permettre le travail en équipe, outils de suivi de projets, logiciel adapté à la rédaction de code
* Manipuler des structures de données et utiliser l’algorithmie afin de traduire en script des besoins de traitements de données
* Appliquer les bonnes pratiques de la programmation afin d'avoir un code organisé, réutilisable et partageable
* Utiliser les tableaux de données afin de faciliter l’import, la manipulation et la fusion de données
* Nettoyer les données, retraiter les valeurs aberrantes (outliers) et les valeurs manquantes
* Utiliser les expressions régulières (RegEx) pour traiter les valeurs textuelles et permettre une anonymisation des données personnelles dans le cadre du RGPD
* Utiliser les statistiques descriptives afin de modéliser les données
* Maîtriser le process d’apprentissage automatique (Machine Learning)
* Modéliser des régressions afin de définir des modèles de prévisions, et de trouver des tendances futures
* Modéliser des classifications et interpréter les métriques associées afin de catégoriser automatiquement des informations
* Traiter automatiquement le langage naturel (NLP) à partir de texte brut
* Contrôler et documenter les biais d'un modèle et des données d'entrainement afin d’estimer les risques éthiques
* Identifier et prioriser les informations à rendre accessibles et à présenter visuellement
* Utiliser les visualisations descriptives afin de représenter graphiquement des données statistiques et des informations modélisées
* Manipuler la Dataviz interactive et dynamique
* Réaliser de la cartographie
* Utiliser un Tableur afin de proposer des croisements de variables pour obtenir des informations recherchées
* Réaliser des tableaux de bord avec des outils de Business Intelligence afin d’intégrer et de croiser des informations utiles à des approches stratégiques de problématiques
* Prendre en compte les handicaps visuels afin de produire des graphiques lisibles par tous
* Présenter à l'oral et à l'écrit de manière claire, concise et sans ambiguité les informations

Secteurs d'activité :
Le data analyst exerce son activité dans tous les secteurs d’activités. Il peut aussi bien être recruté par des industries, des grandes entreprises, des entreprises du secteur financier, que par des commerces ou même des organisations médicales ou paramédicales.

Types d'emplois accessibles :
- data analyst - consultant/analyst BI (Business Intelligence) - business analyst


Objectif contexte :
Les compétences de data Analyst sont parmi les plus demandées sur le marché. L’OPIIEC (Observatoire des métiers du numérique) indique une augmentation de + 51,7% d’offres d’emploi sur un an (Janv.2022, agrégation des sites d’offres d’emplois, données du m

Statistiques : :
Année Certifiés Certifiés VAE Taux d'insertion global à 6 mois Taux d'insertion métier à 2 ans
2021 31 0 100
2020 19 0 100 100

Bloc de compétences

RNCP37429BC04 : Visualisation des données : valorisation et interprétation des données pertinentes, et mise en forme dans un tableau de bord
Compétences :
Identifier et prioriser, en fonction du besoin métier, les informations à rendre accessibles et à présenter visuellement, afin de structurer des représentations graphiques de tableaux bord Utiliser les visualisations descriptives, notamment les nuages de points, les boîtes à moustache et les histogrammes afin de représenter graphiquement des données statistiques et des informations modélisées à destination d’analyste de données Manipuler la Dataviz interactive et dynamique (par exemple avec Plotly ou Bokeh) afin de réaliser différents types de représentations graphiques et visuelles de données à destination d’utilisateurs opérationnels Réaliser de la cartographie (notamment avec Folium) afin de représenter des informations géographiques Utiliser un Tableur, et notamment les tableaux croisés dynamiques afin de proposer des croisements de variables pour obtenir des informations recherchées Réaliser des tableaux de bord avec des outils de Business Intelligence (par exemple PowerBI ou Tableau) afin d’intégrer et de croiser des informations utiles à des approches stratégiques de problématiques Prendre en compte les handicaps visuels afin de produire des graphiques lisibles par tous Présenter à l'oral et à l'écrit de manière claire, concise et sans ambiguité les informations
Modalités d'évaluation :
Mise en situation professionnelle : Présentation d’un Tableau de bord réalisé à partir de besoins d’un client Cadre de mise en œuvre et de déroulement de l’évaluation : Les candidats doivent présenter individuellement un tableau de bord réalisé à partir d’un cahier des charges détaillant, à partir de bases de données existantes, des objectifs et des attentes en termes de présentations graphiques et visuelles d’informations et de données croisées.
RNCP37429BC03 : Modélisation des données structurées : identification des corrélations existantes et utilisation du Machine Learning pour établir des prévisions
Compétences :
Utiliser les statistiques descriptives afin de modéliser les données et en faire émerger des informations pertinentes Maîtriser le process d’apprentissage automatique (Machine Learning) afin de permettre à des algorithmes d’apprendre automatiquement à partir de données : syntaxe, découpage jeu d’entrainement et de validation, entrainement, prédiction, mesure Modéliser des régressions et interpréter les métriques associées afin de définir des modèles de prévisions, et de trouver des tendances futures pour des valeurs numériques Modéliser des classifications et interpréter les métriques associées afin de catégoriser automatiquement des informations Traiter automatiquement le langage naturel (NLP) à partir de texte brut afin d’en tirer de la valeur en fonction de classification (Analyse de sentiments) Contrôler et documenter les biais d'un modèle et des données d'entrainement afin d’estimer les risques éthiques de ce modèle, notamment dans le cas d'usages de données personnelles Communiquer et vulgariser le fonctionnement interne d’un algorithme d’apprentissage automatique afin d’éviter le phénomène de “boite noire”
Modalités d'évaluation :
Mise en situation professionnelle : Modélisation de données structurées et détermination de prévisions Descriptif de l’évaluation : Les candidats doivent présenter individuellement une proposition de modélisation de données structurées permettant de décrire les données de manière simple, d’en tirer des tendances, de prévoir des valeurs futures, et d'en interpréter les résultats.
RNCP37429BC02 : Automatisation du traitement des données : nettoyage, complétion, correction, uniformisation
Compétences :
Effectuer des choix méthodologiques pour l'automatisation des traitements et les documenter avec clarté et concision Utiliser les outils et méthodes modernes : méthodes agiles afin de permettre le travail en équipe, outils de suivi de projets, logiciel adapté à la rédaction de code Manipuler des structures de données (chaînes de caractères, listes, dictionnaires et tuples) et utiliser l’algorithmie (variables, boucles, itérateur, conditions, fonctions) afin de traduire en script des besoins de traitements de données Appliquer les bonnes pratiques de la programmation afin d'avoir un code organisé, réutilisable et partageable dans un cadre professionnel Utiliser les tableaux de données (notamment les DataFrames avec Python et Pandas) afin de faciliter l’import, la manipulation et la fusion de données Nettoyer les données, retraiter les valeurs aberrantes (outliers) et les valeurs manquantes afin d’éviter les impacts sur l’exploitation et le traitement des bases de données Utiliser les expressions régulières (RegEx) pour traiter les valeurs textuelles et permettre une anonymisation des données personnelles dans le cadre du RGPD
Modalités d'évaluation :
Mise en situation professionnelle : Structuration d’outils / programmes de traitement de données selon des objectifs Cadre de mise en œuvre et de déroulement de l’évaluation : Les candidats doivent, à partir d’objectifs définis de traitement de données, structurer des outils et utiliser des algorithmes afin de manipuler des tableaux de données, et automatiser le nettoyage notamment des valeurs manquantes et aberrantes. Evaluation individuelle des candidats par un examinateur
RNCP37429BC01 : Collecte des données : exploration et requêtage des différents types de bases de données, et récupération des données
Compétences :
Identifier les possibilités d’utilisation des données, en fonction des besoins métier, en étant force de proposition dans l'exploration, l'évaluation de la qualité et l’interprétation de ces données Définir une stratégie de prise de décision par les données suivant les besoins métier Modéliser des bases de données relationnelles (notamment SQL) afin de répondre avec rigueur aux besoins des utilisateurs Réaliser des requêtes avancées répondant à des besoins métier complexes : agrégations, jointures, vues et sous-requêtes en s'assurant de l'intégrité des données Automatiser des collectes de données afin d’exploiter les contenus et les informations récoltées sur des pages web ("web scraping") en s'assurant du respect de la réglementation en vigueur Mettre en place une interface standard de partage automatique de données entre différentes applications et langages (par exemple avec API REST) Contrôler les modalités de collecte et d’utilisation de données et mesurer les enjeux du RGPD afin d’estimer les risques et les responsabilités de chacun
Modalités d'évaluation :
Mise en situation professionnelle : Mise en place d’une collecte de données Cadre de mise en œuvre et de déroulement de l’évaluation : Les candidats sont évalués individuellement lors de la réalisation d’une mise en situation au cours de laquelle ils doivent effectuer des recherches à partir de questions proposées, et automatiser la récupération des données depuis une base de données.
Partenaires actifs :
Partenaire SIRET Habilitation
INNOV'EDUC 79492606300254 HABILITATION_ORGA_FORM
INNOV'EDUC 79492606300296 HABILITATION_ORGA_FORM
INNOV'EDUC 79492606300080 HABILITATION_ORGA_FORM
WILD CODE SCHOOL 79492606300247 HABILITATION_ORGA_FORM
WILD CODE SCHOOL 79492606300262 HABILITATION_ORGA_FORM
WILD CODE SCHOOL 79492606300320 HABILITATION_ORGA_FORM

Select your color
Light/dark Layout