Expert en ingénierie des données
Certification RNCP36739
Formacodes 11016 | Analyse données 11052 | Mathématiques appliquées 31028 | Intelligence artificielle
Nomenclature Europe Niveau 7
Formacodes 11016 | Analyse données 11052 | Mathématiques appliquées 31028 | Intelligence artificielle
Nomenclature Europe Niveau 7
Les métiers associés à la certification RNCP36739 : Conseil et maîtrise d'ouvrage en systèmes d'information
Codes NSF 114 | Mathématiques 326 | Informatique, traitement de l'information, réseaux de transmission
Voies d'accès : Formation initiale Contrat d'apprentissage Formation continue Contrat de professionnalisation VAE
Prérequis : L'accès au dispositif menant à la certification d'« expert en ingénierie des données » est soumis au fait de détenir une certification de niveau 6 dans le domaine visé et enregistrée au RNCP. Le dispositif s’adresse à des candidats détenant à minima ce ni
Certificateurs :
Voies d'accès : Formation initiale Contrat d'apprentissage Formation continue Contrat de professionnalisation VAE
Prérequis : L'accès au dispositif menant à la certification d'« expert en ingénierie des données » est soumis au fait de détenir une certification de niveau 6 dans le domaine visé et enregistrée au RNCP. Le dispositif s’adresse à des candidats détenant à minima ce ni
Certificateurs :
Certificateur | SIRET |
---|---|
EFREI PARIS | 39889833800023 |
Activités visées :
Les activités du métier d'« Expert en ingénierie des données » consistent de manière non exhaustive à utiliser les outils de Gestion de données, d’Intelligence Artificielle, de Machine Learning et de Cloud pour le/la : Conception d’architecture de de stockage de données, Développement d’une architecture de stockage de données, Construction de lac de données Traitement et Analyse de données Conception de solution de traitement de données, Développement de solution données, Déploiement d’une solution de traitement des données massives, Transformation de données issues de sources différentes, Optimisation de pipelines, Application de systèmes appropriés en réponse à une demande, Création et automatisation de tests Conception de solutions de traitement de données, Mise en œuvre de solutions de stockage de données dans le cloud, Développement de solution de traitement de données, Exploitation de données, Mise à disposition de données à des fins d’utilisation, Sécurisation de données, Stratégie et Politique de sécurisation de données, Conformité règlementaire, Protection des données et des accès utilisateurs, Optimisation des coûts Extraction de données depuis différentes sources, Analyse exploitation de données avec outils appropriés, Transformation de données selon les besoins définis, Construction de tableaux de bord, reporting, Communication de données et d’indicateurs en temps réel, Implémentation d’algorithmes de machine Learning, Analyse et comparaison d’outils de (machine Learning), Choix d’outils appropriés Définition de stratégie de gestion de données, Application de politique et de standards appropriés pour la gestion des données, Définition de responsabilité et de rôles dans la gestion des données, Veille et amélioration des pratiques en gestion de données par rapport à la règlementation en vigueur, Vérification de la qualité et la fiabilité des données, Valorisation de l’utilisation de la donnée, Elaboration d’une stratégie et une sécurisation des données, politique d’accès
Les activités du métier d'« Expert en ingénierie des données » consistent de manière non exhaustive à utiliser les outils de Gestion de données, d’Intelligence Artificielle, de Machine Learning et de Cloud pour le/la : Conception d’architecture de de stockage de données, Développement d’une architecture de stockage de données, Construction de lac de données Traitement et Analyse de données Conception de solution de traitement de données, Développement de solution données, Déploiement d’une solution de traitement des données massives, Transformation de données issues de sources différentes, Optimisation de pipelines, Application de systèmes appropriés en réponse à une demande, Création et automatisation de tests Conception de solutions de traitement de données, Mise en œuvre de solutions de stockage de données dans le cloud, Développement de solution de traitement de données, Exploitation de données, Mise à disposition de données à des fins d’utilisation, Sécurisation de données, Stratégie et Politique de sécurisation de données, Conformité règlementaire, Protection des données et des accès utilisateurs, Optimisation des coûts Extraction de données depuis différentes sources, Analyse exploitation de données avec outils appropriés, Transformation de données selon les besoins définis, Construction de tableaux de bord, reporting, Communication de données et d’indicateurs en temps réel, Implémentation d’algorithmes de machine Learning, Analyse et comparaison d’outils de (machine Learning), Choix d’outils appropriés Définition de stratégie de gestion de données, Application de politique et de standards appropriés pour la gestion des données, Définition de responsabilité et de rôles dans la gestion des données, Veille et amélioration des pratiques en gestion de données par rapport à la règlementation en vigueur, Vérification de la qualité et la fiabilité des données, Valorisation de l’utilisation de la donnée, Elaboration d’une stratégie et une sécurisation des données, politique d’accès
Capacités attestées :
Les compétences sont réparties dans 4 bocs : 1. Concevoir et développer une architecture de stockage de données 2. Concevoir, développer et déployer une solution de traitement des données massives 3. Implémenter et optimiser des solutions de stockage et de traitement de données sur le cloud 4. Implémenter des méthodes d’intelligence artificielle pour modéliser et prédire de nouveaux comportements et usages. 5. Concevoir une stratégie de management et de gouvernance de données pour transformer les données en informations créatrices de valeur
Les compétences sont réparties dans 4 bocs : 1. Concevoir et développer une architecture de stockage de données 2. Concevoir, développer et déployer une solution de traitement des données massives 3. Implémenter et optimiser des solutions de stockage et de traitement de données sur le cloud 4. Implémenter des méthodes d’intelligence artificielle pour modéliser et prédire de nouveaux comportements et usages. 5. Concevoir une stratégie de management et de gouvernance de données pour transformer les données en informations créatrices de valeur
Secteurs d'activité :
Edition de logiciel - Maketing digital - Web E-Commerce - Technologie et numérique - Santé (Sanofi, la sécurité sociale, Ameli, Bioserentity, etc.) - Energie (Engie, EDF, etc.) - Télécommunication (Bouygues, Orange, SFR, etc.) - Transport (SNCF, RATP, etc. ) - E-commerce (La Redoute, C- discount, vente privée, etc.) - Finance (BNP, BPCE, Société Générale, etc.) - Assurance (Axa, La Mutuelle Générale, Allianz, Directe Assurance, etc.) - Intelligence artificielle (Axi technologies) - Telecom (Bouygues) - Banque (CGI)
Edition de logiciel - Maketing digital - Web E-Commerce - Technologie et numérique - Santé (Sanofi, la sécurité sociale, Ameli, Bioserentity, etc.) - Energie (Engie, EDF, etc.) - Télécommunication (Bouygues, Orange, SFR, etc.) - Transport (SNCF, RATP, etc. ) - E-commerce (La Redoute, C- discount, vente privée, etc.) - Finance (BNP, BPCE, Société Générale, etc.) - Assurance (Axa, La Mutuelle Générale, Allianz, Directe Assurance, etc.) - Intelligence artificielle (Axi technologies) - Telecom (Bouygues) - Banque (CGI)
Types d'emplois accessibles :
Spécialiste base de données - spécialiste blockchain - spécialiste test et validation - ingénieur machine learning - consultant architecte technique - spécialiste infrastructure Data
Spécialiste base de données - spécialiste blockchain - spécialiste test et validation - ingénieur machine learning - consultant architecte technique - spécialiste infrastructure Data
Objectif contexte :
La numérisation et la mémorisation des activités des individus en tant que citoyens, employés, ou clients ont permis l'éclosion d'une nouvelle ère centrée autour de la notion de données. Selon l'IDC (International Data Corporation), l'univers du digital n
La numérisation et la mémorisation des activités des individus en tant que citoyens, employés, ou clients ont permis l'éclosion d'une nouvelle ère centrée autour de la notion de données. Selon l'IDC (International Data Corporation), l'univers du digital n
Bloc de compétences
RNCP36739BC04 : Implémenter des méthodes d’intelligence artificielle pour modéliser et prédire de nouveaux comportements et usages.
Compétences :
Extraire des données en provenance de systèmes d’information multivariés pour les exploiter et les analyser en utilisant les outils professionnels courants Préparer les données en les transformant et en les nettoyant pour faire l’analyse et le reporting selon les besoins des différents métiers Elaborer une communication infographique visuelle en construisant des tableaux de bord interactifs afin de communiquer les résultats d’analyses et d’assurer l’extraction de connaissances en temps réel. Développer un modèle prédictif pour identifier de nouveaux comportements et usages en implémentant des algorithmes d’apprentissage automatiques supervisés Évaluer la performance d'un modèle de Machine Learning en analysant ses résultats et en comparant avec d’autres modèles afin d’implémenter la solution qui convient le mieux à un cas d’usage
Extraire des données en provenance de systèmes d’information multivariés pour les exploiter et les analyser en utilisant les outils professionnels courants Préparer les données en les transformant et en les nettoyant pour faire l’analyse et le reporting selon les besoins des différents métiers Elaborer une communication infographique visuelle en construisant des tableaux de bord interactifs afin de communiquer les résultats d’analyses et d’assurer l’extraction de connaissances en temps réel. Développer un modèle prédictif pour identifier de nouveaux comportements et usages en implémentant des algorithmes d’apprentissage automatiques supervisés Évaluer la performance d'un modèle de Machine Learning en analysant ses résultats et en comparant avec d’autres modèles afin d’implémenter la solution qui convient le mieux à un cas d’usage
Modalités d'évaluation :
Étude de cas : réalisée en amont: Environnement logiciel Soutenance Orale par binôme devant un jury et les autres apprenants. Rapport de TP écrit en binôme examiné par un jury. Étude de cas : réalisé en amont : Mise en place d’une application interactive avec de tableaux de bord Présentation du tableau de bord effectué par binôme examiné par un jury d’évaluation Mise en situation : Proposé via une plateforme de compétition data science de type kaggle Soumission des résultats de prédiction sur un ensemble de données test et obtenir un score du modèle proposé. Soumission d’un rapport expliquant la stratégie suivie et le choix du modèle. Le rapport sera examiné par un jury d’évaluation comprenant un représentant opérationnel professionnel et un enseignant spécialisé
Étude de cas : réalisée en amont: Environnement logiciel Soutenance Orale par binôme devant un jury et les autres apprenants. Rapport de TP écrit en binôme examiné par un jury. Étude de cas : réalisé en amont : Mise en place d’une application interactive avec de tableaux de bord Présentation du tableau de bord effectué par binôme examiné par un jury d’évaluation Mise en situation : Proposé via une plateforme de compétition data science de type kaggle Soumission des résultats de prédiction sur un ensemble de données test et obtenir un score du modèle proposé. Soumission d’un rapport expliquant la stratégie suivie et le choix du modèle. Le rapport sera examiné par un jury d’évaluation comprenant un représentant opérationnel professionnel et un enseignant spécialisé
RNCP36739BC02 : Concevoir, développer et déployer une solution de traitement des données massives
Compétences :
Concevoir en s’appuyant sur une veille technologique et mettre en œuvre une architecture distribuée répondant au besoin du client pour traiter les données massives en entreprise en utilisant les technologies de traitement Implémenter un système distribué en utilisant des technologies de streaming identifiées à partir d’une veille pour traiter des données sur une période précise ou en temps quasi réel Transformer les données provenant de différentes sources en prenant en compte la variété de données pour faire de l’analytique à échelle (intégration, formatage, manipulation, stockage données multidimensionnelles) Optimiser la performance des pipelines en utilisant les techniques d’intégration et de mise en scène adéquates pour le traitement des données massives Automatiser la création, les tests, l’intégration et le déploiement des pipelines de données en s’appuyant sur une veille technologique qui permet d’identifier et de mobiliser les solutions pour maximiser l’efficience et réduire le ‘time to market’ tout en utilisant les technologies de containerisation et d’ordonnancement.
Concevoir en s’appuyant sur une veille technologique et mettre en œuvre une architecture distribuée répondant au besoin du client pour traiter les données massives en entreprise en utilisant les technologies de traitement Implémenter un système distribué en utilisant des technologies de streaming identifiées à partir d’une veille pour traiter des données sur une période précise ou en temps quasi réel Transformer les données provenant de différentes sources en prenant en compte la variété de données pour faire de l’analytique à échelle (intégration, formatage, manipulation, stockage données multidimensionnelles) Optimiser la performance des pipelines en utilisant les techniques d’intégration et de mise en scène adéquates pour le traitement des données massives Automatiser la création, les tests, l’intégration et le déploiement des pipelines de données en s’appuyant sur une veille technologique qui permet d’identifier et de mobiliser les solutions pour maximiser l’efficience et réduire le ‘time to market’ tout en utilisant les technologies de containerisation et d’ordonnancement.
Modalités d'évaluation :
Étude de cas réalisée en amont: Conception d’une application de traitement distribué. Présentation de l’architecture par binôme devant un jury et les autres app renants. Étude de cas réalisée en amont: Conception d’une solution d’intégration et de transformation de données. Étude de cas réalisée en amont: Automatiser la création, les tests, l’intégration et le déploiement des pipelines de données
Étude de cas réalisée en amont: Conception d’une application de traitement distribué. Présentation de l’architecture par binôme devant un jury et les autres app renants. Étude de cas réalisée en amont: Conception d’une solution d’intégration et de transformation de données. Étude de cas réalisée en amont: Automatiser la création, les tests, l’intégration et le déploiement des pipelines de données
RNCP36739BC01 : Concevoir et développer une architecture de stockage de données
Compétences :
Concevoir et développer une base de données relationnelle en réponse aux besoins d’un client en vue de la mise à disposition de ses données structurées pour un tout en utilisant les technologies et les langages de requêtes adaptés aux développements envisagés Concevoir et développer une base de données non-relationnelle en vue de la mise à disposition des données semis-structurées et non-structurées pour un traitement analytique ou d’intelligence artificielle tout en utilisant les technologies et les langages de requêtes adaptés Concevoir et construire un lac de données « Datalake » en choisissant les architectures, les indicateurs de performance et les solutions de stockage appropriées afin d’intégrer les données provenant des systèmes d’information multivariés : Données non structurées, semi-structurées, structurées et des solutions de stockage de données massives ; redondantes. Créer une API en utilisant les technologies qui permettent de rendre accessibles les données en augmentant l’efficacité et la praticité des applications et des services
Concevoir et développer une base de données relationnelle en réponse aux besoins d’un client en vue de la mise à disposition de ses données structurées pour un tout en utilisant les technologies et les langages de requêtes adaptés aux développements envisagés Concevoir et développer une base de données non-relationnelle en vue de la mise à disposition des données semis-structurées et non-structurées pour un traitement analytique ou d’intelligence artificielle tout en utilisant les technologies et les langages de requêtes adaptés Concevoir et construire un lac de données « Datalake » en choisissant les architectures, les indicateurs de performance et les solutions de stockage appropriées afin d’intégrer les données provenant des systèmes d’information multivariés : Données non structurées, semi-structurées, structurées et des solutions de stockage de données massives ; redondantes. Créer une API en utilisant les technologies qui permettent de rendre accessibles les données en augmentant l’efficacité et la praticité des applications et des services
Modalités d'évaluation :
Travaux pratiques : Évaluation : Rapport de TP rédigé par étudiant et examiné par un jury d’évaluation. Étude de cas réalisée en amont du passage devant le jury Création d’une base de données Présentation orale et démonstration par binôme devant un jury d’évaluation Mise en situation : Challenge (hackathon) : construction d’un datalake qui permet de stocker tout type de données
Travaux pratiques : Évaluation : Rapport de TP rédigé par étudiant et examiné par un jury d’évaluation. Étude de cas réalisée en amont du passage devant le jury Création d’une base de données Présentation orale et démonstration par binôme devant un jury d’évaluation Mise en situation : Challenge (hackathon) : construction d’un datalake qui permet de stocker tout type de données
RNCP36739BC03 : Implémenter et optimiser des solutions de stockage et de traitement de données sur le cloud
Compétences :
Mettre en œuvre des solutions de stockage de données dans le cloud pour permettre aux entreprises d’explorer leurs données en implémentant des techniques et stratégies adaptées à leur utilisation et en choisissant les types de stockage et d’archivage appropriés Concevoir et développer des pipelines et des solutions de traitement de données dans le cloud en chargeant les données en les transformant et en les mettant à disposition des utilisateurs pour permettre leur exploitation Mettre en place une politique de sécurité des données dans le cloud en développant une stratégie de chiffrement et de gestion des identités et des accès et protéger les données en étant conforme aux règlements en vigueur Optimiser les solutions de stockage et de traitement des données dans le cloud en définissant des indicateurs de performance pour assurer la disponibilité des services et optimiser les coûts
Mettre en œuvre des solutions de stockage de données dans le cloud pour permettre aux entreprises d’explorer leurs données en implémentant des techniques et stratégies adaptées à leur utilisation et en choisissant les types de stockage et d’archivage appropriés Concevoir et développer des pipelines et des solutions de traitement de données dans le cloud en chargeant les données en les transformant et en les mettant à disposition des utilisateurs pour permettre leur exploitation Mettre en place une politique de sécurité des données dans le cloud en développant une stratégie de chiffrement et de gestion des identités et des accès et protéger les données en étant conforme aux règlements en vigueur Optimiser les solutions de stockage et de traitement des données dans le cloud en définissant des indicateurs de performance pour assurer la disponibilité des services et optimiser les coûts
Modalités d'évaluation :
Certification externe par un fournisseur du cloud public (e.g. Azure, Aws, Google) Étude de cas réalisé en amont: Conception et déploiement d’une solution de stockage et de traitement sur le cloud. Soutenance Orale et démonstration de la solution par binôme devant un jury et les autres apprenants. Rapport écrit en binôme examiné par un jury. Étude de cas : Mise en place d’une politique de sécurité de données dans le cloud. Rapport écrit par binôme évalué par un jury.
Certification externe par un fournisseur du cloud public (e.g. Azure, Aws, Google) Étude de cas réalisé en amont: Conception et déploiement d’une solution de stockage et de traitement sur le cloud. Soutenance Orale et démonstration de la solution par binôme devant un jury et les autres apprenants. Rapport écrit en binôme examiné par un jury. Étude de cas : Mise en place d’une politique de sécurité de données dans le cloud. Rapport écrit par binôme évalué par un jury.
RNCP36739BC05 : Concevoir une stratégie de management et de gouvernance de données pour transformer les données en informations créatrices de valeur
Compétences :
Définir une gouvernance de données en mettant en place les politiques et les standards afin d’établir les rôles, les responsabilités et la propriété des données Mettre en place les bonnes pratiques de gestion de données en appliquant les régulations en vigueur pour protéger les données et respecter la vie privée dans une logique de transparence. S’assurer que la qualité de la donnée permet d’atteindre les objectifs business en faisant un audit de qualité et en proposant des plans de prévention et de remédiation en cas de non-qualité Identifier l’approche stratégique pour faire de la donnée un actif central ancré dans la culture de l’entreprise et intégrer l’approche dans un plan de communication diffusé aux concernés Élaborer une stratégie de sécurité afin de protéger les données en utilisant les technologies adéquates permettant de parer aux menaces et en mettant en place une politique d’accès aux données
Définir une gouvernance de données en mettant en place les politiques et les standards afin d’établir les rôles, les responsabilités et la propriété des données Mettre en place les bonnes pratiques de gestion de données en appliquant les régulations en vigueur pour protéger les données et respecter la vie privée dans une logique de transparence. S’assurer que la qualité de la donnée permet d’atteindre les objectifs business en faisant un audit de qualité et en proposant des plans de prévention et de remédiation en cas de non-qualité Identifier l’approche stratégique pour faire de la donnée un actif central ancré dans la culture de l’entreprise et intégrer l’approche dans un plan de communication diffusé aux concernés Élaborer une stratégie de sécurité afin de protéger les données en utilisant les technologies adéquates permettant de parer aux menaces et en mettant en place une politique d’accès aux données
Modalités d'évaluation :
Études de cas : réalisées en amont Soutenance Orale et démonstration de la solution par binôme devant un jury et les autres apprenants. Rapport écrit en binôme examiné par un jury. Étude de cas : réalisée en amont: mise en place de bonnes pratiques et de conformité à la règlementation en vigueur à partir d’un cas d’usage
Études de cas : réalisées en amont Soutenance Orale et démonstration de la solution par binôme devant un jury et les autres apprenants. Rapport écrit en binôme examiné par un jury. Étude de cas : réalisée en amont: mise en place de bonnes pratiques et de conformité à la règlementation en vigueur à partir d’un cas d’usage