Description
Depuis les cinq dernières années, les projets Data Science et d'intelligence artificielle connaissent une forte croissance dans des domaines très variés, tels que l'industrie pétrolière, la téléphonie, la distribution, la banque, la finance et les services. Les récentes évolutions technologiques permettent de faire évoluer ces projets vers la mise en place de véritables solutions d'intelligence artificielle. La réalisation de ces projets nécessite de former des équipes de « Data-Engineers » et de « Data Scientists » pour lesquelles il est nécessaire de conjuguer l'acquisition des compétences techniques et méthodologiques, l'expérience des cas concrets et surtout, un parcours d'apprentissage jalonné.
Les principales compétences visées par cette certification sont celles nécessaires à la mise en oeuvre des activités suivantes :
Tester et décider de rejeter/adopter les modèles en mesurant et en évaluant leur pertinence sur la base de leur précision, leur robustesse, leur absence de biaisSpécifier, automatiser, rendre utilisables et résilients les algorithmes et les modèles de DataSciencePiloter les méthodes Ultra Agiles de DataScience pour optimiser le déroulement du projet et les résultats obtenus
Objectif
- Maîtriser la méthode d'optimisation de la complexité et de cross validation des modèles de Vapnik
- Exploiter les résultats une stratégie inférentielle de cross-validation
- Mesurer la précision et la robustesse statistique des modèles
- Créer les indicateurs permettant de mesurer et comparer la performance des modèles pour valider ou rejeter les modèles testés
- Calculer, mesurer et de tester la variance des résidus d'un modèle quantitatif et Savoir en diagnostiquer l'hétéroscédasticité
- Produire la matrice de confusion d'un modèle qualitatif et calculer la sensibilité, la spécificité, a précision, et la précision globale
- S'assurer du respect des hypothèses de fonctionnement des modèles et de l'absence de biais dans les résultats du modèle
- Spécifier les règles d'implémentation, les conditions d'utilisation et les cas limites de fonctionnement non biaisé des modèles de DataScience
- Maitriser les méthodes statistiques de monitoring et de diagnostic des modèles de DataScience et de Machine Learning
- Mettre en hyper-paramètres les paramètres et variables clés d'apprentissage d'un modèle dans le but de pouvoir ultérieurement automatiser son apprentissage
- Transformer un modèle simple en modèle d'intelligence artificielle, pour l'utilisation de l'exposition de modèles et l'optimisation automatique des hyper paramètres
- Réaliser une feuille de route de toutes les méthodes et les modèles statistiques, machine learning et IA à appliquer pour mener à bien un projet DataScience
- Utiliser les méthodes de gestion de projet Ultra Agiles, CRISP, CRISP étendues et leurs variantes pour mener à bien la feuille de route
- Combiner efficacement les méthodes de projet agiles comme Scrum avec les méthodes ultra-agiles de DataScience
- Réaliser une estimation de reste à faire dans un projet de DataScience malgré la sérendipité possible due aux données et aux différentes itérations à venir
- Maîtriser les méthodes de gestion projet en DataOps, DevOps en DataEngineering
- Communiquer avec les parties prenantes sur le déroulement et l'avancement du projet
Niveau
Sans équivalence de niveau
Date de validité
20/01/2026
Domains
- analyse données
- architecture système information
- Langage Python
- Data Warehouse
- algorithme
NSF
- Informatique, traitement de l'information, réseaux de transmission des données
- Programmation, mise en place de logiciels
GFE
Rome
Nom légal | Rôle |
---|