Titre : | Mise en place d'une plate forme BI § Analytics pour le service des achats multimédia de Renault | Type de document : | projet fin études | Auteurs : | ER Rachidy Safaa, Auteur | Langues : | Français (fre) | Catégories : | e-Management et Business Intelligence
| Index. dĂ©cimale : | 2118/19 | RĂ©sumĂ© : | Ce mémoire représente une synthèse du stage de fin d’études d’ingénierie effectué dans le domaine de Business Intelligence et Data Science et réalisé au sein du service des achats du groupe Renault Paris. Son but est de permettre à l’entreprise d’élaborer des analyses poussées des performances des fournisseurs du groupe.
Ce projet consiste à mettre en place un système d’analyse prescriptive des données concernant les achats de pièces au sein de la boite. Il s’agit d’une segmentation des fournisseurs basées principalement sur le principe de data clustering partitionnant le jeu de données en sous-groupes d'observations similaires dans le but de mieux comprendre et d’inférer des propriétés des données. Il s’agit aussi d’établir une classification prédictive des catégories de baisses de prix proposées par les fournisseurs de l’équipe. Et ce, au profit de la commodité Multimedia & Connectivity de Body & Electrical team. Ce projet consiste également à concevoir un serveur de base de données pour centraliser les données du service, reprendre et traiter les informations de différentes sources de données.
Afin d’aborder une bonne conduite du projet analytique, on s’est basé sur la méthodologie CRISPqui a combiné 5 phases de traitement des données et de modélisation pour réussir la solution finale. Après avoir définit le périmètre du projet et fixé et les objectifs préliminaires, on s’est lancé vers l’étude et la critique du système existant pour ressortir les différents besoins ce qui permet de mieux comprendre la problématique métier. On a ensuite enchainé la conception du datamart, des scripts ETL et des modèles de prédiction élaborées principalement pour répondre à la problématique.
Pour la réalisation, on s’est basé sur l’utilisation du serveur PostgreSQL pour la création et la manipulation de la base de données. Python a été utilisé ainsi pour l’automatisation des scripts ETL et grâce à ses bibliothèques de Machine Learning on a pu élaborer et traiter les modèles prédictifs. L’utilisateur final a ainsi accès à l’ensembles des résultats et des interprétations à travers des notebooks élaborés à l’aide de Jupyter notebook et dans lesquelles on a pu générer les scripts ETL et les scripts de modélisation prédictive.
|
Mise en place d'une plate forme BI § Analytics pour le service des achats multimédia de Renault [projet fin études] / ER Rachidy Safaa, Auteur . - [s.d.]. Langues : Français ( fre) Catégories : | e-Management et Business Intelligence
| Index. dĂ©cimale : | 2118/19 | RĂ©sumĂ© : | Ce mémoire représente une synthèse du stage de fin d’études d’ingénierie effectué dans le domaine de Business Intelligence et Data Science et réalisé au sein du service des achats du groupe Renault Paris. Son but est de permettre à l’entreprise d’élaborer des analyses poussées des performances des fournisseurs du groupe.
Ce projet consiste à mettre en place un système d’analyse prescriptive des données concernant les achats de pièces au sein de la boite. Il s’agit d’une segmentation des fournisseurs basées principalement sur le principe de data clustering partitionnant le jeu de données en sous-groupes d'observations similaires dans le but de mieux comprendre et d’inférer des propriétés des données. Il s’agit aussi d’établir une classification prédictive des catégories de baisses de prix proposées par les fournisseurs de l’équipe. Et ce, au profit de la commodité Multimedia & Connectivity de Body & Electrical team. Ce projet consiste également à concevoir un serveur de base de données pour centraliser les données du service, reprendre et traiter les informations de différentes sources de données.
Afin d’aborder une bonne conduite du projet analytique, on s’est basé sur la méthodologie CRISPqui a combiné 5 phases de traitement des données et de modélisation pour réussir la solution finale. Après avoir définit le périmètre du projet et fixé et les objectifs préliminaires, on s’est lancé vers l’étude et la critique du système existant pour ressortir les différents besoins ce qui permet de mieux comprendre la problématique métier. On a ensuite enchainé la conception du datamart, des scripts ETL et des modèles de prédiction élaborées principalement pour répondre à la problématique.
Pour la réalisation, on s’est basé sur l’utilisation du serveur PostgreSQL pour la création et la manipulation de la base de données. Python a été utilisé ainsi pour l’automatisation des scripts ETL et grâce à ses bibliothèques de Machine Learning on a pu élaborer et traiter les modèles prédictifs. L’utilisateur final a ainsi accès à l’ensembles des résultats et des interprétations à travers des notebooks élaborés à l’aide de Jupyter notebook et dans lesquelles on a pu générer les scripts ETL et les scripts de modélisation prédictive.
|
|