A partir de cette page vous pouvez :
Retourner au premier écran avec les étagères virtuelles... |
Résultat de la recherche
1 résultat(s) recherche sur le mot-clé 'DSL, Machine learning, Big data, Systematic Literature review, Meta-learning'
Affiner la recherche Faire une suggestion
Domain Specific Languages for Machine Learning in big data / Ismail Ougamane
Titre : Domain Specific Languages for Machine Learning in big data Type de document : projet fin études Auteurs : Ismail Ougamane, Auteur Langues : Français (fre) Catégories : BIG DATA Mots-clés : DSL, Machine learning, Big data, Systematic Literature review, Meta-learning Index. décimale : mast 240/19 Résumé : En raison des défis que Big Data impose aux algorithmes d’apprentissage automatique, ces
algorithmes doivent être adaptés et optimisés pour des applications spécifiques, une décision
importante prise par les développeurs c’est le choix du langage qui vont utiliser dans la mise
en uvre de ces algorithmes pour une application. Pour résoudre ce problème, nous présentons
une étude qui examine, résume et compare l’utilisation des DSLs et Frameworks dans
l’apprentissage machine avec le big data.
Après avoir appliqué la revue systématique de la littérature au sujet " Langage spécifique
au domaine pour l’apprentissage machine en big data ", dans la littérature, DSL peut être decrit
comme framework aussi, donc pour les résultats du SLR devrait être pour DSL et framework,
pour les DSLs nous avons découvert qu’aucune DSLs pour décrire les exigences système, et
la plupart des langages sont compilées, ainsi que les langages sont toutes graphiques et ont un
modèle descriptif, également la plupart des langages support Vector, Matrix, mais seulement 3
langages qui soutiennent des opérations graphiques. voici les résultats de notre étude, et enfin
Seulement 2 DSLs qui ont leur code source dans github.
Pour les frameworks, nous avons constaté qu’aucun framework pour résoudre les problèmes
de capture, de stockage et de visualisation de données volumineuses, ainsi que la plupart des
langages sont internes, la plupart des langages supportent les opérations Vector, Matrix, Graph,
et tous les frameworks sont open source avec une bonne communauté, avec seulement deux
frameworks qui dépassent 1000 contributeurs et commit PyTorch et TensorFlow, enfin la plupart
des langages supportent le mode parallèle et le calcul distribué / cloud.
Le dernier objectif de notre étude est de proposer une amélioration qui résout les problèmes
d’apprentissage machine suivants : manque de données et de ressources matérielles, pour cela
nous améliorons un des meta-model d’apprentissage, appelé siamois, et nous avons proposé
deux améliorations de l’architecture siamoise ; la précision moyenne des deux architectures
était meilleure que l’architecture originale.
Domain Specific Languages for Machine Learning in big data [projet fin études] / Ismail Ougamane, Auteur . - [s.d.].
Langues : Français (fre)
Catégories : BIG DATA Mots-clés : DSL, Machine learning, Big data, Systematic Literature review, Meta-learning Index. décimale : mast 240/19 Résumé : En raison des défis que Big Data impose aux algorithmes d’apprentissage automatique, ces
algorithmes doivent être adaptés et optimisés pour des applications spécifiques, une décision
importante prise par les développeurs c’est le choix du langage qui vont utiliser dans la mise
en uvre de ces algorithmes pour une application. Pour résoudre ce problème, nous présentons
une étude qui examine, résume et compare l’utilisation des DSLs et Frameworks dans
l’apprentissage machine avec le big data.
Après avoir appliqué la revue systématique de la littérature au sujet " Langage spécifique
au domaine pour l’apprentissage machine en big data ", dans la littérature, DSL peut être decrit
comme framework aussi, donc pour les résultats du SLR devrait être pour DSL et framework,
pour les DSLs nous avons découvert qu’aucune DSLs pour décrire les exigences système, et
la plupart des langages sont compilées, ainsi que les langages sont toutes graphiques et ont un
modèle descriptif, également la plupart des langages support Vector, Matrix, mais seulement 3
langages qui soutiennent des opérations graphiques. voici les résultats de notre étude, et enfin
Seulement 2 DSLs qui ont leur code source dans github.
Pour les frameworks, nous avons constaté qu’aucun framework pour résoudre les problèmes
de capture, de stockage et de visualisation de données volumineuses, ainsi que la plupart des
langages sont internes, la plupart des langages supportent les opérations Vector, Matrix, Graph,
et tous les frameworks sont open source avec une bonne communauté, avec seulement deux
frameworks qui dépassent 1000 contributeurs et commit PyTorch et TensorFlow, enfin la plupart
des langages supportent le mode parallèle et le calcul distribué / cloud.
Le dernier objectif de notre étude est de proposer une amélioration qui résout les problèmes
d’apprentissage machine suivants : manque de données et de ressources matérielles, pour cela
nous améliorons un des meta-model d’apprentissage, appelé siamois, et nous avons proposé
deux améliorations de l’architecture siamoise ; la précision moyenne des deux architectures
était meilleure que l’architecture originale.
Réservation
Réserver ce document
Exemplaires
Code barre Cote Support Localisation Section Disponibilité mast 240/19 mast 240/19 ISM Texte imprimé Unité des masters Mast/19 Disponible