Veuillez utiliser cette adresse pour citer ce document : http://dspace.univ-tiaret.dz:80/handle/123456789/5295
Titre: Vers une meilleure optimisation pour l’analyse prédictive de données massives
Auteur(s): SAIDI, Chahrazed
DANOUNE, Imane
Mots-clés: Analyse prédictive des données massives, Apache Spark, échantillonnage, Les forêts aléatoires, variables importantes.
Date de publication: 2019
Editeur: Université Ibn Khaldoun -Tiaret-
Résumé: Depuis plusieurs années, nous assistons à une explosion de nouvelles sources de données diverses à granularité fine et à faible latence (dites « Big Data »). Il consiste à traiter, en temps réel, de très gros volumes de données extrêmement variées et à les analyser. Toutes les entreprises sont concernées, surtout celles qui possèdent de vastes gisements d'informations et souhaitent les passer au crible pour améliorer leur connaissance du client et optimiser leurs campagnes. Tous les chercheurs dans le domaine de l'analyse des données volumineuses sont convaincus que ces dernières sont influencées par le volume, la variété et la vitesse, où l'augmentation et la complexité des données sont directement proportionnelles au taux d'erreur élevé et au temps d'exécution lent. Par conséquent, notre travail proposé vise principalement à résoudre ces problèmes en améliorant le résultat de la prévision à un niveau acceptable et dans les plus brefs délais. Dans cette partie, nous avons proposé une idée pour extraire une base d'apprentissage représentative par la méthode d'échantillonnage aléatoire stratifié au niveau des lignes et par la méthode de la sélection des variables importante au niveau des colonnes en utilisant l’algorithme « les forêts aléatoire ».
URI/URL: http://dspace.univ-tiaret.dz:80/handle/123456789/5295
Collection(s) :Master

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
TH.M.INF.FR.2019.17.pdf2,09 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.