Veuillez utiliser cette adresse pour citer ce document : http://dspace.univ-tiaret.dz:80/handle/123456789/5553
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.authorHadil, Aboubaker-
dc.contributor.authorMandi, Nour-El-Yakine-
dc.date.accessioned2022-11-23T13:19:09Z-
dc.date.available2022-11-23T13:19:09Z-
dc.date.issued2022-
dc.identifier.urihttp://dspace.univ-tiaret.dz:80/handle/123456789/5553-
dc.description.abstractLes systèmes de recommandation jouent un rôle important en suggérant des informations pertinentes aux utilisateurs. Dans ce travail, nous introduisons l’information démographique de l’utilisateur au niveau communautaire comme étant une nouvelle dimension pour les recommandations et nous présentons un système de recommandation utilisant des approches de filtrage collaboratif et de détection communautaire. Nous utilisons (1) un algorithme de détection de communautés pour découvrir les communautés des utilisateurs en analysant le graphe de similarité démographique utilisateur-utilisateur et (2) un filtrage collaboratif basé sur la matrice utilisateur-item pour la prédiction des notes. Notre approche améliore l'évolutivité, le problème de démarrage à froid et de manque de données du système de recommandation basé sur le filtrage collaboratif. Nous avons effectué des expériences sur l’ensemble de données de MovieLens, pour prédire la note du film et produire les meilleures recommandations pour les nouveaux utilisateurs (démarrage à froid). Les résultats sont comparés avec un système de filtrage collaboratif basé sur l’utilisateur.en_US
dc.language.isofren_US
dc.publisherUniversité Ibn Khaldoun -Tiaret-en_US
dc.subjectSystème de recommandation, Filtrage collaboratif, détection de communautés, méthode de Louvain.en_US
dc.titleSystème de recommandation à base de communautésen_US
dc.typeThesisen_US
Collection(s) :Master

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
TH.M.INF.FR.2022.06.pdf1,96 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.