Veuillez utiliser cette adresse pour citer ce document : http://dspace.univ-tiaret.dz:80/handle/123456789/5384
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.authorCHEHBELAINE, Walaa-
dc.date.accessioned2022-11-21T12:55:29Z-
dc.date.available2022-11-21T12:55:29Z-
dc.date.issued2020-
dc.identifier.urihttp://dspace.univ-tiaret.dz:80/handle/123456789/5384-
dc.description.abstractDe nos jours, notre style de vie conduit à la dépression, même chez la jeune génération. Comme des études indiquent que le taux de dépression augmente de jour en jour. Les rapports de l'OMS (organisation mondiale de la santé) et d'autres organisations montrent que les conséquences sont pires, voire conduisent au suicide. La majorité des travaux sur la détection des publications liées à la dépression sont basés sur les contributions recueillies auprès du grand public des medias sociaux à l'aide de questionnaires. En tant qu’une solution à cette problématique, nous abordons le problème de l'analyse des sentiments sur un ensemble de tweets préalablement tirés du big-social data "Twitter"en passant par une ressource lexicale linguistique (dictionnaire donné ou SentiWordnet) pour la phase de prétraitement et en utilisant un certain nombre de modèles d'apprentissage automatique traditionnel et en profondeur pour la classification. Il s'agit donc de la classification automatique de tweets en dépressifs et non-dépressifs. Le Deep Learning, approche incontournable en Machine Learning, s’avère particulièrement utile et performant pour cette classification.en_US
dc.language.isofren_US
dc.publisherUniversité Ibn Khaldoun -Tiaret-en_US
dc.subjectDépression, Tweet, SentiWordnet, Apprentissage Automatique traditionnel, DeepLearning, classification.en_US
dc.titleAnalyse de l’état mental des utilisateurs de Twitteren_US
dc.typeThesisen_US
Collection(s) :Master

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
TH.M.INF.FR.2020.39.pdf2,97 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.