Veuillez utiliser cette adresse pour citer ce document : http://dspace.univ-tiaret.dz:80/handle/123456789/5556
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.authorBELKHODJA, Rania-
dc.contributor.authorGUELFOUT, Nour Elhouda-
dc.date.accessioned2022-11-23T13:43:29Z-
dc.date.available2022-11-23T13:43:29Z-
dc.date.issued2022-
dc.identifier.urihttp://dspace.univ-tiaret.dz:80/handle/123456789/5556-
dc.description.abstractL’explosion quantitative des données numériques a obligé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. Il s’agit de découvrir de nouveaux ordres de grandeur concernant la capture, la recherche, le partage, le stockage, l’analyse et la présentation des données. À l’heure actuelle, Hadoop est la principale plateforme du Big Data. Utilisé pour le stockage et le traitement d’immenses volumes de données, ce Framework logiciel et ses différents composants sont utilisés par de très nombreuses entreprises pour leurs projets Big Data afin de réduire le temps d’exécution, garantir la fiabilité et la disponibilité d’un système du cluster, et c’est ce que nous avons abordé principalement dans notre projet de fin d’étude qui s’est déroulé en deux étapes : une installation et configuration d’Hadoop sur trois machines virtuelles et l’exécution d’un programme qui traite des données des images médicales du diagnostic du cancer, ce programme est nommé filtre de Canny.en_US
dc.language.isofren_US
dc.publisherUniversité Ibn Khaldoun -Tiaret-en_US
dc.titleStockage distribué et Traitement parallèle de données médicales pour le diagnostic du canceren_US
dc.typeThesisen_US
Collection(s) :Master

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
TH.M.INF.FR.2022.07.pdf27,62 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.