Veuillez utiliser cette adresse pour citer ce document :
http://dspace.univ-tiaret.dz:80/handle/123456789/5735
Affichage complet
Élément Dublin Core | Valeur | Langue |
---|---|---|
dc.contributor.author | ABDICHE, Ibrahim | - |
dc.contributor.author | NEGHLI, Yousouf | - |
dc.date.accessioned | 2022-11-27T13:45:43Z | - |
dc.date.available | 2022-11-27T13:45:43Z | - |
dc.date.issued | 2022 | - |
dc.identifier.uri | http://dspace.univ-tiaret.dz:80/handle/123456789/5735 | - |
dc.description.abstract | Le traitement de l'image joue désormais un rôle important dans de nombreux secteurs. En particulier, la segmentation d’image est dans le cœur de tout système de traitement, elle est primordiale à toute étape d’analyse. À ce jour, il n'existe aucune méthode universelle pour segmenter les images. N'importe quelle technique n'est efficace que pour un type d'image donné, pour un type d'application donné, et dans un contexte de calcul donné. Ce travail se veut beaucoup plus un état de l’art sur quelques méthodes de segmentation. Dans ce mémoire nous étudions les différentes approches de segmentation, à savoir l'approche par contour qui consiste à localiser les frontières des objets et l’approche de segmentation par région consiste à partitionner l’image en un ensemble de régions. Plus spécifiquement les méthodes suivantes ont été détaillée : la méthode d’OTSU, l’algorithme k-means, la méthode lignes de partage des eaux (LPE), et enfin le modèle de contour actif (snake). Les inconvénients et les avantages de chacune des méthodes précitées sont établis. | en_US |
dc.language.iso | fr | en_US |
dc.publisher | Université Ibn Khaldoun -Tiaret- | en_US |
dc.title | Extraction de la région d'intérêt à partir d'images par les techniques de segmentation | en_US |
dc.type | Thesis | en_US |
Collection(s) : | Master |
Fichier(s) constituant ce document :
Fichier | Description | Taille | Format | |
---|---|---|---|---|
TH.M.INF.FR.2022.41.pdf | 2,04 MB | Adobe PDF | Voir/Ouvrir |
Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.