
Veuillez utiliser cette adresse pour citer ce document :
http://dspace.univ-tiaret.dz:80/handle/123456789/16875| Titre: | Exploitation de Base de Données externe pour la génération de réponses augmentées |
| Auteur(s): | BENAYADA, Amel MEKADDIM, Amel |
| Mots-clés: | Modèle de langage à grande échelle Système intelligent Génération augmentée Prompting |
| Date de publication: | 10-jui-2025 |
| Editeur: | Université Ibn Khaldoun –Tiaret |
| Résumé: | Ce mémoire sintéresse à lutilisation des modèles de langage à grande échelle (LLM) pour améliorer le processus de recherche dinformation grâce à trois approches complémentaires : la recherche vectorielle, la génération augmentée ou guidée contextuellent et le fine-tuning. Lobjectif est de générer des réponses plus pertinentes, contextuelles et personnalisées, en intégrant des sources de connaissances externes. Chaque méthode a été évaluée séparément pour en mesurer les apports spécifiques, et leur combinaison permet denrichir les réponses générées. Le travail présente les choix techniques, les résultats expérimentaux, et propose des pistes d’amélioration pour les systèmes intelligents. |
| Description: | This thesis explores the use of large language models (LLMs) to enhance information retrieval systems through three complementary approaches: vector search, augmented generation, and fine-tuning. The goal is to produce more relevant, contextual, and personalized responses by integrating external knowledge sources. Each method was individually evaluated to assess its specific benefits, and their combination allows for richer, more up-to-date answers. The work presents technical choices, experimental results, and improvement prospects for intelligent systems |
| URI/URL: | http://dspace.univ-tiaret.dz:80/handle/123456789/16875 |
| Collection(s) : | Master |
Fichier(s) constituant ce document :
| Fichier | Description | Taille | Format | |
|---|---|---|---|---|
| TH.M.INF.2025.20.pdf | 3,44 MB | Adobe PDF | Voir/Ouvrir |
Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.