ACCUEIL

Consignes aux
auteurs et coordonnateurs
Nos règles d'éthique

APPEL À
CONTRIBUTION
Décisions, argumentation et traçabilité dans l’Ingénierie des Systèmes d’Information
En savoir plus >>
Autres revues >>

Ingénierie des Systèmes d'Information

Networking and Information Systems
1633-1311
Revue des sciences et technologies de l'information
 

 ARTICLE VOL 10/1 - 2005  - pp.33-57  - doi:10.3166/isi.10.1.33-57
TITRE
Recherche d'information. Analyse des résultats de différents systèmes réalisant la même tâche

RÉSUMÉ
Les systèmes de recherche d'information visent à optimiser les résultats qu'ils fournissent en réponse à une requête de l'utilisateur. Les performances de ces systèmes sont généralement mesurées par rapport à des collections de test communes, comme les collections de TREC (Text REtrieval Conférence). Cette évaluation est réalisée de façon globale, en calculant une moyenne des résultats sur un ensemble de cinquante requêtes. Ainsi, la valeur ajoutée des différentes techniques utilisées par tel ou tel système n'apparaît pas clairement. Cet article vise à étudier plus finement les résultats obtenus dans une tâche de recherche d'information et répond aux questions suivantes : les requêtes peuvent-elles être classifiées? Y a-t-il une corrélation entre les performances des systèmes sur les différentes requêtes ? La tâche choisie est celle de recherche de passages pertinents et/ou nouveaux. Nous montrons que les variations dans les résultats sont plus corrélées aux outils qu'à leurs différentes versions.


ABSTRACT
Information retrieval systems aim at answering users' needs. Information Retrieval System performances are evaluated using benchmark collections such as TREC (TExt Retrieval Conference) collections. Evaluation is generally based on global evaluation, computing average results over a set of fifty queries. Doing so, the added value of the different techniques used is not easy to show. This paper aims at studying in more details results obtained in a IR task that answers the following questions: can queries be classified? Is there correlation between system performances and queries? The IR task we chose is passage retrieval and novelty detection. We show that variations in results more related to systems than to system versions.


AUTEUR(S)
Claude CHRISMENT, Taoufiq DKAKI, Josiane MOTHE, Sandra POULAIN, Ludovic TANGUY

MOTS-CLÉS
recherche d'information, recherche de passages, détection de la nouveauté, analyse de résultats, typologie de requêtes, analyse factorielle.

KEYWORDS
information retrieval, passage retrieval, novelty detection, analysis of IR results, typology of queries, factorial analysis.

LANGUE DE L'ARTICLE
Français

 PRIX
• Abonné (hors accès direct) : 12.5 €
• Non abonné : 25.0 €
|
|
--> Tous les articles sont dans un format PDF protégé par tatouage 
   
ACCÉDER A L'ARTICLE COMPLET  (277 Ko)



Mot de passe oublié ?

ABONNEZ-VOUS !

CONTACTS
Comité de
rédaction
Conditions
générales de vente

 English version >> 
Lavoisier