ACCUEIL

Consignes aux
auteurs et coordonnateurs
Nos règles d'éthique
Autres revues >>

Document Numérique

1279-5127
 

 ARTICLE VOL 18/1 - 2015  - pp.7-8
TITRE
INTRODUCTION

RÉSUMÉ

L’évaluation en recherche d’information a une longue histoire. La tradition expérimentale dans ce domaine est fortem ent présente depuis les travaux de Cleverdon dans les années soixante. De ces travaux sont apparus le besoin de collections qui permettent de travailler sur des données partagées par la communauté et des mesures d’évaluation définies selon la tâche à accomplir. De très nombreuses campagnes d’évaluation ont suivi les travaux de Cleverdon en proposant des collections de volume toujours plus important et pour des tâches de plus en plus diversifiées. D’abord en langue anglaise, la diversification s’est orientée vers d’autres langues, puis vers des données au-delà du texte : hyperliens, structuration des documents, données so ciales, ou encore par l’accès à des ressources externes aux documents telles que des ontologies. Outre les documents, les besoins d’informations doivent être créés en accord avec la tâche à accomplir. La première étape est donc la définition aussi précise que possible de la tâche, puis la construction et/ou la collecte de ces besoins. Associé à la collecte de documents, il y a la construction des jugements. Pour la tâche ad hoc de base, ces jugements indiquent quels sont les documents pertinents pour tel ou tel besoin d’information, avec toute la difficulté associée à cette notion de pertinence. Pour d’autres tâches ce sont d’autres qualifications des réponses possibles qui sont utiles ou d’autres niveaux de granularité pour la pertinence. Du côté des mesures, pour la tâche ad hoc par exemple, les mesures prédominantes et largement acceptées aujour d’hui utilisent les no tions de précision et de rappel. Il existe cependant de très nombreuses mesures sur cette base et des variations de ces mesures pour tenter de co ller à telle ou telle particularité de telle ou telle tâche. Enfin, la mise en œuvre de ces mesures pour l’évaluation de tel ou tel système et plus particulièrement concernant l’amélioration des performances nécessite un certain soin. En effet, la différence purement quantitative n’est pas nécessairement la preuve absolue d’un gain réel. Pour cela des tests statistiques sont aussi mis en œuvre lors des comparaisons de systèmes. Ce numéro spécial s’intéresse à la notion d’évaluation centrée sur la recherche d’information. L’objectif est de présenter des travaux qui fournissent un éclairage relatif à la notion d’évaluation que ce soit du point de vue système ou utilisateur. Cinq articles ont été retenus dont trois correspondent à une version étendue d’articles sélectionnés dans les conférences INFORSID 2014, CORIA 2013 et 2014. Le premier article d’Orélie Desfriches Doria propose une étude sur l’articulation entre l’évaluation de l’information en lien avec les systèmes d’information, l’organisation du travail, l’évaluation au travail et l’activité.



AUTEUR(S)
Michel BEIGBEDER, Sylvie CALABRETTO, Max CHEVALIER

LANGUE DE L'ARTICLE
Français

 PRIX
GRATUIT
   
ACCÉDER A L'ARTICLE COMPLET  (25 Ko)



Mot de passe oublié ?

ABONNEZ-VOUS !

CONTACTS
Comité de
rédaction
Conditions
générales de vente

 English version >> 
Lavoisier