ACCUEIL

Consignes aux
auteurs et coordonnateurs
Nos règles d'éthique
Autres revues >>

Document Numérique

1279-5127
 

 ARTICLE VOL 18/2-3 - 2015  - pp.59-79  - doi:10.3166/DN.18.2-3.59-79
TITRE
Algorithmes de bandits pour la recommandation à tirages multiples

TITLE
Bandit algorithms for the multiple-play recommendation

RÉSUMÉ

Les systèmes de recommandation (SR) à tirages multiples font référence aux SR recommandant plusieurs objets en même temps aux utilisateurs. La plupart des SR s’appuient sur des modèles d’apprentissage afin de décider les objets à recommander. Parmi ces modèles, les algorithmes de bandits offrent l’avantage d’apprendre tout en exploitant les éléments déjà appris. Les approches actuelles utilisent autant d’instances d’un algorithme de bandits que le nombre d’objets que doit recommander le SR. Nous proposons au contraire de gérer l’ensemble des recommandations par une seule instance d’un algorithme de bandits pour rendre l’apprentissage plus efficace. Nous montrons sur deux jeux de données de références (Movielens et Jester) que notre méthode, MPB (Multiple Plays Bandit), obtient des temps d’apprentissage jusqu’à treize fois plus rapides tout en obtenant des taux de clics équivalents. Nous montrons également que le choix de l’algorithme de bandits utilisé influence l’amélioration obtenue.



ABSTRACT

The multiple-play recommender systems (RS) are RS which recommend several items to the users. RS are based on learning models in order to choose the items to recommend. Among these models, the bandit algorithms offer the advantage to learn and exploite the learnt elements at the same time. Current approaches require running as many instances of a bandit algorithm as there are items to recommend. As opposed to that, we handle all recommendations simultaneously, by a single instance of a bandit algorithm. We show on two benchmark datasets (Movielens and Jester) that our method, MPB (Multiple Plays Bandit), obtains a learning rate about thirteen times faster while obtaining equivalent click-through rates. We also show that the choice of the bandit algorithm used impacts the level of improvement.



AUTEUR(S)
Jonathan LOUËDEC, Max CHEVALIER, Aurélien GARIVIER, Josiane MOTHE

MOTS-CLÉS
Recherche d’information, systèmes de recommandation, algorithme de bandits.

KEYWORDS
Information retrieval, recommender systems, bandit algorithm.

LANGUE DE L'ARTICLE
Français

 PRIX
• Abonné (hors accès direct) : 7.5 €
• Non abonné : 15.0 €
|
|
--> Tous les articles sont dans un format PDF protégé par tatouage 
   
ACCÉDER A L'ARTICLE COMPLET  (451 Ko)



Mot de passe oublié ?

ABONNEZ-VOUS !

CONTACTS
Comité de
rédaction
Conditions
générales de vente

 English version >> 
Lavoisier