Multi-modal fashion product retrieval
Visualitza/Obre
Estadístiques de LA Referencia / Recolecta
Inclou dades d'ús des de 2022
Cita com:
hdl:2117/108291
Tipus de documentText en actes de congrés
Data publicació2017
Condicions d'accésAccés obert
Llevat que s'hi indiqui el contrari, els
continguts d'aquesta obra estan subjectes a la llicència de Creative Commons
:
Reconeixement-NoComercial-SenseObraDerivada 3.0 Espanya
Abstract
Finding a product in the fashion world can be a daunting task. Everyday, e-commerce sites are updating with thousands of images and their associated metadata (textual information), deepening the problem. In this paper, we leverage both the images and textual metadata and propose a joint multi-modal embedding that maps both the text and images into a common latent space. Distances in the latent space correspond to similarity between products, allowing us to effectively perform retrieval in this latent space. We compare against existing approaches and show significant improvements in retrieval tasks on a largescale e-commerce dataset.
CitacióRubio, A., Yu, L., Simó, E., Moreno-Noguer, F. Multi-modal fashion product retrieval. A: Workshop on Vision and Language. "Proceedings 6th Workshop on Vision and Language (VL)". valecia: 2017, p. 43-45.
Versió de l'editorhttp://www.aclweb.org/anthology/W17-2007
Fitxers | Descripció | Mida | Format | Visualitza |
---|---|---|---|---|
1903-Multi-Modal-Fashion-Product-Retrieval.pdf | 1,047Mb | Visualitza/Obre |