DSpace DSpace UPC
 Català   Castellano   English  

E-prints UPC >
Automàtica, robòtica i visió >
Institut de Robòtica i Informàtica Industrial, CSIC-UPC >
Articles de revista >

Empreu aquest identificador per citar o enllaçar aquest ítem: http://hdl.handle.net/2117/2705

Arxiu Descripció MidaFormat
doc1.pdf3,38 MBAdobe PDFThumbnail

Citació: Moreno-Noguer, Francesc; Sanfeliu, Alberto; Samaras, Dimitris. "Dependent multiple cue integration for robust tracking". IEEE transactions on pattern analysis and machine intelligence, 2008, vol. 30, núm. 4, p. 670-685.
Títol: Dependent multiple cue integration for robust tracking
Autor: Moreno-Noguer, Francesc Veure Producció científica UPC; Sanfeliu Cortés, Alberto Veure Producció científica UPC; Samaras, Dimitris
Editorial: IEEE
Data: 2008
Tipus de document: Article
Resum: We propose a new technique for fusing multiple cues to robustly segment an object from its background in video sequences that suffer from abrupt changes of both illumination and position of the target. Robustness is achieved by the integration of appearance and geometric object features and by their estimation using Bayesian filters, such as Kalman or particle filters. In particular, each filter estimates the state of a specific object feature, conditionally dependent on another feature estimated by a distinct filter. This dependence provides improved target representations, permitting us to segment it out from the background even in nonstationary sequences. Considering that the procedure of the Bayesian filters may be described by a "hypotheses generation-hypotheses correction" strategy, the major novelty of our methodology compared to previous approaches is that the mutual dependence between filters is considered during the feature observation, that is, into the "hypotheses-correction" stage, instead of considering it when generating the hypotheses. This proves to be much more effective in terms of accuracy and reliability. The proposed method is analytically justified and applied to develop a robust tracking system that adapts online and simultaneously the color space where the image points are represented, the color distributions, the contour of the object, and its bounding box. Results with synthetic data and real video sequences demonstrate the robustness and versatility of our method.
ISSN: 0162-8828
URI: http://hdl.handle.net/2117/2705
Versió de l'editor: http://dx.doi.org/10.1109/TPAMI.2007.70727
Apareix a les col·leccions:Institut de Robòtica i Informàtica Industrial, CSIC-UPC. Articles de revista
VIS - Visió Artificial i Sistemes Intel.ligents. Articles de revista
Departament d'Enginyeria de Sistemes, Automàtica i Informàtica Industrial. Articles de revista

Stats Mostra les estadístiques d'aquest ítem

SFX Query

Tots els drets reservats. Aquesta obra està protegida pels drets de propietat intel·lectual i industrial corresponents. Sense perjudici de les exempcions legals existents, queda prohibida la seva reproducció, distribució, comunicació pública o transformació sense l'autorització del titular dels drets.

Per a qualsevol ús que se'n vulgui fer no previst a la llei, dirigiu-vos a: sepi.bupc@upc.edu


Valid XHTML 1.0! Programari DSpace Copyright © 2002-2004 MIT and Hewlett-Packard Comentaris
Universitat Politècnica de Catalunya. Servei de Biblioteques, Publicacions i Arxius