Fusion d’informations pour la compréhension de scènes

Show full item record

Files in this item

PDF TraitSignal_2014_31_1_57_Xu.pdf 7.703Mb

Pour citer ce document :
URI: http://hdl.handle.net/2042/70247
Title: Fusion d’informations pour la compréhension de scènes
Author: Xu, Philippe; Davoine, Franck; Bordes, Jean-Baptiste; Denoeux, Thierry
Abstract: Nous présentons des améliorations de l’algorithme de Power Mean SVM (PmSVM) pour la classification d’ensembles d’images tels qu’ImageNet (14 millions d’images et 21 000 classes) qui rendent l’apprentissage beaucoup plus complexe (temps et coût mémoire). Les SVM ne sachant traiter que deux classes, les approches les plus utilisées sont un contre un ou un contre le reste. Avec les grands ensembles de données, l’approche un contre le reste est préférée pour des raisons de coût, mais implique des problèmes de déséquilibre. Pour le déséquilibre, nous proposons un algorithme de bagging équilibré de SVM, parallélisé pour obtenir les résultats dans un temps raisonnable. Sur les 1 000 plus grandes classes d’ImageNet (ILSVRC 2010) il est 286 fois plus rapide que le PmSVM original et 1 434 fois plus rapide que LIBLINEAR avec une amélioration relative de plus de 20 % de la précision par rapport à ce dernier.Cet article traite du problème de la compréhension de scènes routières pour des systèmes d’aide à la conduite. Afin de pouvoir reconnaître le grand nombre d’objets pouvant être présents dans la scène, plusieurs capteurs et algorithmes de classification doivent être utilisés. L’approche proposée est fondée sur la représentation de toutes les informations disponibles au niveau d’une image sur-segmentée. La principale nouveauté de la méthode est sa capacité à inclure de nouvelles classes d’objets ainsi que de nouveaux capteurs ou méthodes de détection. Plusieurs classes comme le sol, la végétation et le ciel sont considérées, ainsi que trois capteurs différents. L’approche est validée sur des données réelles de scènes routières en milieu urbain. ABSTRACT. This paper addresses the problem of scene understanding for driver assistance systems. In order to recognize the large number of objects that may be found on the road, several sensors and classification algorithms have to be used. The proposed approach is based on the representation of all available information in over-segmented image regions. The main novelty of the framework is its capability to incorporate new classes of objects and to include new sensors or detection methods. Several classes as ground, vegetation or sky are considered, as well as three different sensors. The approach was evaluated on real and publicly available urban driving scene data.
Subject: fusion d’informations; information fusion; traffic scene understanding
Publisher: Lavoisier
Date: 2014

This item appears in the following Collection(s)

Show full item record





Advanced Search