7 - Apprentissage de réseaux de neurones à fonctions radiales de base avec un jeu de données à entrée-sortie bruitées

Show full item record

Files in this item

PDF Seghouane.pdf 217.1Kb

Pour citer ce document :
URI: http://hdl.handle.net/2042/2240
Title: 7 - Apprentissage de réseaux de neurones à fonctions radiales de base avec un jeu de données à entrée-sortie bruitées
Author: SEGHOUANE (Abd-Krim); FLEURY (Gilles)
Abstract: Cet article traite du problème de l'apprentissage des réseaux de neurones à fonctions radiales de base pour l'approximation de fonctions non linéaires L2 de Rd vers R. Pour ce type de problème, les algorithmes hybrides sont les plus utilisés. Ils font appel à des techniques d'apprentissage non supervisées pour l'estimation des centres et des paramètres d'échelle des fonctions radiales, et à des techniques d'apprentissage supervisées pour l'estimation des paramètres linéaires. Les méthodes d'apprentissage supervisées reposent généralement sur l'estimateur (ou le critère) des moindres carrées (MC). Cet estimateur est optimal dans le cas où le jeu de données d'apprentissage (zi, yi)i=1,2,..,q est constitué de sorties yi, i = 1, .., q bruitées et d'entrées zi, i = 1, .., q exactes. Cependant lors de la collecte des données expérimentales il est rarement possible de mesurer l'entrée zi sans bruit. L'utilisation de l'estimateur des MC produit une estimation biaisée des paramètres linéaires dans le cas où le jeux de données d'apprentissage est à entrées et sorties bruitées, ce qui engendre une estimation erronée de la sortie. Cet article propose l'utilisation d'une procédure d'estimation fondée sur le modèle avec variables entachées d'erreurs pour l'estimation des paramètres linéaires (pour l'apprentissage supervisé) dans le cas où le jeux de données d'apprentissage est à entrées et sorties bruitées. L'interprétation géométrique du critère d'estimation proposé est établie afin de mettre en évidence son avantage relativement au critère des moindres carrés. L'amélioration des performances en terme d'approximation de fonctions non linéaires est illustrée sur un exemple.
Description: This paper deals with the problem of learning radial basis function neural networks to approximate non linear L2 function from Rd to R. Hybrid algorithms are mostly used for this task. Unsupervised learning techniques are used to estimate the center and width parameters of the radial functions and supervised learning techniques are used to estimate the linear parameters. Supervised learning techniques are generally based on the least squares (LS) estimates (or criterion). This estimator is optimal when the training set (zi, yi)i=1,2,..,q is composed of noisy outputs yi, i = 1, .., q and exactly known inputs zi, i = 1, .., q. However, when collecting the experimental data, it is seldom possible to avoid noise when measuring the inputs zi. The use of least squares estimator produces a biased estimation of the linear parameters in the case of noisy input output training data set, which leads to an erroneous output estimation. This paper proposes the use of an estimation procedure based on the error in variables model to estimate the linear parameters (for supervised learning) when the training set is made up of input and output data corrupted by noise. The geometrical interpretation of the proposed estimation criterion is given in order to illustrate its advantage with respect to the least squares criterion. The improved performances in non linear function approximation is illustrated with a simulation example.
Subject: Réseau neuronal; Réseau fonction base radiale; Apprentissage; Approximation; Fonction non linéaire; Estimation paramètre; Algorithme
Publisher: GRETSI, Saint Martin d'Hères, France
Date: 2003

This item appears in the following Collection(s)

Show full item record





Advanced Search