- DSpace Home >
- Traitement du Signal >
- Search >
Search
Showing 10 out of a total of 19 results for community: Traitement du Signal. (0.034 seconds)
-
(GRETSI, Saint Martin d'Hères, France, 2004)L'estimation de la dispersion est un objectif important en traitement des signaux sismiques, notamment lors de l'acquisition de données surfaciques. Nous proposons dans cet article un nouvel algorithme qui effectue l'estimation de la dispersion d'une onde à partir d'un réseau linéaire de capteurs en utilisant les propriétés du plan temps-fréquence. Cette estimation permet une caractérisation robuste et l'extraction des ondes dispersives d'un profil sismique. Les méthodes classiques sont basées soit sur l'interprétation des représentations temps-fréquence de chaque trace, soit sur l'interprétation de la représentation fréquence-vitesse de l'image du profil en entier. Notre méthode peut être interprétée comme une approche hybride dans la mesure où elle propose une représentation simultanée temps-fréquence-vitesse. Dans cet algorithme, l'étape cruciale est la modélisation de la propagation par une double correction : déphasage et retard, et ce, autour de chaque fréquence. Le principal avantage de notre algorithme est que le gain obtenu en résolution permet de séparer plus facilement les différentes ondes. Une comparaison entre les différentes méthodes classiques et la méthode proposée est présentée sur un profil synthétique complexe ainsi que sur des données réelles....
-
(GRETSI, Saint Martin d'Hères, France, 1998)Les nombres complexes jouent un rôle important en physique et dans de nombreuses autres sciences d'observation. Les variables et les signaux aléatoires sont également un modèle mathématique riche d'applications. Nous proposons ici des modèles pour les variables et les signaux aléatoires complexes. Nous montrons comment ces modèles introduisent des signaux utiles (signal analytique) et des concepts nouveaux (circularité). Nous illustrons les propriétés de ces modèles complexes en estimation, traitement d'antenne et séparation de sources......
-
(GRETSI, Saint Martin d'Hères, France, 1997)Dans cet article, on s'intéresse à la séparation des ondes sismiques multicomposantes. C'est le problème principal de la phase de prétraitement qui précède toute interprétation physique des données. Nous utilisons l'estimateur classique du maximum de vraisemblance (MV) appliqué à des signaux à large bande de fréquences. Nous illustrons notre propos par des résultats obtenus sur des signaux sismiques expérimentaux. Ces signaux sont issus d'un profil sismique vertical oblique (PSO)....
-
6 - Etude théorique et expérimentale de réducteurs de bruit : Application au débruitage de la parole (GRETSI, Saint Martin d'Hères, France, 1997)Le problème traité est celui de l'estimation d'un signal perturbé par un bruit additif lorsque l'on dispose de deux observations chacune composée d'un signal et d'un bruit additif. On se place dans le cas où les signaux utiles sur chaque voie sont déduits d'un même signal par filtrage linéaire et les bruits complètement décorrélés. Nous cherchons à évaluer l'apport de la deuxième observation pour une meilleure estimation du signal par rapport au cas où une seule observation est disponible. Le filtrage de Wiener vectoriel ainsi que deux structures sous-optimales dites PIS (Prétraitement + Identification entre Signaux) proposées pour l'amélioration de la parole bruitée sont présentés. Une étude théorique (en supposant optimaux les filtres utilisés) est d'abord menée : ces différents systèmes ainsi que le filtrage de Wiener mono-voie sont comparés entre eux en termes de distorsion, bruit résiduel et erreur globale sur le signal à estimer. Un classement de ces méthodes est donné en fonction des valeurs relatives des rapports signal à bruit sur chaque voie. Nous montrons l'intérêt des deux structures PIS par rapport au filtrage de Wiener mono-voie lorsque le rapport signal à bruit de l'observation sur laquelle est présent le signal à estimer est faible. Après une présentation des différents algorithmes effectivement utilisés dans le cadre du débruitage de la parole, nous les appliquons à des signaux réels enregistrés dans une voiture. Une comparaison des algorithmes est faite suivant des critères objectifs et des tests d'écoute. Les résultats indiquent une supériorité des deux méthodes PIS par rapport aux filtrages de Wiener mono-voie et bi-voie....
-
(GRETSI, Saint Martin d'Hères, France, 1999)Dans ce papier, nous donnons un aperçu des méthodes classiques d'identification des signaux linéaires non gaussiens de type à moyenne ajustée basées sur les statistiques d'ordre supérieur (SOS). Puis, nous proposons trois méthodes d'estimation globale : la première combine l'autocorrélation et les cumulants et les deux autres exploitent les cumulants seuls. L'une d'entre elles généralise la méthode de Zhang et al., La deuxième est une modification de l'approche reformulée de Giannakis et Mendel. Elle est obtenue en remplaçant les moments d'ordre deux, sensibles aux bruits gaussiens, par des cumulants, grâce à une relation qu'on développera. Finalement nous testons par simulations les performances des trois méthodes proposées et nous les comparons à d'autres approches existantes. Les résultats montrent que la méthode proposée généralisant celle de Zhang et al., fournit de bons résultats et qu'elle est plus résistante aux effets des bruits blancs ou colorés....
-
(GRETSI, Saint Martin d'Hères, France, 1999)Nous traitons dans cet article de l'estimation de signaux chirp dont l'amplitude, déterministe, varie dans le temps. Nous proposons une alternative à l'estimateur du Maximum de Vraisemblance qui est plus simple d'un point de vue calculatoire. Pour ceci, nous utilisons le principe d'invariance étendu qui permet de scinder le problème de minimisation et de découpler l'estimation des paramètres de phase de celle des paramètres d'amplitude. Dans un premier temps, en utilisant un modèle moins détaillé pour le signal, c'est-à-dire en considérant que tous les échantillons de l'amplitude sont à estimer, on obtient de manière simple les paramètres de phase. Les paramètres d'amplitude sont ensuite estimés par une technique des moindres carrés. La procédure permet d'obtenir des estimateurs asymptotiquement efficaces. Des simulations numériques viennent valider l'étude théorique....
-
(GRETSI, Saint Martin d'Hères, France, 2004)Ce papier illustre l'utilisation de techniques de traitement d'image pour segmenter le plan temps-fréquence (et temps-échelle). Cette étude est appliquée à la séparation d'ondes sismiques. On considère des données issues d'une rangée de capteurs. Pour chaque signal enregistré, l'application d'une transformée temps-fréquence décrit l'information dans une image sur laquelle les différentes ondes sont localisées et séparées. La segmentation par Ligne de Partage des Eaux (LPE) de ces représentations à deux dimensions permet une caractérisation automatique des filtres temps-fréquence menant à la séparation des différentes ondes. Ensuite, pour appliquer cet algorithme de séparation à l'ensemble des signaux issus des différents capteurs, on utilise la continuité d'un signal à l'autre pour effectuer le suivi des différentes ondes d'une image à l'autre. Hormis une phase d'initialisation, on obtient ainsi un algorithme automatique. Cet algorithme est validé et comparé à une méthode classique en sismique sur un jeu de données réelles. En comparaison, l'algorithme proposé a l'avantage de séparer toutes les ondes simultanément, et sans introduire d'artefacts. Les limites de l'algorithme sont atteintes lorsque les motifs caractérisant chacune des ondes ne sont plus convenablement séparés dans la représentation temps-fréquence....
-
(GRETSI, Saint Martin d'Hères, France, 1986)Moyenne statistique de la fonction S(X,θ), variance des estimateurs de θ, borne inférieure...
-
(GRETSI, Saint Martin d'Hères, France, 1994)
-
(GRETSI, Saint Martin d'Hères, France, 1996)Cet article présente un aperçu historique de l'évolution de la notion de probabilité. Les différentes classes de probabilités et l'antagonisme entre objectivistes (ou fréquencistes) et subjectivistes sont présentés. On montre ensuite comment certains travaux, à la suite de ceux de Cox, s'attachent à déduire ce que d'autres appellent les axiomes des probabilités d'un certain nombre de postulats de base correspondant bien à l'intuition. Ces postulats peuvent ensuite être modifiés pour faire face aux limites des probabilités et donnent lieu à d'autres approches, non probabilistes, de la fusion de données (ensembles flous, possibilités, Dempster-Shafer par exemple). Dans la théorie des croyances de Dempster-Shafer, la règle de combinaison, présentée à l'origine sans véritable justification, peut également être déduite de postulats, comme le montrent les travaux de Smets. Nous établissons les liens entre ses postulats et ceux de Cox. Enfin, un exemple de combinaison de témoignages vient illustrer les différences entre les résultats obtenus selon quelques unes des méthodes proposées dans l'histoire des probabilités pour combiner des informations....