- DSpace Home >
- Traitement du Signal >
- Search >
Search
Showing 10 out of a total of 20 results for community: Traitement du Signal. (0.029 seconds)
-
(GRETSI, Saint Martin d'Hères, France, 1999)Le recalage non supervisé d'images médicales volumiques reste un problème difficile en raison de l'importante variabilité et des grandes différences d'information pouvant apparaître dans des séquences d'images de même modalité ou dans des couples d'images multimodales. Nous présentons dans cet article des méthodes robustes de recalage rigide d'images 2D et 3D monomodales et multimodales, reposant sur la minimisation de mesures de similarité inter-images. Les méthodes proposées s'appuient sur la théorie de l'estimation robuste et mettent en oeuvre des M-estimateurs associés à des techniques d'optimisation stochastique multigrilles rapides. Ces estimateurs robustes sont évalués à travers le recalage d'images médicales volumiques monomodales (IRM/IRM) et multimodales (IRM/TEMP). Ils sont comparés aux autres fonctions de similarité classiques, proposées dans la littérature. Les méthodes de recalage robustes ont, en particulier, été validées dans le cadre d'un protocole comparatif mis en place par l'Université de Vanderbilt. Elles sont actuellement utilisées en routine clinique et conduisent, tant pour les images de même modalité que pour les images multimodales à une précision sous-voxel, comparable aux meilleures méthodes actuelles. Elles permettent de plus de recaler des couples d'images sur lesquels les méthodes classiques échouent....
-
4 - Segmentation d'images : recherche d'une mise en oeuvre automatique par coopération de méthodes (GRETSI, Saint Martin d'Hères, France, 1998)Dans cet article, nous proposons un système de segmentation adapté à l'analyse de plusieurs types d'images, riches en détails et dont les régions peuvent être de nature uniforme et/ou texturée. Un intérêt tout particulier a été accordé à l'aspect automatique et non-supervisé du dispositif. Le système proposé combine deux concepts. Le premier, fondé sur un procédé d'intégration d'informations issues de différentes méthodes de segmentation, permet de tirer parti des avantages de chacune d'elles. Le second concept s'inspire de la perception active par l'introduction d'une boucle de retour dans le système afin de corriger et d'ajuster les paramètres de contrôle de l'ensemble des méthodes employées. Le principe de la coopération proposée introduit un mécanisme de vérification de la cohérence par comparaison des résultats des méthodes impliquées dans la coopération. Ce dernier aspect fait défaut à un bon nombre d'approches coopératives. Le système développé est composé de deux modules. Le premier est dédié à l'extraction de régions uniformes ou faiblement texturées. Le principe est fondé sur une coopération itérative entre une méthode de détection de contours et une méthode d'agrégation de points. Ces deux méthodes sont itérées avec des critères de plus en plus tolérants jusqu'à la convergence vers des résultats cohérents et stables. La cohérence est réalisée en minimisant une mesure de dissimilarité entre les contours et les régions. Le but est ainsi de fournir une solution optimale au sens de la compatibilité entre les résultats des deux segmentations. Le second module localise les régions texturées et contribue à la réactualisation et à la correction des contours extraits à chaque itération du premier module. Cette localisation s'appuie sur une classification automatique par multi-seuillage exploitant certains mécanismes de la perception visuelle, et sur une fusion des régions multi-seuillées minimisant un critère de similarité....
-
(GRETSI, Saint Martin d'Hères, France, 1999)Cet article traite de l'utilisation d'algorithmes de vision artificielle et de techniques de réalité augmentée dans le but d'améliorer les fonctionnalités des postes de téléopération déjà utilisés à EDF. Au cours d'une opération de maintenance sur site, la connaissance exacte de la géométrie de l'environnement distant sur lequel le robot intervient est cruciale puisque ce modèle constitue le seul monde connu sur lequel s'appuyent les assistances proposées par le système informatique. Le système décrit ici combine des outils d'analyse d'images et de réalité augmentée au sein d'un environnement interactif contrôlé par un opérateur humain. L'utilisation d'un algorithme de recalage automatique permet à l'opérateur de spécifier interactivement un modèle géométrique et sémantique du site distant en s'appuyant sur les images du site retournées par des caméras embarquées. Cet algorithme permet en outre au système informatique de maintenir à jour le modèle global de l'environnement lors de changements de configuration ou de point de vue mal estimés. L'approche retenue, qui sera détaillée dans ce papier, opère sur des objets paramétriques à surface courbe....
-
Untitled (GRETSI, Saint Martin d'Hères, France, 1999)
-
(GRETSI, Saint Martin d'Hères, France, 1997)Dans cet article, on propose une nouvelle stratégie pour aborder le problème de l'analyse du mouvement dans les séquences d'images. L'originalité de l'approche consiste à considérer une séquence d'images non pas comme une succession d'images 2D mais comme un flux de données à trois dimensions (x,y,t). En appliquant cette stratégie au problème de la détection de mouvement dans des séquences d'images acquises avec une caméra fixe, on définit un modèle markovien spatio-temporel associé à une relaxation spatio-temporelle. Grâce à une modélisation fine des interactions dans le voisinage 3D pris en compte, on obtient des résultats intéressants pour détecter des objets dans des séquences d'images très bruitées ou des objets dont le déplacement est faible d'une image à l'autre. Pour améliorer les performances de l'algorithme lors de la détection d'objets peu texturés ou de mouvement sous-pixel, on peut également l'intégrer dans une structure multirésolution pour laquelle la hiérarchisation des données provient de filtrages passe-bas et de sous-échantillonnages dans chacune des trois dimensions x, y et t. Des résultats obtenus sur des séquences synthétiques et naturelles montrent l'intérêt de cette approche....
-
(GRETSI, Saint Martin d'Hères, France, 1997)Cet article propose une méthode de filtrage multiéchelle du bruit de speckle présent dans les images radar à ouverture synthétique. Ce filtrage est basé sur l'utilisation de l'algorithme à trous et s'inspire des méthodes multiéchelle d'extraction des structures significatives développées pour l'imagerie astronomique. Cependant, la nature multiplicative du bruit de speckle conduit à reconsidérer la méthode de seuillage dans l'espace des ondelettes et une première approche basée sur une transformation logarithmique de l'image est présentée. Une seconde approche, s'appuyant sur l'énergie du signal permet d'obtenir des images filtrées ayant une meilleure précision radiométrique. L'information fournie par les coefficients d'ondelettes significatifs est exploitée dans une analyse originale de l'image afin de mettre en évidence les variations temporelles des structures aux différentes échelles, et d'extraire les structures significatives aux petites échelles....
-
(GRETSI, Saint Martin d'Hères, France, 1998)Nous présentons ici une méthode d'analyse d'images de différence issues de la Tomographie par Emission de Positons (TEP) qui repose sur une description explicite de la structure de ces images. Les images TEP permettent, par l'intermédiaire du débit sanguin cérébral, de rendre compte de l'état fonctionnel du cerveau. En utilisant la différence entre deux images d'un même sujet, on essaye de déterminer les différences d'activité cérébrale entre deux états. Ces différences sont supposées être spécifiques d'une tâche isolée par la différence entre les deux états, et nous les appellerons « activations fonctionnelles ». L'objectif est donc de caractériser les activations fonctionnelles dans ces images de différence, tout en préservant l'information individuelle propre au sujet, ce qui n'est pas le cas des méthodes statistiques classiques, qui s'intéressent surtout à l'information moyenne sur l'ensemble des sujets. Un espace d'échelles (« scale-space ») linéaire tri-dimensionnel est d'abord construit à partir de l'image de différence originale, puis des objets sont extraits à chaque niveau d'échelle de manière entièrement automatique. ces objets sont ensuites liés dans les échelles pour former d'autres objets dans le scale-space. Des mesures sont alors définies et associées à chacun d'eux, afin de caractériser les activations fonctionnelles. Une étude sur la pertinence des objets définis et l'utilisation possible des mesures associées est présentée....
-
(GRETSI, Saint Martin d'Hères, France, 1996)La fusion des résultats en analyse d'images pose de nombreux problèmes de modélisation et de représentation des connaissances parmi lesquels, on peut mentionner: . la difficulté de définir exhaustivement les conditions d'utilisation des traitements en fonction du contexte, . la difficulté d'évaluer les résultats des traitements, . la difficulté d'élaborer des stratégies faisant coopérer plusieurs traitements ou fusionnant des résultats. Le système ADAGAR (Atelier de Développement d'AGents sur Architecture Répartie) propose des solutions à ces problèmes. ADAGAR résulte de concepts élaborés dans le projet BBI (BlackBoard Image). L'objectif du projet BBI était de concevoir sur une architecture multi-processeurs, un système perceptif d'interprétation d'images issues de sources différentes. L'idée n'était pas d'élaborer de nouveaux opérateurs de traitements d'images, mais de développer une structure d'accueil des traitements existants. Une des particularités du système réside dans l'expression de connaissances d'estimation a priori (scores d'aptitude). La formalisation de ces connaissances est inspirée de la théorie de Dempster-Shafer. Le formalisme employé permet de représenter l'ignorance sur les conditions d'activation d'un traitement dans un contexte particulier. Le prototype BBI contient actuellement une trentaine d'agents. Il fonctionne sur des couples d'images aériennes ou satellitaires dans les spectres visible/infrarouge et visible/radar. BBI élabore dynamiquement une ou plusieurs stratégies de recherche, à partir des spécificités des images traitées et des objets à détecter. Les coopérations entre les traitements au bas niveau, les fusions d'informations et les focalisations d'attention au niveau symbolique sont les principales raisons du bon fonctionnement du prototype. Intelligence artificielle distribuée, Système multi-agents, Système réparti, Interprétation d'images....
-
(GRETSI, Saint Martin d'Hères, France, 1999)L'estimation quantitative des autoradiogrammes par une somme de gaussiennes est une approche très utilisée. Elle est rendue possible grâce au développement des méthodes densimétriques utilisables après digitalisation de l'image d'autoradiographie du gel. La métrologie apportée par l'analyse et le traitement d'images permet d'éliminer les appréciations subjectives visuelles et humaines. Plusieurs études ont été réalisées sur ce sujet. Notre contribution consiste à valider cet approche par son application à des fragments d'ARN de tailles très proches. Nous montrons qu'il est possible d'évaluer directement par le calcul le niveau d'expression d'ARN dans une configuration d'expérience déterminée, évaluation très difficile à obtenir par d'autres méthodes....
-
(GRETSI, Saint Martin d'Hères, France, 1998)Les modèles markoviens spatiaux non causaux utilisés dans le domaine de l'analyse d'images conduisent à des algorithmes d'estimation itératifs, réputés pour leur complexité calculatoire. Dans cet article, nous considérons une classe de processus markoviens hiérarchiques et non linéaires, définis sur le quadarbre. Ces modèles markoviens présentent des propriétés de causalité en échelle qui permettent de construire des algorithmes non itératifs exacts, similaires à ceux existant pour les chaînes de Markov, dans le cas des signaux mono-dimensionnels. Nous présentons ainsi une version originale de l'algorithme de Viterbi sur le quadarbre, associé à une estimation exacte au sens du Maximum A Posteriori (MAP), ainsi que deux autres algorithmes d'estimation, respectivement associés à un critère du MAP modifié et au critère du MPM (mode de la marginale a posteriori). Deux nouveaux algorithmes EM, permettant une estimation non supervisée sur le quadarbre, sont également introduits pour cette classe de représentations. Les propriétés de ces modèles et algorithmes sont illustrées et comparées, pour un problème simple de classification d'images, sur des images synthétiques et réelles....