Équipe IMAGeS : Images, Modélisation, Apprentissage, Géométrie et Statistique

Différences entre les versions de « Analyse statistique et problèmes inverses »

De Équipe IMAGeS : Images, Modélisation, Apprentissage, Géométrie et Statistique
Aller à la navigation Aller à la recherche
m (Admin a déplacé la page ASPI vers Analyse statistique et problèmes inverses)
(Aucune différence)

Version du 21 décembre 2012 à 11:13

Analyse Statistique et Problèmes Inverses

Ce thème s'intéresse à l’ensemble des approches méthodologiques basées sur l’utilisation des statistiques et des outils associés à l’inférence bayésienne pour l’analyse, le recalage, la segmentation, la détection, la classification, la fusion et la visualisation des signaux et des images au sens large, incluant les observations multivariées ou multimodales. L’approche bayésienne que nous privilégions s’appuie sur la théorie des modèles graphiques et de la marginalisation, elle a pour but non seulement l’estimation des variables d’intérêt mais également l’évaluation des incertitudes liées aux paramètres estimés.

Image 156.jpeg
Bilan des activités sur la période 2007-2011

Le thème a travaillé sur les familles de méthodes markoviennes où les processus de segmentation en jeu sont des opérations complexes lorsque le bruit prédomine sur le signal utile et nécessite la prise en compte de l'incertitude sur les données observées. On peut tenter de contourner cette difficulté en utilisant, quand elle est disponible, une information multimodale ou multispectrale pour renforcer la robustesse du processus de décision, même si cette approche multivariée a ses limites, liées en particulier à la complexité croissante du modèle (phénomène de Hughes) et à la prise en compte adéquate du bruit multivarié (théorie des copules). Une approche complémentaire a été explorée, qui consiste à introduire dans nos modèles markoviens, la notion d'imprécision intrinsèque des étiquettes dans le processus d’étiquetage. Nous avons montré que la modélisation floue des états cachés sur chaînes ou sur champs markoviens pouvait améliorer le processus de segmentation, en prenant en compte la variation locale de la densité de probabilité du bruit (non stationnarité). Autour de la même problématique de segmentation, et dans le cadre de notre collaboration avec le département d’informatique de l’université de Ioannina (Grèce), nous avons contribué à l’élaboration de modèles contextuels gaussiens et d’algorithmes probabilistes innovants permettant d’autoriser des ruptures dans le vecteur décrivant les paramètres du mélange et de proposer des algorithmes d’estimation des paramètres et hyperparamètres impliqués. L’estimation a été réalisée par algorithme Expectation-Maximization et par approche bayésienne variationnelle. Ces modèles ont été mis en œuvre en imagerie physique (traitement de données polarimétriques) et pour des problèmes bidimensionnels en imagerie cérébrale.

Des travaux ont été menés sur la décomposition conjointe de spectres sur des cubes radio-astronomiques. Afin de distinguer des structures cinématiques (gaz) dans ces cubes, nous avons proposé de décomposer les spectres indépendamment les uns des autres en une somme de raies dont le nombre et les paramètres (position, amplitude et largeur) sont estimés : c'est un problème d'extraction d'objets établi ici dans le cadre bayésien où l'algorithme RJMCMC permet ensuite de calculer une estimation. Nous avons développé une méthode basée sur la décomposition conjointe de spectres. L'approche privilégiée consiste à décomposer tous les spectres en même temps, et non plus séparément. Le modèle est établi dans un cadre bayésien : l'a priori sur les paramètres des raies (positions, amplitudes, largeurs) est un champ de Markov gaussien qui permet à la fois de contraindre les décompositions à être semblables et d'adoucir l'évolution des paramètres au sein de la séquence de spectres.

Des développements originaux utilisant des modèles graphiques pour la fusion d'images hétérogènes (prises avec différents capteurs, résolutions et bandes spectrales) ont été proposés à travers l'estimation d'un seul modèle, de résolutions spatiale et spectrale arbitraires. Il s'agit de construire un objet géométrique et radiométrique qui préserve l'information utile présente dans les données initiales. L'originalité de l'approche réside dans l'intégration des processus d'acquisition d'images et d'un modèle des objets observés (images 2D ou terrains 3D). Pour cela nous utilisons une approche probabiliste qui permet la modélisation des processus de formation des données images (géométrie, flou, échantillonnage, etc.), et qui s'appuie sur la théorie des modèles graphiques (modèle direct) et l'inversion par marginalisation et optimisation fonctionnelle. Le but visé est l'estimation des variables d'intérêt mais aussi l'évaluation des incertitudes liées aux paramètres estimés. La notion de fusion de données permet ainsi de pallier la redondance d'information et de profiter de la complémentarité des données. Grâce aux incertitudes, la fusion peut être effectuée de manière récursive au moyen de mises à jour successives du modèle.

D’autres travaux ont porté sur le développement de méthodes de modélisation statistique en imagerie tensorielle (avec des applications en détection de changements en IRM de diffusion, dont les données sont intrinsèquement multivariées). Les méthodes développées s’appuient sur les approches élaborées récemment pour définir des modèles et des méthodes d’analyse statistique sur des espaces qui ne sont pas des espaces vectoriels (variétés riemanniennes). Des modèles vectoriels gaussiens, associés à des tests d’hypothèses ont dans un premier temps été évalués. Des modèles log-normaux ont ensuite été considérés pour des tenseurs d’ordre 2 (espace des matrices définies positives). Les recherches en cours portent sur des tenseurs d’ordre supérieur à 2, qui offrent davantage de puissance de modélisation dans le contexte de l’IRMd.

En complément des travaux précédents, nous nous intéressons à la représentation et à la modélisation probabiliste de jeux de données de grande dimension. Il s’agit d’abord de capturer les degrés de liberté des données, supposées appartenir à des variétés, c’est-à-dire de représenter le jeu de données de référence dans un espace de faible dimension. Il s’agit ensuite d’élaborer des modèles probabilistes dans cet espace réduit et de mettre en oeuvre des méthodes à noyaux pour réaliser partitionnement et classification, toujours dans l’espace réduit. Ces modèles sont ensuite utilisés pour l’analyse de nouvelles données, à des fins de diagnostic et de suivi thérapeutique.

Dans le contexte de la modélisation des formes et de leur variabilité, des contributions ont également été apportées à l’introduction decontraintes statistiques de type géométrique dans les contours actifs orientés région et les modèles géodésiques. Des modèles compactsde formes (bases polynomiales de Legendre) associés à des représentations invariantes par transformation affines ont été développés et appliqués à la segmentation d’images.

Nous avons enfin travaillé sur l'analyse de sons pour la détection de signatures précoces associées à des pathologies pulmonaires. Nous avons proposé une méthode de détection des phases respiratoires (inspiration, expiration, apnée) et le recalage permettant la localisation des descripteurs dans le cycle basée sur l'utilisation de chaînes de Markov permettant de prendre en compte la structure imprécise mais régulière du cycle respiratoire. L'approche par théorie de l'évidence a également été abordée pour modéliser l'imprécision intrinsèque du modèle. Nous avons ensuite proposé et validé un nouveau descripteur d'anormalités respiratoires basé sur la distribution des coefficients du signal décomposé en paquet d'ondelettes, en modélisant l'attache aux données multivariées corrélés issues de diverses observations inter et intra patient. Cette approche a permis la définition