La ROADEF
La R.O.A.D
Evénements
Prix
Publications
Plus
Forums
Connexion
Livre blanc

Cédric-Cnam/Stage M2 : Apprentissage pour une optimisation efficace du SAR interférométrique

Forum 'Stages' - Sujet créé le 2024-11-18 par Amélie Lambert

Contexte scientifique

Les récentes missions de télédétection (Sentinel-1, UAVSAR, TerraSAR-X, etc.) ont permis d’obtenir une quantité sans précédent d’images radar à synthèse d’ouverture interférométrique (InSAR) sous forme de séries temporelles. Ces données combinées à des techniques multi-temporelles ont permis d’améliorer considérablement la précision de l’estimation des déplacements de surface. La résolution de ce problème permet par exemple de surveiller l’affaissement des zones urbaines du aux travaux de construction, ou les faibles changements dans la topologie de sites naturels tels que les volcans. Dans ce contexte, le "phase-linking" interférométrique (IPL) a émergé comme une méthodologie fondamentale pour estimer les différences de phase. L’idée principale derrière
cette technique est de tirer parti de la redondance de la série temporelle afin de compenser la perte de cohérence entre les images au fil du temps, comme l’illustre la Figure.

Interférogramme naïf formé entre deux images SAR (à gauche) et interférogramme formé avec IPL en tirant parti d’une série temporelle entre ces deux images (à droite).
La formulation initiale de l’IPL a été obtenue dans le cadre d’une estimation par maximum de vraisemblance approchée, en supposant un modèle gaussien circulaire complexe. Cette procédure d’estimation correspond ainsi à un problème d’optimisation visant à récupérer les estimations de phase à partir de la matrice de covariance de chaque patch de pixels. De nombreuses variantes ont par la suite été introduites, par exemple en améliorant l’étape de pré-estimation de la cohérence, en relaxant le problème d’optimisation, ou en supposant des modèles non gaussiens. Un aperçu des avancées dans ce domaine est disponible dans [2] et [3]. Cette technique InSAR est très précise (nous pouvons surveiller les déplacements de surface jusqu’à l’échelle du millimètre), mais peut devenir coûteuse sur le plan calculatoire à grande échelle. Ainsi, ce stage vise à développer de nouveaux algorithmes efficaces pour cette application en combinant des techniques d’optimisation avancées et des méthodes d’apprentissage.

Objectifs du stage

Dans les formulations les plus courantes, l’IPL nécessite de résoudre un problème d’optimisation, dont la variable est un vecteur de phases. Les principaux algorithmes de l’état de l’art résolvent le problème suivant :
minimize  { w^H M w :  |w_i | = 1 et w_i∈C, ∀ i ∈ [1, p] }  (1)
où M est construit à partir d’un patch de pixels multivariés X = {x_i }_{i =1}^n (chaque vecteur x_i stocke les valeurs d’un pixel à différents instants), et dépend du choix d’une distance matricielle [3]. En pratique, ce problème peut être résolu de manière approchée par des méthodes itératives, telles que la descente de gradient Riemannienne. Cela soulève deux principaux problèmes que nous visons à résoudre dans ce stage :

  1. Les méthodes mentionnées précédemment convergent vers un optimum local du problème (1), mais ne  garantissent pas l’optimalité globale. Le problème rappelle la formulation du "max-cut" (lorsque w est à valeurs réelles), il serait donc intéressant de dériver des certificats d’optimalité globale pour ces solutions notamment par le biais de techniques de relaxation SDP [4].
  2. Le processus est coûteux en termes de puissance de calcul : pour chaque patch de pixels, il faut construire une matrice M de dimension p × p, puis appliquer des algorithmes itératifs pour résoudre le problème (1). Cette approche passe difficilement à l’échelle, que ce soit lorsque p devient grand (beaucoup d’images dans la série temporelle), ou lorsque les images couvrent une grande surface (beaucoup de patchs de pixels à traiter). Ainsi, nous utiliserons des méthodes d’apprentissage pour résoudre ce problème. Deux pistes sont envisagées :
  • Approcher la sortie de l’algorithme d’estimation par un un réseau de neurones pour imiter la solution du problème (1). Dans ce cadre, les choix de l’architecture du réseau, et de la mesure d’erreur les plus pertinents restent à déterminer. 
  • Développer des méthodes itératives accélérées de type unrolled algorithms. En effet, ces techniques ont montré de bonnes performances pour les problèmes de régression [1], mais doivent être adaptées pour tenir compte des variables à valeurs complexes et des contraintes de norme.

Connaissances requises : Optimisation, réseau de neurones, Connaissance d’un langage quelconque de programmation

Encadrants :
Zacharie Alès, zacharie.ales@ensta-paris.fr
Amélie Lambert, amelie.lambert@cnam.fr
Arnaud Breloy, arnaud.breloy@cnam.fr
Javiera Castillo-Navarro, javiera.castillo-navarro@lecnam.net
Lieu : CEDRIC-Cnam (Paris)
Durée : 6 mois
Poursuite en thèse possible : oui

Références
[1] Pierre A BLIN et al. “Learning step sizes for unfolded sparse coding”. In : Advances in Neural Information Processing Systems 32 (2019).
[2] Dinh Ho Tong MINH et Stefano TEBALDINI . “Interferometric Phase Linking : Algorithm, application, and perspective”. In : IEEE Geoscience and Remote Sensing Magazine 11.3 (2023), p. 46-62.
[3] Phan Viet Hoa V U et al. “Covariance Fitting Interferometric Phase Linking : Modular Framework and Optimization Algorithms”. In : arXiv preprint arXiv:2403.08646 (2024).
[4] Irene WALDSPURGER, Alexandre D A SPREMONT et Stéphane M ALLAT . “Phase recovery, maxcut and complex semidefinite programming”. In : Mathematical Programming 149 (2015), p. 47-81.