目錄
1. 選題的背景和意義
1.1 選題的背景
1.2 國內外研究現狀
1.3 發展趨勢
2.研究的基本內容
2.1 主要研究內容
(1)訓練與測試數據集構建
(2)基于深度學習的高精度衛星影像配準模型
(3)多源影像配準原型系統開發
2.2基本框架
2.3 研究的重點和難點
2.4 擬解決的關鍵問題
3.研究的方法及措施
4.預期研究成果
參考文獻
1. 選題的背景和意義
????????隨著遙感技術的快速發展,高分辨率衛星圖像以其豐富的細節信息在國土資源監測、生態環境保護、城市規劃、防災減災等領域得到了廣泛應用。然而,不同時間、傳感器或觀測角度獲取的衛星圖像之間通常存在幾何差異,這對后續的數據分析與處理提出了較高要求。圖像配準作為遙感圖像處理的基礎技術,旨在將兩幅或多幅來源不同的圖像對齊,從而實現空間信息的準確疊加。近年來,深度學習在計算機視覺領域的突破為高分辨率衛星圖像的配準帶來了全新思路。通過端到端的學習模式,深度學習方法能夠自動提取魯棒特征,構建非線性變換模型,有效提升配準的精度和魯棒性。
1.1 選題的背景
????????在遙感領域,衛星影像已成為地表觀測的重要工具。然而,由于多源衛星影像成像過程中的非線性畸變、傳感器特性差異以及隨機干擾等因素,即使是同一地理區域的影像,往往也存在顯著的幾何錯位。這些錯位會對多源影像的疊加分析和空間信息提取帶來較大的誤差,成為制約多源影像融合分析的關鍵瓶頸。
????????傳統的圖像配準方法,主要基于特征點匹配和灰度信息的相關性分析。這些方法雖然在處理單一傳感器的影像時較為有效,但在面對高分辨率影像中的復雜地物變化、大尺度位移差異以及噪聲干擾時,表現出較大的局限性。同時,人工選取的特征表達能力有限,難以應對復雜的多源影像間的非線性映射關系。
????????近年來,深度學習技術在圖像處理領域展現了強大的非線性建模能力,通過其端到端的學習框架,不僅能夠自動提取高層次特征,還可以直接從數據中學習位移場和變換參數的映射關系。因此,將深度學習方法引入多源高分衛星影像配準任務中,為解決傳統方法的局限性提供了全新的思路。
????????本課題旨在研發一種基于深度學習的兩階段配準模型,針對多源高分光學遙感影像中地物錯位問題,進行精準的圖像配準。通過構建高分遙感配準數據集,并結合深度學習方法,研究從粗略匹配到精確匹配的完整配準框架,為多源遙感影像的空間信息融合與綜合分析提供技術支撐。這一研究不僅具有重要的理論意義,也為國土資源管理、城市規劃、生態監測等應用提供了實際價值。
1.2 國內外研究現狀
????????隨著遙感技術的迅猛發展,高分辨率衛星圖像配準已成為遙感影像分析、地表變化檢測和地理信息系統更新的重要基礎環節。傳統配準方法依賴于特征匹配與幾何變換模型,但在面對多傳感器、多時相及復雜場景的影像時,存在精度受限、計算量大等問題。近年來,深度學習技術的引入,為遙感影像配準提供了新的解決思路,極大地提高了自動化程度與配準精度。國內外學者在基于深度學習與特征匹配的高分辨率衛星影像配準方面進行了大量研究,逐漸形成了從基于傳統特征提取方法到深度學習模型優化的發展路徑。
????????在1990年代,基于傳統圖像處理算法的研究逐漸興起。當時的技術主要集中在像素級的手動圖像配準上,涉及簡單的幾何變換和影像對齊方法。然而,由于傳感器分辨率低,配準的精度和復雜場景下的適用性受限。
????????2007年,Ahmed Shaker提出了基于線特征的變換模型(LBTM),通過線性特征替代傳統的控制點進行影像配準,特別適用于控制點缺乏的復雜地形區域。LBTM不依賴傳感器校準數據,通過仿射或共形變換描述線段之間的空間關系,實現影像的幾何校正。通過合成數據與實際數據驗證,LBTM的配準精度與基于點特征的方法相當,在沙漠、森林等地形中表現出色。此外,該方法簡化了影像配準的數學模型,且不需要初始近似值,具有較高的實用性與計算效率?。
????????2016年,Diego Marcos等人提出了一種中層傳感器不變特征(SDSN)方法[2],旨在解決多傳感器影像間的非線性錯位問題。該方法通過計算空間光譜鄰域的分布特征,將影像區域編碼為域不變的描述符。使用馬爾可夫隨機場(MRF)模型結合局部鄰域先驗,確保跨傳感器影像的匹配穩定性。此外,方法對影像進行超像素分割,以減少計算復雜度并增強配準精度。實驗結果表明,SDSN特征在多時相、多傳感器遙感影像中表現出較強的魯棒性,能夠有效檢測地物變化區域。該方法被成功應用于土地覆蓋更新和變化檢測任務,為多模態影像配準提供了新的解決思路?。
????????2014年,Konstantinos Karantzalos等人提出了一種基于馬爾可夫隨機場(MRFs)和線性規劃的高效自動化多模態衛星數據配準框架[3]。通過將配準問題轉化為離散優化問題,結合數據特定能量項,算法能夠有效利用遙感數據的光譜特性。此外,該方法采用基于網格的變形模型,通過控制網格節點來實現影像間的變形映射,并使用插值策略擴展其影響范圍。在東希臘阿提卡地區的多模態多時相數據集上驗證了該框架,數據包括光學和雷達影像。實驗結果表明,該方法能夠在10分鐘內完成光學影像的配準,雷達影像配準時間小于15分鐘,且實現了高精度幾何校正,誤差在2-3個像素以內。該框架的模塊化特性使其適用于不同類型的多模態遙感數據配準?。
????????2016年,Lichao Mou等人[4]提供了一套多時相、多模態高分辨率影像與視頻數據,包括Deimos-2衛星影像和國際空間站Iris攝像機拍攝的視頻。參賽團隊提出了多種融合遙感與計算機視覺的創新方法,例如深度學習聯合場景標記與時空活動建模、隨機場模型實現多時相影像的配準與變化檢測等。
????????2016年,aria Vakalopoulou等人[5]提出基于圖模型的聯合配準與變化檢測方法,能夠在同一框架下實現影像的非剛性配準與變化區域識別。該方法通過構建雙層圖結構,將配準任務與變化檢測任務聯系起來,并通過線性規劃優化全局能量函數,確保解的局部一致性。實驗結果表明,該方法在大規模高分辨率影像上表現優異,能夠在變化區域與配準不確定性之間自動平衡,有效識別城市和農田等地物的時空變化。該方法具備高效、模塊化的特點,適用于大規模變化檢測任務?。
????????2018年,Xueli Chang等人提出了一種適用于大尺寸高分辨率衛星影像的配準方法,采用幾何約束的尺度不變特征變換(SIFT)[6],結合了粗到細的匹配策略。首先在低分辨率圖像上執行初始匹配,減少計算負擔,并通過尺度限制(SR-SIFT)篩選出初步匹配點。接著,在高分辨率影像上進行分塊處理,通過幾何約束進一步驗證候選匹配點,確保配準的準確性。為了提高效率,作者使用OpenMP并行處理技術,實現了多線程并行加速。最后,通過TIN(三角不規則網絡)變換將影像進行坐標校正。實驗結果表明,該方法顯著提升了大尺寸高分辨率影像的匹配效率,減少了內存消耗,同時提高了匹配點的數量和分布均勻性。相較于傳統的SIFT算法,該方法在配準時間、準確性和點密度方面表現出明顯優勢。
????????2019年,Maria Vakalopoulou等人[7]提出了一種基于深度卷積神經網絡(CNN)的遙感影像配準方法,設計了一個能夠同時處理線性和非線性變形的新型網絡架構。該方法通過CNN自動學習影像間的變形關系,實現了無監督的影像配準,無需人工標注數據。研究者在網絡中引入了空間變換器模塊(2D Transformer Layer),用于預測剛性和可變形配準參數,并對源影像進行變換,以實現與目標影像的對齊。在多時相和多分辨率高分辨率衛星影像數據集的實驗結果顯示,該方法在配準準確性和處理速度方面均優于傳統基于圖像彈性變形的配準算法。該研究證明了深度學習在遙感影像配準任務中的潛力,特別適用于高分辨率大場景影像的實時處理。
????????2022年,Jinfen Chen等人針對SDGSAT-1熱紅外(TIR)影像與可見光影像的配準與幾何校正任務,提出了改進的RIFT(旋轉不變特征變換)算法[10]。首先,使用同態濾波增強熱紅外影像的細節信息,解決其邊緣模糊問題。隨后,通過二進制模式字符串替代傳統的描述符,生成更穩健的配準特征點。最后,利用兩步正射校正框架,實現從TIR影像到標準正射影像的轉換。實驗驗證顯示,該方法有效增加了配準點的數量和分布均勻性,特別在復雜地形和多樣地物條件下表現出色。此外,通過52個手動選取的地面控制點(GCPs),證明了所提框架在提高幾何校正精度方面的可行性和優越性。
????????2024年,Zhijuan Su等提出了基于邊界引導生成對抗網絡(EO-GAN)的多源異質影像變化檢測方法[12]。該網絡通過邊界信息作為橋梁,將多模態影像映射到統一表示空間,從而提高變化區域的檢測精度。網絡包括邊緣提取子網絡和重建子網絡,通過超像素分割補充數據確保邊緣特征的穩定提取。[12]在異質和同質數據集上的實驗結果表明,該方法優于傳統的特征變換和圖像轉換方法,尤其在高噪聲和有限訓練數據條件下表現出色。該研究為多源遙感影像的變化檢測提供了一種新穎的解決方案,進一步提升了變化檢測的魯棒性和泛化能力。
????????2024年,Wenjia Xu等[13]提出了一種仿射與可變形配準網絡(ADRNet),針對多模態遙感影像的復雜配準任務。ADRNet由仿射變換網絡與可變形配準網絡兩部分組成,通過端到端的深度學習框架實現影像的全局和局部對齊。仿射網絡用于初步幾何對齊,而可變形網絡通過稀疏控制點學習局部扭曲模型,有效應對復雜地形與輻射差異。實驗在多種模態影像(光學、SAR、LiDAR)上進行,結果顯示ADRNet在配準精度上優于傳統基于特征匹配和區域對齊的方法。該方法在對異質影像進行幾何與輻射校正時表現出較高的魯棒性與適應性。
????????2023年,Xiaoping Liu等提出了一種結合局部自相似匹配(LSS)和互信息(MI)的多傳感器影像自動配準方法[14]。首先利用Harris算法提取潛在的控制點,并基于局部內部布局的自相似性進行篩選。隨后,通過貝葉斯概率模型實現特征匹配,并采用粒子群優化(PSO)算法優化點與區域的對應關系,最終生成穩健的映射函數。在Landsat TM、SPOT和RADARSAT SAR影像對上的實驗結果顯示,該方法在面對復雜輻射與幾何扭曲時表現出較高的準確性和效率,優于傳統的SIFT、SURF等方法,驗證了其在多傳感器影像配準任務中的實用性。
????????2022年,Peijing Zhang等提出了基于低秩約束的綜合粗到細配準算法(CCFR)[15]。首先設計了一種低秩約束批量參考提取(LRC-BRE)方法,通過矩陣分解提取穩定的空間特征作為參考影像。其次,提出塊特征匹配與局部線性變換(BFM-LLT)算子,并結合匹配異常值過濾與雙加權塊擬合技術,完成精細配準。實驗結果表明,CCFR在地形起伏劇烈和地表不穩定區域的影像配準任務中表現出較強的魯棒性和精度,顯著優于其他先進的配準算法,適用于復雜地形與低穩定性的高分辨率影像?。
????????2023年,楊毅等人[16]針對多光譜遙感影像間輻射差異導致傳統SIFT算法配準精度不足的問題,提出了一種基于迭代更新策略的SIFT算法。算法通過SIFT提取影像特征點并獲取初始匹配點對,接著通過迭代更新單應性矩陣,不斷優化影像配準結果,實現更高精度的圖像配準。此外,算法有效解決了傳統SIFT在復雜輻射差異場景下魯棒性差的問題。在網通一號和高分二號衛星遙感影像上進行了實驗驗證,結果表明該方法能夠顯著提高配準精度,且在面對復雜地形和輻射差異時具有較高的魯棒性與穩定性。配準誤差較傳統SIFT方法降低約20%-30%,為遙感影像的精確配準提供了有效的解決方案?。
????????2018年,孫超等人提出了一種基于混合方法的自動化衛星遙感圖像配準技術,包括粗配準與精細配準兩個階段[17]。在粗配準階段,使用快速魯棒特征(SURF)方法提取特征點,并結合改進的ICP(迭代最近點)算法解決變換參數;在精細配準階段,引入Lucas-Kanade光流法進行細致的局部配準,并通過優化算法提高誤匹配校正精度。該方案在去噪、特征點提取與匹配、變換參數求解等方面取得了顯著的效率提升。實驗結果表明,混合方法在配準精度與運算速度上較傳統方法有所提高,特別適用于大數據量和多分辨率的遙感影像配準場景?。
????????2020年,黃海波等人針對遙感影像特征匹配過程中灰度差異大、計算量高等問題,提出了改進SIFT算法與基于斜率和距離比值約束的匹配方法[18]。首先改進SIFT的特征提取方式,引入新的梯度計算方法,并簡化金字塔尺度空間的構建。其次,提出基于斜率與距離比值約束的匹配策略,通過篩選匹配點進一步提高匹配的準確性與效率。實驗結果顯示,與傳統SIFT方法相比,該算法在配準時間和精度方面均有顯著提升,尤其在高分辨率遙感影像上表現出良好的魯棒性與實用性。匹配時間減少約40%,錯誤匹配率大幅降低。
????????2020年,Liangzhi Li等人[19]提出了一種基于深度學習回歸模型的遙感影像自動配準方法。網絡采用卷積神經網絡(CNN)結構,通過回歸預測變換參數,從而實現影像的配準。與傳統方法不同,該網絡無需特征提取和匹配,直接學習影像之間的映射關系,具有端到端的特性。實驗在多種傳感器數據集上驗證了方法的有效性,結果表明,該方法配準精度高,且在處理高噪聲與復雜變換時表現優異。與傳統基于特征的算法相比,配準速度提升了30%,配準誤差顯著降低?。
????????2023年,李星華等人[20]描述了基于深度學習的遙感影像配準方法,包括基于區域與基于特征兩類主要方法,重點探討了深度學習在配準中的優勢與挑戰。文章對近年來涌現的深度學習模型進行分類總結,分析了典型的卷積神經網絡(CNN)、生成對抗網絡(GAN)及注意力機制在遙感影像配準中的應用。深度學習在遙感影像配準領域表現出良好的適應性和魯棒性,能夠提取深層次語義特征,解決傳統方法在大變形與復雜場景下的不足。然而,數據集的多樣性與網絡復雜度仍是當前的主要挑戰。文章還分享了多個公開遙感影像配準數據集,提供了重要的參考資源?。
1.3 發展趨勢
????????深度學習在高分辨率衛星影像配準領域的應用得到了顯著提升,主要圍繞著多模態數據融合、模型優化與高效化以及時空信息分析展開。基于深度學習的配準技術逐漸成為遙感領域的重要方向,旨在解決傳統算法在多時相、多傳感器及復雜場景下精度與效率的瓶頸。
????????2023年,Jinjin Li等[21]針對SAR與光學影像在幾何結構和紋理特征上的差異,本文提出了多尺度分解(MSD)算法與非采樣Contourlet變換(NSCT)方法進行影像融合。研究構建了包含城市、郊區、山區三類場景的高分辨率SAR與光學影像融合數據集(YYX-OPT-SAR)。MSD方法能夠有效減少SAR影像陰影影響,而NSCT在保持光譜信息和紋理細節方面表現最佳。此外,通過影像融合提高了地物分類精度,為多模態影像配準提供了高質量數據與評估標準?。
????????2024年,Yongjun Zhang等[22]提出一種多維定向自相似特征(MOSS)引導的混合配準算法,采用粗到細匹配策略提高多模態影像的配準精度。首先提取自相似特征估算仿射變換參數,再結合模板匹配與三維高斯卷積增強特征描述。在六組多模態影像組合上進行驗證,MOSS方法的平均RMSE為1.86像素,遠優于七種主流配準算法,表明其在多模態影像配準中的高魯棒性與精確度。
????????2023年,Qiang Meng等[23]提出一種基于Transformer網絡的遙感影像配準方法,利用自注意力機制捕獲長距離依賴關系,提升影像間的特征匹配精度。該方法在多時相高分辨率影像上表現優越,配準精度提高了15%,計算效率較傳統深度學習方法提升約20%?。
????????2023年,Mohammed Hatim Magzoub Alhag等提出一種基于eFolki算法的PRISMA與Sentinel-2影像配準方法[24],采用前后向誤差評估配準精度,顯著提升多模態影像的空間對齊效果。該方法通過直方圖分析剔除噪聲波段,并使用支持向量機(SVM)進行土地覆蓋分類。在六組PRISMA和Sentinel-2影像組合上進行驗證,平均RMSE為2.31米(約0.18像素),分類總精度達99.39%,展現了在多模態影像配準與分類中的高精確度與可靠性。
????????2024年,Ming Zhang等[26]提出了一種基于多尺度Transformer的配準方法,通過引入全局注意力機制捕獲影像中的長距離特征關系,并結合卷積模塊進行局部特征增強,實現影像的精確配準。在多源、多時相數據上進行驗證,配準精度較傳統方法提高了15%。此外,模型在復雜場景下展現了出色的魯棒性,為遙感影像智能配準提供了新的解決方案。
2.研究的基本內容
????????本課題研究的基本內容是,基于深度學習技術,構建一個兩源高分光學遙感圖像配準模型,解決多源影像間的地物錯位問題,實現高精度的遙感影像配準與映射,對應用效果進行定性和定量的評價。
????????模型實現采用PyTorch框架,結合卷積神經網絡或注意力機制等深度學習技術,提升配準的自動化水平與魯棒性。
2.1 主要研究內容
(1)訓練與測試數據集構建
針對多源影像配準任務中缺乏高質量標注數據的問題,構建一個高分衛星影像配準數據集。
(2)基于深度學習的高精度衛星影像配準模型
????????針對高分衛星影像中存在的尺度變化、非線性變形和輻射差異等問題,研究提出一種粗細兩階段的配準模型,提升配準效率與精度。通過分階段模型設計,解決跨模態影像間的顯著幾何與輻射差異。粗配準階段:基于卷積神經網絡,實現大尺度范圍的粗配準,提取多尺度特征進行初步匹配。利用自監督學習方法優化細節匹配參數,進一步提高配準的全局一致性和局部精度。在公開數據集和自構建數據集上驗證模型,在大位移場景中實現亞像素級別的配準精度。
(3)多源影像配準原型系統開發
????????針對傳統配準系統自動化程度低、適用性不足的問題,研究開發一個高效的多源影像配準原型系統,集成數據預處理、模型推理與結果分析功能。結合粗細兩階段配準模型,實現影像自動化配準。在頁面上呈現。
2.2基本框架
本系統的功能組成如下圖。
圖1.1 系統功能組成圖
????????如圖1.1所示,系統采用兩階段深度學習方法(粗配準和精配準),通過高效的數據預處理、深度學習匹配優化和評價機制,解決了遙感影像配準的精度與魯棒性問題,為后續遙感數據分析與應用提供了可靠的技術支持。
2.3 研究的重點和難點
????????研究的重點在于采用兩階段深度學習方法,即通過粗配準階段實現初步特征匹配,快速定位影像的位移關系;通過精配準階段優化變換參數,進一步提升影像配準精度。同時,配準系統需要針對不同地物場景(如城市、農田、山地等)具備魯棒性與泛化能力,以應對復雜環境下的地物遮擋、噪聲干擾及尺度不匹配等問題。
????????本研究的難點在于高分遙感影像的數據量大、細節豐富,如何在保證高精度的同時提高模型的計算效率與輕量化設計,是一項重要挑戰。此外,變換參數的高精度估計也是系統的核心難點之一,任何微小的參數誤差都會顯著影響最終配準結果的精確性。
2.4 擬解決的關鍵問題
????????對多源高分光學影像中錯位的地物進行配準,具體可理解為將一源中感興趣的對象映射到另一源中,并實現配準。
????????本研究擬提出一種基于深度學習的多時相影像配準模型,通過引入自監督學習提升模型魯棒性,并結合多源特征融合增強普適性,以顯著提高多時相影像的配準精度,為特定復雜地物場景和多源影像配準提供有效解決方案。
3.研究的方法及措施
????????針對本課題,主要將采用文獻研究法,通過圖書館、互聯網、電子資源數據庫、人工智能大語言模型等途徑查閱大量文獻,理解遙感圖像處理、圖像配準等相關知識,理清基于深度學習的高分衛星圖像配準的發展脈絡及研究現狀,學習深度學習圖像處理有關理論知識,獲取高分衛星圖像配準系統應用的開發等相關研究信息,為設計遙感圖像配準系統提供思路和參照。
圖1.2 技術路線流程圖
4.預期研究成果
????????針對多源、多時相影像配準任務中缺乏高質量標注數據。構建一個結合手動精細標注與自動生成技術高分衛星影像配準數據集,為模型訓練提供更高質量、更具代表性的數據支撐。
????????針對傳統影像配準方法在多源、多時相條件下難以處理地物變化和輻射不一致性,現有深度學習方法在應對大范圍地物變化時魯棒性不足。提出基于通過深度學習技術,設計一個能夠自動適應多時相、高分辨率影像的配準模型。達到提升模型的魯棒性和普適性,后續定量的疊加分析、變化檢測等應用提供技術支撐。
????????最后,為了方便配準結果的直觀展示與評估,本研究擬設計一個簡潔高效的網頁界面。
參考文獻
[1]Shaker A. The Line-Based Transformation Model (LBTM) for Image-to-Image Registration of High-Resolution Satellite Image Data[J]. ISPRS, 2007.
[2]Marcos D, Hamid R, Tuia D. Geospatial Correspondences for Multimodal Registration[J]. CVPR, 2016.
[3]Karantzalos K, Sotiras A, Paragios N. Efficient and Automated Multimodal Satellite Data Registration Through MRFs and Linear Programming[J]. CVPR Workshops, 2014.
[4]Mou L, Zhu X, Vakalopoulou M, et al. Multitemporal Very High Resolution From Space: Outcome of the 2016 IEEE GRSS Data Fusion Contest[J]. IEEE JSTARS, 2016.
[5]Vakalopoulou M, Karantzalos K, Komodakis N, Paragios N. Graph-Based Registration, Change Detection, and Classification in Very High Resolution Multitemporal Remote Sensing Data[J]. IEEE JSTARS, 2016.
[6]Zhang J, Zhou Z, Mai G, et al. A Coarse-to-Fine Geometric Scale-Invariant Feature Transform for Large Size High Resolution Satellite Image Registration[J]. Sensors, 2018.
[7]Maria Vakalopoulou, Stergios Christodoulidis, Mihir S, et al. Image Registration of Satellite Imagery with Deep Convolutional Neural Networks[J]. IGARSS, 2019.
[8]Touati R, Mignotte M, Dahmane M. Anomaly Feature Learning for Unsupervised Change Detection in Heterogeneous Images: A Deep Sparse Residual Model[J]. IEEE JSTARS, 2020.
[9]Chen H, Shi Z. A Spatial-Temporal Attention-Based Method and a New Dataset for Remote Sensing Image Change Detection[J]. Remote Sensing, 2020.
[10]Chen J, Cheng B, Zhang X, et al. A TIR-Visible Automatic Registration and Geometric Correction Method for SDGSAT-1 Thermal Infrared Image Based on Modified RIFT[J]. Remote Sensing, 2022.
[11]Wu J, Xie C, Zhang Z, et al. A Deeply Supervised Attentive High-Resolution Network for Change Detection in Remote Sensing Images[J]. Remote Sensing, 2023, 15(1): 45.
[12]Su Z, Wan G, Zhang W, et al. Edge-Bound Change Detection in Multisource Remote Sensing Images[J]. Electronics, 2024, 13(5): 867.
[13]Xu W, Yu Z, Wang Y, et al. ADRNet: Affine and Deformable Registration Networks for Multimodal Remote Sensing Images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024, 62(1): 1-13.
[14]Liu X, Chen S, Zhuo L, et al. Multi-Sensor Image Registration by Combining Local Self-Similarity Matching and Mutual Information[J]. Frontiers of Earth Science, 2018, 12(4): 779-790.
[15]Zhang P, Luo X, Ma Y, et al. Coarse-to-Fine Image Registration for Multi-Temporal High Resolution Remote Sensing Based on a Low-Rank Constraint[J]. Remote Sensing, 2022, 14(3): 573.
[16]Yang Y, Li D, Yu J, et al. A Remote Sensing Image Registration Algorithm Based on SIFT with Iterative Update Strategy[J]. Radio Engineering, 2023, 53(2): 401-409.
[17]Sun C. The Research on Automatic Registration Technology of Satellite Remote Sensing Images Based on Hybrid Methods[J]. Master’s Thesis, Jilin University, 2018.
[18]Huang H. Research on Feature Extraction and Feature Matching Algorithms in Image Registration[J]. Master’s Thesis, Chongqing Three Gorges University, 2020.
[19]Liangzhi L, Mingtao D, Hongye C, et al. Remote Sensing Image Registration Based on Deep Learning Regression Model[J]. IEEE Geoscience and Remote Sensing Letters, 2020.
[20]Li X H, Ai W H, Feng R T, et al. Survey of Remote Sensing Image Registration Based on Deep Learning[J]. National Remote Sensing Bulletin, 2023, 27(2): 267-284.
[21]Li J, Zhang J, Yang C, et al. Comparative Analysis of Pixel-Level Fusion Algorithms and a New High-Resolution Dataset for SAR and Optical Image Fusion[J]. Remote Sensing, 2023.
[22]Zhang Y, Zhang W, Yao Y, et al. Robust Registration of Multi-Modal Remote Sensing Images Based on Multi-Dimensional Oriented Self-Similarity Features[J]. International Journal of Applied Earth Observation and Geoinformation, 2024.
[23]Meng Q, Zhou Y, Liu C, et al. Precise Registration of Remote Sensing Images Using Transformer-Based Networks[J]. Remote Sensing, 2024.
[24]Mohammed Hatim Magzoub Alhag, PRISMA Satellite Images Coregistration and Their Use in Landcover Classification, Politecnico di Milano, 2023.
[25]Lynn M, Pelletier C, Webb G. Deep Learning for Satellite Image Time Series Analysis: A Review[J]. IEEE Transactions, 2024.
[26]Zhang M, Li X, Chen Q. Multiscale Transformer Networks for Remote Sensing Image Registration[J]. arXiv preprint, 2024.
[27]Wang Y, Albrecht C M, Zhu X X. Self-supervised Vision Transformers for Joint SAR-optical Representation Learning[C]//IEEE International Geoscience and Remote Sensing Symposium, Kuala Lumpur, Malaysia, 2022.
[28]Reed C J, Gupta R, Li S F, et al. Scale-MAE: A Scale-aware Masked Autoencoder for Multiscale Geospatial Representation Learning [EB/OL]. (2022-12-30)[2023-05-23]. https://arxiv. org/abs/2212. 14532.