en
×

分享给微信好友或者朋友圈

使用微信“扫一扫”功能。
目录contents

    摘要

    基于碳卫星的遥感是一种正在发展的大范围高精度CO2监测方法,但当监测对象为我国长三角区域这种大空间尺度时,碳卫星数据会存在时空稀疏性的问题。本文提出了一种新的模型ST-SAN(space time soft attention network),旨在提高碳卫星数据的高时空分辨率XCO2(大气CO2)浓度估算精度。本文将2016—2020年的多源数据(包括人类活动数据、气象数据和植被数据)与碳卫星数据结合,生成空间分辨率为0.05°的无间隙XCO2日浓度数据集。通过ST-SAN模型对这些数据进行训练和预测。实验结果表明,重建后的XCO2数据集与OCO-2卫星数据和地面站点数据具有高度一致性,验证了本方法在高时空分辨率XCO2浓度估算中的有效性。

    Abstract

    Carbon dioxide (CO2) is a primary greenhouse gas,and its rising atmospheric concentration is a critical driver of climate change,contributing to extreme weather,rising sea levels,and ecosystem alterations.Remote sensing via carbon satellites provides a powerful approach for large-scale,precise CO2 monitoring;however,challenges with spatial and temporal sparsity limit the accuracy and continuity of CO2 concentration (XCO2) estimates,particularly across large regions like China's Yangtze River delta.To address these limitations,this study introduces the Space-Time Soft Attention Network (ST-SAN),a novel model designed to enhance the spatiotemporal resolution of XCO2 estimates derived from carbon satellite data.The model leverages multi-source datasets (including human activity,meteorological,and vegetation) alongside carbon satellite observations,achieving a seamless XCO2 dataset with a 0.05° spatial resolution,thus providing a detailed view of regional CO2 dynamics.Training the ST-SAN model on data from 2016 to 2020,the methodology employs soft attention mechanisms to prioritize relevant features across spatial and temporal dimensions,enabling more accurate XCO2 predictions.The model's effectiveness was rigorously evaluated by comparing reconstructed XCO2 data with observations from the Orbiting Carbon Observatory-2 and ground-based monitoring stations,demonstrating high consistency and reliability.By integrating diverse datasets,the ST-SAN model effectively addresses the sparsity issues in satellite observations,enhancing predictive performance and offering a comprehensive framework for high-resolution CO2 estimation.These findings underscore the potential of advanced machine learning techniques to improve atmospheric monitoring and provide critical insights for climate mitigation efforts.Future research could refine this model with additional data sources,extend its applicability to varied regions,and explore long-term CO2 trends to better understand the influences of human activity and natural processes on greenhouse gas emissions.The study not only demonstrates the feasibility of high-resolution XCO2 estimation but also establishes a foundation for more accurate climate assessments and informed environmental policy.

    关键词

    XCO2重建数据融合时空变化

  • 气候变化对全球的生态、社会和经济产生巨大影响,是地球环境的主要挑战之一(李莹等,2023)。二氧化碳是影响人类生活最为显著的温室气体之一,其不断增加的浓度将加速气温上升,进一步威胁粮食安全和人类生存。当前,地球每年的碳排放量已经超过了自然吸收能力,导致大气中二氧化碳浓度不断上升(Fujimori et al.,2022)。各国政府为了应对气候变化,制定了温室气体减排政策和目标,致力于将二氧化碳含量控制在特定水平(Xu,2020)。为了实现这一目标,人们首先需要了解大气二氧化碳浓度的时空变化,制定相应的减排政策(梁周彤等,2022)。因此,获取高分辨率的长时间序列二氧化碳数据具有重要意义。

  • 目前,地面监测和星载卫星是监测大气二氧化碳浓度的两个主要方法(Hu et al.,2024c)。全球范围内的地面监测网络由稀疏分布的站点组成,具有精确度高、时间分辨率高的优点,缺点是覆盖范围有限、空间分辨率较低、人力和物力成本较高,因此无法充分反映CO2的时空分布情况(Wunch et al.,2010)。相比之下,星载卫星不受时空限制,具有覆盖范围广、获取周期短、更新速度快、限制条件少等优点,缺点是其数据需要反演,非直接获得(Zhang et al.,2020)。

  • 目前,人们已经成功发射了碳卫星,包括SCIAMACHY(Bovensmann et al.,1999)、AIRS(Aumann et al.,2003)、GOSAT(Hamazaki et al.,2004)、OCO-2(Crisp et al.,2017)、OCO-3(O'Dell and Pavlick,2019)以及TanSat(Liu et al.,2018)。这些碳卫星能提供XCO2(大气CO2)浓度数据。尽管卫星遥感是一种有效手段,但在获取我国长三角这种大空间尺度的CO2数据方面仍面临着时空间稀疏的挑战。

  • 近年来,许多学者在面向提高碳卫星数据的时空间覆盖和数据精度的问题上,进行了大量研究。现有方法大致可分为两大类:插值方法和数据融合方法。插值是一种用于估算函数在离散点上的函数值或导数信息的方法。它通过有限个已知点处的取值情况,估算出其他点处的近似值。为了准确反映二氧化碳的时空分布,时间插值和空间插值均至关重要。但由于插值方法难以捕捉数据复杂性和变化性以及数据噪声的影响,导致插值技术无法准确地填补大面积空白。更重要的是,插值方法忽视了辅助参数的影响,比如气象数据、植被数据以及人类活动数据等。表1归纳了插值方法在碳卫星数据应用中的优缺点。

  • 表1 插值方法在碳卫星数据应用中的优缺点

  • Table1 Advantages and disadvantages of interpolation methods for carbon satellite data applications

  • 数据融合方法主要分为基于统计的数据融合方法、基于模型模拟的数据融合方法、基于学习的数据融合方法。表2归纳了数据融合方法在碳卫星数据应用中的优缺点。

  • 表2 数据融合方法在碳卫星数据应用中的优缺点

  • Table2 Advantages and disadvantages of data fusion methods for carbon satellite data applications

  • 近年来,随着深度学习的快速发展(Hu et al.,2024a),基于学习的数据融合方法越来越受到关注,其中一种主流的方法是利用机器学习构建卫星XCO2与辅助数据之间的关系,进而估算全覆盖XCO2数据(Hu et al.,2024b)。例如,Li et al.(2022)选择影响大气CO2浓度的环境因素,包括植被结构、植被功能以及气象条件,整合了OCO-2卫星观测的数据,使用极端随机树模型进行训练,以确定环境因素与XCO2浓度之间的关系,获得了具有高时空分辨率的全球CO2数据集,并取得了0.83的相关系数和1.79×10-6的均方根误差。He et al.(2022)基于轻梯度提升机器构建了中国范围内的全覆盖XCO2数据; 该研究使用了海拔高度、土地利用、气象条件和CarbonTracker XCO2数据,与以前研究中使用的时空克里格模型相比,LightGBM模型显示出较好的预测性能。Zhang and Liu(2023)使用卫星数据、植被和气象等多种辅助数据,运用深度学习技术创建一个长期的月度XCO2数据集,并对其时空变化进行深入分析。综上所述,基于学习算法的数据融合方法在卫星二氧化碳数据重建领域中,能够显著提升数据的准确性和处理效率。

  • 在面向碳卫星数据的高时空分辨率CO2浓度估算的研究领域中,尽管现有的研究已经估计了CO2浓度,但仍有需要进一步改进的地方。

  • 1)以往生成的XCO2数据集的空间分辨率在0.1°至1°之间,取得的决定系数R2也在93%至97%之间(Zhang et al.,2022; Li T W et al.,2023)。虽然取得了较为不错的结果,但是,当人们开始着手火力发电站这种大型企业级别对象的具体监测任务时,现有数据集的估计精度和空间分辨率就需要进一步提高。

  • 2)在以往利用机器学习构建卫星XCO2与辅助数据之间关系的研究中,气象数据、植被数据经常性地被当作辅助数据进行研究,但是很少把人类活动数据考虑到模型中。这可能是人类活动数据属于社会科学范畴,而气象数据和植被数据则归属于自然科学领域。由于这两种学科的交叉研究较为罕见,相关研究相对较少。因此,少有研究将气象数据、植被数据以及人类活动数据三者结合来预测XCO2数据。

  • 从自然学科参数发展到基于卫星遥感的“自上而下”温室气体排放清单反演和校验技术体系,实现对人为碳排放的精细化监测,是评估双碳任务状态的关键,是国内外主流碳卫星研发的初衷。在此基础上,助力我国“政府牵头,企业参与,多方推进落实”的碳排放监测模式,协助政府这一碳市场的管理者根据碳排放的观测数据制定环境治理目标和发布节能减排任务,从而形成一个工作闭环。但是这种监测是基于自然学科数据、多学科指标的方案,在监测时缺乏社会学科数据的参与,使得后期难以与社会学科的工作交接。

  • 因此,本研究将人类活动数据作为辅助变量,与卫星数据、气象数据、植被数据相结合,把软注意力机制和卷积长短时记忆网络(convolutional long short-term memory,Conv-LSTM)进行结合,提出了时空软注意力网络模型(space-time soft attention network,ST-SAN),利用深度学习框架生成了2016—2020年中国长三角地区的空间分辨率为0.05°的无间隙XCO2日数据集,并在模型中加入支持向量机-递归特征消除(support vector machine-recursive feature elimination,SVM-RFE)的方法来解释输入特征重要性,通过交叉验证和地面验证评估了估算的CO2结果。

  • 1 数据和方法

  • 1.1 研究区域

  • 中国长三角地区是中国经济发展的引擎之一,在全球格局中具有重要的战略地位(Lin et al.,2024)。该研究区域作为中国最为繁荣的地区之一,在经济发展、国际贸易、交通枢纽、人口密集和科技创新等方面发挥着关键作用。随着经济腾飞,该地区产业结构多样,同时也面临严重的环境问题。虽然政府采取了调整能源结构、推动绿色制造、加强污染治理和生态保护等一系列措施,但解决长三角地区的环境问题仍是一个复杂的过程,需要全社会的参与和共同努力。因此,深入了解长三角地区的CO2情况对于制定可持续发展战略、推动低碳经济转型具有重要意义。基于此,本研究选择(115°46′~123°25′E,29°20′~32°34′N)作为研究区域(Li W et al.,2023)。

  • 1.2 多源数据

  • 如表3所示,本研究使用了多种数据,主要分为4类:

  • 1)XCO2数据,包括OCO-2(Orbiting Carbon Observatory-2)卫星数据、CAMS XCO2数据以及用于验证的总碳柱观测网络(TCCON)站点XCO2数据。

  • 2)植被指数数据,代表归一化植被指数(normalized difference vegetation index,NDVI)。

  • 3)气象数据,包括相对湿度(RH)、温度(T2M)、纬向风(UW)和经向风(VW)。

  • 4)人类活动数据,包括可以反映人类活动对XCO2影响的人口数据(population data,POP)。

  • 本研究使用的所有数据重采样到空间分辨率为0.05°、时间分辨率为每日。

  • 表3 多源数据介绍

  • Table3 Introduction to multi-source data

  • 1.2.1 CO2浓度数据

  • 1)OCO-2 XCO2数据

  • Orbiting Carbon Observatory-2(OCO-2)是由美国宇航局(NASA)发起的卫星任务,旨在通过搭载高分辨率光谱仪监测地球大气中的CO2浓度(Wunch et al.,2017),并于2014年7月成功发射,主要提供平均干空气CO2摩尔分数(XCO2浓度)数据。OCO-2卫星表现出局部同步观测时间为13:30(北京时,下同),空间分辨率为2.25 km×1.29 km,并具有约16 d的重访周期。本研究使用OCO-2 L2 Lite FP版本的数据产品,Lite FP版本的优势在于数据具有更少的系统误差和更高的准确度,使用了从2018年1月1日到2020年12月31日期间的数据(https ://earthdata .nasa .gov/)。

  • 2)CAMS XCO2数据

  • CAMS XCO2数据是由欧洲环境局的Copernicus大气监测服务提供的大气CO2浓度数据,包括CO2和甲烷(CH4)(Inness et al.,2019)。目前CAMS XCO2数据覆盖了2003—2020年的时段,其空间和时间分辨率分别为0.75°和3 h。这一数据集整合了来自地面站、卫星以及气象和大气成分模型的信息,以高时空分辨率提供全球范围内CO2浓度的观测(Agustí-Panareda et al.,2023)。此外,CAMS没有同化OCO-2的数据,这确保了多源数据在CO2估计中的有效融合(Tu et al.,2020),本研究利用CAMS XCO2作为重要的辅助输入来估算CO2浓度(https ://ads .atmosphere .copernicus .eu/)。

  • 3)TCCON XCO2数据

  • 如图1所示,TCCON是一个全球性的CO2观测网络,由地面测量站点构成,目标是通过高精度、高分辨率的测量,提供全球CO2浓度变化的详尽信息(Yang et al.,2020)。该网络汇集了来自全球各地的观测站点,遍布北美、南美、欧洲、亚洲、澳大利亚和南极洲等多个国家和地区,每个站点均配备高精度的地面红外光谱仪。TCCON检测的CO2浓度精度为0.1×10-6,CH4浓度精度为2×10-9,是验证卫星CO2数据的重要来源。因此,本研究选取了中国长三角范围内的合肥站点的数据(时间范围为2016年1月—2020年12月)来评估重建后的XCO2的精确性(https ://tccondata .org/)。

  • 1.2.2 气象数据

  • ERA5(第五代欧洲中期天气预报中心再分析资料)是由欧洲中期天气预报中心推出的全球大气再分析产品,提供了高时空分辨率的气象数据,包括大气组分、温度、湿度、风速、气压等多个要素(Hersbach et al.,2020)。ERA5数据的0.25°空间分辨率和小时级的数据提供了详细的全球气象信息(Hoffmann and Spang,2022)。本研究使用ERA5的气象数据,包括相对湿度(RH)、温度(T2M)、纬向风(UW)和经向风(VW)(https ://cds .climate .copernicus .eu/)。

  • 1.2.3 植被指数数据

  • 植被条件对调节大气中的CO2水平具有重要作用,是碳汇的重要组成部分。植被通过光合作用吸收并储存CO2,且植被促进土壤有机质的积累和固定,降低土壤中有机碳的氧化释放,减少CO2的排放(Zhang et al.,2021)。

  • NDVI是通过测量地表在近红外光和红光波段的反射差异来估算植被状况的遥感指数(Pettorelli et al.,2005)。其计算公式如下:

  • INDV=INIR-IRedINIR+IRed
    (1)
  • 其中:INIR是近红外波段的反射值; IRed是红光波段的反射值。INDV的取值范围通常为-1~1,表示植被的生长状况。高正值通常表示健康的植被,而较低或负值则可能指示裸露土地或其他非植被表面。NDVI作为碳汇的一部分,已被证明与CO2浓度密切相关。因此在重建过程中,NDVI被用作辅助预测因子之一(https ://e4ftl01 .cr .usgs .gov/MOLT/)。

  • 1.2.4 人类活动数据

  • 人口数据是指对一个特定地区、国家或全球范围内的人口数量和特征进行统计的数据,可以反映人类活动对XCO2的影响(Lü et al.,2020)。LandScan是由美国橡树岭国家实验室开发的全球人口分布数据集,采用结合地理空间科学、遥感技术和机器学习算法的创新方法,是代表环境人口的最佳分辨率全球人口分布数据。该数据集结合了卫星图像、地理信息系统数据、国家统计数据以及地理特征如道路、河流和地形等信息。LandScan利用这些数据分析区域特征,结合“晚上灯光”数据等辅助信息,通过算法将人口数据分布到不同的栅格单元中,细化到高分辨率的人口密度地图。因此,LandScan人口分布模型是根据每个国家和地区的数据条件和地理性质而定制的。通过对环境人口进行建模,LandScan可以捕获人们在白天和黑夜的全部潜在活动空间,而不仅仅是住宅区(https ://landscan .ornl .gov/)。

  • 图1 全球站点位置分布(https ://tccondata .org/; Toon et al.(2009))

  • Fig.1 Global distribution of station locations (https ://tccondata .org/; Toon et al.(2009) )

  • 1.3 数据预处理

  • 在这项研究中,本文旨在生成2016—2020年中国长三角地区的XCO2数据集。因此,本研究采取了一系列数据处理步骤,在时间和空间维度上协调这些数据。

  • 首先,由于大气中气溶胶的散射吸收、卫星轨道的间隔、云的覆盖以及反演算法本身的局限性,许多观测数据被确定为不良数据。因此,本文对XCO2进行了质量控制,排除了潜在的问题或不可靠数据,有助于确保数据集的可靠性和准确性。由于卫星在13:30过境,本文以每小时为基础获取CAMS XCO2数据,并从中选择每天13:30的数据点作为日分布值。对于ERA5气象数据,本研究对不同气压层上的气象数据进行平均,以获取整个大气柱中的平均气象情况。其次,所有数据均通过双线性插值法重新采样为空间分辨率为0.05°,时间分辨率为每日。最后,为了消除尺寸的影响,本研究通过预处理对所有数据进行了归一化处理。x*的归一化计算如下:

  • x*=x-xminxmax-xmin
    (2)
  • 其中:xmaxxmin分别表示样本数据的最大值和最小值。这里需要指出的是,对于预处理后的数据,虽然是时空间分辨率进行了统一,但是仍然需要本研究的方法来进行数据融合,以提高数据的准确率。

  • 1.4 方法

  • 本研究的主要目标是利用OCO-2 XCO2、CAMS XCO2、植被数据、气象变量以及人类活动数据作为输入,来估计每日的全覆盖XCO2数据。通过构建一个模型,建立这些变量之间的关系,从而实现对XCO2数据的估算。为了实现这一目标,本文提出了ST-SAN模型来构建卫星XCO2与其他辅助数据的关系,公式如下:

  • ρxCO2=fDxCO2, DCAMS, DRH, DT2M, Duw, DvW, DNDVI, DPOP

  • 其中: ρxCO2代表估计的二氧化碳碳通柱浓度;DxCO2DCAMS是主要数据;DRHDTDUWDVWDNDVIDPOP是辅助数据。f()表示ST-SAN模型,它对输出(即OCO-2 XCO2)和输入数据之间的关系进行建模。CO2重建流程如图2所示。

  • ST-SAN模型将软注意力机制和Conv-LSTM进行结合,并在模型中加入了支持向量机-递归特征消除(SVM-RFE)方法来解释特征的重要性。

  • 首先,ST-SAN模型将多维度、多时空特征的数据集输入模型中,通过SVM-RFE方法进行特征选择,提取对预测最有意义的特征。这一步骤确保模型能够聚焦于对CO2浓度预测最关键的特征,从而简化数据维度并提高模型性能和模型的可解释性。然后,将选出的特征输入到Conv-LSTM层中,以捕捉数据中的时空相关性。Conv-LSTM结合了卷积神经网络和长短期记忆网络的优点,能够同时处理数据的空间和时间特征,提高了模型对复杂数据模式的识别能力。

  • 在Conv-LSTM层的基础上,应用软注意力机制,通过分配不同的权重,突出重点特征。软注意力机制能够动态调整各特征的重要性,使模型更加关注那些对预测结果有显著影响的特征,从而提升预测的准确性。最后,经过注意力层处理后的特征输入到全连接层,生成CO2浓度的预测结果。全连接层通过加权求和,将注意力层输出的特征转化为最终的预测值。

  • 在ST-SAN模型的训练过程中,本研究进行了100轮迭代训练,并对模型的性能进行了持续监控。基于验证集的表现,研究调整了早停策略,确保模型在训练过程中达到最佳性能。研究采用了具有良好收敛性能的Adam优化器,其初始学习率设置为0.001,并根据验证集的表现进行动态调整。在损失函数的选择上,模型采用了均方误差(mean squared error,MSE),以有效衡量预测值与真实值之间的差距。训练过程中,批次大小设置为32,以保证模型的稳定训练,使用反向传播算法最小化损失函数,通过训练数据不断优化模型参数,以提高预测精度并准确捕捉数据中的模式和规律。在验证阶段,通过多种性能指标评估模型,确保其在不同数据集上的稳健性和高精度表现。此外,采用交叉验证方法进一步验证模型的泛化能力,防止过拟合,确保模型在实际应用中具有良好的预测性能。整个流程的设计旨在最大限度地利用时空数据,提高CO2浓度预测的准确性和可靠性。

  • 此外,在消融实验中,CNN部分采用了3层卷积层,卷积核大小为3×3,激活函数为ReLU,卷积核数量分别为64、128和256,池化层采用2×2的最大池化操作。LSTM部分使用了一层隐藏态维度为256的双向LSTM,输入序列的维度为128。软注意力机制采用单层注意力机制,输入和输出向量维度均为256,注意力权重的计算方法为点积。在每种组合方式中,研究均使用相同的数据集进行训练和测试,以确保结果的可比性。

  • 图2 CO2重建流程图

  • Fig.2 Flow chart for CO2 reconstruction

  • 图3为ST-SAN模型网络结构图。下面将分别介绍模型的3个主要部分来说明ST-SAN模型的优势。

  • 1) Conv-LSTM

  • Conv-LSTM(Liu et al.,2017)结合了卷积神经网络和长短期记忆网络的优点,用于处理时空数据。其原理是在输入数据上进行卷积操作以提取空间特征,然后应用LSTM单元捕捉时间依赖关系,通过状态传递保留空间结构信息。这种结构使得ConvLSTM能够同时处理数据的空间和时间特征。

  • 本研究将ConvLSTM应用到ST-SAN模型中,使得模型能够同时捕捉时空序列数据中的空间特征和时间依赖关系,有效地从数据中提取有关时空变化的信息,更准确地理解时空序列数据的模式和趋势,并且可以防止梯度消失和爆炸问题,提高预测精度。

  • 2)软注意力机制

  • 软注意力机制允许模型在处理序列数据时动态地关注输入序列中的不同部分,从而提升模型的性能(皇甫晓瑛等,2023)。在软注意力机制中,每个输入部分都被赋予一个注意力权重,这个权重的大小为0~1,表示该部分在输出中的重要性。所有注意力权重的总和等于1,可以通过对注意力权重进行归一化来实现。

  • 本研究选择软注意力机制用于构建ST-SAN模型,能够使得模型动态地关注输入数据的不同部分,这在处理具有显著时空特性的XCO2数据、植被数据和气象变量时尤为重要。此外,虽然Conv-LSTM能够有效处理时空序列数据,但在捕捉长时间依赖关系时可能存在局限性。软注意力机制可以通过加权不同时间步的输入,帮助Conv-LSTM更好地捕捉长时间依赖关系,增强模型的记忆和选择能力。同时,相比一些复杂的注意力机制,软注意力机制在计算复杂性上更为简单,适合处理大规模数据集。这可以减少计算资源的消耗,同时仍能保持良好的性能,更好地实现对每日全覆盖XCO2数据的估算目标。

  • 图3 ST-SAN模型网络结构图

  • Fig.3 Network architecture of the ST-SAN model

  • 3)SVM-RFE方法

  • SVM-RFE方法是一种特征选择算法,结合了支持向量机(SVM)的分类性能和递归特征消除(RFE)的特征选择能力(Duan et al.,2005)。支持向量机作为一种监督学习算法,通过在特征空间中找到最优超平面来分隔不同类别的样本,并通过其学习到的权重向量反映特征的重要性。递归特征消除则通过不断构建模型并删除最不重要的特征,迭代地选择特征子集,直到达到预定的停止条件。

  • 因此,SVM-RFE方法可用于选择最具影响力的特征,从而提高模型的运行效率和泛化能力,并且能够自动根据特征的权重进行排序和消除,有效减少特征数量,降低过拟合风险,并提升模型解释性和计算效率。

  • 基于SVM-RFE方法的优点,本研究在ST-SAN模型中加入了SVM-RFE方法,能够有效地从原始多源数据中选择出对模型影响最大的特征,为后续网络训练打下坚实基础。

  • 2 结果与分析

  • 2.1 变量对模型的贡献程度

  • 本文研究了各变量之间的统计关系,用相关系数r来表示它们的相关性。公式如下:

  • r=i=1n Xi-X-Yi-Y-i=1n Xi-X-2i=1n Yi-Y-2
    (3)
  • 其中:XiYi分别表示两个变量的第i个观测值;和Y-分别表示所有观测值的平均值;n是观测值的数量。由图4可以看出,卫星XCO2与CAMSXCO2的相关性最高,其次是温度和湿度。虽然植被指数数据、纬向风、经向风以及人类活动数据与卫星XCO2的相关性较弱,但是这些变量之间的互相关系是复杂的,比如温度和湿度的相关系数为0.44,但湿度与植被指数数据的相关系数仅为0.16。尽管某些变量之间的相关性不是很明显,但本文构建的模型有能力从这些复杂关系中提取有用的信息。

  • 为了进一步探索所选变量与XCO2的潜在关系,本研究通过SVM-RFE方法进行特征选择并输出排名柱状图,即可解释变量在模型构建过程中的贡献程度。在ST-SAN模型中,最重要的预测因子是CAMS XCO2,其次是T2M、RH、POP、UW。为了验证SVM-RFE方法在模型中的正确性,本文选择了随机森林回归模型来继续做比较。结果(图5)显示,ST-SAN模型与随机森林模型(李琳菲等,2024)的结果高度一致,表明ST-SAN模型中计算特征重要性的方法是令人信服的。

  • 为了进一步研究POP数据对模型的贡献,对有POP数据和无POP数据的模型进行了比较。如图6所示,在模型的直接拟合和地面站点验证中,没有POP数据的模型的MAE(mean absolute error,平均绝对误差)值比有POP数据的模型分别多了0.036 5和0.009 8,MSE的值也分别多了0.013 5和0.005 5,而没有POP数据的模型的R2值比有POP数据的模型的R2值分别小了0.035 6和0.014 5。这表明POP数据对模型性能的改善有贡献。

  • 上述统计指标计算如下:

  • R2=1-i=1n yi-y^i2i=1n yi-y-i2,
    (4)
  • EMA=1ni=1n yi-y^i,
    (5)
  • EMS=1ni=1n yi-y^i2
    (6)
  • 其中:n是样本大小; yiy^i分别是样本i的观测和预测的XCO2值; y-i是观测的XCO2值的均值。

  • 图4 变量相关性热力图

  • Fig.4 Heatmap illustrating variable correlations

  • 图5 XCO2解释变量的重要性:(a)随机森林模型;(b)ST-SAN模型

  • Fig.5 Importance of XCO2 explanatory variables: (a) the random forest model; (b) the ST-SAN model

  • 2.2 CO2重建结果的验证方法

  • 本研究采用了交叉验证和地面验证两种方法,以评估CO2重建结果的准确性。首先,利用交叉验证算法对ST-SAN模型的性能进行了评估。交叉验证方法具有无偏评估预测模型性能的优势,而K折交叉验证则因其能够利用整个数据集而得到广泛应用。在本研究中,选择了K值为10,能够最为准确地反映模型的无偏概括性能。其次,在地面验证中,本研究用重建的XCO2数据和合肥站点数据进行了比较,定量评估了模型预测性能。

  • 2.3 CO2重建结果验证

  • 首先,本研究用交叉验证的方法评估模型的泛化能力和稳健性。本研究选择了3种交叉验证的方法:基于样本的交叉验证、基于时间的交叉验证和基于空间的交叉验证。

  • 基于样本的交叉验证是一种被广泛采用的验证方法。该方法通过随机选择90%的样本进行模型建模,然后利用剩余的10%样本进行验证。这个过程会重复进行10次,以确保所有样本都得到了测试。

  • 图6 有POP和没有POP的模型之间的性能比较:(a)直接拟合验证(有POP);(b)直接拟合验证(无POP);(c)样本交叉验证(有POP);(d)样本交叉验证(无POP)

  • Fig.6 Model performance comparison with and without POP. (a—d) represent direct fit validation with POP, direct fit validation without POP, sample cross-validation with POP, and sample cross-validation without POP, respectively

  • 基于空间的交叉验证和基于时间的交叉验证也采用了类似的10折交叉验证过程。在基于空间的交叉验证中,本研究随机丢弃10%的空间位置点,而在基于时间的交叉验证中,也随机丢弃10%的时间点。这些交叉验证方法从不同的角度评估了模型的准确性。基于样本的交叉验证反映了模型的整体预测能力,基于空间的交叉验证评估了模型的空间预测能力,而基于时间的交叉验证则展示了模型的时间预测能力。这些验证方法提供了对模型在不同维度上性能的全面评估,以确保模型在实际应用中具有更强的鲁棒性和稳定性,结果如图7所示。

  • 直接拟合充分利用了所有可用数据,无需考虑数据集的划分,拟合的结果为R2=0.982 7,EMS=0.006 5,EMA=0.048 8。基于样本的交叉验证拟合结果为R2=0.930 9,EMS=0.026 2,EMA=0.097 5,基于空间的交叉验证拟合结果为R2=0.902 6,EMS=0.036 9,EMA=0.115 8,可以发现模型在不同位置的估计能力也比较突出。基于时间的交叉验证拟合结果为R2=0.912 5,EMS=0.033 1,EMA=0.109 7,表明基于日期的CV也取得了优异的性能。因此,该模型无论是整体的预测能力,还是时间、空间的预测能力都取得了较为不错的结果。为了评估这些结果的统计显著性,我们对训练后的结果进行了显著性检验。所有结果的P值均小于0.01,表明这些结果在统计上显著,具有较高的可信度。

  • 其次,为了进一步验证重建结果的准确性,本研究将重建数据与TCCON站点测量的数据进行了比较(图8)。合肥站点的斜率为0.972,R2为0.941 5。根据显著性水平,研究发现P值小于0.03,这表明该相关系数在统计上是显著的。因此,尽管样本量较小,R2仍然通过了显著性检验。这表明重建的值与合肥站点的值具有较高的一致性,可以生成高质量的XCO2数据集。

  • 图7 模型性能评估:(a)直接拟合;(b)基于样本交叉验证;(c)基于空间交叉验证;(d)基于时间交叉验证

  • Fig.7 Evaluation of model performance evaluation. (a—d) represent results for direct fit, sample-based cross-validation, spatial cross-validation, and temporal cross-validation, respectively

  • 图8 地面站点验证

  • Fig.8 Ground station validation

  • 2.4 消融实验

  • 消融实验是一种科学研究方法,旨在分析模型的各个组成部分对整体性能的贡献,并验证它们在模型中的作用。本研究的模型主要包含3个部分:CNN(convolutional neural network)、LSTM(long short-term memory)和软注意力机制。消融实验的目的是明确每个组件对模型性能的影响。

  • 首先,基于ST-SAN模型,构建完整模型并进行训练和测试,以获得基准性能指标。其次,对每个组件(CNN、LSTM和软注意力机制)分别进行单独的消融实验,通过移除每个组件并保留其他组件,构建相应的消融模型,使用相同的数据集进行训练和测试,以获得各自的性能指标。最后,对两个组件的不同组合进行消融实验,以进一步了解它们之间的相互作用和影响。具体设计了6种组合方式:LSTM、CNN、LSTM-Attention、CNN-Attention、CNN-LSTM和ST-SAN。消融结果如图9所示,表4列出了6种组合方式的评价指标值。

  • 图9 消融实验对比结果:(a)LSTM;(b)CNN;(c)LSTM-Attention;(d)CNN-Attention;(e)CNN-LSTM;(f)ST-SAN

  • Fig.9 Comparison of ablation experiment results. (a—f) show results for LSTM, CNN, LSTM-Attention, CNN-Attention, CNN-LSTM, and ST-SAN, respectively

  • 表4 消融实验结果

  • Table4 Results of ablation experiments

  • 2.5 对比实验

  • 为了进一步研究ST-SAN模型的重建效果,本研究将ST-SAN模型的重建结果与4种广泛使用的机器学习方法,即随机森林(RF)、极限梯度提升(XGBoost)、支持向量回归(SVR)、Transformer进行了比较。由表5可见,不同预测模型在性能评估指标上呈现出多样化。其中,ST-SAN模型在R2EMSEMA等方面表现最为优秀,其拟合度高且预测误差较小,是一个较为理想的模型选择。相比之下,其他模型也表现良好,但在某些指标上略逊于ST-SAN模型。综合考虑模型性能,ST-SAN模型在CO2浓度重建方面取得了相当大的优势。

  • 表5 对比实验结果

  • Table5 Summary of experimental results

  • 2.6 长三角地区的CO2浓度趋势

  • 2.6.1 长三角地区CO2浓度总体趋势

  • 本文深入探讨了中国长三角地区过去5年CO2浓度的动态变化。通过重建的中国长三角地区CO2浓度数据集,本文能够更准确地描绘2016—2020年长三角地区CO2浓度的分布与趋势。

  • 基于重建的数据集,研究发现2016—2020长三角地区年均CO2浓度分别为404.185×10-6、407.243×10-6、408.997×10-6、411.399×10-6和414.014×10-6。2016—2017年CO2浓度年增加量为3.085×10-6,为5年最大,反映出该时期碳排放的剧增,这可能与区域内工业活动的加快、能源消费的上升有关。而2017—2018年增量为1.754×10-6,为5年最小,可能是实施了更为严格的排放控制政策及提高能效措施的结果。2018—2019年和2019—2020年的浓度年增量分别为2.402×10-6和2.615×10-6,说明尽管有波动,但整体趋势仍是排放持续增加。

  • 通过观察长三角地区年度浓度(图10),研究发现长三角地区整体碳排放总量增大但增速变缓,未来可能会出现负增长的情况。并且,长三角各省市间CO2浓度的区域差异有减小趋势,碳排放重心先向东南后向西北迁移。这种现象可能是由于上海及其周边一些经济发展水平较高地区的高污染工业不断向安徽等经济发展水平相对较低的地方迁移,导致安徽省的大部分区县及浙江省部分区县的碳排放增长率较高。

  • 通常情况下,NDVI和XCO2之间存在一定的关系,即一个地区的NDVI值较高,那么该地区的XCO2浓度可能会相对较低。反之,如果NDVI值较低,则XCO2浓度可能会较高。因此本研究对比了2020年长三角地区的NDVI和XCO2浓度分布(图11),可以进一步发现长三角地区西北部的山区和农村地带,NDVI值较高,呈现出绿色和浅绿色的良好植被覆盖状态,而东南部的城市中心和工业区域NDVI值较低,呈现出偏黄色和红色的较差植被覆盖状态。

  • 综上所述,长三角地区的NDVI值呈现出由西北向东南逐渐降低的空间分布趋势。相比之下,长三角地区中部和东南部地区的XCO2浓度较高,呈现出红色和橙色的高浓度区域,西北部山区和农村地带,XCO2浓度较低,呈现出绿色和蓝色的低浓度区域。这种空间分布规律与NDVI分布的空间规律是相吻合的,即植被覆盖较好的西北部地区,碳排放相对较低,而植被覆盖较差的东南部城市工业区,碳排放则较高。

  • 2.6.2 长三角地区CO2浓度季节性趋势

  • 本研究通过重建的数据集准确地绘制了2016—2020年季节性CO2浓度分布(图12),通过色彩深浅变化直观展现了CO2浓度的季节性规律。

  • 由图12可见,长三角地区CO2浓度在不同季节之间存在一定的变化。春季和秋季时CO2浓度相对较低,这很可能是由于这两个季节正是植物生长和光合作用最旺盛的时期。在春季,随着温度渐暖,植被开始恢复生长,大量的CO2被植物吸收用于光合作用,从而导致空气中的CO2浓度下降。秋季,植物继续生长并积累营养,进一步吸收大量的CO2,保持了较低的大气CO2浓度。

  • 而在夏季,由于气候炎热,植物的呼吸作用较为强烈(Graven et al.,2013)。同时,夏季天气炎热可导致人类活动增加,如大量使用空调导致能源需求激增,因而CO2排放量上升,故测得的CO2浓度相对较高。此外,夏季也可能伴随着较少的降雨和植物生长,从而进一步加剧CO2浓度的上升(Song et al.,2021)。至于冬季,植物生长停滞,呼吸作用减弱,同时由于温度较低可能减少了一些由人类活动产生的CO2,因此CO2的整体浓度没有太大的波动。

  • 图10 2016—2020年(a—e)长三角地区CO2年度浓度(单位:10-6

  • Fig.10 Annual CO2 concentration in the Yangtze River delta region (units:10-6). (a—e) show concentration maps for 2016 to 2020, respectively

  • 图11 2020年长三角地区NDVI(a)和XCO2浓度(b;单位:10-6)分布

  • Fig.11 Distribution of (a) NDVI and (b) XCO2 concentration (units:10-6) in the Yangtze River delta region in 2020

  • 图12 2016—2020年春(a)、夏(b)、秋(c)、冬(d)长三角地区CO2平均季节浓度分布(单位:10-6

  • Fig.12 Average seasonal CO2 concentration (units:10-6) in the Yangtze River delta region. (a—d) show concentration maps for spring, summer, autumn, and winter, respectively

  • 长三角地区的CO2季节性变化规律清晰地展现了人类活动和自然生态过程对地区气候的复杂影响。这些发现对理解和预测区域环境变化非常重要,也对制定更加有效的环境保护措施和减排政策有着至关重要的影响。

  • 3 结论

  • 本文在ST-SAN模型框架下整合了卫星数据和再分析数据,并重建了中国长三角地区2016—2020年高精度无缝隙的CO2浓度数据集,获得了显著的重建精度,由此对长三角地区的XCO2进行了时空特征分析,得到如下主要结论:

  • 1)将软注意力机制和Conv-LSTM进行结合,提出了ST-SAN模型,在模型中加入SVM-RFE方法用来解释变量对模型的重要程度,并进行高时空分辨率XCO2浓度估算; 结果显示:SVM-RFE方法与随机森林模型的特征重要性结果高度一致,表明ST-SAN模型中计算特征重要性的方法是令人信服的。

  • 2)生成了2016—2020年中国长三角地区空间分辨率为0.05°的无间隙XCO2日度数据集,且重建的数据集与TCCON站测量值相比具有高精度。

  • 3)长三角地区的CO2浓度每年都在上升,2016—2017年间CO2浓度的增幅最大,2017—2018年间CO2浓度的增幅最小。长三角地区CO2浓度在不同季节之间存在一定的变化,春季和秋季通常呈现较低的CO2浓度,而夏季则呈现较高的CO2浓度。

  • 4 总结与展望

  • 本研究提出了一种基于卫星观测数据和辅助数据,利用ST-SAN模型进行长三角地区CO2浓度重建的方法。尽管通过地面观测验证了估计的大气CO2浓度的高精度,但该研究仍然存在一些限制。

  • GOSAT、OCO-2/3以及TanSat等碳卫星在观测范围上涵盖了不同的地理区域,观测时间上也存在差异。由于它们的观测周期和重访时间不同,所以可以提供不同时间尺度的数据。这意味着它们能够捕捉到不同时间段内的CO2浓度变化。此外,不同的卫星还采用不同的反演算法来从观测数据中推断出CO2浓度。这些算法考虑了传感器的特性、辐射传输模型和大气背景,以提高数据的准确性和可靠性。不同的反演算法可能在精度和适用性上有所差异,因此结合不同卫星的数据可以获得更全面、一致性更好的观测结果。因此,将多个碳卫星数据进行融合,并结合气象数据、植被数据、人类活动数据,有望提高重建的精度,这是未来研究的重点方向之一。

  • 此外,对于碳卫星数据重建领域,本研究还建议朝着以下几个方向发展:

  • 1)高分辨率观测。这将使得碳卫星能够更准确地捕捉到地球表面上不同区域的碳循环过程和碳排放情况,提供更精细的数据重建结果。

  • 2)时间尺度扩展。目前的碳卫星数据重建主要关注短期的碳循环和碳排放变化,如季节尺度和年尺度。未来的发展方向可能会将时间尺度扩展到更长的时间范围,例如对几十年甚至几个世纪的碳循环过程进行建模和重建,以更好地理解和预测长期的碳循环变化。

  • 3)区域性和全球性耦合。碳循环是一个具有区域性和全球性相互作用的系统,不同地区的碳排放和碳吸收过程相互影响。未来的发展方向可能会更加关注区域尺度的碳循环研究,并将其与全球尺度的数据重建相耦合,以更全面地揭示碳循环的复杂性。

  • 高分辨率的长时间序列CO2数据提供了准确理解碳循环和气候变化的能力,支持政策制定和监测政策效果,促进国际合作和协调,为决策者提供了科学依据和风险评估工具,以应对气候挑战和实现可持续发展目标。通过数据重建,人们能深入了解碳排放和吸收的地理分布、季节性变化和长期趋势,为制定低碳战略、规划适应措施和评估碳市场风险提供了支持。

  • 参考文献

  • 参考文献

  • 地址:江苏南京宁六路219号南京信息工程大学    邮编:210044

    联系电话:025-58731158    E-mail:xbbjb@nuist.edu.cn    QQ交流群号:344646895

    大气科学学报 ® 2025 版权所有  技术支持:北京勤云科技发展有限公司