本研究运用多源数据,借助CNN-LSTM-Attention的混合模型,对国债ETF价格涨跌的二分类问题进行预测,并通过系统的数据处理与特征工程,深入比较该混合模型与其他主流神经网络模型的性能表现。研究表明,混合模型在国债ETF预测精度方面有一定的优势,为后续AI赋能债券投资提供了参考依据。
关键词
国债ETF 深度学习 多源数据 模型对比
引言
在金融科技蓬勃发展的浪潮中,以深度求索(DeepSeek)、ChatGPT为代表的大语言模型正迅速渗透到金融市场的各个角落,给传统的金融证券投资领域带来了前所未有的变革。这些模型凭借强大的自然语言处理能力和海量数据的学习能力,在投资策略制定、风险评估等方面展现出巨大的潜力。
当前,中国国债市场正处于一个特殊的发展阶段,国债利率水平相对较低,静态票息难以满足投资者日益增长的收益需求。在此背景下,机构投资者们不得不将目光转向债券的波段交易,期望通过精准把握国债等利率债品种价格的短期波动来实现收益的增厚。
随着人工智能(AI)技术的飞速发展,深度学习模型在金融领域的应用日益广泛。卷积神经网络模型(CNN)、长短期记忆网络模型(LSTM)、变换器模型(Transformer)等深度学习模型,以其强大的非线性拟合能力和对时间序列数据的处理能力,为国债 ETF 价格预测提供了全新的思路和方法。
本研究聚焦国债交易型开放式指数基金1(ETF,代码 511010),通过整合宏观经济数据、市场交易数据等多源信息,基于CNN-LSTM-Attention机制的混合模型,展开对国债ETF价格涨跌的预测研究,并将该混合模型与传统的神经网络三大模型的预测性能进行深入细致的对比分析。本研究旨在为债券投资者提供具有实操性的科学指导。
数据处理与特征工程
(一)数据来源
1.国债ETF行情数据
笔者通过万得(Wind)收集了2015年1月1日至2024年 12月31日期间国债ETF的每日行情数据,包括开盘价、收盘价、最高价、最低价以及成交量等基础信息。基于这些原始数据,进一步衍生计算出如 OBV(能量潮指标)、MA5(5日移动平均线)、WR(威廉指标)等关键技术指标,以全面反映国债ETF的市场交易特征。
2.宏观基本面数据以及资金指标数据
笔者通过Wind收集了宏观经济和资金指标方面的数据,如 国内生产总值(GDP)、工业品出厂价格指数(PPI)、居民消费价格指数(CPI)、工业增加值同比增速、固定资产累计同比增速、出口同比增速、社会消费品零售总额同比增速、工业增加值累计同比增速、R007(银行间市场7天回购利率)、DR007(存款类机构间7天回购利率)等。考虑到部分宏观指标为季度或月度数据,为与日度的国债ETF行情数据在时间维度上匹配,采用线性插值法将部分宏观数据转化为日度数据,确保数据的一致性和可用性。
(二)数据预处理与特征工程
1.特征变量构建
基于收集到的国债ETF行情数据、资金面指标数据以及宏观基本面数据,初步构建了备选特征向量集合。为了筛选出最具代表性、对预测结果贡献最大的特征变量,运用数据可视化技术绘制了各特征变量间的相关系数热力图,直观展示变量之间的线性相关性。相关系数热力图通过颜色深浅表示相关性的强弱,以快速识别出高度相关的特征变量。同时,通过随机森林中的特征重要性分析算法生成特征变量重要性展示图,量化评估每个特征的重要程度。综合这两种分析方法,我们能够更全面地评估每个特征变量的相关性和重要性。最终确定了用于模型训练的核心特征变量,即features= [‘Volume’, ‘Cpi’, ‘Ppi’, ‘Export_rate’, ‘RetailSale’, ‘M2’, ‘R007’, ‘WR’, ‘OBV’]。这些特征变量在相关系数热力图中表现出较低的多重共线性,同时在特征重要性展示图中有较高的重要性得分,从而确保了模型的稳定性和预测性能。各备选特征变量之间的相关系数及重要程度见图1、图2。
2.标签设置背景与处理
鉴于实际投资过程中,预测国债ETF是为进一步构建证券量化投资策略提供决策依据,因此预测涨跌的二分类问题要比预测具体数值更具有实操意义。当国债ETF下一日的收盘价较当日上涨时,标签赋值1;否则,赋值0。
3.金融时间序列非平稳性处理
鉴于金融时间序列普遍存在的非平稳性,直接使用原始数据可能导致模型训练效果不佳。为了消除数据中的趋势和季节性因素,使数据满足平稳性假设,对选定的特征变量进行了差分处理。通过差分操作,有效提取了数据的动态变化特征,为后续的模型训练提供了更优质的数据基础。
模型构建与训练
(一)一维CNN
一维CNN(1D-CNN)在处理时间序列数据时,能够通过卷积核在时间维度上的滑动,高效提取数据的局部特征。
该模型包含多个卷积层和池化层。卷积层通过不同大小的卷积核进行卷积操作,提取数据的局部模式和特征;池化层则对卷积层的输出进行降维处理,减少计算量,同时保留关键特征。本研究中,模型输入时间步长为20的9个特征变量数据,经过多个卷积层和池化层的特征提取后,通过全连接层进行分类预测,最终输出预测结果。训练过程中,使用Adam优化器和交叉熵损失函数,以优化模型参数,提高预测准确性。
(二)LSTM
LSTM作为一种特殊的循环神经网络,具备强大的处理时间序列数据中长期依赖关系的能力,其核心思想是通过门控机制和记忆单元控制信息流动,既能捕捉短期特征,又能保留长期依赖关系。本研究中,构建的LSTM模型每个样本包含过去20个时间步的9个特征变量数据。模型结构包括LSTM层、隐藏层和全连接输出层。LSTM层及隐藏层通过门控机制,选择性地保留时间序列中的关键信息;全连接层则将LSTM隐藏层的输出映射到预测结果空间。模型训练采用Adam优化器,该优化器能够自适应调整学习率,加快模型收敛速度;损失函数选用交叉熵损失函数,用于衡量模型预测结果与真实标签之间的差异。
(三)Transformer
Transformer基于自身注意力机制,打破了传统循环神经网络和卷积神经网络在处理长序列数据时的局限性,能够更有效地捕捉序列数据中的全局依赖关系。在本研究中,构建的Transformer包含多个多头注意力层和前馈神经网络层。通过多个注意力头并行计算,从不同角度捕捉数据的依赖关系;最后经过前馈神经网络层进行特征变换和映射,通过全连接层输出预测结果。模型训练采用Adam优化器和交叉熵损失函数,确保模型在训练过程中不断优化,提升预测性能。
(四)基于CNN-LSTM-Attention的混合模型
本研究借鉴了Transformer中极具创新性的Attention机制,该机制依据时间步重要性动态分配权重,提升对重要信息的关注度与预测准确性。基于CNN-LSTM-Attention的混合模型,融合多种神经网络优势,处理复杂时间序列数据时优势显著。CNN利用局部感受野和权值共享,能自动提取国债ETF数据中的价格短期波动、成交量变化等局部特征,为后续分析筑牢根基;LSTM凭借门控机制,既能铭记长期经济因素影响下的价格走势,又能对短期波动迅速作出反应,精准把握价格长期趋势与动态变化。三者结合赋予模型灵活性与适应性,面对复杂的市场环境,能有效处理各类关键信息,维持良好性能。
(五)模型训练与评估
将经过处理的数据按照80%、20%的比例划分为训练集、验证集。训练集用于模型参数的学习和优化,加入丢弃层(Dropout)防止过拟合现象的发生;测试集则用于评估模型的最终性能。在训练过程中,通过调整模型的超参数,如学习率、隐藏层节点数等,观察测试集上的性能指标变化,选择性能最优的模型参数配置。训练完成后,使用测试集对3个模型进行全面评估,主要评估指标包括受试者工作特征曲线(ROC曲线)、精度和损失等。ROC 曲线则从分类阈值的角度,综合评估模型的分类性能;精度和损失分别衡量模型预测的准确性和误差程度。
实验结果与分析
(一)模型性能对比
通过在测试集上的实验,得到了4个模型的ROC 曲线以及精度和损失等关键指标。本文中,模型的损失函数采用的是交叉熵损失,用于衡量模型预测值与真实标签之间的差异。交叉熵损失函数是一种常用于分类任务的损失函数,特别是在二分类问题中。其衡量的是模型预测值(概率分布)与真实标签(概率分布)之间的差异。交叉熵损失越小,表示模型的预测值越接近真实值。精度定义为模型预测正确的样本数占总样本数的比例,测试集精度则是模型在测试集上的预测精度,用于评估模型的泛化能力。实验结果表明,基于CNN-LSTM-Attention的混合模型在精度和测试集精度方面均显著优于1D-CNN、LSTM以及Transformer,损失相对较低(见表1)。
(二)ROC 曲线分析
ROC曲线是一种用于评估二分类模型性能的工具,其以真正率(True Positive Rate,TPR,即实际正例中被正确预测为正例的比例)为纵轴,假正率(False Positive Rate,FPR,即实际负例中被错误预测为正例的比例)为横轴。通过绘制不同分类阈值下的TPR和FPR,可以直观地展示模型在不同判断标准下区分正例和负例的能力。从4种模型的ROC曲线来看,曲线下面积值(AUC)均位于0.5~0.56,较为接近;ROC 曲线和AUC是评估二分类模型性能的重要工具,AUC 越接近 1,模型性能越好。结合表1数据来看,混合模型在测试集精度(0.7758)和整体精度(0.7667)上显著优于其他模型,但 AUC最小(0.54),这主要是因为测试集样本(1类和0类)分布不均衡。虽然混合模型的AUC值相对较低,但其在测试集精度和整体精度上显著优于其他模型。这表明混合模型在特定分类阈值下具有较高的预测准确性,但在整体分类阈值范围内表现不够稳定。未来的研究可以进一步优化模型的分类阈值选择,以提高AUC值。4种模型的ROC曲线如图3—图6所示。
结论与改进建议
(一)结论
在利用多源数据进行国债ETF涨跌预测的任务中,基于CNN-LSTM-Attention的混合模型凭借其独特的结构和强大的时间序列处理能力,在精度、损失和验证集精度等关键性能指标上均表现出色,显著优于1D-CNN模型、LSTM模型和Transformer模型,展现出更为卓越的预测性能。
本研究充分凸显了人工智能技术在债券投资领域的巨大潜力,为债券投资实践提供了全新的视角和方法。未来的研究可以在现有基础上,进一步拓展数据来源,优化模型结构,探索更有效的特征工程方法,以不断提升国债ETF涨跌预测的准确性和稳定性。
(二)改进建议
数据方面:在金融市场环境日益复杂且动态变化的背景下,准确预测国债ETF的走势成为极具价值与挑战的研究课题。尽管本研究已使用国债ETF行情数据与宏观基本面数据,但目前的研究尚未充分考量货币政策等非结构化数据,而这类数据在国债ETF市场中扮演着举足轻重的角色。未来可进一步通过自然语言处理(NLP)算法处理货币政策执行报告与货币政策会议纪要得到货币态度指数等指标。同时,在数据处理环节,进一步优化对缺失数据的处理方法,后续将尝试基于机器学习的缺失值预测算法,如 K 近邻算法、决策树算法等,利用数据之间的内在关系和模式,更准确地预测缺失值,提升数据质量。另外,针对测试集样本(1类和0类)分布不均衡的问题,后续会进一步研究重采样的处理方法。
模型方面:深度学习模型本质上是通过对历史数据进行近似的非线性映射来实现预测。然而,金融市场中诸如政策发布、突发事件冲击等动态变化因素,极易导致预测结果出现偏差。因此,为确保模型的预测精度,需定期对模型重新进行训练,并及时更新模型参数。
特征工程方面:在现有特征选择基础上,运用更复杂、更先进的特征选择算法,如基于树模型的特征选择方法、XGBoost的特征得分等,这些方法能够更精准地筛选出对模型预测结果贡献最大的关键特征,减少冗余特征对模型性能的干扰。同时,尝试生成新的特征,结合技术分析与基本面分析,创造如宏观指标与技术指标的交叉特征,如将GDP增速与OBV指标进行组合,构建新的特征变量,增强模型对国债ETF涨跌规律的捕捉能力。
注:
1.代码为511010。
参考文献
[1] Bengio Y, Simard P, Frasconi P. Learning long-term dependencies with gradient descent is difficult[J]. IEEE Transactions on Neural Networks, 1994, 5(2).
[2] Box G E P, Jenkins G M, Reinsel G C, et al. Time Series Analysis: Forecasting and Control[M]. Hoboken, NJ: John Wiley Sons, 2015.
[3] Chen T, Guestrin C. XGBoost: A Scalable Tree Boosting System[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD). New York, NY: ACM, 2016.
[4] Chen X, Hu W. Attention-based LSTM-CNN for Stock Market Prediction[C]//Proceedings of the 2018 IEEE International Conference on Data Mining (ICDM). Piscataway, NJ: IEEE, 2018.
[5] Fawcett T. An Introduction to ROC Analysis[J]. Pattern Recognition Letters, 2006, 27(8).
[6] Hochreiter S, Schmidhuber J. Long Short-Term Memory[J]. Neural Computation, 1997, 9(8).
[7] LeCun Y, Bengio Y, Haffner P. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11).
[8] Rumelhart D E, Hinton G E, Williams R J. Learning Representations by Back-propagating Errors[J]. Nature, 1986, 323(6088).
[9] Wang Z, Oates T. Imaging Time-Series to Improve Classification and Imputation[EB/OL]. arXiv preprint arXiv: 1506.00321, 2015.
责任编辑:赵思远
本研究运用多源数据,借助CNN-LSTM-Attention的混合模型,对国债ETF价格涨跌的二分类问题进行预测,并通过系统的数据处理与特征工程,深入比较该混合模型与其他主流神经网络模型的性能表现。研究表明,混合模型在国债ETF预测精度方面有一定的优势,为后续AI赋能债券投资提供了参考依据。
关键词
国债ETF 深度学习 多源数据 模型对比
引言
在金融科技蓬勃发展的浪潮中,以深度求索(DeepSeek)、ChatGPT为代表的大语言模型正迅速渗透到金融市场的各个角落,给传统的金融证券投资领域带来了前所未有的变革。这些模型凭借强大的自然语言处理能力和海量数据的学习能力,在投资策略制定、风险评估等方面展现出巨大的潜力。
当前,中国国债市场正处于一个特殊的发展阶段,国债利率水平相对较低,静态票息难以满足投资者日益增长的收益需求。在此背景下,机构投资者们不得不将目光转向债券的波段交易,期望通过精准把握国债等利率债品种价格的短期波动来实现收益的增厚。
随着人工智能(AI)技术的飞速发展,深度学习模型在金融领域的应用日益广泛。卷积神经网络模型(CNN)、长短期记忆网络模型(LSTM)、变换器模型(Transformer)等深度学习模型,以其强大的非线性拟合能力和对时间序列数据的处理能力,为国债 ETF 价格预测提供了全新的思路和方法。
本研究聚焦国债交易型开放式指数基金1(ETF,代码 511010),通过整合宏观经济数据、市场交易数据等多源信息,基于CNN-LSTM-Attention机制的混合模型,展开对国债ETF价格涨跌的预测研究,并将该混合模型与传统的神经网络三大模型的预测性能进行深入细致的对比分析。本研究旨在为债券投资者提供具有实操性的科学指导。
数据处理与特征工程
(一)数据来源
1.国债ETF行情数据
笔者通过万得(Wind)收集了2015年1月1日至2024年 12月31日期间国债ETF的每日行情数据,包括开盘价、收盘价、最高价、最低价以及成交量等基础信息。基于这些原始数据,进一步衍生计算出如 OBV(能量潮指标)、MA5(5日移动平均线)、WR(威廉指标)等关键技术指标,以全面反映国债ETF的市场交易特征。
2.宏观基本面数据以及资金指标数据
笔者通过Wind收集了宏观经济和资金指标方面的数据,如 国内生产总值(GDP)、工业品出厂价格指数(PPI)、居民消费价格指数(CPI)、工业增加值同比增速、固定资产累计同比增速、出口同比增速、社会消费品零售总额同比增速、工业增加值累计同比增速、R007(银行间市场7天回购利率)、DR007(存款类机构间7天回购利率)等。考虑到部分宏观指标为季度或月度数据,为与日度的国债ETF行情数据在时间维度上匹配,采用线性插值法将部分宏观数据转化为日度数据,确保数据的一致性和可用性。
(二)数据预处理与特征工程
1.特征变量构建
基于收集到的国债ETF行情数据、资金面指标数据以及宏观基本面数据,初步构建了备选特征向量集合。为了筛选出最具代表性、对预测结果贡献最大的特征变量,运用数据可视化技术绘制了各特征变量间的相关系数热力图,直观展示变量之间的线性相关性。相关系数热力图通过颜色深浅表示相关性的强弱,以快速识别出高度相关的特征变量。同时,通过随机森林中的特征重要性分析算法生成特征变量重要性展示图,量化评估每个特征的重要程度。综合这两种分析方法,我们能够更全面地评估每个特征变量的相关性和重要性。最终确定了用于模型训练的核心特征变量,即features= [‘Volume’, ‘Cpi’, ‘Ppi’, ‘Export_rate’, ‘RetailSale’, ‘M2’, ‘R007’, ‘WR’, ‘OBV’]。这些特征变量在相关系数热力图中表现出较低的多重共线性,同时在特征重要性展示图中有较高的重要性得分,从而确保了模型的稳定性和预测性能。各备选特征变量之间的相关系数及重要程度见图1、图2。
2.标签设置背景与处理
鉴于实际投资过程中,预测国债ETF是为进一步构建证券量化投资策略提供决策依据,因此预测涨跌的二分类问题要比预测具体数值更具有实操意义。当国债ETF下一日的收盘价较当日上涨时,标签赋值1;否则,赋值0。
3.金融时间序列非平稳性处理
鉴于金融时间序列普遍存在的非平稳性,直接使用原始数据可能导致模型训练效果不佳。为了消除数据中的趋势和季节性因素,使数据满足平稳性假设,对选定的特征变量进行了差分处理。通过差分操作,有效提取了数据的动态变化特征,为后续的模型训练提供了更优质的数据基础。
模型构建与训练
(一)一维CNN
一维CNN(1D-CNN)在处理时间序列数据时,能够通过卷积核在时间维度上的滑动,高效提取数据的局部特征。
该模型包含多个卷积层和池化层。卷积层通过不同大小的卷积核进行卷积操作,提取数据的局部模式和特征;池化层则对卷积层的输出进行降维处理,减少计算量,同时保留关键特征。本研究中,模型输入时间步长为20的9个特征变量数据,经过多个卷积层和池化层的特征提取后,通过全连接层进行分类预测,最终输出预测结果。训练过程中,使用Adam优化器和交叉熵损失函数,以优化模型参数,提高预测准确性。
(二)LSTM
LSTM作为一种特殊的循环神经网络,具备强大的处理时间序列数据中长期依赖关系的能力,其核心思想是通过门控机制和记忆单元控制信息流动,既能捕捉短期特征,又能保留长期依赖关系。本研究中,构建的LSTM模型每个样本包含过去20个时间步的9个特征变量数据。模型结构包括LSTM层、隐藏层和全连接输出层。LSTM层及隐藏层通过门控机制,选择性地保留时间序列中的关键信息;全连接层则将LSTM隐藏层的输出映射到预测结果空间。模型训练采用Adam优化器,该优化器能够自适应调整学习率,加快模型收敛速度;损失函数选用交叉熵损失函数,用于衡量模型预测结果与真实标签之间的差异。
(三)Transformer
Transformer基于自身注意力机制,打破了传统循环神经网络和卷积神经网络在处理长序列数据时的局限性,能够更有效地捕捉序列数据中的全局依赖关系。在本研究中,构建的Transformer包含多个多头注意力层和前馈神经网络层。通过多个注意力头并行计算,从不同角度捕捉数据的依赖关系;最后经过前馈神经网络层进行特征变换和映射,通过全连接层输出预测结果。模型训练采用Adam优化器和交叉熵损失函数,确保模型在训练过程中不断优化,提升预测性能。
(四)基于CNN-LSTM-Attention的混合模型
本研究借鉴了Transformer中极具创新性的Attention机制,该机制依据时间步重要性动态分配权重,提升对重要信息的关注度与预测准确性。基于CNN-LSTM-Attention的混合模型,融合多种神经网络优势,处理复杂时间序列数据时优势显著。CNN利用局部感受野和权值共享,能自动提取国债ETF数据中的价格短期波动、成交量变化等局部特征,为后续分析筑牢根基;LSTM凭借门控机制,既能铭记长期经济因素影响下的价格走势,又能对短期波动迅速作出反应,精准把握价格长期趋势与动态变化。三者结合赋予模型灵活性与适应性,面对复杂的市场环境,能有效处理各类关键信息,维持良好性能。
(五)模型训练与评估
将经过处理的数据按照80%、20%的比例划分为训练集、验证集。训练集用于模型参数的学习和优化,加入丢弃层(Dropout)防止过拟合现象的发生;测试集则用于评估模型的最终性能。在训练过程中,通过调整模型的超参数,如学习率、隐藏层节点数等,观察测试集上的性能指标变化,选择性能最优的模型参数配置。训练完成后,使用测试集对3个模型进行全面评估,主要评估指标包括受试者工作特征曲线(ROC曲线)、精度和损失等。ROC 曲线则从分类阈值的角度,综合评估模型的分类性能;精度和损失分别衡量模型预测的准确性和误差程度。
实验结果与分析
(一)模型性能对比
通过在测试集上的实验,得到了4个模型的ROC 曲线以及精度和损失等关键指标。本文中,模型的损失函数采用的是交叉熵损失,用于衡量模型预测值与真实标签之间的差异。交叉熵损失函数是一种常用于分类任务的损失函数,特别是在二分类问题中。其衡量的是模型预测值(概率分布)与真实标签(概率分布)之间的差异。交叉熵损失越小,表示模型的预测值越接近真实值。精度定义为模型预测正确的样本数占总样本数的比例,测试集精度则是模型在测试集上的预测精度,用于评估模型的泛化能力。实验结果表明,基于CNN-LSTM-Attention的混合模型在精度和测试集精度方面均显著优于1D-CNN、LSTM以及Transformer,损失相对较低(见表1)。
(二)ROC 曲线分析
ROC曲线是一种用于评估二分类模型性能的工具,其以真正率(True Positive Rate,TPR,即实际正例中被正确预测为正例的比例)为纵轴,假正率(False Positive Rate,FPR,即实际负例中被错误预测为正例的比例)为横轴。通过绘制不同分类阈值下的TPR和FPR,可以直观地展示模型在不同判断标准下区分正例和负例的能力。从4种模型的ROC曲线来看,曲线下面积值(AUC)均位于0.5~0.56,较为接近;ROC 曲线和AUC是评估二分类模型性能的重要工具,AUC 越接近 1,模型性能越好。结合表1数据来看,混合模型在测试集精度(0.7758)和整体精度(0.7667)上显著优于其他模型,但 AUC最小(0.54),这主要是因为测试集样本(1类和0类)分布不均衡。虽然混合模型的AUC值相对较低,但其在测试集精度和整体精度上显著优于其他模型。这表明混合模型在特定分类阈值下具有较高的预测准确性,但在整体分类阈值范围内表现不够稳定。未来的研究可以进一步优化模型的分类阈值选择,以提高AUC值。4种模型的ROC曲线如图3—图6所示。
结论与改进建议
(一)结论
在利用多源数据进行国债ETF涨跌预测的任务中,基于CNN-LSTM-Attention的混合模型凭借其独特的结构和强大的时间序列处理能力,在精度、损失和验证集精度等关键性能指标上均表现出色,显著优于1D-CNN模型、LSTM模型和Transformer模型,展现出更为卓越的预测性能。
本研究充分凸显了人工智能技术在债券投资领域的巨大潜力,为债券投资实践提供了全新的视角和方法。未来的研究可以在现有基础上,进一步拓展数据来源,优化模型结构,探索更有效的特征工程方法,以不断提升国债ETF涨跌预测的准确性和稳定性。
(二)改进建议
数据方面:在金融市场环境日益复杂且动态变化的背景下,准确预测国债ETF的走势成为极具价值与挑战的研究课题。尽管本研究已使用国债ETF行情数据与宏观基本面数据,但目前的研究尚未充分考量货币政策等非结构化数据,而这类数据在国债ETF市场中扮演着举足轻重的角色。未来可进一步通过自然语言处理(NLP)算法处理货币政策执行报告与货币政策会议纪要得到货币态度指数等指标。同时,在数据处理环节,进一步优化对缺失数据的处理方法,后续将尝试基于机器学习的缺失值预测算法,如 K 近邻算法、决策树算法等,利用数据之间的内在关系和模式,更准确地预测缺失值,提升数据质量。另外,针对测试集样本(1类和0类)分布不均衡的问题,后续会进一步研究重采样的处理方法。
模型方面:深度学习模型本质上是通过对历史数据进行近似的非线性映射来实现预测。然而,金融市场中诸如政策发布、突发事件冲击等动态变化因素,极易导致预测结果出现偏差。因此,为确保模型的预测精度,需定期对模型重新进行训练,并及时更新模型参数。
特征工程方面:在现有特征选择基础上,运用更复杂、更先进的特征选择算法,如基于树模型的特征选择方法、XGBoost的特征得分等,这些方法能够更精准地筛选出对模型预测结果贡献最大的关键特征,减少冗余特征对模型性能的干扰。同时,尝试生成新的特征,结合技术分析与基本面分析,创造如宏观指标与技术指标的交叉特征,如将GDP增速与OBV指标进行组合,构建新的特征变量,增强模型对国债ETF涨跌规律的捕捉能力。
注:
1.代码为511010。
参考文献
[1] Bengio Y, Simard P, Frasconi P. Learning long-term dependencies with gradient descent is difficult[J]. IEEE Transactions on Neural Networks, 1994, 5(2).
[2] Box G E P, Jenkins G M, Reinsel G C, et al. Time Series Analysis: Forecasting and Control[M]. Hoboken, NJ: John Wiley Sons, 2015.
[3] Chen T, Guestrin C. XGBoost: A Scalable Tree Boosting System[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD). New York, NY: ACM, 2016.
[4] Chen X, Hu W. Attention-based LSTM-CNN for Stock Market Prediction[C]//Proceedings of the 2018 IEEE International Conference on Data Mining (ICDM). Piscataway, NJ: IEEE, 2018.
[5] Fawcett T. An Introduction to ROC Analysis[J]. Pattern Recognition Letters, 2006, 27(8).
[6] Hochreiter S, Schmidhuber J. Long Short-Term Memory[J]. Neural Computation, 1997, 9(8).
[7] LeCun Y, Bengio Y, Haffner P. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11).
[8] Rumelhart D E, Hinton G E, Williams R J. Learning Representations by Back-propagating Errors[J]. Nature, 1986, 323(6088).
[9] Wang Z, Oates T. Imaging Time-Series to Improve Classification and Imputation[EB/OL]. arXiv preprint arXiv: 1506.00321, 2015.
责任编辑:赵思远