StockFormer:基于 STL 分解和自注意力网络的摆动交易策略
提出了一种新颖的使用空间时间转换器 - LSTM 模型的 STST 方法来预测股票涨跌,该模型在 ACL18 和 KDD17 数据集上分别获得了 63.707%和 56.879%的准确率,并用于模拟交易,获得了不低于 S&P500 股票指数的 10.41%的最小收益率和 31.24%的最小年化收益率。
May, 2023
本文提出了一种新颖的基于注意机制的方法,通过考虑股票市场信息和个别股票信息,以及利用基于经验模态分解的算法来降低股票数据中的短期噪声,展示了该方法在预测股票走势方面的卓越性能。
Mar, 2024
SigFormer 是一种深度学习模型,结合了路径签名和 Transformer 的优点,用于处理具有不规律性的序列数据,特别适用于金融领域中的对冲策略设计。模型在合成数据上的实证比较展示了其更快的学习速度和增强的稳健性,尤其是在存在不规律的基础价格数据的情况下,同时通过对标普 500 指数的实际对冲回测验证了模型的性能。
Oct, 2023
提出了一种名为 LSTM-SSAM 的新模型,通过对历史价格趋势和季节性的分析,实现了对股票价格的未来预测,并通过实验证明了该模型的有效性和可行性。
Aug, 2023
本文提出了一种利用多模态注意力网络(multi-modality attention network)进行股票预测的方法,将社交媒体中的语义信息和历史交易记录中的数字特征相结合,通过减少冲突来提高预测准确性(61.20%)和交易利润(9.13%),从而提高了股票预测的性能和为多模态融合提供了未来研究方向。
Dec, 2021
该研究提出了一种增强型的 Transformer 架构,设计了一种基于该模型的新型因子。通过从情感分析进行迁移学习,该模型不仅利用其原有的长期依赖性和复杂数据关系建模的优势,而且能够解决带有数字输入的任务并准确预测未来一段时间的回报。该研究的结果表明,相比其他 100 种基于因子的量化策略,该模型在预测股票趋势方面表现出优越性能,且换手率较低,半衰期更加稳健。值得注意的是,该模型通过与市场情绪信息结合,创新地应用了 Transformer 来建立因子,从而显著提高了交易信号的准确性,为未来量化交易策略提供了有希望的启示。
Mar, 2024
DSFormer 是一种新型的低秩矩阵分解和半结构稀疏矩阵乘积方法,针对大型 Transformer 模型的成本效益问题提供了更强的效率 - 准确度平衡,并在自然语言理解任务中实现了比现有方法更高的压缩率和任务准确度。
Dec, 2023
利用 LSTM 网络预测股票动态,主要关注细微的涨跌模式,结合纽约证交所的数据集,改进 LSTM 模型以捕捉复杂的市场模式,进而提高股票价格预测的准确性。
Dec, 2023
利用人工智能生成样本(AIGS)增强训练过程,提出了一种新颖的方法,利用 Diffusion Model 生成具有 Transformer 架构的股票因子(DiffsFormer)。通过编辑现有样本来控制生成数据与目标领域的差异程度,以缓解数据稀缺问题,并通过在 CSI300 和 CSI800 数据集上的实验证明了该方法在股票预测任务中的有效性。
Feb, 2024
本研究提出了一个用于预测股票走势的框架,利用 DNN 技术实现了逐股票的内部动态与不同股票间多阶相关性建模,并采用了基于小波基的超图注意力,实现了在效率与准确率上的平衡。实验结果表明,该框架在收益和稳定性方面超越了现有方法。
Nov, 2022