随着经济全球化的发展, 美股市场愈发受到我国投资者的青睐, 伴随着金融市场的发展和强烈需求, 股票价格趋势预测倍受学术界、业界关注. 众所周知, 投资股票具有高收益的同时, 也伴随着高风险, 而影响股市波动的内外因素众多且难以量化, 处理海量、繁杂的股票数据工程量大, 所以传统的非人工智能的方法在股票价格预测上往往不尽如人意. 因此, 如何利用大数据技术去发掘股票中隐含的众多有价值的信息, 运用LSTM等神经网络技术进一步解决股票价格趋势预测的问题, 具有非常重要的意义.
1.2 研究现状长短期记忆网络(Long Short-Term Memory, LSTM)在时间序列上具有优异的表现, LSTM神经网络的时间序列和选择记忆性等特性非常适用于股票价格随机的时间序列预测, 可以从大量复杂的股票历史数据中选择性学习有用的隐藏信息, 进而辅助决策[1].
1997年, Hochreiter和Schmidhuber[2]通过对无法刻画时间序列长记忆性的RNN进行改造, 提出了LSTM模型. 2015年, Chen等[3]采用LSTM对中国股市的收益率进行预测. 2016年, Jia等[4]验证了LSTM在预测股票价格走势上具有有效性.
在国内, 2016年孙瑞奇[5]使用LSTM对美股股指进行预测, 并与BP神经网络和传统RNN模型做对比, 证实了LSTM的预测准确度更高, 获得了较低的误差均值: 0.783%股指. 邓凤欣等[6]利用LSTM模型对美港股票中市值较大的4支股票进行预测, 得出4支个股价格趋势预测的RMSE均处于(0, 0.1) 的区间内, 预测结果显著. 认为LSTM在美港股市中具有较好的适用性, 但从实验结果上看存在着部分的时滞效应, 主要是作为一种案例分享而并未进行深入探讨. 2019年, 方红等[7]提出了一种基于LSTM的改进型股票预测方法, 多维输入预测的输出结果为acc=0, lag=12, 提高了预测准确度, 并改善了预测的滞后性.
根据研究表明, LSTM神经网络对未来股票的价格趋势有一定的预测能力, 但没有关于短期价格趋势预测的研究, 比如短期价格趋势预测中日数据、周数据两种不同数据集对LSTM神经网络的预测效果影响的研究. 面对这些问题, 基于LSTM神经网络对周数据与日数据集这两个短期趋势预测效果对比的实证研究具有一定重要的现实意义[8].
2 股票价格趋势预测基本原理与实现 2.1 LSTM模型结构及原理LSTM结构采用控制门的机制, 由记忆细胞、输入门、输出门、遗忘门组成. LSTM模型的各个控制门的计算原理如下[9]:
(1)输入门: 记忆现在的某些信息. 计算输入门
$ {i}_{t}=\sigma ({W}_{i}\times \left({h}_{t-1},{X}_{t}\right)+{b}_{i}) $ | (1) |
$ {a}_{t}=\tanh({W}_{c}\times \left({h}_{t-1},{X}_{t}\right)+{b}_{c}) $ | (2) |
其中,
(2)遗忘门: 控制舍去哪些信息. 计算在
$ {f}_{t}=\sigma ({W}_{f}\times \left({h}_{t-1},{X}_{t}\right)+{b}_{f}) $ | (3) |
其中
(3)细胞状态更新: 根据输入门和遗忘门的计算结果, 对细胞状态进行更新, 从而得出
$ {C}_{t}={i}_{t}\times {a}_{t}+{f}_{t}\times {C}_{t-1} $ | (4) |
(4)输出门: 控制决定哪些信息需要输出. 根据计算得到的细胞状态更新值
$ {h}_{t}=\sigma ({W}_{0}\times \left({h}_{t-1},{X}_{t}\right)+{b}_{0})\times \tanh \left({C}_{t}\right) $ | (5) |
其中,
在Windows操作系统下搭建CPU版本的Keras框架. Keras框架具有模块化、简单、易扩展等优点. 因此, 实验采用Keras进行模型搭建. 其模型训练步骤如下:
(1)数据预处理: 为避免乱序, 需进行排序, 获得规整的股票数据集.
(2)数据降噪: 因市场动态非常复杂, 这些数据含有不经常的噪声, 所以采用Python中的Pywt库进行小波变换去除数据噪声, 图1和图2是AAON股票小波变换前后对比图.
(3)数据归一化: 由于收盘价和交易量等参数同时作为特征值输入, 取值范围相差较大, 需避免数值过大的交易量对预测结果的影响过大, 需要进行归一化处理, 将数据的范围处理并控制在0到1之间, 数据归一化的公式如下:
$ y=\frac{x-MinValue}{MaxValue-MinValue} $ | (6) |
其中,
(4)数据分类: 开始训练前, 将数据集划分为训练集和测试集, 训练集占85%, 测试集占15%.
(5)训练模型: 选取最低价(low)、最高价(high)、收盘价(open)、开盘价(close)以及交易量(volume)作为特征数据输入, 配置LSTM模型的训练参数. 配置完毕后, 调用模型训练函数. 训练完后, 将训练好的模型存入saved_models文件夹中, 使用时可直接加载文件夹中保存的模型文件, 节省训练模型的时间.
(6)股票预测: 采用多序列预测方法进行股票预测, 并将预测结果进行存储.
(7)模型评估: 采用后述第2.4章节的模型评估方法, 计算评估指标.
(8)参数优化: 运用控制变量法, 对不同参数选取适当的取值范围, 在训练的过程中不断调整参数, 直至模型的预测效果最佳.
经过多次调参及优化, 使AAON股票预测准确率从55%提高到69%, 其改进前后预测结果如图3、图4所示, 得到的最终模型结构及各项参数为: 测试窗口序列长度为55, Sequential模型包括3层LSTM层, 各层的神经元个数分别为100、100、150, 为避免过拟合, 增加2层Dropout层, Dropout为0.2, 输入数据维度为5, 加入Dense层将其维度聚合为1, 激活函数为linear, 损失函数定为均方差(Mean Squared Error, MSE), 优化算法采用Adam, 模型采用2个epochs, 每个batch的大小为32, 得到的最终模型结构及参数设置详情分别如图5、表1、表2所示.
2.3 股票预测方法
本文搭建的股票价格预测模型采用多序列预测的方式. 首先将测试数据初始化为一定序列长度的测试窗口, 预测下一个点收盘价; 将预测得到的这个点收盘价加入到窗口中, 生成相同序列长度的新窗口, 循环往复. 当窗口中的数据全部由过去预测点组成时停止, 再以一个完整窗口长度向前移动, 用真实测试数据重置窗口, 再重新启动该过程.
相比完全序列预测, 多序列预测避免了一直使用过去的错误预测结果进行下一步预测, 可以有效提高预测准确率.
2.4 模型评估方法模型的预测性能评价指标采用准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F1值. 其计算流程如下:
首先, 计算收盘价涨幅, 判断涨跌, 公式如下:
$ {\text{今日收盘价涨幅}}=\frac{{\text{今日收盘价}}-{\text{昨日收盘价}}}{\text{昨日收盘价}}$ | (7) |
根据涨幅正负值信息判断股票收盘价涨跌, 若涨幅大于0, 则为股票上涨并设置标签为1, 否则为0. 通过这种方法可以实现股价涨跌预测[10].
根据样本的真实结果和模型预测结果, 将样本分为TP (样本与模型预测结果均为正类的个数)、FN (样本为正类, 预测结果为负类的个数)、FP (样本为负类, 预测结果为正类的个数)、TN (样本与模型预测结果均为负类的个数)4类.
具体计算公式如下:
$ Accuracy=\frac{TP+TN}{TP+TN+FP+FN} $ | (8) |
$ Precision=\frac{TP}{TP+FP} $ | (9) |
$ Recall=\frac{TP}{TP+FN} $ | (10) |
$ F1=2\times \frac{Precision\times Recall}{Precision+Recall} $ | (11) |
模型评估的具体流程如图6所示.
3 实验和结果 3.1 不同算法对比实验
实验选取1998年1月9日至2019年5月31日的AAON股票日数据为例进行研究, 预测第2日收盘价涨跌趋势. 数据特征属性为收盘价、开盘价、最高价、最低价、交易量, 对数据进行插值排序、降噪、归一化操作, 建立前述LSTM模型、并与支持向量机(SVM)、随机森林(random forest)模型进行对比实验. 股票预测方法选取逐点预测方法.
1998年1月9日至2019年5月31日的AAON股票日数据共计5383条, 其中85%作为训练数据, 15%作为测试数据, LSTM模型以前述2.2章节参数设置进行实验. 实验结果如表3所示: LSTM模型各项评估指标均高于SVM、随机森林. 可见, 本文改进后的LSTM模型预测效果优于其他模型.
3.2 周数据与日数据预测效果对比实验(1)实验对象: 美国纳斯达克股票市场10支股票, 其代码分别为AAON、ABMD、ACHC、ACHV、ACIW、ACNB、AXAS、EGHT、SRCE、AXDX, 数据特征属性为收盘价、开盘价、最高价、最低价、交易量.
(2)数据下载: 利用pandas_datareader中的data程序包下载上述10支股票的日数据, 周数据下载使用Alpha Vantage API key的URL地址进行爬取. 时间范围统一为1998年1月9日至2019年5月31日, 得到日数据每支股票的数据总量为5383条, 周数据每支股票数据总量为1117条.
(3)实验流程: 按照数据下载、数据预处理、数据降噪、数据归一化、数据分类、LSTM模型训练、股票预测、模型评估、记录实验结果这几个步骤完成.
具体实验流程如图7所示.
(4)预测效果对比分析: 周数据与日数据均以前述第2.2节参数设置进行实验, 其中85%的数据划分为训练集, 剩余15%划分为测试集, 按照前述实验流程进行实验, 股票预测结果如表4和表5所示.
2019年, 谢琪等[11]使用多支指数的日数据进行测试多层LSTM神经网络的预测性能, 实验结果显示平均准确率为47.33%, 平均精确率为49.83%, 平均召回率为63.5%, 平均F1值为55.5%. 与本实验相比, 其采用的是指数日数据集进行预测, 但预测效果表现不佳. 通过表6和图8可发现, 与日数据相比, 周数据的各项指标均高于日数据, 其中日数据的平均准确率为52.8%, 而周数据的平均准确率为58%, 实证说明在短期价格趋势预测中, 与日数据相比, 周数据的预测效果表现更优, 使用周数据训练LSTM模型, 股票预测准确率有望进一步提高[10].
4 总结
本文在LSTM模型的基础上进行了模型结构改进及参数优化, 使得模型预测准确率提升10%以上, 预测效果表现优于SVM、随机森林. 同时本文还随机选取了10支美股数据, 进行了短期价格趋势预测中的周数据与日数据对LSTM模型预测效果对比实证研究, 研究结果表明周数据预测效果更佳. 对比其他文献研究, 大部分研究者使用日数据或者更高频的数据, 而较少使用周数据对股票进行预测.
在本次股票价格趋势预测模型上, 不同的股票数据会对预测效果产生不同影响, 因此数据集的选择也非常重要. 根据本实验结果, 说明周数据更适合用于股票预测. 下一步的工作: 本文只从收盘价、开盘价、最高价、最低价、交易量5个特征数据进行股票预测, 股票预测的特征数据还可以增加其他数据, 比如股市资金情绪特征、技术指标等, 使用更多的特征数据进行股票预测, 有望进一步提高股票预测的准确率.
[1] |
李春伟. 基于神经网络与遗传算法的股票智能预测[硕士学位论文]. 西安: 西北工业大学, 2005.
|
[2] |
Hochreiter S, Schmidhuber J. Long short-term memory. Neural Computation, 1997, 9(8): 1735-1780. DOI:10.1162/neco.1997.9.8.1735 |
[3] |
Chen K, Zhou Y, Dai FY. A LSTM-based method for stock returns prediction: A case study of China stock market. Proceedings of 2015 IEEE International Conference on Big Data. Santa Clara, CA, USA. 2015. 2823–2824.
|
[4] |
Jia H J. Investigation into the effectiveness of long short term memory networks for stock price prediction. arXiv: 1603.07893, 2016.
|
[5] |
孙瑞奇. 基于LSTM神经网络的美股股指价格趋势预测模型的研究[硕士学位论文]. 北京: 首都经济贸易大学, 2016.
|
[6] |
邓凤欣, 王洪良. LSTM神经网络在股票价格趋势预测中的应用——基于美港股票市场个股数据的研究. 金融经济, 2018(14): 96-98. |
[7] |
方红, 韩星煜, 徐涛. 改进型基于LSTM的股票预测方法. 安徽大学学报(自然科学版), 2019, 43(6): 36-42. |
[8] |
彭燕, 刘宇红, 张荣芬. 基于LSTM的股票价格预测建模与分析. 计算机工程与应用, 2019, 55(11): 209-212. DOI:10.3778/j.issn.1002-8331.1811-0239 |
[9] |
陈卫华. 基于深度学习的上证综指波动率预测效果比较研究. 统计与信息论坛, 2018, 33(5): 99-106. DOI:10.3969/j.issn.1007-3116.2018.05.015 |
[10] |
肖琪. 人工神经网络在股票预测中的应用研究[硕士学位论文]. 广州: 华南理工大学, 2017.
|
[11] |
谢琪, 程耕国, 徐旭. 基于神经网络集成学习股票预测模型的研究. 计算机工程与应用, 2019, 55(8): 238-243. DOI:10.3778/j.issn.1002-8331.1807-0294 |