首页 >> 大全

Deep Reinforcement Learning for Automate

2023-10-24 大全 26 作者:考证青年

Deep for Stock An

论文

股票交易策略在投资中起着关键作用。然而,在复杂多变的股票市场上设计一个有利可图的策略是很有挑战性的。在本文中,我们提出了一种采用深度强化方案的集合策略,通过最大化投资收益来学习股票交易策略。我们训练了一个深度强化学习代理,并使用三种actor- based算法获得了一个集合交易策略。近端策略优化(PPO)、 Actor (A2C)和Deep (DDPG)。

集合策略继承并整合了三种算法的最佳特征,从而稳健地适应了不同的市场情况。为了避免在训练具有连续行动空间的网络时消耗大量内存,我们采用了按需加载技术来处理非常大的数据。我们在具有足够流动性的30只道琼斯股票上测试我们的算法。

对采用不同强化学习算法的交易代理的性能进行了评估,并与道琼斯工业平均指数和传统的最小方差投资组合分配策略进行了比较。拟议的深度集合策略在以夏普比率衡量的风险调整后的回报方面优于三种单独算法和两种基线。

I.

获利的自动股票交易策略对投资公司和对冲基金至关重要。它被用于优化资本配置和最大化投资业绩,如预期收益。收益最大化可以基于对潜在收益和风险的估计。然而,对于分析师来说,在一个复杂而动态的股市中考虑所有相关因素是具有挑战性的。

现有的工程并不令人满意。使用两个步骤的传统方法在[4]中描述。首先,计算股票预期收益和股票价格的协方差矩阵。然后,通过在给定的风险比下使收益最大化或在预先指定的收益下使风险最小化,就可以获得最佳的投资组合配置策略。然而,这种方法实施起来很复杂,而且成本很高,因为投资组合经理可能想要在每个时间步骤中修改决策,并考虑其他因素,比如交易成本。股票交易的另一种方法是将其建模为马尔科夫决策过程(MDP),并使用动态编程来得出最佳策略[5], [6], [7], [8]。然而,由于处理股票市场时的状态空间较大,这种模型的可扩展性是有限的。

近年来,机器学习和深度学习算法被广泛应用于构建金融市场的预测和分类模型。基础数据(收益报告)和替代数据(市场新闻、学术图表数据、信用卡交易和GPS流量等)与机器学习算法结合,提取新的投资阿尔法或预测一个公司的未来业绩[9],[10],[11],[12]。

因此,产生了一个预测性的阿尔法信号来进行选股。然而,这些方法只专注于挑选高业绩的股票,而不是在选定的股票之间分配交易头寸或股份。换句话说,机器学习模型没有被训练成头寸模型。

在本文中,我们提出了一种新颖的组合策略,结合三种深度强化学习算法,在复杂的动态股票市场中找到最佳交易策略。这三种行为批评算法[13]是 (PPO) [14], [15], Actor (A2C) [16], [17], and Deep (DDPG) [18], [15], [19]。我们的深度强化学习方法在图1中描述。

通过应用集合策略,我们使交易策略更加稳健和可靠。我们的策略可以根据不同的市场情况进行调整,并在风险约束下实现收益最大化。首先,我们建立一个环境,定义行动空间、状态空间和奖励函数。第二,我们训练在环境中采取行动的三种算法。第三,我们使用衡量风险调整后收益的夏普比率将三种代理合在一起。合并策略的有效性通过其比最小方差组合配置策略和道琼斯工业平均指数1(DJIA)更高的夏普比率得到了验证。

本文的其余部分组织如下。第2节介绍了相关工作。第3节对我们的股票交易问题进行了描述。在第4节中,我们设置了我们的股票交易环境。在第5节中,我们驱动并指定了三种基于行为批判的算法和我们的组合策略。第6节描述了股票数据的预处理和我们的实验设置,并介绍了拟议的集合策略的性能评估。

II. WORKS

-only学习方法是最常见的,它使用例如深度Q-(DQN)及其改进来解决离散行动空间问题,并在单一股票或资产上训练agent[21], [22], [23]。 -only方法的想法是使用一个Q值函数来学习最佳行动选择策略,该策略在当前状态下使预期的未来奖励最大化。DQN不是计算状态-动作值表,而是最小化估计的Q值和目标Q值之间的误差,并使用神经网络来进行函数近似。-only方法的主要限制是它只适用于离散和有限的状态和行动空间,这对大型股票组合来说是不实际的,因为价格当然是连续的。

这里的想法是,代理人直接学习最优策略。与其让神经网络来学习Q值,不如让神经网络来学习策略。政策是一个概率分布,本质上是一个给定状态的策略,即采取允许行动的可能性。仅有行为者的方法可以处理连续的行动空间环境。

actor-方法最近被应用于金融领域[27], [28], [17], [19]。其思路是同时更新代表政策的actor网络和代表价值函数的网络。批评者估计价值函数,而actor在的指导下用政策梯度更新政策概率分布。随着时间的推移,actor学会了采取更好的行动,而在评估这些行动时也变得更好。事实证明,actor-的方法能够学习和适应大型复杂的环境,并被用来玩流行的视频游戏,如Doom[29]。因此, actor-的方法在大型股票组合的交易中很有前景。

III.

我们将股票交易建模为马尔科夫决策过程(MDP),并将我们的交易目标表述为预期收益最大化[30]。

A. MDP Model for Stock

为了模拟动态股票市场的随机性,我们采用了如下的马尔可夫决策过程(MDP):

通过将几个增强链的结果以凸形组合的方式混合在一起,这种图像退化可以得到缓解,增强的多样性也可以得到保持。该算法的具体说明在下面的伪代码中给出。

图2. 一个起始的投资组合值与三种行动会产生三种可能的投资组合。请注意,由于股票价格的变化,"持有 "可能导致不同的投资组合值。

股票交易过程的状态转换如图2所示。在每个状态下,对投资组合中的股票 d ( d = 1 , . . . , D ) d(d=1,...,D) d(d=1,...,D)采取三种可能行动之一。

在时间t采取了行动,股票价格在t+1更新,相应地,投资组合价值可能从 "投资组合价值0 "分别变为 “投资组合价值1”、"投资组合价值2 "或 “投资组合价值3”,如图2所示。请注意,投资组合价值是 p T h + b p^Th + b pTh+b。

B. Stock

以下假设和约束反映了对实践的关注:交易成本、市场流动性、风险规避等。

C. as Goal

我们将奖励函数定义为在状态s下采取行动a并到达新状态 s ′ s' s′时的投资组合价值的变化。我们的目标是设计一个能使投资组合价值变化最大化的交易策略。

Deep Reinforcement Learning for Automate__Deep Reinforcement Learning for Automate

其中第一项和第二项分别表示t+1和t时的投资组合价值。为了进一步分解收益,我们将股票的过渡期 h t h_t ht​定义为

和余额 b t b_t bt​的过渡在(1)中定义。那么 (4)可以改写为

其中 r H 、 r S 和 r B r_H、r_S和r_B rH​、rS​和rB​分别表示从时间t到t+1,持有、卖出和买入股票所带来的投资组合价值的变化。公式(6)表明,我们需要通过买入并持有在下一时间段价格会上涨的股票,使投资组合价值的正向变化最大化,通过卖出在下一时间段价格会下跌的股票,使投资组合价值的负向变化最小化。

index t u r b u l e n c e t ​与奖励函数结合在一起,以解决我们对市场崩溃的风险厌恶。当(3)中的指数超过一个阈值时,方程(8)变为

这表明我们希望通过卖出所有持有的股票来尽量减少投资组合价值的负面变化,因为所有的股票价格都会下跌。模型的初始化如下。 p 0 p_0 p0​被设定为时间0的股票价格, b 0 b_0 b0​是初始基金的数额。h和 Q π ( s , a ) Q_π(s, a) Qπ​(s,a)为0,π(s)在每个状态的所有行动中均匀分布。然后, Q π ( s t , a t ) Q_π(s_t, a_t) Qπ​(st​,at​)通过与股票市场环境的互动而被更新。最佳策略由贝尔曼方程给出,在状态 s t s_t st​采取行动的预期报酬是直接报酬r(st, at, st+1)和下一个状态 s t + 1 s_{t+1} st+1​的未来报酬之和的预期。为了收敛的目的,让未来的奖励被折现为0 < γ < 1的系数,那么我们有

目标是设计一个交易策略,使投资组合价值 r ( s t , a t , s t + 1 ) r(s_t, a_t, s_{t+1}) r(st​,at​,st+1​)在动态环境中的正向累积变化最大化,我们采用深度强化学习方法来解决这个问题。

IV. STOCK

在训练深度强化交易代理之前,我们仔细搭建模拟真实世界的交易环境,让代理进行交互和学习。在实际交易中,需要考虑各种信息,例如历史股票价格,当前持有的股份,技术指标等。我们的贸易代理需要通过环境获取这些信息,并采取上一节定义的行动。我们使用体育馆来实现我们的环境,训练代理[32],[33],[34]。

A. for

我们使用一个连续动作空间来建模多只股票的交易。我们假设我们的投资组合总共有30只股票。

1)状态空间:我们使用由7部分信息组成的181维向量来表示多只股票交易环境的状态空间: [bt, pt, ht,Mt, Rt, Ct, Xt]。每个组件的定义如下:

关于我们

最火推荐

小编推荐

联系我们


版权声明:本站内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 88@qq.com 举报,一经查实,本站将立刻删除。备案号:桂ICP备2021009421号
Powered By Z-BlogPHP.
复制成功
微信号:
我知道了