您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Deep Reinforcement Learning Hands-On

  2. 本书做到了理论和实践的平衡,既教你怎么做,又教你为什么,可能是最好的强化学习手册了。Deep Reinforcement Learning Hands-On是最新DL工具及其局限性的综合指南。本书介绍了RL的基础知识,为你提供编码智能学习智能体的专业知识,以承担一系列艰巨的实际任务。了解如何在“网格世界”环境中实施Q-learning,教你的智能体商购买和交易股票,并了解自然语言模型如何推动聊天机器人的繁荣。
  3. 所属分类:机器学习

    • 发布日期:2019-05-20
    • 文件大小:12582912
    • 提供者:wy443424238
  1. 利用强化学习进行股票操作实战(四)

  2. 本次实战代码仍是在之前基础上进行了一些修改。之前只在一支股票上进行训练,这次我将模型放在多支股票上训练,并在多支股票上进行了测试。对于多支股票的训练策略,没有参考过别人的训练方案(做这个的比较少)。我按自己的理解去训练,每一轮训练,都将每支股票从头到尾走一次。核心代码如下: 结果: 股票1: 不加均线的回测结果: 加均线的回测结果: 股票2: 不加均线的回测结果: 加均线的回测结果: 股票3: 不加均线的回测结果: 加均线的回测结果: 从上图可以发现,加了均线系统限制股票买卖效果不
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:332800
    • 提供者:weixin_38590567
  1. 利用强化学习进行股票操作实战(三)

  2. 与上一篇文章相同之处 对于交易策略,与上一篇文章相同,当发出买入指令时,一次性全部买入;当发出卖出指令时,一次性全部卖出。还没有添加加减仓操作。 模型仍然用的是DQN模型。 新增内容 在之前的基础上加入了交易手续费、印花税等。 在强化学习这个领域中,reward函数是一个需要精心设计的函数。目前暂时没有好的reward设计思路,但还是修改了之前的reward函数。(其实之前的reward的设计也是错的) 首先将第二天的股票价格的涨跌幅当做reward。 reward =(self.trend[s
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:285696
    • 提供者:weixin_38565818
  1. 利用强化学习进行股票操作实战(二)

  2. 对于DQN的理论知识,这里不再赘述,不懂的同学可以看之前的强化学习理论篇或自行上网搜索相关资料。 废话不多说直接上代码。 DQN类 首先定义了一个DQN类(这个定义参考了莫烦的代码 [1],几乎与其一致,做了简单修改)。下面简单的说明一下,代码中的核心部分。详细介绍可以看莫烦教学视频或者结合代码自己理解。 class 中包含了5个主要模块,分别是__init__ (初始化),_build_net(网络构建),store_transition(储存过去操作),choose_action(根据状态选
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38705640
  1. RL-Stock:用如何用深度强化学习自动炒股-源码

  2. :chart_increasing:如何用深度强化学习自动炒股 :light_bulb:初衷 最近发生的事故,受到新冠疫情的影响,股市接连下降,作为一棵小白菜兼小韭菜,竟然产生了抄底的大胆想法,拿出仅存的一点私房钱梭哈了一把。 第二天,暴跌,俺加仓 第三天,又跌,俺加仓 第三天,又跌,俺又加仓... 一番错误操作后,结果严重不堪重负,第一次买股票就被股市一段暴打,受到了媳妇无情的嘲讽。痛定思痛,俺决定换一个思路:如何用深度强化学习来自动模拟炒股?实验验证一下能否获得收益。 :open_boo
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:4194304
    • 提供者:weixin_42168902
  1. deep-q-trading-agent-源码

  2. 深Q贸易代理 在这里,我们将演示论文的一种实现方法,即 Jeong等人的。 金融交易代理并不是什么新鲜事物。 先前创建自动交易系统的尝试使用统计指标(例如移动平均线)来确定如何随时采取行动。 但是,这些代理商大多数都专注于采取的行动,选择交易固定数量的股票。 对于现实世界的交易方案而言,这是不现实的。 本文解决了三个问题。 交易员在给定的一天应该执行什么交易动作,以及多少股票。 在“混乱的市场”中,贸易代理商采取什么行动策略。 缺乏用于深度学习的财务数据,这会导致过度拟合。 如果论文
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:304087040
    • 提供者:weixin_42157188
  1. Paper-Replicate-Learning-to-Simulate-Equity-Option-Markets-源码

  2. 深层对冲:学习模拟股票期权市场 欢迎来到我们的论文复制项目-的作者:罗松和张云shu。 本文分为七个部分。 他们是: 问题描述 现有方法的缺点 探索性数据分析 甘斯模型 结果与评估 缺点和挑战 未来研究 问题描述 将强化学习技术应用于管理衍生产品组合的问题越来越引起人们的兴趣。 这不仅涉及基础资产,还涉及可用的交易所买卖期权。 因此,为了训练期权交易模型,我们需要更多包含期权价格的时间序列数据。 模拟器之所以成为当今热门话题的原因。 可用的有用的现实生活数据的数量是有限的。 这激发了对逼真
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:2097152
    • 提供者:weixin_42134554
  1. market-rl-源码

  2. 强化学习的股票预测 (纽约机器学习研讨会) 安装 安装Anaconda环境,然后: conda create -n rl python=3 jupyterlab numpy pandas matplotlib conda activate rl Q-Learning简介 笔记本电脑 jupyter lab 打开笔记本: reinforcement-learning-1.ipynb reinforcement-learning-2.ipynb 高级-深度强化学习 conda install -c
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:4194304
    • 提供者:weixin_42105816
  1. 射频交易机器人:强化学习加密货币交易机器人-源码

  2. 射频交易机器人 使用Keras RL进行深度强化学习的加密货币交易机器人(强化学习) 环境输入功能 股票栏属性 self . df [ 'bar_hc' ] = self . high - self . close self . df [ 'bar_ho' ] = self . high - self . open self . df [ 'bar_hl' ] = self . high - self . low self . df [ 'bar_cl' ] = self . close - s
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:1048576
    • 提供者:weixin_42140625
  1. stocks_RL:使用体育馆和深度学习的股票价格强化学习环境-源码

  2. 股票价格强化学习-体育馆环境 依存关系 该项目使用打包版本控制 安装 cd rl_stocks pip install -e . 如何 由于该项目仍在进行中,因此简化了某些功能。 您可以在下面找到有关如何运行项目的示例: python3.8 main.py -s MSFT -l 24 -i 1m -p 7 -d 01 -m 03 -y 2021 Arguments: -h, --help show this help message and exit -s STO
  3. 所属分类:其它

    • 发布日期:2021-03-31
    • 文件大小:9437184
    • 提供者:weixin_42160645
  1. Repository-源码

  2. 我的投资组合 我的投资组合 目录 介绍 欢迎来到我很棒的数据科学项目组合。 在我的回购中,您可以使用统计方法和最新的机器学习模型为某些现实世界中的业务问题找到出色而实用的解决方案。 我的大部分项目都将在jupyter笔记本中进行演示。 Jupyter笔记本电脑是与世界分享我的作品的绝佳方式。 它带有markdown和交互式python环境,并且可以移植到其他平台,例如Databricks和Google Colaboratory。 我的项目集涵盖了各种趋势的机器学习应用程序,例如自然语言处理,
  3. 所属分类:其它

    • 发布日期:2021-03-28
    • 文件大小:12582912
    • 提供者:weixin_42105169
  1. Multi-Agent-RL-for-Liquidation:纸张源代码-Source code learning

  2. 清算策略分析的多智能体强化学习 论文的源代码:ICML 2019 AI在金融:多智能体学习的应用程序和基础结构中接受的用于清算策略分析的多智能体强化学习。 抽象的 清算是指在一定时间范围内按顺序出售大量股票的过程,其中要考虑到市场影响和交易者的风险规避所产生的成本。 优化清算的主要挑战是找到一个合适的建模系统,该系统可以结合股票市场的复杂性并生成实用的交易策略。 在本文中,我们建议使用多主体深度强化学习模型,与各种机器学习方法相比,该模型可以更好地捕获高级复杂性,从而使主体可以学习如何制定最畅销
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:441344
    • 提供者:weixin_42114645