您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Dr.eye译典通7.0试用版

  2. 试用版软件功能: 即时翻译、即时辞典(仅含英汉汉英辞典)、即时写作、即时语音、书信助理、多语输入、生字笔记、多语浏览、单词通、试题通、语音通(仅含一个课件)。此7.0试用版没有全文翻译、网页翻译、文件翻译、界面翻译。 使用方法: 请参考软件内部自带的Help帮助文档。 相关提示: 不提供桌面、安装背景等图片。 试用周期: 30天 后续服务:立即注册,加入试用版产品会员,可享受新字扩充、升级补丁下载等后续服务。 Dr.eye译典通7.0系列:包括Dr.eye译典通7.0专业版、Dr.eye译典通
  3. 所属分类:硬件开发

    • 发布日期:2006-04-27
    • 文件大小:75497472
    • 提供者:chenxh
  1. (2019年9月)计算机三级网络技术

  2. 无忧全国计算机等级考试2019年9月版是最新版本的考试模拟软件, 包含了全国计算机三级网络技术的全部内容,这个模拟软件可帮助 考计算机等级考试的朋友快速练习和掌握知识点,快速通过考试, 如果是原版很多功能都不能用,这里为大家带来了破解补丁,亲测 可完美破解激活软件,让大家无需付费即可享受全功能,有需要的 朋友不要错过了! (请在下载后的24小时内删除本软件,否则后果自负——支持正版,打击盗版) 1、安装破解教程 安装软件,然后解压破解补丁,将Wuyou.Exam.Encrypt.dll和key
  3. 所属分类:网络管理

    • 发布日期:2019-07-27
    • 文件大小:277872640
    • 提供者:qq_39090034
  1. 二级C++语言程序设计-无忧考吧(2019.9).zip

  2. 无忧全国计算机等级考试2019年9月版是最新版本的考试模拟软件, 包含了全国计算机二级C++语言程序设计的全部内容,这个模拟软件 可帮助考计算机等级考试的朋友快速练习和掌握知识点,快速通过 考试,如果是原版很多功能都不能用,这里为大家带来了破解补丁, 亲测可完美破解激活软件,让大家无需付费即可享受全功能,有需 要的朋友不要错过了! 1、安装破解教程 安装软件,然后解压破解补丁,将Wuyou.Exam.Encrypt.dll和key.dat复制到软件安装目录中即可 2、功能特色 •专项练习:按照
  3. 所属分类:C/C++

    • 发布日期:2019-07-27
    • 文件大小:277872640
    • 提供者:qq_39090034
  1. 深入理解ES6学习笔记之块级作用域绑定

  2. 众所周知,js中的var声明存在变量提升机制,因此ESMAscr ipt 6引用了块级作用域来强化对变量生命周期的控制 let const 声明不会被提升,有几个需要注意的点 1、不能被重复声明 假设作用域中已经存在某个标识符(无论该标识符是通过var声明还是let、const变量声明),此时再使用let或const关键定声明会抛错 var count=10 let count=20// 此处则会抛出错误,因为同一作用域内不能重复声明 如果当前作用域内嵌另一个作用域,便可在内嵌的作用域中
  3. 所属分类:其它

    • 发布日期:2020-12-09
    • 文件大小:76800
    • 提供者:weixin_38682518
  1. 六、MySQL DML数据操纵语言学习笔记(插入、修改、删除详解 + 强化复习)

  2. DML语言 数据操作语言: 插入:insert 修改:update 删除:delete 一、插入语句 (1)方式一:经典的插入方式 语法: insert into 表名(列名,…)values(值1,…); (2)方式二: 语法: insert into 表名 set 列名=值,列名=值,… 两种方式大PK: 1、方式一 支持一次性插入多行数据,但方式二不支持 2、方式一支持子查询,但方式二不支持 # 一、插入语句 # (1)方式一:经典的插入方式 # 语法: # insert into
  3. 所属分类:其它

    • 发布日期:2020-12-14
    • 文件大小:83968
    • 提供者:weixin_38622149
  1. 强化学习笔记(4)无模型控制Model-Free Control(On-policy learning, off-policy learning, GLIE, Sarsa, Q-learning)

  2. 文章目录Introduction概念On-Policy learningOff-Policy learningMonte-Carlo Control问题1:使用行为价值函数代替状态价值函数贪婪策略基于行为价值函数的更新:问题2:使用贪婪算法的局限性例解决方案:ϵ−greedy\epsilon-greedyϵ−greedyGLIE定理:GLIE Monte-Carlo Control定理TD ControlSarsa​算法描述定理缺点:Sarsa(λ)Sarsa(\lambda)Sarsa(λ)n
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:519168
    • 提供者:weixin_38503233
  1. MATLAB深度学习笔记(三) 机器学习的类型

  2. (三)机器学习的类型 机器学习根据训练方法的不同可以分为三类,监督学习、无监督学习、强化学习。 监督学习和人类的学习过程很相似, 1)选择一个练习题,运用已有的知识去解决它,将答案和正确答案进行比较; 2)如果答案不对,换一种方法; 3)重复1和2直到解决所有的问题。 机器学习和这个例子类比,练习题和答案对应于训练数据,知识对应于模型。重要的是我们需要一个正确答案,这是监督学习的一个重点。就像是老师给学生提供解法一样。 在监督学习中,每一个训练数据集包含输入数据和与之对应的正确的输出数据。对于同
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:141312
    • 提供者:weixin_38508549
  1. 强化学习笔记(3) Monte-Carlo和TD

  2. 3_Monte-Carlo_RL 文章目录1.1. 前言1.1.1. 算法特性1.1.2. 目标1.2. 两种Monte-Carlo 估计价值函数1.2.1. First Visit1.2.2. Every Visit1.2.3. 小tips: Incremental Mean1.3. Monte Carlo Control (Approximate optimal policies)1.3.1. Over all idea2. Temporal-difference reinforcement
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:634880
    • 提供者:weixin_38520046
  1. 强化学习笔记(1)

  2. 强化学习与监督学习的区别: (1)训练数据中没有标签,只有奖励函数(Reward Function)。 (2)训练数据不是现成给定,而是由行为(Action)获得。 (3)现在的行为(Action)不仅影响后续训练数据的获得,也影响奖励函数(Reward Function)的取值。 (4)训练的目的是构建一个“状态->行为”的函数,其中状态(State)描述了目前内部和外部的环境,在此情况下,要使一个智能体(Agent)在某个特定的状态下,通过这个函数,决定此时应该采取的行为。希望采取这些
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:246784
    • 提供者:weixin_38502510
  1. leedeeprl-notes:李宏毅《深度强化学习》笔记,在线阅读地址:https-源码

  2. 李宏毅深度强化学习笔记(LeeDeepRL-注意事项) 李宏幽默老师的《深度强化学习》是强化学习领域经典的中文视频之一。李老师幽默风趣的上课风格让晦涩难懂的强化学习理论变得轻松易懂,他会通过很多有趣的例子例证解强化学习理论。某些老师经常会用玩Atari游戏的例子解释解解强化学习算法。如此,为了课程的补充,我们整理了周博磊老师的《强化学习纲要》,李科浇老师的《百度强化学习》。以及多个强化学习的经典资料作为补充。对于想入门强化学习又想看中文讲解的人来说绝对是非常推荐的。 使用说明 第4章到第11章为
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:141557760
    • 提供者:weixin_42175776
  1. RecSys-Note:主要专注于对抗训练和RecSys的前沿研究-源码

  2. RecSys注意 在对抗性训练和推荐系统相交处的前沿纸上的注释。 关于RS基本部分的注释。 快速直接: 1. RS的基本部分 关于浅层模型的注意事项 2.对抗训练(通过添加对抗扰动) 在AMF上的纸质笔记 标题:推荐的职业广告个性化排名[ :glowing_star: 首先使用BPR训练MF,然后在APR框架下对其进行进一步优化] SACRA上的纸质笔记 标题:要进行比较的对抗性学习:基于位置的社交网络中的自我专注的潜在客户推荐[ :glowing_star: 潜在客户推荐,通过对抗性培
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:26624
    • 提供者:weixin_42116791
  1. mi1notes:我在柏林工业大学教授克劳斯·奥伯迈耶(Klaus Obermayer)开设的“机器智能1-监督学习”课程的笔记-源码

  2. 机器智能1:监督学习-教程笔记 这是我为柏林工业”课程所做的笔记的集合。 机器智能1是由柏林工业大学Klaus Obermayer教授教授的有关机器学习和人工神经网络的两门连续课程的第一部分。 本课程涵盖的主题: 人工神经网络 学习与概括 深度学习和递归架构 统计学习理论的要素 内核方法 贝叶斯网络 强化学习 请参阅以下载最新的pdf文件。 编译LaTeX源代码的说明 Ubuntu: apt install texlive-fonts-recommended texlive-latex-
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:14680064
    • 提供者:weixin_42168230
  1. DeepRL:基于UC Berkeley的CS285的深度强化学习笔记-源码

  2. 深度强化学习 说明:注释内容基于加州大学伯克利分校的CS285。 内容清单 简介与概述 行为监督学习 Tensorflow和神经网络 强化学习导论 政策梯度 演员关键算法 值函数方法 具有Q功能的Deep RL 高级策略梯度 基于模型的计划 基于模型的强化学习 基于模型的政策学习 变异推理和生成模型 控制为推理 逆向强化学习 转移和多任务学习 分布式RL 探索(第1部分) 探索(第2部分) 元学习 信息论,未解决的问题
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:5242880
    • 提供者:weixin_42124743
  1. 《强化学习在阿里的技术演进与业务创新》读书笔记_00建模

  2. 1 背景知识介绍 机器学习算法大致可分为3种:监督学习、非监督学习、强化学习。 在阿⾥移动电商平台中,⼈机交互的便捷,碎⽚化使⽤的普遍性,页⾯切换的串⾏化,⽤户轨迹的可跟踪性等都要求系统能够对变幻莫测的⽤户⾏为以及瞬息万变的外部环境进⾏完整地建模。基于监督学习的方式缺少有效的探索能力,系统倾向于给消费者推送曾经发⽣过⾏为的信息单元(商品、店铺或问题答案)。而强化学习作为⼀种有效的基于⽤户与系统交互过程建模和最⼤化过程累积收益的学习⽅法,是最接近自然界动物学习、决策本质的一种学习范式,具有优良的自
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:86016
    • 提供者:weixin_38747025