您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 飞克训练软件

  2. 这是一个训练人眼力 注意力 阅读速度 思维 算术 等等能力的优秀软件。软件中N中人性化的设置训练方法,可以帮助你提升自己需要的技能。
  3. 所属分类:其它

    • 发布日期:2013-02-22
    • 文件大小:9437184
    • 提供者:rexuetp
  1. 注意力训练系统

  2. 尊敬的顾客:四快训练软件请严格按照以下步骤安装—— 安装前准备:1、退出所有杀毒软件,防止杀毒软件由于开发缺陷滥杀无辜; (如果提示“毒”之类的,您直接设为“可信任程序”就行了,如果为“金山毒霸”,会自接把主程序删除,删除时,电脑右下角会有提示,您直接点“恢复”就可以了) 2、该软件需要安装“AdobeAIRInstaller.exe” 方可正常运行,(软件在邮箱请下载安装) 注册操作说明 1、 双击 桌面上 的图标, 会出现 点“确定”,接着出现 ,再点“确定”,这样,您电脑上的“机器码”将
  3. 所属分类:系统集成

    • 发布日期:2013-09-22
    • 文件大小:58720256
    • 提供者:fwl6188
  1. 注意力训练系统软件

  2. 儿童注意力训练软件 舒尔特方格、瞬间记忆力训练、划消练习
  3. 所属分类:教育

    • 发布日期:2015-12-17
    • 文件大小:3145728
    • 提供者:qq_33413888
  1. 照相记忆魔法训练

  2. 本书介绍给读者全新的记忆方法——照相记忆法,并配合14天的有效训练,力求让读者快速唤醒右脑的记忆能力,打开沉睡的右脑,提高记忆力,改善注意力,更培养思考能力和创造力。
  3. 所属分类:专业指导

    • 发布日期:2007-06-22
    • 文件大小:240640
    • 提供者:supermay
  1. 儿童注意力训练软件

  2. 儿童注意力训练软件,非常好的一款人人人人软件!有助于孩子们的学习!
  3. 所属分类:深度学习

    • 发布日期:2018-02-24
    • 文件大小:10485760
    • 提供者:qq_37513358
  1. 注意力训练

  2. 给爱走神的孩子用,解决根本问题,国家级课题成果哦,给你的孩子试试吧
  3. 所属分类:专业指导

    • 发布日期:2014-07-03
    • 文件大小:6291456
    • 提供者:qq_17210729
  1. 儿童右脑开发音乐及记忆力训练软件(免费).rar

  2. 儿童右脑开发音乐及记忆力训练软件,包含记忆力训练和注意力训练考察眼力二个小游戏,免安装EXE文件运行
  3. 所属分类:教育

    • 发布日期:2020-10-06
    • 文件大小:79691776
    • 提供者:shideting
  1. 注意神经训练 注意神经网络训练 v1.0

  2. 注意力训练和手册中的所有训练内容都是结合较新的科学研究成果,并经过实践证明是有很好效果的方法,只要大家认真训练并坚持一段时间,一定会在注意力以及其他的智力表现上有
  3. 所属分类:其它

    • 发布日期:2020-10-27
    • 文件大小:13631488
    • 提供者:weixin_38712416
  1. Datawhale 组对学习打卡营 任务11: 注意力机制和Seq2seq模型

  2. 目录 注意力机制 Softmax屏蔽 点积注意力 测试 多层感知机注意力 测试 总结 引入注意力机制的Seq2seq模型 解码器 训练 训练和预测 import math import torch import torch.nn as nn import os def file_name_walk(file_dir): for root, dirs, files in os.walk(file_dir): # print(root, root) # 当前目录路径
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:380928
    • 提供者:weixin_38660579
  1. 《动手学深度学习》笔记 Task04 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 将数据集清洗、转化为神经网络的输入minbatch 分词 字符串—单词组成的列表 建立词典 单词组成的列表—单词id组成的列表 载入数据集 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequen
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:315392
    • 提供者:weixin_38739837
  1. 《动手学深度学习Pytorch版》Task4-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译及相关技术 Task2中的循环神经网络部分,有实现预测歌词的功能。在那个任务中,训练数据的输入输出长度是固定的,而在机器翻译中,输出的长度是不固定的,所以不能直接用RNN来处理这种任务。 Encoder-Decoder框架是常用于机器翻译,对话系统这类场景的框架。 需要注意的是,在训练过程中Decoder的输入是真实的label,而预测时,输入是上一个ceil的预测值 机器翻译解码 通常用beam search。beam search是一种贪心算法,不是全局最优解。 注意力机制 在“
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:350208
    • 提供者:weixin_38653602
  1. 动手学DL|Task4 机器翻译及其技术+注意力机制与Seq2seq模型+Transformer

  2. 机器翻译及其技术 学习笔记 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequence模型 模型: 训练 预测 具体结构 集束搜索 Beam Search 简单greedy search: 维特比算法:选择整体分数
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:472064
    • 提供者:weixin_38653664
  1. Dive into deep learning task 04-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 6 机器翻译 机器翻译是一种序列到序列的模型。为了实现对语料的训练 ,需要对应的单词表,即平行语料。机器翻译要将序列处理成定长的向量,然后输入到rnn中(lstm,gru),然后变成中间向量,再通过decode方式编码输出最大可能的序列,即encoder-> vector->decoder的编解码方式。 语料要通过预处理(清洗,分词,转化成词典,转化成数据集),然后作词向量嵌入后,输入神经网络。 这就是所谓的seq2seq模型。简单的s2s模型的缺点是中间向量长度有限,不能充分表达输
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:55296
    • 提供者:weixin_38629920
  1. Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 如果我们现在要做个中英文翻译,比如我是中国人翻译成 ‘i am Chinese’.这时候我们会发现输入有 5个中文字,而输出只有三个英文单词. 也就是输入长度并不等于输出长度.这时候我们会引入一种 编码器-解码器的模型也就是 (Encoder-Decoder).首先我们通过编码器 对输入 ‘我是中国人’ 进行信息编码, 之后将生成的编码数据输入 decoder 进行解码.一般编码器和解码器 都会使用循环神经网络. 当然为了使机器知道句子的结束我们会在每个句子后面增加 一个 表示 句子的结束.使
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38658982
  1. 《动手学深度学习:机器翻译及其相关技术;注意力机制与Seq2Seq模型;Transformer》

  2. 机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 训练 def train_ch7(model, data_iter, lr, num_epochs, device): # Saved in d2l model.to(device) optimizer = optim.Adam(model.parameters(), lr
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:28672
    • 提供者:weixin_38744962
  1. TASK04-注意力机制-机器翻译-Transformer

  2. 将注意力机制放到这里,以后会用到。 练习题放在最前面: 关于Transformer描述正确的是: 在训练和预测过程中,解码器部分均只需进行一次前向传播。 Transformer 内部的注意力模块均为自注意力模块。 解码器部分在预测过程中需要使用 Attention Mask。 自注意力模块理论上可以捕捉任意距离的依赖关系。 答案解释 选项1:训练过程1次,预测过程要进行句子长度次 选项2:Decoder 部分的第二个注意力层不是自注意力,key-value来自编码器而query来自解码器 选项3
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:118784
    • 提供者:weixin_38744375
  1. 过拟合欠拟合及其解决方案;梯度消失梯度爆炸;循环神经网络进阶;机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer;卷积神经网络基础;leNet;卷积神经网络进阶

  2. 1.过拟合欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting)。 模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。 2.梯度消失梯度爆炸 深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。 假设一个层数为LLL的多层感知机的第lll层H(l)\boldsymbol{H}^{(l)}H(l)的权重参数为W(l)\b
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:488448
    • 提供者:weixin_38500117
  1. 论文阅读课7-使用句子级注意力机制结合实体描述的远程监督关系抽取(APCNN+D)2017

  2. 文章目录abstract1. Introduction2.方法3.训练4.实验4.1数据集4.2 评价指标4.3实验结果和分析4.3.1参数设置4.3.2 baseline4.3.3 conclusion5.相关工作5.1监督学习5.2远程监督学习 Ji, G., et al. (2017). Distant Supervision for Relation Extraction with Sentence-Level Attention and Entity Descr iptions. Pr
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:471040
    • 提供者:weixin_38712908
  1. 基于B/S模型的注意力训练系统设计

  2. 注意力不集中现象在儿童中比较普遍,目前,国内外存在的注意力训练方法有纸质量表、行为观察、生物反馈、计算机辅助训练等方式。这些方法无法便捷实现大量人群的训练和训练结果的持续有效追踪。而对儿童进行注意力训练提高他们的注意力水平。本设计以移动终端的触摸屏操作代替传统的纸笔训练,借助阿里云数据的分布式存储,实现高可用,高性能,可弹性伸缩的目标,免去数据库安全和运维烦恼,借助微信公众平台实现训练结果的一站式追踪。这种B/S模型为注意力训练提供持久的服务支持,帮助提高儿童的注意力。通过功能测试和性能测试,验
  3. 所属分类:其它

    • 发布日期:2021-01-28
    • 文件大小:773120
    • 提供者:weixin_38536349
  1. 儿童注意力训练集锦

  2. 1. 注意力训练 1.1. 第一关听课不走神题 训练目的:训练学生学习能力,能使学生上课专心听讲,认真写作业,考试不粗心,提高学习成绩 训练要求:每天训练 10 分钟,放学后在家里写作业前训练,由家长
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:3145728
    • 提供者:weixin_38679233
« 12 3 4 5 6 7 8 »