您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 基于改进AlexNet卷积神经网络的手掌静脉识别算法研究_林坤.pdf

  2. 在手掌静脉图像采集的过程中易受手掌摆放姿势、光源条件等外界因素的影响,造成识别准确度欠佳。为了提高手掌静脉图像识别的精准度和鲁棒性,提出一种基于改进AlexNet深度卷积神经网络的手掌静脉识别方法。该方法首先通过图像分割、指根关键点定位、感兴趣区域图像提取等三个阶段对采集的手掌静脉图像进行预处理;其次,针对人体手掌静脉识别的应用场景,通过适当调整经典的AlexNet卷积神经网络的结构并对卷积层的输出进行批标准化操作,同时,将深度学习理论中的注意力机制应用到该网络中,进而优化AlexNet神经网络
  3. 所属分类:深度学习

    • 发布日期:2020-05-13
    • 文件大小:1048576
    • 提供者:olivia_ye
  1. 深入理解图注意力机制(Graph Attention Network)

  2. 图神经网络已经成为深度学习领域最炽手可热的方向之一。作为一种代表性的图卷积网络,Graph Attention Network (GAT) 引入了注意力机制来实现更好的邻居聚合。通过学习邻居的权重,GAT 可以实现对邻居的加权聚合。因此,GAT 不仅对于噪音邻居较为鲁棒,注意力机制也赋予了模型一定的可解释性。
  3. 所属分类:机器学习

    • 发布日期:2020-04-21
    • 文件大小:841728
    • 提供者:syp_net
  1. 基于迁移学习和注意力机制的视频分类

  2. 基于迁移学习和注意力机制的视频分类,刘昊鑫,刘同存,受到图像分类和机器翻译的研究成果的启发,本文将其成功的体系结构设计(例如卷积神经网络和注意力机制)引入视频分类。本文尝试
  3. 所属分类:其它

    • 发布日期:2020-02-27
    • 文件大小:912384
    • 提供者:weixin_38680393
  1. 神经网络深度学习-2020最新资料+数学.rar

  2. 前馈神经网络;卷积神经网络;循环神经网络;网络优化与正则化;记忆与注意力机制;无监督学习;概率图模型;玻尔兹曼机;深度信念网络;深度生成模型;深度强化学习;
  3. 所属分类:深度学习

    • 发布日期:2020-06-24
    • 文件大小:5242880
    • 提供者:qq_28147259
  1. 神经网络深度学习-2020最新资料.rar

  2. 神经网络深度前馈神经网络;卷积神经网络;循环神经网络;网络优化与正则化;记忆与注意力机制;无监督学习;概率图模型;玻尔兹曼机;深度信念网络;深度生成模型;深度强化学习;学习-2020最新资料
  3. 所属分类:深度学习

    • 发布日期:2020-06-24
    • 文件大小:5242880
    • 提供者:qq_28147259
  1. 《动手学深度学习》机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer机器翻译及其相关技术编码器和解码器编码器解码器束搜索贪婪搜索束搜索注意力机制与Seq2Seq模型计算背景变量Transformer 机器翻译及其相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 编码器和解码器 在翻译时,输入句子和输出句子往往不一样长,所以为了处理输入
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:271360
    • 提供者:weixin_38596485
  1. 《动手学深度学习》笔记 Task04 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 将数据集清洗、转化为神经网络的输入minbatch 分词 字符串—单词组成的列表 建立词典 单词组成的列表—单词id组成的列表 载入数据集 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequen
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:315392
    • 提供者:weixin_38739837
  1. Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer知识点总结

  2. 机器翻译 把一种语言自动翻译为另一种,输出的是单词序列(其长度可能与原序列不同) 步骤为:数据预处理 —> Seq2Seq模型构建 —> 损失函数 —> 测试 数据预处理: 读取数据。 处理编码问题,删除无效字符串 分词。把字符串转化为单词列表。 建立字典。把单词组成的列表转化为单词索引的列表 在tf、pytorch这类框架中要做padding操作,使一个batch数据长度相等 定义数据生成器。 Seq2Seq 6. 先用循环神经网络编码成一个向量再解码输出一个序列的元素。然
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:60416
    • 提供者:weixin_38682086
  1. 《动手学深度学习Pytorch版》Task4-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译及相关技术 Task2中的循环神经网络部分,有实现预测歌词的功能。在那个任务中,训练数据的输入输出长度是固定的,而在机器翻译中,输出的长度是不固定的,所以不能直接用RNN来处理这种任务。 Encoder-Decoder框架是常用于机器翻译,对话系统这类场景的框架。 需要注意的是,在训练过程中Decoder的输入是真实的label,而预测时,输入是上一个ceil的预测值 机器翻译解码 通常用beam search。beam search是一种贪心算法,不是全局最优解。 注意力机制 在“
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:350208
    • 提供者:weixin_38653602
  1. 动手学DL|Task4 机器翻译及其技术+注意力机制与Seq2seq模型+Transformer

  2. 机器翻译及其技术 学习笔记 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequence模型 模型: 训练 预测 具体结构 集束搜索 Beam Search 简单greedy search: 维特比算法:选择整体分数
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:472064
    • 提供者:weixin_38653664
  1. Dive into deep learning task 04-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 6 机器翻译 机器翻译是一种序列到序列的模型。为了实现对语料的训练 ,需要对应的单词表,即平行语料。机器翻译要将序列处理成定长的向量,然后输入到rnn中(lstm,gru),然后变成中间向量,再通过decode方式编码输出最大可能的序列,即encoder-> vector->decoder的编解码方式。 语料要通过预处理(清洗,分词,转化成词典,转化成数据集),然后作词向量嵌入后,输入神经网络。 这就是所谓的seq2seq模型。简单的s2s模型的缺点是中间向量长度有限,不能充分表达输
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:55296
    • 提供者:weixin_38629920
  1. 《动手学深度学习》task4——机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer笔记

  2. 系统学习《动手学深度学习》点击这里: 《动手学深度学习》task1_1 线性回归 《动手学深度学习》task1_2 Softmax与分类模型 《动手学深度学习》task1_3 多层感知机 《动手学深度学习》task2_1 文本预处理 《动手学深度学习》task2_2 语言模型 《动手学深度学习》task2_3 循环神经网络基础 《动手学深度学习》task3_1 过拟合、欠拟合及其解决方案 《动手学深度学习》task3_2 梯度消失、梯度爆炸 《动手学深度学习》task3_3 循环神经网络进阶 《
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:78848
    • 提供者:weixin_38687968
  1. Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 如果我们现在要做个中英文翻译,比如我是中国人翻译成 ‘i am Chinese’.这时候我们会发现输入有 5个中文字,而输出只有三个英文单词. 也就是输入长度并不等于输出长度.这时候我们会引入一种 编码器-解码器的模型也就是 (Encoder-Decoder).首先我们通过编码器 对输入 ‘我是中国人’ 进行信息编码, 之后将生成的编码数据输入 decoder 进行解码.一般编码器和解码器 都会使用循环神经网络. 当然为了使机器知道句子的结束我们会在每个句子后面增加 一个 表示 句子的结束.使
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38658982
  1. 《动手学深度学习:机器翻译及其相关技术;注意力机制与Seq2Seq模型;Transformer》

  2. 机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 训练 def train_ch7(model, data_iter, lr, num_epochs, device): # Saved in d2l model.to(device) optimizer = optim.Adam(model.parameters(), lr
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:28672
    • 提供者:weixin_38744962
  1. 深度学习(四)————机器翻译及相关技术、注意力机制与Seq2seq模型、Transformer

  2. 目录   机器翻译及相关技术 注意力机制与seq2seq模型 Transformer 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 机器翻译流程:数据预处理,主要模型:encode-decode,seq2seq 注意力机制与seq2seq模型 注意力机制:https://blog.csdn.net/mpk_no1/articl
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:191488
    • 提供者:weixin_38704565
  1. 伯禹AI – task 04 机器翻译、注意力机制与seq2seq模型、Transformer架构

  2. (一)机器翻译及其相关技术 1.  机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理:将数据集清洗、转化为神经网络的输入minbatch 分词:字符串—单词组成的列表 建立字典:单词组成的列表—单词id组成的列表 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 2.  Sequence 2
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:109568
    • 提供者:weixin_38639747
  1. 笔记:动手学深度学习pytorch(机器翻译,Transformer,注意力机制和Sequence to sequence模型)

  2. – 机器翻译 – 机器翻译与数据集 – 机器翻译 顾名思义,机器翻译就是将一段文本从一种语言翻译到另外一种语言,简称MT,而利用神经网络解决这个问题就被称为神经机器翻译(NMT)。 特征主要是输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 – 数据预处理 将数据集清洗、转化为神经网络的输入minbatch with open('/home/kesci/input/fraeng6506/fra.txt', 'r') as f: raw_text = f.read
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38582685
  1. 动手学习深度学习|机器翻译\注意力机制

  2. 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 分词: 字符串—单词组成的列表 建立词典: 单词组成的列表—单词id组成的列表 Encoder-Decoder: 可以应用在对话系统、生成式任务中。 encoder:输入到隐藏状态 decoder:隐藏状态到输出 集束搜索(Beam Search) 维特比算法:选择整体分数最高的句
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:308224
    • 提供者:weixin_38626473
  1. 《动手学深度学习》Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 1.机器翻译及相关技术 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 步骤: 1.读取数据 2.数据预处理 3.分词:将字符串变成单词组成的列表 4.建立词典:将单词组成的列表变成单词id组成的列表 5.Encoder-Decoder:
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38501045
  1. 基于扩张卷积注意力神经网络的高光谱图像分类

  2. 为了解决训练样本有限情况下高光谱图像分类精度低的问题,提出了一种结合扩张卷积与注意力机制的三维-二维串联卷积神经网络模型。首先,该模型以串联的三维-二维卷积神经网络作为基础结构,利用三维卷积同时提取高光谱图像的空谱特征,并采用二维卷积进一步提取高级空间语义信息;然后,通过引入扩张卷积增大卷积核感受野,构建了多尺度特征提取结构,实现了多尺度特征的融合;最后,利用注意力机制使网络关注重要的空谱特征,并抑制噪声和冗余信息。在两个常用数据集上对本文算法和四种基于深度学习的分类算法进行对比实验,结果表明,
  3. 所属分类:其它

    • 发布日期:2021-03-01
    • 文件大小:12582912
    • 提供者:weixin_38501751
« 12 3 4 5 6 »