您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Attention(注意力机制代码)

  2. Attention.zip文件中总结了几种关于注意力机制的代码,有keras和tensorflow,还有PyTorch框架的
  3. 所属分类:深度学习

    • 发布日期:2018-07-16
    • 文件大小:5120
    • 提供者:zds13257177985
  1. attention注意力机制讲解ppt-组会分享

  2. 注意力机制是一种信息获取的通用机制,应用于从大量源数据中获取特定关键信息而避免对所有数据进行处理的场景。 注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。
  3. 所属分类:深度学习

    • 发布日期:2018-07-27
    • 文件大小:2097152
    • 提供者:wuyuefei3
  1. 深入理解图注意力机制(Graph Attention Network)

  2. 图神经网络已经成为深度学习领域最炽手可热的方向之一。作为一种代表性的图卷积网络,Graph Attention Network (GAT) 引入了注意力机制来实现更好的邻居聚合。通过学习邻居的权重,GAT 可以实现对邻居的加权聚合。因此,GAT 不仅对于噪音邻居较为鲁棒,注意力机制也赋予了模型一定的可解释性。
  3. 所属分类:机器学习

    • 发布日期:2020-04-21
    • 文件大小:841728
    • 提供者:syp_net
  1. 基于层次注意力机制的远程监督关系抽取算法研究

  2. 基于层次注意力机制的远程监督关系抽取算法研究,陈元昆,刘建毅,远程监督机制由于其使用机器自动标注数据,能减少大量标注人力的优点,逐渐成为了知识图谱构建中关系抽取任务的主要手段。目前,如何
  3. 所属分类:其它

    • 发布日期:2020-03-09
    • 文件大小:388096
    • 提供者:weixin_38558659
  1. 基于迁移学习和注意力机制的视频分类

  2. 基于迁移学习和注意力机制的视频分类,刘昊鑫,刘同存,受到图像分类和机器翻译的研究成果的启发,本文将其成功的体系结构设计(例如卷积神经网络和注意力机制)引入视频分类。本文尝试
  3. 所属分类:其它

    • 发布日期:2020-02-27
    • 文件大小:912384
    • 提供者:weixin_38680393
  1. 图像修复+自注意力机制.zip

  2. Self-Attention Generative Adversarial Networks (SAGAN,自注意力机制GAN) 论文、代码 DeOldify 是用于着色和恢复旧图像及视频的深度学习项目 代码资源
  3. 所属分类:互联网

    • 发布日期:2020-08-27
    • 文件大小:10485760
    • 提供者:OpenSceneGraph
  1. 基于残差块和注意力机制的细胞图像分割方法

  2. 带你了解残差块和注意力机制的联合应用在医学细胞图像上,对他进行分割,给出简单明了的展示,让你一步步进入医学人工智能的殿堂
  3. 所属分类:互联网

    • 发布日期:2020-09-25
    • 文件大小:1048576
    • 提供者:dym123_dym
  1. 《注意力机制》教程(共112页PPT)

  2. 注意力是一种在广泛的神经结构中使用的越来越流行的机制。由于这一领域的快速发展,仍然缺乏对注意力的系统概述。在本文中,讨论了以往工作的不同方面,注意力机制的可能用途,并描述了该领域的主要研究工作和公开挑战。
  3. 所属分类:机器学习

    • 发布日期:2020-11-25
    • 文件大小:6291456
    • 提供者:syp_net
  1. Datawhale 组对学习打卡营 任务11: 注意力机制和Seq2seq模型

  2. 目录 注意力机制 Softmax屏蔽 点积注意力 测试 多层感知机注意力 测试 总结 引入注意力机制的Seq2seq模型 解码器 训练 训练和预测 import math import torch import torch.nn as nn import os def file_name_walk(file_dir): for root, dirs, files in os.walk(file_dir): # print(root, root) # 当前目录路径
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:380928
    • 提供者:weixin_38660579
  1. 《动手学深度学习》机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer机器翻译及其相关技术编码器和解码器编码器解码器束搜索贪婪搜索束搜索注意力机制与Seq2Seq模型计算背景变量Transformer 机器翻译及其相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 编码器和解码器 在翻译时,输入句子和输出句子往往不一样长,所以为了处理输入
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:271360
    • 提供者:weixin_38596485
  1. 《动手学深度学习》Task04:机器翻译及相关技术+注意力机制与Seq2seq模型+Transformer

  2. 文章目录1 机器翻译及相关技术1.1 机器翻译基本原理1.2 Encoder-Decoder1.3 Sequence to Sequence模型1.4 Beam Search2 注意力机制与Seq2seq模型2.1 注意力机制2.2 注意力机制的计算函数介绍2.3 引入注意力机制的Seq2seq模型3 Transformer3.1 Transformer结构概念3.2 Transformer结构层剖析3.3 Transformer之Encoder+Decoder 1 机器翻译及相关技术 1.1
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:742400
    • 提供者:weixin_38667408
  1. 《动手学深度学习Pytorch版》Task4-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译及相关技术 Task2中的循环神经网络部分,有实现预测歌词的功能。在那个任务中,训练数据的输入输出长度是固定的,而在机器翻译中,输出的长度是不固定的,所以不能直接用RNN来处理这种任务。 Encoder-Decoder框架是常用于机器翻译,对话系统这类场景的框架。 需要注意的是,在训练过程中Decoder的输入是真实的label,而预测时,输入是上一个ceil的预测值 机器翻译解码 通常用beam search。beam search是一种贪心算法,不是全局最优解。 注意力机制 在“
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:350208
    • 提供者:weixin_38653602
  1. 动手学DL|Task4 机器翻译及其技术+注意力机制与Seq2seq模型+Transformer

  2. 机器翻译及其技术 学习笔记 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequence模型 模型: 训练 预测 具体结构 集束搜索 Beam Search 简单greedy search: 维特比算法:选择整体分数
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:472064
    • 提供者:weixin_38653664
  1. 《动手学深度学习》task4——机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer笔记

  2. 系统学习《动手学深度学习》点击这里: 《动手学深度学习》task1_1 线性回归 《动手学深度学习》task1_2 Softmax与分类模型 《动手学深度学习》task1_3 多层感知机 《动手学深度学习》task2_1 文本预处理 《动手学深度学习》task2_2 语言模型 《动手学深度学习》task2_3 循环神经网络基础 《动手学深度学习》task3_1 过拟合、欠拟合及其解决方案 《动手学深度学习》task3_2 梯度消失、梯度爆炸 《动手学深度学习》task3_3 循环神经网络进阶 《
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:78848
    • 提供者:weixin_38687968
  1. TASK04-注意力机制-机器翻译-Transformer

  2. 将注意力机制放到这里,以后会用到。 练习题放在最前面: 关于Transformer描述正确的是: 在训练和预测过程中,解码器部分均只需进行一次前向传播。 Transformer 内部的注意力模块均为自注意力模块。 解码器部分在预测过程中需要使用 Attention Mask。 自注意力模块理论上可以捕捉任意距离的依赖关系。 答案解释 选项1:训练过程1次,预测过程要进行句子长度次 选项2:Decoder 部分的第二个注意力层不是自注意力,key-value来自编码器而query来自解码器 选项3
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:118784
    • 提供者:weixin_38744375
  1. 深度学习(四)————机器翻译及相关技术、注意力机制与Seq2seq模型、Transformer

  2. 目录   机器翻译及相关技术 注意力机制与seq2seq模型 Transformer 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 机器翻译流程:数据预处理,主要模型:encode-decode,seq2seq 注意力机制与seq2seq模型 注意力机制:https://blog.csdn.net/mpk_no1/articl
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:191488
    • 提供者:weixin_38704565
  1. 动手学习深度学习|机器翻译\注意力机制

  2. 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 分词: 字符串—单词组成的列表 建立词典: 单词组成的列表—单词id组成的列表 Encoder-Decoder: 可以应用在对话系统、生成式任务中。 encoder:输入到隐藏状态 decoder:隐藏状态到输出 集束搜索(Beam Search) 维特比算法:选择整体分数最高的句
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:308224
    • 提供者:weixin_38626473
  1. 《动手学深度学习》Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 1.机器翻译及相关技术 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 步骤: 1.读取数据 2.数据预处理 3.分词:将字符串变成单词组成的列表 4.建立词典:将单词组成的列表变成单词id组成的列表 5.Encoder-Decoder:
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38501045
  1. 注意力机制和Seq2seq模型

  2. Attention Mechanism 注意力机制借鉴了人类的注意力思维方式,以获得需要重点关注的目标区域     在 编码器—解码器(seq2seq) 中,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。解码器输入的语境向量(context vector)不同,每个位置都会计算各自的 attention 输出。 当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器以生成目标序列。     
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:96256
    • 提供者:weixin_38713167
  1. Task 04- 机器翻译-注意力机制-Seq2seq-Transformer

  2. Task 04- 机器翻译-注意力机制-Seq2seq-Transformer 1 机器翻译(Machine Translation) 1.0 数据集形式 1.1 序列预处理 序列padding(保持序列的长度一致)–> valid length:序列未padding之前的长度 def pad(line, max_len, padding_token): if len(line) > max_len: return line[:max_len] re
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:533504
    • 提供者:weixin_38742124
« 12 3 4 5 6 7 8 9 10 ... 15 »