点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - attention,
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
Neural Relation Extraction with Selective Attention over Instances论文笔记
该PPT为阅读Neural Relation Extraction with Selective Attention over Instances论文后所做的笔记,总结了论文中的主要技术,并大致梳理了论文思路
所属分类:
深度学习
发布日期:2017-12-12
文件大小:819200
提供者:
nihao1621
attention is all you need论文解读
文章为对attention is all you need的论文解读,详细的剖析了该文章的思想。
所属分类:
机器学习
发布日期:2017-12-29
文件大小:472064
提供者:
ly_mrty
Attention(注意力机制代码)
Attention.zip文件中总结了几种关于注意力机制的代码,有keras和tensorflow,还有PyTorch框架的
所属分类:
深度学习
发布日期:2018-07-16
文件大小:5120
提供者:
zds13257177985
attention注意力机制讲解ppt-组会分享
注意力机制是一种信息获取的通用机制,应用于从大量源数据中获取特定关键信息而避免对所有数据进行处理的场景。 注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。
所属分类:
深度学习
发布日期:2018-07-27
文件大小:2097152
提供者:
wuyuefei3
使用attention+GAN网络输入文本生成和文本相匹配的图像(文本描述生成)
该代码是CVPR2018一篇关于文本到图像合成的文章,经过测试可以使用
所属分类:
深度学习
发布日期:2018-08-19
文件大小:36700160
提供者:
jinyuan7708
基于Keras的attention实战
该代码为基于Keras的attention实战,环境配置: Wn10+CPU i7-6700 、Pycharm 2018、 python 3.6 、、numpy 1.14.5 、Keras 2.0.2 Matplotlib 2.2.2 经过小编亲自调试,可以使用,适合初学者从代码的角度了解attention机制。
所属分类:
深度学习
发布日期:2018-08-21
文件大小:1048576
提供者:
jinyuan7708
各种attention的实现
深度学习的attention的实现,有keras和tensorflow两种
所属分类:
深度学习
发布日期:2018-09-24
文件大小:8192
提供者:
weixin_37847867
浅谈Attention机制的理解.pdf
Attention注意机制现在大热,很多深度学习的框架都带上了注意力机制,而且也取得了很好的性能指标。乘着大热也来水一水文章,发表发表自己的看法。事先说明老哥我在NLP上萌新一枚,粗糙想法不登大雅,呆萌的逻辑思维适合同为萌新滴你。废话不多说,在本文我就浅谈下对注意机制的理解。
所属分类:
机器学习
发布日期:2020-04-25
文件大小:736256
提供者:
syp_net
Attention.zip
这是李宏毅老师的机器学习课程,里面讲解了Transform模型,Attention模型,以及序列模型,PPT讲解思路非常清晰,非常适合研究生做研究的入门
所属分类:
讲义
发布日期:2020-04-16
文件大小:103809024
提供者:
qq_35661896
ICML19-attention.pdf
attention机制在深度学习中的应用及其原理,最新讲座使用PPT,供大家学习使用。仅用于个人学习使用,禁止商用,如有侵权,请联系删除!
所属分类:
深度学习
发布日期:2020-03-26
文件大小:38797312
提供者:
yangwangnndd
Attention 讲解.pptx
从Attention的原理到Attention的进展,自然语言处理相关的数学原理和公式推导,以及算法的实现。
所属分类:
深度学习
发布日期:2020-03-12
文件大小:22020096
提供者:
liuzhiheng123d
Attention-guided CNN for image denoising.pptx
深度卷积神经网络(CNNs)在低层次计算机视觉领域引起了广泛的关注。通过很深的CNN网络来提高性能。但随着深度的增加,浅层的信息被忽略掉。受这样的事实启发,我们提出了一种基于注意引导的卷积神经网络(ADNet)去噪方法,主要包括一个稀疏块(SB)、一个特征增强块(FEB)、一个注意块(AB)和一个重构块(RB)。
所属分类:
深度学习
发布日期:2020-02-26
文件大小:1048576
提供者:
qq_35661896
Attention-Based Pedestrian Attribute Analysis.pdf
Attention-Based Pedestrian Attribute Analysis,Attention-Based Pedestrian Attribute Analysis的论文
所属分类:
互联网
发布日期:2020-06-08
文件大小:3145728
提供者:
lowellyu
Attention-Based Pedestrian Attribute Analysis.pdf
Attention-Based Pedestrian Attribute Analysis,Attention-Based Pedestrian Attribute Analysis
所属分类:
互联网
发布日期:2020-06-30
文件大小:1048576
提供者:
lowellyu
Self-Attention与Transformer
1.由来 在Transformer之前,做翻译的时候,一般用基于RNN的Encoder-Decoder模型。从X翻译到Y。 但是这种方式是基于RNN模型,存在两个问题。 一是RNN存在梯度消失的问题。(LSTM/GRU只是缓解这个问题) 二是RNN 有时间上的方向性,不能用于并行操作。Transformer 摆脱了RNN这种问题。 2.Transformer 的整体框架 输入的x1,x2x_{1},x_{2}x1,x2,共同经过Self-attention机制后,在Self-atte
所属分类:
其它
发布日期:2021-01-07
文件大小:2097152
提供者:
weixin_38611388
基于attention的seq2seq机器翻译实践详解
思路 文本处理,这里我是以eng_fra的文本为例,每行是english[tab]french,以tab键分割。获取文本,清洗。 分别建立字典,一个english,一个french。 根据字典写好seq2id的函数(文本序列->数字序列),并调用将文本序列化。 初始化Encoder,Decoder模型;选择合适的优化器;设置lr,epochs等参数; 开始循环迭代: 1.因为文本太大,这里是随机选择某句进行训练。 2.句子通过Encoder,Encoder产生新的隐层和每层的输出;再将开始
所属分类:
其它
发布日期:2021-01-07
文件大小:731136
提供者:
weixin_38586942
动手深度学习PyTorch(十)Seq2Seq、Attention
1. 编码器—解码器(seq2seq) 在自然语言处理的很多应用中,输入和输出都可以是不定长序列。以机器翻译为例,输入可以是一段不定长的英语文本序列,输出可以是一段不定长的法语文本序列,例如 英语输入:“They”、“are”、“watching”、“.” 法语输出:“Ils”、“regardent”、“.” 当输入和输出都是不定长序列时,我们可以使用编码器—解码器(encoder-decoder)[1] 或者seq2seq模型 [2]。这两个模型本质上都用到了两个循环神经网络,分别叫做编码器和
所属分类:
其它
发布日期:2021-01-07
文件大小:106496
提供者:
weixin_38708461
seq2seq到加上attention机制,再整合成transformer
时间问题,,开个好头。 1.机器翻译有一个大问题,就是输入输出的序列长度不一定相等。于是设计出Encoder-Decoder模型 。* 于是就有了Sequence to Sequenceseq模型 简答来说就是在输出的时候:先输入bos,然后以eos为结束标记。 总结: Sequence to Sequence encoder、decoder的网络可以是任意RNN网络:LSTM,双向RNN等; 这里Encoder不需要用到每一个单元的output,只需把H传到Decoder作为初始输入;
所属分类:
其它
发布日期:2021-01-06
文件大小:607232
提供者:
weixin_38752074
AttRCNN-CNN:论文介绍:针对现有模型不能充分提取语义特征,以及单一使用语义或语言学特征来进行预测等不足,使用BERT预训练模型进行句子的特征提取。以及特征融合的论文,使用LSTM-Attention和CNN进行文档特征提取,同时结
AttRCNN-CNN 译文:基于BERT和多特征联合的个性识别方法 领域:文本个性识别技术:BERT,LSTM,Attention,CNN 链接: 论文介绍:针对现有模型不能充分提取语义特征,以及单个使用语义或语言学特征来进行预测等不足,使用BERT预训练模型进行句子的特征提取。同时阅读了关于多模态以及特征融合的论文,使用LSTM-Attention和CNN进行文档尺寸特征提取,同时结合Mairesse语言学特征,将多个分割提取的特征融合起来进行分析,最终使用Pytorch进行模型实现。 其中
所属分类:
其它
发布日期:2021-03-03
文件大小:7340032
提供者:
weixin_42131890
Keras-TextClassification:中文长文本分类,短句分类,多标签分类,两句相似度(多标签分类或句子分类,长或短),字词向量嵌入层(嵌入)和网络层(图)嵌入基类,FastText,TextCNN,CharCNN,TextRN
安装(安装) pip install Keras-TextClassification step2 : download and unzip the dir of 'data.rar' , 地址: https : // pan . baidu . com / s / 1 I3vydhmFEQ9nuPG2fDou8Q 提取码: rket cover the dir of data to anaconda , like '/anaconda/3.5.1/envs/tensorflo
所属分类:
其它
发布日期:2021-02-03
文件大小:494592
提供者:
weixin_42122432
«
1
2
3
4
5
6
7
8
9
10
...
20
»