您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Neural Relation Extraction with Selective Attention over Instances论文笔记

  2. 该PPT为阅读Neural Relation Extraction with Selective Attention over Instances论文后所做的笔记,总结了论文中的主要技术,并大致梳理了论文思路
  3. 所属分类:深度学习

    • 发布日期:2017-12-12
    • 文件大小:819200
    • 提供者:nihao1621
  1. attention is all you need论文解读

  2. 文章为对attention is all you need的论文解读,详细的剖析了该文章的思想。
  3. 所属分类:机器学习

    • 发布日期:2017-12-29
    • 文件大小:472064
    • 提供者:ly_mrty
  1. Attention(注意力机制代码)

  2. Attention.zip文件中总结了几种关于注意力机制的代码,有keras和tensorflow,还有PyTorch框架的
  3. 所属分类:深度学习

    • 发布日期:2018-07-16
    • 文件大小:5120
    • 提供者:zds13257177985
  1. attention注意力机制讲解ppt-组会分享

  2. 注意力机制是一种信息获取的通用机制,应用于从大量源数据中获取特定关键信息而避免对所有数据进行处理的场景。 注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。
  3. 所属分类:深度学习

    • 发布日期:2018-07-27
    • 文件大小:2097152
    • 提供者:wuyuefei3
  1. 使用attention+GAN网络输入文本生成和文本相匹配的图像(文本描述生成)

  2. 该代码是CVPR2018一篇关于文本到图像合成的文章,经过测试可以使用
  3. 所属分类:深度学习

    • 发布日期:2018-08-19
    • 文件大小:36700160
    • 提供者:jinyuan7708
  1. 基于Keras的attention实战

  2. 该代码为基于Keras的attention实战,环境配置: Wn10+CPU i7-6700 、Pycharm 2018、 python 3.6 、、numpy 1.14.5 、Keras 2.0.2 Matplotlib 2.2.2 经过小编亲自调试,可以使用,适合初学者从代码的角度了解attention机制。
  3. 所属分类:深度学习

    • 发布日期:2018-08-21
    • 文件大小:1048576
    • 提供者:jinyuan7708
  1. 各种attention的实现

  2. 深度学习的attention的实现,有keras和tensorflow两种
  3. 所属分类:深度学习

    • 发布日期:2018-09-24
    • 文件大小:8192
    • 提供者:weixin_37847867
  1. 浅谈Attention机制的理解.pdf

  2. Attention注意机制现在大热,很多深度学习的框架都带上了注意力机制,而且也取得了很好的性能指标。乘着大热也来水一水文章,发表发表自己的看法。事先说明老哥我在NLP上萌新一枚,粗糙想法不登大雅,呆萌的逻辑思维适合同为萌新滴你。废话不多说,在本文我就浅谈下对注意机制的理解。
  3. 所属分类:机器学习

    • 发布日期:2020-04-25
    • 文件大小:736256
    • 提供者:syp_net
  1. Attention.zip

  2. 这是李宏毅老师的机器学习课程,里面讲解了Transform模型,Attention模型,以及序列模型,PPT讲解思路非常清晰,非常适合研究生做研究的入门
  3. 所属分类:讲义

    • 发布日期:2020-04-16
    • 文件大小:103809024
    • 提供者:qq_35661896
  1. ICML19-attention.pdf

  2. attention机制在深度学习中的应用及其原理,最新讲座使用PPT,供大家学习使用。仅用于个人学习使用,禁止商用,如有侵权,请联系删除!
  3. 所属分类:深度学习

    • 发布日期:2020-03-26
    • 文件大小:38797312
    • 提供者:yangwangnndd
  1. Attention 讲解.pptx

  2. 从Attention的原理到Attention的进展,自然语言处理相关的数学原理和公式推导,以及算法的实现。
  3. 所属分类:深度学习

    • 发布日期:2020-03-12
    • 文件大小:22020096
    • 提供者:liuzhiheng123d
  1. Attention-guided CNN for image denoising.pptx

  2. 深度卷积神经网络(CNNs)在低层次计算机视觉领域引起了广泛的关注。通过很深的CNN网络来提高性能。但随着深度的增加,浅层的信息被忽略掉。受这样的事实启发,我们提出了一种基于注意引导的卷积神经网络(ADNet)去噪方法,主要包括一个稀疏块(SB)、一个特征增强块(FEB)、一个注意块(AB)和一个重构块(RB)。
  3. 所属分类:深度学习

    • 发布日期:2020-02-26
    • 文件大小:1048576
    • 提供者:qq_35661896
  1. Attention-Based Pedestrian Attribute Analysis.pdf

  2. Attention-Based Pedestrian Attribute Analysis,Attention-Based Pedestrian Attribute Analysis的论文
  3. 所属分类:互联网

    • 发布日期:2020-06-08
    • 文件大小:3145728
    • 提供者:lowellyu
  1. Attention-Based Pedestrian Attribute Analysis.pdf

  2. Attention-Based Pedestrian Attribute Analysis,Attention-Based Pedestrian Attribute Analysis
  3. 所属分类:互联网

    • 发布日期:2020-06-30
    • 文件大小:1048576
    • 提供者:lowellyu
  1. Self-Attention与Transformer

  2. 1.由来 在Transformer之前,做翻译的时候,一般用基于RNN的Encoder-Decoder模型。从X翻译到Y。 但是这种方式是基于RNN模型,存在两个问题。 一是RNN存在梯度消失的问题。(LSTM/GRU只是缓解这个问题) 二是RNN 有时间上的方向性,不能用于并行操作。Transformer 摆脱了RNN这种问题。 2.Transformer 的整体框架 输入的x1,x2x_{1},x_{2}x1​,x2​,共同经过Self-attention机制后,在Self-atte
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:2097152
    • 提供者:weixin_38611388
  1. 基于attention的seq2seq机器翻译实践详解

  2. 思路 文本处理,这里我是以eng_fra的文本为例,每行是english[tab]french,以tab键分割。获取文本,清洗。 分别建立字典,一个english,一个french。 根据字典写好seq2id的函数(文本序列->数字序列),并调用将文本序列化。 初始化Encoder,Decoder模型;选择合适的优化器;设置lr,epochs等参数; 开始循环迭代: 1.因为文本太大,这里是随机选择某句进行训练。 2.句子通过Encoder,Encoder产生新的隐层和每层的输出;再将开始
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:731136
    • 提供者:weixin_38586942
  1. 动手深度学习PyTorch(十)Seq2Seq、Attention

  2. 1. 编码器—解码器(seq2seq) 在自然语言处理的很多应用中,输入和输出都可以是不定长序列。以机器翻译为例,输入可以是一段不定长的英语文本序列,输出可以是一段不定长的法语文本序列,例如 英语输入:“They”、“are”、“watching”、“.” 法语输出:“Ils”、“regardent”、“.” 当输入和输出都是不定长序列时,我们可以使用编码器—解码器(encoder-decoder)[1] 或者seq2seq模型 [2]。这两个模型本质上都用到了两个循环神经网络,分别叫做编码器和
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:106496
    • 提供者:weixin_38708461
  1. seq2seq到加上attention机制,再整合成transformer

  2. 时间问题,,开个好头。 1.机器翻译有一个大问题,就是输入输出的序列长度不一定相等。于是设计出Encoder-Decoder模型 。* 于是就有了Sequence to Sequenceseq模型 简答来说就是在输出的时候:先输入bos,然后以eos为结束标记。 总结: Sequence to Sequence encoder、decoder的网络可以是任意RNN网络:LSTM,双向RNN等; 这里Encoder不需要用到每一个单元的output,只需把H传到Decoder作为初始输入;
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:607232
    • 提供者:weixin_38752074
  1. AttRCNN-CNN:论文介绍:针对现有模型不能充分提取语义特征,以及单一使用语义或语言学特征来进行预测等不足,使用BERT预训练模型进行句子的特征提取。以及特征融合的论文,使用LSTM-Attention和CNN进行文档特征提取,同时结

  2. AttRCNN-CNN 译文:基于BERT和多特征联合的个性识别方法 领域:文本个性识别技术:BERT,LSTM,Attention,CNN 链接: 论文介绍:针对现有模型不能充分提取语义特征,以及单个使用语义或语言学特征来进行预测等不足,使用BERT预训练模型进行句子的特征提取。同时阅读了关于多模态以及特征融合的论文,使用LSTM-Attention和CNN进行文档尺寸特征提取,同时结合Mairesse语言学特征,将多个分割提取的特征融合起来进行分析,最终使用Pytorch进行模型实现。 其中
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:7340032
    • 提供者:weixin_42131890
  1. Keras-TextClassification:中文长文本分类,短句分类,多标签分类,两句相似度(多标签分类或句子分类,长或短),字词向量嵌入层(嵌入)和网络层(图)嵌入基类,FastText,TextCNN,CharCNN,TextRN

  2. 安装(安装) pip install Keras-TextClassification step2 : download and unzip the dir of 'data.rar' , 地址: https : // pan . baidu . com / s / 1 I3vydhmFEQ9nuPG2fDou8Q 提取码: rket cover the dir of data to anaconda , like '/anaconda/3.5.1/envs/tensorflo
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:494592
    • 提供者:weixin_42122432
« 12 3 4 5 6 7 8 9 10 ... 20 »