您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 方便快捷的选择题考试系统

  2. 1引言 1.1设计说明 本文档是对系统界面设计风格进行描述,和用户交互的最终界面在《详细设计说明书》中设计和解释。 1.2概念和定义 用户界面:又称人机界面,实现用户与计算机之间得通信,以控制计算机或进行用户和计算机之间得数据传送得系统部件。 GUI:即图形用户界面,一种可视化得用户界面,它使用图形界面代替正文界面。 1.3用户假定 将使用本系统的用户定义为:对应用程序或计算机的一般用法有一定了解,用户希望界面符合WINDOWS9X特别是OFFICE97风格,对易用性、简洁性有比较高的要求,对
  3. 所属分类:C

    • 发布日期:2008-12-21
    • 文件大小:483328
    • 提供者:lidaisong5460
  1. 计算机视觉中的注意力机制(Visual Attention).docx

  2. 在 2014 年,随着深度学习的进一步发展,seq2seq 的训练模式和翻译模式已经开始进入人们的视野。除此之外,在端到端的训练方法中,除了需要海量的业务数据之外,在网络结构中加入一些重要的模块也是非常必要的。在此情形下,基于循环神经网咯(Recurrent Neural Network)的注意力机制(Attention Mechanism)进入了人们的视野。除了之前提到的机器翻译和自然语言处理领域之外,计算机视觉中的注意力机制也是十分有趣的,本文将会简要介绍一下计算机视觉领域中的注意力方法。
  3. 所属分类:深度学习

    • 发布日期:2019-06-11
    • 文件大小:220160
    • 提供者:qq_18315295
  1. 反向注意引导的深度人群计数网络.pdf

  2. 计算机视觉,密集人群计数方向,注意力机制最新最全论文。 密集人群计数方向上比较火热的方向,主要用于解决尺寸问题。
  3. 所属分类:深度学习

    • 发布日期:2020-03-30
    • 文件大小:3145728
    • 提供者:qq_42460140
  1. 结合知识图谱实现基于电影的推荐系统.pdf

  2. 在推荐算法中融入电影的知识图谱,能够将没有任何历史数据的新电影精准地推荐给目标用户。交叉特征矩阵 Cr 交叉单元 第层 el 7交叉压缩单元模型的结构 交叉压缩单元模型的具体处理过程如下 (1)将与进行矩阵相乘得到。 (2)将复制一份,并讲行转置得到。实现特征交叉融合 (3)将经过权重矩阵进行线性变化(与矩阵相乘) (4)将经过权重矩阵进行线性变化。 (5)将(3)与(4)的结果相加,再与偏置参数相加,得到。将用于推荐算法模型的后续计算。 (6)按照第(3)、(4)、(5)步的做法,同理可以得到
  3. 所属分类:机器学习

    • 发布日期:2019-09-02
    • 文件大小:867328
    • 提供者:zjxaut2008
  1. 深度学习方法在ROS中的应用

  2. 分享一下ROS暑期学校的讲义,介绍了深度学习方法在ROS中的应用;举例说明了深度卷积神经网络在计算机视觉中的应用;最后介绍了深度学习和ROS的融合,以Caffe为例说明了深度学习技术与ROS的集成开发方法。01从视觉系统到深度卷积神经网络 传统的计算机视觉高层处理任务 1)目标检测;2)目标分类;3)目标识别 、b回分需吧 口证1、图面1 圆器、 1000,000,00016748940 四口 Image Net Large Scale Visual Recognition Challenges
  3. 所属分类:深度学习

    • 发布日期:2019-01-12
    • 文件大小:2097152
    • 提供者:weijun_qiu
  1. 计算机视觉中的注意力机制

  2. 汇总了自Non-local和SENet之后的十几篇发表于CVPR/ICCV的经典的注意力方法,包括cbam、a2net、psanet、danet、apcnet、sknet、ccnet、gcnet、annnet、ocrnet、sanet、ecanet
  3. 所属分类:深度学习

    • 发布日期:2020-09-23
    • 文件大小:5242880
    • 提供者:qq_36268755
  1. 《视觉Transformer转换器》综述论文

  2. Transformer是一种主要基于自注意力机制的深度神经网络,最初应用于自然语言处理领域。受Transformer强大的表征能力的启发,研究人员提出将Transformer扩展到计算机视觉任务中。与卷积网络和循环网络等其他网络类型相比,基于Transformer的模型在各种视觉基准上都具有竞争力,甚至表现出了更好的性能。
  3. 所属分类:机器学习

    • 发布日期:2020-12-27
    • 文件大小:1048576
    • 提供者:syp_net
  1. [深度学习]动手学深度学习笔记-8

  2. Task4——注意力机制与Seq2seq模型 8.1 注意力机制 所谓的注意力机制,其实就是让系统学会注意力-即关注重点信息忽略无关信息。带有注意力机制的系统,不仅可以自主学习注意力,还可以帮助我们更好的理解神经网络。现在,在计算机视觉当中大多数都是通过掩码来生成注意力,掩码本质上是一组新的权重,可以帮助我们找到需要关注的信息。 目前主要演化出了两种注意力,一种是软注意力,其重点关注的是区域或通道,这种注意力是固定的,可微的;另一种是强注意力,其重点关注的是点,不可微,一般通过强化学习获得。
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:1048576
    • 提供者:weixin_38629130
  1. triplet-attention:PyTorch的“轮值参加”的官方实施-源码

  2. 摘要-得益于在通道或空间位置之间建立相互依存的能力,注意力机制最近得到了广泛的研究,并广泛用于各种计算机视觉任务中。在本文中,我们研究了轻量但有效的注意力机制,并提出了三重态注意力,这是一种通过使用三分支结构捕获跨维度交互来计算注意力权重的新方法。对于输入张量,三重态注意力通过旋转操作和残差变换来建立维度间的依存关系,并以可忽略的计算开销对通道间和空间信息进行编码。我们的方法既简单又有效,并且可以轻松地作为附加模块插入经典骨干网。我们证明了我们的方法在各种挑战性任务中的有效性,包括ImageNe
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:4194304
    • 提供者:weixin_42137028
  1. AI-Surveys:整理AI相关领域的一些概述-源码

  2. 人工智能调查 本repo主要整理AI相关领域的一些概述,起因是看到了这个非常棒的项目。 目前添加了『自然语言处理』模块的部分觉得不错的概述。 欢迎有兴趣的小伙伴们一起整理。 自然语言处理(NLP) 文本分类(文本分类) 情感分析 命名实体识别(命名实体识别) 关系抽取(关系提取) 文本匹配(文本匹配) 阅读理解(阅读理解) 机器翻译(机器翻译) 文本生成(文本生成) 摘要抽取(Abstractive Summarization) 对话系统 知识图谱(知识图) 深度学习(深度学习) 迁移学习(转移
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:4096
    • 提供者:weixin_42131618
  1. StructCap:用于图像字幕的结构化语义嵌入

  2. 图像字幕已引起多媒体和计算机视觉领域越来越多的研究关注。 为了对视觉内容进行编码,现有方法通常利用现成的深度卷积神经网络(CNN)模型来提取视觉特征,然后将其发送到基于递归神经网络(RNN)的文本生成器以输出单词序列。 最近,一些方法利用注意力机制对视觉对象和场景信息进行编码。 尽管取得了令人鼓舞的进展,但一个明显的缺点是区分和建模关键语义实体及其关系,而这些语义实体又被广泛认为是我们描述图像内容的重要线索。 在本文中,我们提出了一种新颖的图像字幕模型,称为StructCap。它将模型中的给定图
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:1048576
    • 提供者:weixin_38649356
  1. self-attention-cv:专注于计算机视觉的各种自我关注机制的实现。 进行中的资料库-源码

  2. PyTorch中计算机视觉应用程序的自注意力构建基块 使用einsum和einops在PyTorch中实现计算机视觉的自我关注机制。 专注于计算机视觉自我注意模块。 通过pip安装 $ pip install self-attention-cv 如果您没有GPU,最好在您的环境中预安装pytorch。 相关文章 程式码范例 多头注意力 import torch from self_attention_cv import MultiHeadSelfAttention model = MultiH
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:135168
    • 提供者:weixin_42116805
  1. 综述:计算机视觉中的注意力机制

  2. 为什么需要视觉注意力计算机视觉(computervision)中的注意力机制(attention)的基本思想就是想让系统学会注意力——能够忽略无关信息而关注重点信息。为什么要忽略无关信息呢?注意力分类与基本概念神经网络中的「注意力」是什么?怎么用?该文分为:硬注意力、软注意力、此外,还有高斯注意力、空间变换就注意力的可微性来分:Hard-attention,就是0/1问题,哪些区域是被attentioned,哪些区域不关注.硬注意力在图像中的应用已经被人们熟知多年:图像裁剪(imagecropp
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:1048576
    • 提供者:weixin_38597533
  1. 基于人类视觉智能和粒子滤波的鲁棒目标跟踪算法

  2. 与计算机视觉目标跟踪算法遇到的各种困难和瓶颈不同的是,鲁棒视觉目标跟踪仅仅是人类视觉系统的一项基本功能.为此,基于自顶向下的视觉注意机制,构建了一种相应的计算模型,提出一种利用检测视觉注意力焦点区域的方法来模拟人类视觉系统的全局搜索过程,并用粒子滤波跟踪来模拟人类视觉系统的局部跟踪过程的目标跟踪算法.多组对比实验结果表明了所提出的算法在视觉目标跟踪中的优越性.
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:997376
    • 提供者:weixin_38526979
  1. 令人敬畏的cv机制:计算机视觉中用到的关注模块和其他即插即用模块(计算机视觉)PyTorch注意模块和即插即用模块的实现集合-源码

  2. 简历中的令人敬畏的关注机制 目录 介绍 PyTorch实现多种计算机视觉中网络设计中用到的注意机制,还收集了一些即插即用模块。由于能力有限的能力有限,可能很多模块并没有包括进来,有任何的建议或者改进,可以提交问题或者进行PR。 注意机制 纸 发布 关联 大意 博客 CVPR19 将高阶和关注机制在网络中部地方结合起来 CVPR20 NAS + LightNL CVPR18 最经典的通道专注 CVPR19 SE +动态选择 ECCV18 串联空间+通道注意力 BMVC18 平行空间+通道关注
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:3145728
    • 提供者:weixin_42157567
  1. pytorch-GAT:我对原始GAT论文的实施(Veličković等)。 另外,我还包括了用来查看Cora数据集,GAT嵌入,注意力机制和熵直方图的sparkle.py文件。 我也会尽快添加一个归纳示例(PPI)-源码

  2. GAT-图注意力网络(PyTorch) :laptop: +图形+ :megaphone: = :red_heart: 此回购包含原始GAT论文的PyTorch实现( :link: )。 它的目的是简化一般的GAT和GNN的玩法和学习。 目录 什么是GNN? 图神经网络是一系列神经网络,它们处理图上定义的信号! 图可以建模许多有趣的自然现象,因此您会发现它们在以下任何地方都得到了使用: 计算生物学-预测强效 计算药理学-预测 流量预测-例如在 推荐系统(用于 , , 等)
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:2097152
    • 提供者:weixin_42130889
  1. 综述:计算机视觉中的注意力机制

  2. 为什么需要视觉注意力 计算机视觉(computervision)中的注意力机制(attention)的基本思想就是想让系统学会注意力——能够忽略无关信息而关注重点信息。为什么要忽略无关信息呢? 注意力分类与基本概念神经网络中的「注意力」是什么?怎么用? 该文分为:硬注意力、软注意力、此外,还有高斯注意力、空间变换
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:1048576
    • 提供者:weixin_38560768
  1. 基于人类视觉智能和粒子滤波的鲁棒目标跟踪算法

  2. 与计算机视觉目标跟踪算法遇到的各种困难和瓶颈不同的是, 鲁棒视觉目标跟踪仅仅是人类视觉系统的一 项基本功能. 为此, 基于自顶向下的视觉注意机制, 构建了一种相应的计算模型, 提出一种利用检测视觉注意力焦点 区域的方法来模拟人类视觉系统的全局搜索过程, 并用粒子滤波跟踪来模拟人类视觉系统的局部跟踪过程的目标跟 踪算法. 多组对比实验结果表明了所提出的算法在视觉目标跟踪中的优越性.
  3. 所属分类:其它

    • 发布日期:2021-01-14
    • 文件大小:756736
    • 提供者:weixin_38587509