您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 论文浅尝 # ICLR 2020 - 一文全览知识图谱研究

  2. ICLR 2020 正在进行,但总结笔记却相继出炉。我们曾对 ICLR 2020 上的趋势进行介绍,本文考虑的主题为知识图谱。
  3. 所属分类:机器学习

    • 发布日期:2020-05-09
    • 文件大小:2097152
    • 提供者:syp_net
  1. 高产来自“长期主义”:智源学者朱军谈ICLR 2020 全球发文第二的经验法则

  2. 在刚刚闭幕的人工智能顶级会议 ICLR 2020(04.26~05.01)上,华人学者的崛起令世人眼前一亮:华人作者参与论文数占比近60%。
  3. 所属分类:机器学习

    • 发布日期:2020-05-02
    • 文件大小:1048576
    • 提供者:syp_net
  1. 如何读一个成功的机器学习博士?

  2. 如何读一个成功的机器学习博士?这份ICLR2020指南为你指点迷津。包括:如何开始学习ML/DL?如何跟踪最新的研究?如何申请 PhD?如何选择PhD导师? 工作后再去读研读博后去工业界工作。
  3. 所属分类:机器学习

    • 发布日期:2020-05-02
    • 文件大小:373760
    • 提供者:syp_net
  1. ICLR 2020 # 微软亚洲研究院精选论文解读(附4篇优质文章)

  2. 本文为大家介绍的4篇微软亚洲研究院精选论文分别研究了 BERT 在机器翻译中的应用,有理论保障的对抗样本防御模型 MACER,一种新的基于自我博弈的文本生成对抗网络(GAN)训练算法,以及可广泛应用于视觉-语言任务的预训练通用特征表示 VL-BERT。
  3. 所属分类:机器学习

    • 发布日期:2020-04-23
    • 文件大小:10485760
    • 提供者:syp_net
  1. ICLR2020高分【图机器学习GML】【附49篇接收论文地址,其中5篇代表作与图机器学习导论ppt】.zip

  2. CLR2020论文收到2594篇论文提交,有687篇被接受,接受率为26.5%。在关于图机器学习方面,Sergei Ivanov整理了关于图机器学习方面的高分论文,有49篇关于图机器学习论文。以下附上其中具有代表性的5篇论文。另外,一并附上David Mack的图机器学习介绍ppt。值得一看。
  3. 所属分类:机器学习

    • 发布日期:2020-01-18
    • 文件大小:8388608
    • 提供者:syp_net
  1. 知识图谱新研究:DrKIT——虚拟知识库上的可微推断,比基于BERT的方法快10倍

  2. 对于知识图谱的研究在最近几年呈现逐渐热门的趋势,在今年的ICLR2020上,就涌现出了大量相关研究,其中,来自CMU和Google的研究者提出了一种新的将语料库作为虚拟知识库(Virtual Knowledge Base,KB)来回答复杂多跳问题的方法,其可以遍历文本数据,并遵循语料库中各个实体的关系路径,并基于评分的方法,实现了整个系统端到端的训练。实验结果证明此模型可以快速地实现更好的性能。
  3. 所属分类:机器学习

    • 发布日期:2020-05-26
    • 文件大小:787456
    • 提供者:syp_net
  1. 40篇ICLR2020计算机视觉开源论文合集.zip

  2. 计算机视觉相关的论文,详细描述了计算机视觉方向的内容,为计算机视觉方向的研究打下很好的基础。从论文中找到自己的方向。
  3. 所属分类:教育

    • 发布日期:2020-09-14
    • 文件大小:104857600
    • 提供者:weixin_45402438
  1. Transformer Assemble(PART III)

  2. 写在前面 本文首发于公众号:NewBeeNLP 这一期魔改Transformers主要关注对原始模型中位置信息的讨论与优化, Self-Attention with RPR from Google,NAACL2018 Self-Attention with SPR from Tencent,EMNLP 2019 TENER from FDU Encoding Word Order in Complex Embedding,ICLR2020 1、Self-Attention with R
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:704512
    • 提供者:weixin_38694566
  1. great:可变滥用任务的数据集,在ICLR 2020年论文“源代码的全球关系模型”中使用[https-Forum source code

  2. 伟大的 在ICLR 2020年论文“源代码的全局关系模型”中描述了变量滥用任务的数据集[ ] 这是该论文中使用的数据集的公开版本。 由于许可问题,用于生成纸上图表的原始文档无法开源。 有关从该数据集产生的结果,请参见公共关联的代码存储库[ ]。 该数据集是从ETH Py150 Open数据集[ ]中的Python代码库综合生成的。 数据集分为3个部分:训练数据集train ,验证数据集dev和评估(测试)数据集eval 。 这些中的每一个均来自相应的ETH Py150 Open拆分。
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:2147483648
    • 提供者:weixin_42140625
  1. LMRS:ICLR 2020论文的源代码-Search source code

  2. LMRS:学习的流形随机搜索 该代码存储库包含的源代码: Learning to Guide Random Search Ozan Sener, Vladlen Koltun International Conference on Learning Representations (ICLR) 2020 实验框架基于并扩展了的实现。 源代码是根据MIT许可证发布的。 有关详细信息,请参见许可证文件。 请注意,这是用于MuJoCo的LMRS的最小实现,我们将使用XFoil,Pagmo和合成实
  3. 所属分类:其它

    • 发布日期:2021-03-24
    • 文件大小:17408
    • 提供者:weixin_42127754
  1. MABN-源码

  2. 移动平均批量归一化 该存储库是对Imagenet分类,COCO对象检测和实例分割任务进行移动平均批量归一化的Pytorch实现。 该论文已作为ICLR2020会议论文发表( )。 结果 MABN及其同行的总体比较 前1个错误与批量大小的关系: 推理支出 规范 迭代/秒 BN / MABN 237.88 实例规范化 105.60 组归一化 99.37 层归一化 125.44 影像网 模型 标准化批次大小 规范 前1项准确度 ResNet50 32 国阵 76.59 ResNet50 2
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:2097152
    • 提供者:weixin_42137032
  1. lite-transformer:[ICLR 2020]具有短距离注意的Lite变压器-源码

  2. 具有长距离注意的Lite变压器 inproceedings{Wu2020LiteTransformer, title={Lite Transformer with Long-Short Range Attention}, author={Zhanghao Wu* and Zhijian Liu* and Ji Lin and Yujun Lin and Song Han}, booktitle={International Conference on Learning Represe
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:1048576
    • 提供者:weixin_42114046
  1. research-and-coding:研究资源列表-源码

  2. 研究和编码的一些技巧 欢迎大家一起丰富内容~~~ :grinning_face_with_smiling_eyes: 0.论文列表 ICLR2020 / / / / /网上有很多公开会议视频 / / 看AI都有什么方向 看DL都有什么方向 看CV都有什么方向 1.科研起步 必读文章 0. 1. 重点 2. 3. 4. 5. 6. 7. 8.有 信息收集 1. 2. 3. 未发表文章共享平台 4. 更好地搜索arXiv 5. 免费下载所有文章,例如输入这个: : 6. 免
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:4096
    • 提供者:weixin_42118011
  1. Transformer-For-CV:适用于计算机视觉任务的Transformer应用程序摘要-源码

  2. 大事记 注意力 视觉注意的循环模型[2014 deepmind NIPS] 通过共同学习对齐和翻译的神经机器翻译[ICLR 2015] 整体调查 高效变压器:调查[] Visual Transformer概述[] 视觉中的变形金刚:调查[] 自然语言处理 语言 使用神经网络进行序列到序列学习[NIPS 2014] [] [] 端到端存储网络[NIPS 2015] [] [] 注意就是您所需要的全部内容[NIPS 2017] [] [] 乙idirectionalËncoderř对产权
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:3072
    • 提供者:weixin_42127783
  1. 读书笔记:读书,写总结!-源码

  2. 纸怪兽 01基于流的生成模型 姓名 标签 笔记 评分 InfoMax :“为了表示学习而相互最大化信息”。 (ICLR2020) 表征学习 [] [PDF] [代码] :glowing_star: :glowing_star: :glowing_star:
  3. 所属分类:其它

    • 发布日期:2021-03-01
    • 文件大小:2097152
    • 提供者:weixin_42138525
  1. difftaichi:使用太极可微编程构建的10个可微物理模拟器(DiffTaichi,ICLR 2020)-源码

  2. python3 diffmpm.py DiffTaichi:物理模拟的微分编程(ICLR 2020) 胡元明,卢克·安德森,李子Ma,孙琦,内森·卡尔,乔纳森·拉根·凯利,弗雷多·杜兰德 Taichi中的差异化编程使您可以通过蛮力梯度下降有效地优化神经网络控制器,而无需使用强化学习。 DiffTaichi可区分编程框架现已正式成为一部分。 此仓库仅包含示例。 DiffTaichi大大提高了差异化物理模拟器的性能和生产率。 例如,DiffTaichi中的可区分弹性对象模拟器(ChainQue
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:222208
    • 提供者:weixin_42104181
  1. UGATIT:U-GAT-IT的正式Tensorflow实施:具有图像到图像转换的自适应层实例规范化的无监督生成注意网络(ICLR 2020)-源码

  2. U-GAT-IT —正式TensorFlow实施(ICLR 2020) :具有图像到图像转换的自适应层实例规范化的无监督生成注意网络 | 该存储库提供以下论文的正式Tensorflow实现: U-GAT-IT:具有图像到图像转换的自适应层实例规范化的无监督生成注意网络Kim Junho(NCSOFT) ,Minjae Kim(NCSOFT),Hyeonwoo Kang(NCSOFT),Kwanghee Lee(波音韩国) 摘要我们提出了一种新的无监督图像到图像翻译方法,该方法以端到端的方式结
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:4194304
    • 提供者:weixin_42110070
  1. Transformer-For-CV:适用于计算机视觉任务的Transformer应用程序摘要-源码

  2. 大事记 自然语言处理 神经网络的序列到序列学习[NIPS 2014] [] [] 端到端存储网络[NIPS 2015] [] [] 注意就是您所需要的[NIPS 2017] [] [] 乙idirectionalËncoderř对产权在T ransformers:BERT [] [] [] 改革者:高效变压器[ICLR2020] [] [] Linformer:具有线性复杂度的自我注意[AAAI2020] [] [] 简历 分类 图像价值16x16字:用于图像识别的变压器[VIT] [
  3. 所属分类:其它

    • 发布日期:2021-02-19
    • 文件大小:1024
    • 提供者:weixin_42099906
  1. fast_adversarial:[ICLR 2020]一个使用FGSM进行极快对抗训练的存储库-源码

  2. 使用FGSM进行快速对抗训练 使用FGSM对手实施快速对抗训练代码的存储库,能够在6分钟内训练强大的CIFAR10分类器,并在12小时内训练强大的ImageNet分类器。 由 , 和。 请参阅我们的arXiv上的论文,这是由自由对抗训练纸灵感通过Shafahi等。 (2019)。 消息 12/19/2019-ICLR 2020接受 1/14/2019-arXiv发布并发布存储库 该存储库中有什么? 带有针对MNIST,CIFAR10和ImageNet的随机初始化的FGSM对抗训练方法的实现 使
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:1048576
    • 提供者:weixin_42104181
  1. T-NAS:ICLR2020论文“通过元学习实现神经体系结构的快速适应”的源代码-Source code learning

  2. T-NAS PyTorch实施ICLR2020论文“通过元学习实现神经体系结构的快速适应” 要求 的Python:3.x 火炬:1.0+ tensorboardX> = 1.4 火炬视觉> = 0.2.1 翻牌 用法 在Mini-Imagenet中搜索T-NAS bash train_tnas.sh 在Mini-Imagenet中评估T-NAS 在这里,工作量非常大,因为我们仅在搜索阶段获得元theta。 值得注意的是,网络权重不能用于评估最终性能。 与其他NAS(例如
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:238592
    • 提供者:weixin_42172204