您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 小米MAML 整理教程

  2. 小米主题MAML 整理教程,对官方MAML进行简单归纳与总结,对初学者学习制作小米主题提供基本规范与掌握基础很有帮助
  3. 所属分类:Android

    • 发布日期:2016-10-09
    • 文件大小:493568
    • 提供者:qq_34357991
  1. Microsoft Azure Machine Learning

  2. MAML机器学习微软Microsoft Azure Machine Learning
  3. 所属分类:其它

    • 发布日期:2016-10-27
    • 文件大小:7340032
    • 提供者:yunxinan
  1. Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks

  2. Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks
  3. 所属分类:深度学习

    • 发布日期:2018-08-15
    • 文件大小:3145728
    • 提供者:qq_26564783
  1. MAML方法论文

  2. 一篇介绍meta-learning方法的论文,发表于2017年,提出一种基于梯度的小样本学习方法
  3. 所属分类:机器学习

    • 发布日期:2018-03-05
    • 文件大小:3145728
    • 提供者:qq_28866943
  1. 《Python元学习实战》随书代码

  2. 【《Python元学习实战》随书代码】’Hands-On-Meta-Learning-With-Python - Learning to Learn using One-Shot Learning, MAML, Reptile, Meta-SGD and more with Tensorflow by Sudharsan Ravichandiran
  3. 所属分类:深度学习

    • 发布日期:2019-05-07
    • 文件大小:54525952
    • 提供者:u010636181
  1. MAML-v1.ipynb

  2. 这个文件里时我复现的MAML,也就是模型无关的元学习方法的实验代码的复现,有需要的朋友可以下载下来参考一下。
  3. 所属分类:深度学习

    • 发布日期:2020-03-01
    • 文件大小:306176
    • 提供者:wangkaidehao
  1. MAML Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks学习笔记.docx

  2. 元学习,大千世界纭纭人生,如何找到海中一粟,当今科技不主张,元学习未来发展帮助我们找到灵感与思想,可能是未来人工智能重要视角,非专业人士路过点评
  3. 所属分类:机器学习

    • 发布日期:2020-02-20
    • 文件大小:15360
    • 提供者:weixin_46366331
  1. 论文笔记—Recasting gradient-based meta-learning as hierarchical bayes

  2. 论文摘要:元学习允许智能代理利用先前的学习情节作为快速提高新任务性能的基础。贝叶斯分层建模提供了一个理论框架,用于形式化元学习,作为对跨任务共享的一组参数的推断。在这里,我们重新定义了Finn等人的模型不可知元学习算法(MAML)。 (2017)作为分层贝叶斯模型中概率推断的方法。与通过分层贝叶斯进行元学习的现有方法相比,MAML通过使用可扩展的梯度下降过程进行后验推理,自然适用于复杂函数逼近器。此外,将MAML识别为分层贝叶斯提供了一种将算法作为元学习过程进行理解的方法,并提供了利用计算策略进
  3. 所属分类:深度学习

    • 发布日期:2020-07-21
    • 文件大小:3145728
    • 提供者:liz_Lee
  1. 自适应模型不可知元学习

  2. MAML算法在分类、回归和策略梯度微调的少次学习问题上表现良好,但需要代价高昂的超参数调整来保持训练的稳定性。在MAML引入一个名为阿尔法·MAML的扩展来解决这个缺点,该扩展结合了一个在线超参数自适应方案,消除了调整元学习和学习速率的需要。Alpha MAML: Adaptive Model-Agnostic Meta-Learning
  3. 所属分类:专业指导

    • 发布日期:2020-11-29
    • 文件大小:904192
    • 提供者:qq_41043463
  1. 元学习-MAML-资源整合

  2. 借鉴其他的博主写的文章,以及自己的理解做的笔记,通过这个word的笔记,可以清楚的掌握MAML的算法理论以及实际使用时的简化,参考链接在文章里面,此文章免费下载。
  3. 所属分类:深度学习

    • 发布日期:2020-12-17
    • 文件大小:8388608
    • 提供者:qq_43492938
  1. MAML::bear:MAML-源码

  2. MAML 关于 发展 平台:Windows 10 32位和64位 编程语言:ISO C ++最新草案标准(> C ++ 17) 编译器:MSVC ++ 16.0.1 IDE :Visual Studio 2019 特征 代数: 复杂的 双 双曲 编译时数学(正在进行中) SIMD(进行中) 要做的事: 四元数 格拉斯曼代数(楔和反楔支持) 几何代数
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:36864
    • 提供者:weixin_42127748
  1. PropaModel_MAML-源码

  2. PropaModel_MAML 描述 因为标记资料丰富,如果使用传统的类神经网络分类方法效果不佳,因此试图使用少量学习(元学习)来改善效果。 相关工作 主要参考以下 使用MAML进行几次学习 当前数据集标签分布
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:5120
    • 提供者:weixin_42138788
  1. CSC2541-colab-assignment:CSC2541 colab分配-源码

  2. CSC2541-colab分配 colab分配贾克斯实施 在Omniglot上使用MAML进行少量镜头学习(图像分类) 要求 的Python:3.6 要安装依赖项: sudo pip3 install -r requirements.txt 数据集 Omniglot: : 预览 单集快照 5way-1shot-15查询(N = 5,K = 1,Q = 15) 左:支持集,右:查询集 跑 python main.py
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:51200
    • 提供者:weixin_42120405
  1. USA_UFGSM:重新采用经过预训练的模型进行健壮的域外少量学习-源码

  2. 重新利用预训练的模型进行鲁棒的域外少量学习 与模型无关的元学习(MAML)是少数学习的一种流行方法,但假设我们可以使用元训练集。 实际上,由于数据隐私问题,知识产权问题或仅缺乏计算资源,在元训练集上进行训练可能并不总是一种选择。 在本文中,我们考虑了重新使用预先训练的MAML检查点来解决新的少量快照分类任务的新问题。 由于潜在的分布不匹配,原始MAML步骤可能不再是最佳的。 因此,我们提出了另一种元测试程序,并将MAML梯度步骤与对抗训练和基于不确定性的逐步调整相结合。 使用SGD和Adam优化
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:1048576
    • 提供者:weixin_42144086
  1. Meta-GAIN:扩展GAIN模型以弥补缺失的数据插补-源码

  2. 元增益 GAIN模型的扩展,用于缺少数据插补。 其中一些代码来自切尔西·芬恩(Chelsea Finn)的MAML实现( ),她的CS330斯坦福课程( )和Jinsung Yoon的GAIN实现( )。
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:9216
    • 提供者:weixin_42138376
  1. 生成的预处理器-源码

  2. 关于调整元学习的梯度 该存储库包含以下代码: ECCV 2020 与现有方法的比较:MAML,Meta-SGD和Ours。 请参考每个文件夹以完成不同的任务:分类,回归和RL。 引文 inproceedings{Christian2020ModGrad, author = {Simon, Christian and Koniusz, Piotr and Nock, Richard and Harandi, Mehrtash}, title = {On Modulating the Gradi
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:272384
    • 提供者:weixin_42099530
  1. MetaRLSAS-源码

  2. Meta_RL_For_SAS 工具 Meta_RL_For_SAS MAML 使用模型不可知的元学习(MAML)进行强化学习模型不可知的元学习(MAML)的实现应用于Pytorch中的强化学习问题。 该存储库包括在( ; )中引入的环境:多臂匪,表格MDP,使用MuJoCo进行连续控制以及2D导航任务。 入门 为了避免与现有的Python设置发生任何冲突,并使该项目保持独立,建议使用在虚拟环境中工作。 要安装virtualenv : pip install --upgrade virt
  3. 所属分类:其它

    • 发布日期:2021-02-07
    • 文件大小:62914560
    • 提供者:weixin_42166918
  1. 动手使用Python进行元学习:使用Tensorflow使用一键式学习,MAML,爬行动物,Meta-SGD等进行学习学习-源码

  2. 动手使用Python进行元学习:使用Tensorflow使用一键式学习,MAML,爬行动物,Meta-SGD等进行学习学习
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:37748736
    • 提供者:weixin_42170790
  1. Reptile: On First-Order Meta-Learning Algorithms

  2. On First-Order Meta-Learning Algorithms Paper:https://arxiv.org/pdf/1803.02999.pdf Code:https://github.com/openai/supervised-reptile Tips:OpenAi的一篇相似MAML的Meta-learning相关的paper。 (阅读笔记) 1.Main idea 目标旨在实现相同分布的一类任务的少量样本快速学习。This paper considers meta-lea
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:84992
    • 提供者:weixin_38611796
  1. Meta-learning_ProjX:用于Omniglot和Mnist数据的元学习框架-源码

  2. MAML 学生老师学习 参考:
  3. 所属分类:其它

    • 发布日期:2021-04-01
    • 文件大小:617611264
    • 提供者:weixin_42122988
« 12 »