您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Matlab-Deep Learning Toolbox

  2. Deep Learning Toolbox™提供了一个框架,用于设计和实现具有算法,预训练模型和应用程序的深度神经网络。您可以使用卷积神经网络(ConvNets,CNN)和长期短期记忆(LSTM)网络对图像,时间序列和文本数据进行分类和回归。应用程序和图表可帮助您可视化激活,编辑网络体系结构以及监控培训进度。 对于小型训练集,您可以使用预训练的深层网络模型(包括SqueezeNet,Inception-v3,ResNet-101,GoogLeNet和VGG-19)以及从TensorFlow™-
  3. 所属分类:深度学习

    • 发布日期:2019-04-08
    • 文件大小:14680064
    • 提供者:yun000feng
  1. Keras中文文档.pdf

  2. Keras官方文档PDF版,带书签,一共307页,完整版,目前最好的版本!欢迎下载!model train on batch(x batch, y batch) 只需一行代码就能评估模型性能: loss and metrics modelevaluate(x test, y test, batch size=128) 或者对新的数据生成预测: classes =model predictx test, batch size=128) 构建一个问答系统,一个图像分类模型,一个神经图灵机,或者其他的
  3. 所属分类:深度学习

    • 发布日期:2019-09-03
    • 文件大小:12582912
    • 提供者:dzgybd
  1. keras 多gpu并行运行案例

  2. 主要介绍了keras 多gpu并行运行案例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:62464
    • 提供者:weixin_38513565
  1. keras实现多GPU或指定GPU的使用介绍

  2. 1. keras新版本中加入多GPU并行使用的函数 下面程序段即可实现一个或多个GPU加速: 注意:使用多GPU加速时,Keras版本必须是Keras2.0.9以上版本 from keras.utils.training_utils import multi_gpu_model #导入keras多GPU函数 import VGG19 #导入已经写好的函数模型,例如VGG19 if G <= 1: print("[INFO] training with 1 GPU...")
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:116736
    • 提供者:weixin_38640443
  1. horovod:修改horovodhorovod以支持nic切换-源码

  2. 霍罗沃德 Horovod是针对TensorFlow,Keras,PyTorch和Apache MXNet的分布式深度学习培训框架。 Horovod的目标是使分布式深度学习快速且易于使用。 Horovod由(LF AI)托管。 如果您是一家致力于在人工智能,机器和深度学习中使用开源技术的公司,并希望在这些领域中支持开源项目的社区,请考虑加入LF AI基金会。 有关谁参与其中以及Horovod如何扮演角色的详细信息,请阅读LF AI 。 内容 完整的文档和API参考发布在 。 该项目的主要动
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:13631488
    • 提供者:weixin_42127020
  1. 试管:Python库,可轻松记录实验并并行化神经网络的超参数搜索-源码

  2. 试管 记录,组织和并行化用于深度学习实验的超参数搜索 文件 试管是一个python库,用于跟踪和并行化深度学习和ML实验的超参数搜索。 它与框架无关,并基于python argparse API构建,易于使用。 pip install test_tube 主要试管用途 (跨多个GPU或CPU)。 使用SLURM跨HPC集群。 记录实验超参数和实验数据。 跨模型进行 。 使用可视化 与Python兼容的任何Python ML库,例如Tensorflow,Keras,Pytorch,Caff
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:715776
    • 提供者:weixin_42134117
  1. tensorpack:TensorFlow上的神经网络培训界面,专注于速度+灵活性-源码

  2. Tensorpack是基于TensorFlow的神经网络训练接口。 特征: 它是又一个TF高级API,具有速度和灵活性。 注重训练速度。 Tensorpack免费提供了速度-它以高效的方式使用TensorFlow而没有额外的开销。 在常见的CNN上,它的训练比等效的Keras代码1.2〜5。 如果使用Tensorpack编写,您的培训可能会更快。 数据并行的多GPU /分布式训练策略是现成的。 它具有可扩展性以及Google的。 有关一些基准脚本,请参见。 专注于大型数据集。 。
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:2097152
    • 提供者:weixin_42131785
  1. 节俭式:仅标头库,用于在C ++中使用Keras模型-源码

  2. 节俭的 轻松在C ++中使用Keras模型 目录 介绍 您想使用Keras / Python建立/训练模型吗? 您是否想在C ++中对模型运行预测(正向传递)而无需将应用程序与TensorFlow链接? 那么节俭的深度正是适合您的。 节俭的 是一个用现代的纯C ++语言编写的小型仅标头库。 非常易于集成和使用。 只取决于 ,和 -也仅标头库。 不仅支持而且还支持使用创建的具有更复杂拓扑的计算图的推理( model.predict )。 重新实现TensorFlow的(小)子集,即支持预
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:256000
    • 提供者:weixin_42121086
  1. keras 多gpu并行运行案例

  2. 一、多张gpu的卡上使用keras 有多张gpu卡时,推荐使用tensorflow 作为后端。使用多张gpu运行model,可以分为两种情况,一是数据并行,二是设备并行。 二、数据并行 数据并行将目标模型在多个设备上各复制一份,并使用每个设备上的复制品处理整个数据集的不同部分数据。 利用multi_gpu_model实现 keras.utils.multi_gpu_model(model, gpus=None, cpu_merge=True, cpu_relocation=False) 具体
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:65536
    • 提供者:weixin_38652870