您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 不确定性知识的定性表示_推理及其应用_定性概率网研究综述

  2. 摘要:贝叶斯网是不确定性知识表不和推理的有效框架,定性概率网是贝叶斯网的抽象表不,它简化了不 确定性知识的表不,加速了不确定性知识的推理.近年来,定性概率网成为了不确定人工智能和知识发现领域 的一个重要研究方向.分析总结了日前定性概率网的挑战和研究成果,卞要包括定性概率网的知识表不、推理 及应用3个方而.表不方而,概括了定性影响、定性加协作、定性乘协作和原因间影响,并探讨了定性概率网表 不机制存在的问题及卞要解决方法;推理方而,描述了推理算法,探讨了定性概率网推理冲突问题,分析比较了 解决推理
  3. 所属分类:其它

    • 发布日期:2010-05-24
    • 文件大小:466944
    • 提供者:fangy060425
  1. TensorRT推理加速

  2. TensorRT Python API的使用,8bits量化,语义分割方面的应用。
  3. 所属分类:深度学习

    • 发布日期:2018-05-07
    • 文件大小:1048576
    • 提供者:nature553863
  1. caffe加速:合并BatchNorm层和Scale层到Convolution层

  2. Convolution+BatchNorm+Scale+Relu的组合模块在卷积后进行归一化,可以加速训练收敛。但在推理时BatchNorm非常耗时,可以将训练时学习到的BatchNorm+Scale的线性变换参数融合到卷积层,替换原来的Convolution层中weights和bias,实现在不影响准确度的前提下加速预测时间。
  3. 所属分类:深度学习

    • 发布日期:2018-09-10
    • 文件大小:9216
    • 提供者:cxiazaiyu
  1. TENSORRT 轻松部署高性能DNN推理

  2. TensorRT 是 NVIDIA 推出的专门加速深度学习推理的开发工具。利用 TensorRT, 您可以快速、高效地在 GPU 上部署基于深度学习的应用。 我们首先会介绍 TensorRT 的基本功能和用法,例如它的优化技巧和低精度加速。其次, 结合我们实际使用过程中的经验,详细介绍 TensorRT 的难点:Plugin 机制。最后,我们会分享几个 TensorRT 成功应用案例
  3. 所属分类:深度学习

    • 发布日期:2019-01-14
    • 文件大小:1048576
    • 提供者:livepoolgerres
  1. TensorRT 实现深度网络模型推理加速

  2. 通过本文档将会了解到深度学习的应用场景,常规的部署方法及带来的挑战,基于这些挑战 NVIDIA 给出的高效解决方案 TensorRT 的介绍,性能及案例分享。
  3. 所属分类:深度学习

    • 发布日期:2019-01-14
    • 文件大小:1048576
    • 提供者:livepoolgerres
  1. deeplearnjs一个用于Web的硬件加速机器智能JavaScript库

  2. deeplearn.js是用于机器智能的开源硬件加速Javascr ipt库。 deeplearn.js将性能机器学习构建块带入Web,让您可以在浏览器中训练神经网络,或者在推理模式下运行预先训练的模型。
  3. 所属分类:其它

    • 发布日期:2019-08-08
    • 文件大小:4194304
    • 提供者:weixin_39841848
  1. 基于弹性计算的AI推理

  2. 场景描述 本方案适用于使用GPU进行AI在线推理的场 景。在推理之前,模型已经训练完成。例如,刷脸 支付中,我们在刷脸的时候,就是推理的一个过 程。再比如图像分类,目标检测,语音识别,语 义分析等返回结果的过程。 解决问题 l 使用GPU云服务器搭建推理环境 l 使用容器服务Kubernetes版构建推理 环境 l 使用NAS存储模型数据 l 使用飞天AI加速推理工具加速推理 产品列表 l GPU云服务器 l 容器服务Kubernetes版 l NAS共享存储 原文链接 本文为阿里云原创内容,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:52224
    • 提供者:weixin_38658471
  1. xshinnosuke:由Numpy纯粹实现的深度学习框架,通过GPU加速支持动态图和静态图-源码

  2. XShinnosuke:深度学习框架 内容描述 XShinnosuke(短XS)是一个高层次的神经网络框架,两个动态图形和静态图形支撑,并具有几乎相同的API来Keras和Pytorch略有差异。它仅由Python编写,致力于快速实现实验。 这是XS的一些功能: 基于Cupy (GPU版本)/ Numpy ,原生于Python。 没有任何其他第三方深度学习库。 Keras和Pytorch风格的API ,易于启动。 支持常用层,例如: Dense,Conv2D,MaxPooling2D,LSTM
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:23068672
    • 提供者:weixin_42107165
  1. 二元常应力加速降解模型及推论

  2. 为了准确地评估具有两个或多个性能特征(PC)的高度可靠产品的可靠性,应适当考虑PC之间的关系。 如果它们不是独立的,那么描述PC的依赖性就变得很重要。 对于许多产品,恒应力降解测试不能提供足够的数据来进行可靠性评估,因此,通常执行加速降级测试。 在本文中,我们假定一个产品有两台PC,并且这些PC由带有时间刻度转换的Wiener流程控制,并且PC之间的关系由Frank copula函数描述。 copula参数取决于应力,并假定为应力水平的函数,可以通过逻辑函数来描述。 基于这些假设,在此提出了一个
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:309248
    • 提供者:weixin_38708707
  1. aihwkit:IBM模拟硬件加速套件-源码

  2. IBM Analog Hardware Acceleration Kit 描述 IBM Analog Hardware Acceleration Kit是一个开放源代码Python工具箱,用于在人工智能环境中探索和使用内存计算设备的功能。 :warning: 该库目前处于测试阶段,并且正在积极开发中。 请注意潜在的问题,并密切关注即将发布的版本中的改进,新功能和错误修复。 该工具包包含两个主要组件: Pytorch集成 一系列允许在使用该工具包的原语和功能: 模拟神经网络模块(完全连接的
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:1048576
    • 提供者:weixin_42162978
  1. XNNPACK:适用于移动设备,服务器和Web的高效浮点神经网络推理运算符-源码

  2. XNNPACK XNNPACK是针对ARM,WebAssembly和x86平台的浮点神经网络推理运算符的高度优化的库。 XNNPACK不适用于深度学习从业人员和研究人员; 相反,它提供了低级性能原语来加速高级机器学习框架,例如 , , 和 。 支持的架构 Android,Linux,macOS和iOS(包括WatchOS和tvOS)上的ARM64 Android,Linux和iOS(包括WatchOS)上的ARMv7(带有NEON) Windows,Linux,macOS,Android
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:7340032
    • 提供者:weixin_42132325
  1. tflite_gles_app:使用TensorflowLite GPU的RaspberryPi JetsonNano Linux PC的GPU加速了深度学习推理应用程序-源码

  2. GPU加速了TensorFlow Lite / TensorRT应用程序。 该存储库包含几个使用TensorFlow Lite GPU Delegate或TensorRT调用DNN推理的应用程序。 目标平台:Linux PC / NVIDIA Jetson / RaspberryPi。 1.应用 轻量级人脸检测。 更高精确度的人脸检测。 TensorRT端口在 检测面部并估计其年龄和性别 TensorRT端口在 使用Moilenet进行图像分类。 TensorRT端口在 使用Mobil
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:942669824
    • 提供者:weixin_42119358
  1. 蜂鸟:蜂鸟将训练有素的机器学习模型编译为张量计算,以加快推理速度-源码

  2. 蜂鸟 介绍 Hummingbird是一个用于将经过训练的传统ML模型编译为张量计算的库。 Hummingbird允许用户无缝利用神经网络框架(例如 )来加速传统的ML模型。 多亏了Hummingbird ,用户可以受益于:(1)在神经网络框架中实现的所有当前和将来的优化; (2)本机硬件加速; (3)具有支持传统模型和神经网络模型的独特平台; 并拥有所有这些(4),而无需重新设计其模型。 当前,您可以使用Hummingbird将训练有素的传统ML模型转换为 , , 和 )。 蜂鸟各种ML模型
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:590848
    • 提供者:weixin_42159267
  1. onnx_transformers:加速的NLP管道,用于在CPU上进行快速推断。 使用Transformers和ONNX运行时构建-源码

  2. onnx_transformers 加速的NLP管道以进行快速推理 :rocket: 在CPU上内置 :hugging_face: 变压器和ONNX运行时。 安装: pip install git+https://github.com/patil-suraj/onnx_transformers 用法: 注意:这是一个实验项目,仅在PyTorch中进行了测试 流水线API与变压器相似,只是有一些区别,下面将进行说明。 只需提供模型的路径/ URL,如果需要,它将从下载模型并自动创建onnx
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:143360
    • 提供者:weixin_42150341
  1. nncf:基于PyTorch *的神经网络压缩框架,用于增强OpenVINO:trade_mark:推理-源码

  2. 神经网络压缩框架(NNCF) 该存储库包含基于PyTorch *的框架和用于神经网络压缩的样本。 该框架以Python *包的形式组织,可以在独立模式下构建和使用。 框架架构是统一的,可以轻松添加不同的压缩方法。 这些样本演示了在公共模型和数据集上三个不同用例中压缩算法的用法:图像分类,对象检测和语义分割。 在本文档末尾的表格中,可以找到使用NNCF驱动的样本可获得的。 主要特点 在模型微调过程中应用的各种压缩算法的支持,以实现最佳压缩参数和精度: 自动,可配置的模型图转换以获得压缩模型。
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:5242880
    • 提供者:weixin_42138376
  1. 概率:TensorFlow中的概率推理和统计分析-源码

  2. TensorFlow概率 TensorFlow概率是TensorFlow中用于概率推理和统计分析的库。 作为TensorFlow生态系统的一部分,TensorFlow概率提供了概率方法与深度网络的集成,通过自动微分的基于梯度的推理以及通过硬件加速(例如GPU)和分布式计算的大型数据集和模型的可伸缩性。 我们的概率机器学习工具的结构如下。 第0层:TensorFlow。 数值运算。 特别是,LinearOperator类可实现无矩阵实现,该实现可利用特殊结构(对角,低秩等)进行高效计算。 它由
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:38797312
    • 提供者:weixin_42146888
  1. onnxruntime:ONNX Runtime:跨平台,高性能ML推理和训练加速器-源码

  2. ONNX Runtime是一个跨平台的推理和培训加速器,与许多流行的ML / DNN框架兼容,包括PyTorch,TensorFlow / Keras,scikit-learn等。 许多用户可以从ONNX Runtime中受益,包括那些希望: 提高各种ML模型的推理性能 减少培训大型模型的时间和成本 使用Python进行培训,但可以部署到C#/ C ++ / Java应用程序中 在不同的硬件和操作系统上运行 在多个不同框架中创建的支持模型 自2019年10月以来, API稳定且可投入生产,
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:282066944
    • 提供者:weixin_42165018
  1. Adlik:Adlik:加速深度学习推理的工具包-源码

  2. 阿德利克 Adlik [ædlik]是深度学习模型的端到端优化框架。 Adlik的目标是在云和嵌入式环境上加速深度学习推理过程。 借助Adlik框架,可以以非常灵活和轻松的方式将不同的深度学习模型部署到具有高性能的不同平台。 在云环境中,应将已编译的模型和Adlik Inference Engine构建为docker映像,并部署为容器。 在边缘环境中,应将Adlik Inference Engine部署为容器。 应将编译后的模型转移到边缘环境,并且Adlik Inference Engi
  3. 所属分类:其它

    • 发布日期:2021-01-31
    • 文件大小:3145728
    • 提供者:weixin_42148975
  1. CTranslate2:适用于OpenNMT模型的快速推理引擎-源码

  2. CTranslate2 CTranslate2是适用于支持CPU和GPU执行的和模型的快速推理引擎。 目标是提供全面的推理功能,并成为部署标准神经机器翻译系统(例如Transformer模型)的最有效和最具成本效益的解决方案。 该项目以生产为导向,具有,但它还包括与模型压缩和推理加速有关的实验功能。 目录 主要特点 在CPU和GPU上快速高效地执行支持的模型和任务的通用深度学习框架相比,执行。 量化和降低精度模型序列化和计算以较低的精度支持权重:16位浮点(FP16),16位整数和8位整
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:2097152
    • 提供者:weixin_42104778
  1. libonnx:轻巧的便携式纯C99 onnx推理引擎,用于支持硬件加速的嵌入式设备-源码

  2. Libonnx 轻巧的便携式纯C99 onnx inference engine适用于具有硬件加速支持的嵌入式设备。 入门 可以将库的.c和.h文件放入项目中,并与之一起编译。 在使用之前,应为其分配struct onnx_context_t *并且您可以传递一个struct resolver_t *数组来进行硬件加速。 文件名是onnx模型格式的路径。 struct onnx_context_t * ctx = onnx_context_alloc_from_file(filename,
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:96468992
    • 提供者:weixin_42168750
« 12 3 4 »