您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 基于MATLAB 的模糊控制应用程序设计

  2. 介绍了一种在C 语言应用程序中调用MATLAB 资源设计模糊控制应用程序的方法。即利用Matlab Fuzzy Logic 工 具箱中的独立C 代码模糊推理引擎函数库,在C 语言应用程序中,调用Matlab Fuzzy Logic 工具箱建立的模糊推理系统数 据文件( 3 . fis) , 从而得到能独立运行的C 语言模糊控制应用程序。
  3. 所属分类:C

    • 发布日期:2010-03-25
    • 文件大小:80896
    • 提供者:mjletian
  1. Jena使用介绍

  2. 本文是通过实例介绍了Java推理引擎Jena的使用方法。
  3. 所属分类:Java

    • 发布日期:2008-03-15
    • 文件大小:103424
    • 提供者:metago
  1. 基于Java的规则引擎--java规则引擎

  2. 规则引擎由推理引擎发展而来,是一种嵌入在应用程序中的组件,实现了将业务决策从应用程序代码中分离出来,并使用预定义的语义模块编写业务决策。接受数据输入,解释业务规则,并根据规则做出业务决策
  3. 所属分类:Java

    • 发布日期:2011-05-14
    • 文件大小:126976
    • 提供者:gdlangzi
  1. 基于Soar推理引擎的智能体开发实例

  2. soar推理引擎是一种应用比较广泛的通用智能体推理引擎,本程序可以方便大家掌握该引擎与客户端的接口设计。
  3. 所属分类:C++

    • 发布日期:2011-07-18
    • 文件大小:13631488
    • 提供者:cuihifi
  1. 规则引擎 Drools5

  2. 规则引擎  规则引擎由推理引擎发展而来,是一种嵌入在应用程序中的组件,实现了将业务决策从应用程序代码中分离出来,并使用预定义的语义模块编写业务决策。接受数据输入,解释业务规则,并根据业务规则做出业务决策。   应用背景: 企业级管理者对企业IT系统的开发有着如下的要求:   1.为提高效率,管理流程必须自动化,即使现代商业规则异常复杂。   2.市场要求业务规则经常变化,IT系统必须依据业务规则的变化快速、低成本的更新。   3.为了快速、低成本的更新,业务人员应能直接管理IT系统中的规则,不
  3. 所属分类:IT管理

    • 发布日期:2011-11-21
    • 文件大小:662528
    • 提供者:pangyishan
  1. JBoss的Drools引擎.wps

  2. Java规则引擎是推理引擎的一种,它起源于基于规则的专家系统。 Java规则引擎将业务决策从应用程序代码中分离出来,并使用预定义的语义模块编写业务决策。Java规则引擎接受数据输入,解释业务规则,并根据规则作出业务决策。从这个意义上来说,它是软件方法学在"关注点分离"上的一个重要的进展。 JSR-94规范定义了独立于厂商的标准API,开发人员可以通过这个标准的API使用Java规则引擎规范的不同产品实现。但值得注意的是,这个规范并没有强制统一规则定义的语法,因此,当需要将应用移植到其他的Jav
  3. 所属分类:Java

    • 发布日期:2011-11-25
    • 文件大小:160768
    • 提供者:meteorszhao
  1. pellet-2.3.0最新版本体推理引擎

  2. Pellet is an OWL 2 reasoner. Pellet provides standard and cutting-edge reasoning services for OWL ontologies. For applications that need to represent and reason about information using OWL, Pellet is the leading choice for systems where sound-and-co
  3. 所属分类:Java

    • 发布日期:2012-10-29
    • 文件大小:25165824
    • 提供者:thanksgivingguy
  1. 一种基于Hadoop的语义大数据分布式推理框架

  2. 随着语义万维网 sematic Web 和关联数据集项目 1inked data project 的不断发展 各领域的语义数据正在大规模扩增.同时 这些大规模语义数据之间存在着复杂的语义关联性 这些关联信息的挖掘对于研究者来说有着重要的意义.为解决传统推理引擎在进行大规模语义数据推理时存在的计算性能和可扩展性不足等问题 提出了一种基于Hadoop的语义大数据分布式推理框架 并且设计了相应的基于属性链 property chain 的原型推理系统来高效地发现海量语义数据中潜在的有价值的信息.实验
  3. 所属分类:其它

    • 发布日期:2014-11-09
    • 文件大小:1048576
    • 提供者:jianxiaodanmomo
  1. racer推理机

  2. Jena中的推理引擎和RACER都是针对具体本体语言的推理机,针对性强,效率高。
  3. 所属分类:其它

    • 发布日期:2015-07-17
    • 文件大小:18874368
    • 提供者:qq_29132079
  1. 基于本体的推理技术的相关研究.pdf

  2. 本体描述了资源本身以及资源之间丰富的语义关系,如何利用本体所蕴含的知识进 行智能化推理,是本体层作为语义网组成部分的重要应用。本文主要围绕W3C 推荐的OWL 本体描述语言,介绍了本体推理机的理论基础和几种流行的与WEB 应用相关的推理机。首 先介绍了各种推理机的系统结构,重点分析了本体开发工具Jena 自带的几种推理机,并介 绍了外部开源推理机Pellet 的技术特点。结合一个家族关系本体的例子介绍了如何实现内置 的推理机常识与自定义推理规则的结合,分析了用户通过DIG 接口或者Jena 提
  3. 所属分类:C

    • 发布日期:2009-01-20
    • 文件大小:266240
    • 提供者:qq_16940211
  1. cpp-MNN是一个轻量级的深度神经网络推理引擎

  2. MNN是一个轻量级的深度神经网络推理引擎,在端侧加载深度神经网络模型进行推理预测。目前,MNN已经在*的手机淘宝、手机天猫、优酷等20多个App中使用,覆盖直播、短视频、搜索推荐、商品图像搜索、互动营销、权益发放、安全风控等场景。此外,IoT等场景下也有若干应用。
  3. 所属分类:其它

    • 发布日期:2019-08-16
    • 文件大小:7340032
    • 提供者:weixin_39841848
  1. cpp-Tengine一个精简高性能用于嵌入式设备的模块化推理引擎

  2. Tengine一个精简,高性能,用于嵌入式设备的模块化推理引擎
  3. 所属分类:其它

    • 发布日期:2019-08-16
    • 文件大小:23068672
    • 提供者:weixin_39840924
  1. FeatherCNN是卷积神经网络的高性能推理引擎【Tencent】.zip

  2. FeatherCNN是卷积神经网络的高性能推理引擎【Tencent】。.zip,feathercnn是一种高性能的卷积神经网络推理机。
  3. 所属分类:其它

    • 发布日期:2019-09-25
    • 文件大小:184320
    • 提供者:weixin_38743737
  1. LightSeq: NLP高性能序列推理引擎

  2. 在本次分享中,会介绍LightSeq团队在过去一年多时间里,针对自然语言处理领域的序列(sequence)模型,进行的推理优化工作。自2017年Google提出Transformer模型,以其为基础的特征提取方法,推动了众多自然语言处理任务能力水平的提升,与此同时,模型的参数量和推理延迟也呈现近乎指数增长。为了满足业务场景严苛的部署要求,LightSeq 团队结合场景特性:1. 对特征运算进行了定制优化 2. 对自回归解码进行了层次化改写 3.引入编译优化技术进一步提升计算吞吐。成为业界第一款完
  3. 所属分类:深度学习

    • 发布日期:2020-11-18
    • 文件大小:34603008
    • 提供者:wxhcode1234
  1. tflite2tensorflow:从.tflite生成saved_model,tfjs,t​​f-trt,EdgeTPU,CoreML,量化的tflite,ONNX,OpenVINO,无数推理引擎blob和.pb。支持使用Docker构建

  2. tflite2tensorflow 从.tflite生成saved_model,tfjs,t​​f-trt,EdgeTPU,CoreML,量化的tflite,ONNX,OpenVINO,无数推理引擎blob和.pb。 1.支持的图层 不。 TFLite层 TF层 评论 1个 CONV_2D tf.nn.conv2d 2个 DEPTHWISE_CONV_2D tf.nn.depthwise_conv2d 3 MAX_POOL_2D tf.nn.max_pool 4 软垫 tf垫
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:35651584
    • 提供者:weixin_42174098
  1. elfi:ELFI-无可能性推理引擎-源码

  2. 版本0.7.7已发布! 请参阅和。 注意:目前,NetworkX 2与ELFI不兼容。 ELFI-无可能性推理引擎 ELFI是一个用Python编写的统计软件包,用于无近似推理(LFI),例如近似贝叶斯计算( )。 术语LFI是指一系列推论方法,这些推论方法将似然函数的使用替换为数据生成模拟器函数。 ELFI具有易于使用的生成建模语法,并支持开箱即用的并行推理。 当前实施的LFI方法: ABC拒绝采样器 顺序蒙特卡洛ABC采样器 带有SMC-ABC采样器 SMC-ABC采样器 其他值
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:244736
    • 提供者:weixin_42178963
  1. 计算引擎:用于二值神经网络的高度优化的推理引擎-源码

  2. Larq计算引擎 Larq Compute Engine(LCE)是高度优化的推理引擎,用于部署高度量化的神经网络,例如Binarized Neural Networks(BNN)。 它目前支持各种移动平台,并已在Pixel 1手机和Raspberry Pi上进行了基准测试。 LCE为支持的指令集提供了手动优化的自定义运算符的集合,这些指令集是内联汇编或使用编译器内在函数以C ++开发的。 LCE利用优化技术,例如平铺以最大化缓存命中次数,矢量化以最大化计算吞吐量,以及多线程并行化以利用多核现
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:230400
    • 提供者:weixin_42104778
  1. Paddle-Lite:多平台高性能深度学习推理引擎(『飞桨』多平台高级深度学习预测引擎)-源码

  2. 桨轻 |简体中文 Paddle Lite是一个高效,轻量级,增强强且易于扩展的深度学习推理框架,定位支持包括移动端,嵌入式以及服务器端内部的多硬件平台。 当前Pad Lite不仅在百度内部业务中得到全面应用,也成功支持了众多外部用户和企业的生产任务。 快速入门 使用Padd Lite,只需几个简单的步骤,就可以把模型部署到多个终端设备中,运行高效的推理任务,使用流程如下所示: 一。准备模型 Lite框架直接支持模型结构为深度学习框架模型的模型格式。当前PaddlePaddle用于推理的模型是
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:6291456
    • 提供者:weixin_42122838
  1. CTranslate2:适用于OpenNMT模型的快速推理引擎-源码

  2. CTranslate2 CTranslate2是适用于支持CPU和GPU执行的和模型的快速推理引擎。 目标是提供全面的推理功能,并成为部署标准神经机器翻译系统(例如Transformer模型)的最有效和最具成本效益的解决方案。 该项目以生产为导向,具有,但它还包括与模型压缩和推理加速有关的实验功能。 目录 主要特点 在CPU和GPU上快速高效地执行支持的模型和任务的通用深度学习框架相比,执行。 量化和降低精度模型序列化和计算以较低的精度支持权重:16位浮点(FP16),16位整数和8位整
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:2097152
    • 提供者:weixin_42104778
  1. libonnx:轻巧的便携式纯C99 onnx推理引擎,用于支持硬件加速的嵌入式设备-源码

  2. Libonnx 轻巧的便携式纯C99 onnx inference engine适用于具有硬件加速支持的嵌入式设备。 入门 可以将库的.c和.h文件放入项目中,并与之一起编译。 在使用之前,应为其分配struct onnx_context_t *并且您可以传递一个struct resolver_t *数组来进行硬件加速。 文件名是onnx模型格式的路径。 struct onnx_context_t * ctx = onnx_context_alloc_from_file(filename,
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:96468992
    • 提供者:weixin_42168750
« 12 3 4 5 6 7 »