您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. qna-nlp-web-源码

  2. 问答解释反馈 描述 概念验证Web应用程序,可促进人类对AI问题解答系统的反馈。提供所需数据的API模仿了一个AI系统,该系统使用作为解释自然语言推理的机制。它使用作为数据集。 发展 要在开发环境中运行此程序,您还需要上面提到的API。为此,您可以在本地运行,也可以使用生产URI( )代替本地变量REACT_APP_QNA_NLP_API。 然后运行npm install安装所有必需的依赖项, 并运行npm start启动服务器。
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:385024
    • 提供者:weixin_42131352
  1. lambda-container-dl-inference-源码

  2. 使用Docker在AWS Lambda上部署无服务器深度学习网络推理应用程序 该项目包含源代码和支持文件,用于基于可通过SAM CLI部署的SqueezeNet的预训练版本来部署无服务器推理应用程序。 SqueezeNet是用于计算机视觉的深度学习神经网络,可提供AlexNet级别的准确性,参数减少50倍,模型尺寸小得多(本示例中约为10 MB) 它包括以下文件和文件夹。 推理-应用程序的Lambda函数和Project Dockerfile的代码。 events-可用于调用函数的调用事
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:23552
    • 提供者:weixin_42097668
  1. wenet:生产优先和生产就绪的端到端语音识别工具包-源码

  2. 微网 | | | | 我们一起共享神经网络。 WeNet的主要动机是缩小研究与生产端到端(E2E)语音识别模型之间的差距,减少生产E2E模型的工作量,并探索用于生产的更好的E2E模型。 强调 生产至生产准备就绪:WeNet的python代码符合Torchscr ipt的要求,因此由WeNet训练的模型可以由Torch JIT直接导出,并使用LibTorch进行推理。 研究模型和生产模型之间没有差距。 模型推断既不需要模型转换也不需要其他代码。 流和非流ASR的统一解决方案:WeNet
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:2097152
    • 提供者:weixin_42134051
  1. mixtape_learnr-源码

  2. 因果推理的教学资源:混合带 在此存储库中,遵循一组R Markdown脚本。 使用这些文件 首先,您应该派生此存储库,以便您可以根据自己的喜好对课程进行更改并自定义文件。 为此,您来对地方了。 单击此页面右上角的fork按钮。 有三种方法可以让学生使用这些材料: 1.使用学习器运行文件: 2.在RStudio中运行文件: 您还可以让学生直接从RStudio运行R Markdown脚本,而无需使用“运行文档”。 RStudio对运行代码块提供了强大的支持,学生只需点击绿色的播放按钮即可运行每个
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:881664
    • 提供者:weixin_42150745
  1. firesat-example:OML中用于火卫星任务的示例-源码

  2. FireSat示例 这是对以表示的FireSat项目的描述 克隆 git clone https://github.com/opencaesar/firesat-example.git cd firesat-example 建造 等效于owlReason任务 ./gradlew build 产生文件 您必须首先从安装Bikeshed(应用程序本身) ./gradlew generateDocs 运行OWL推理机 ./gradlew owlReason 启动Fuseki服务器 ./gr
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:193536
    • 提供者:weixin_42176827
  1. yolov5-fastapi-demo:YOLOv5的FastAPI包装器-源码

  2. yolov5-fastapi-demo 这是一个演示的FastAPI应用程序,允许用户上传图像,使用预先训练的YOLOv5模型执行推理以及接收JSON格式的结果。 此存储库还包括Jinja2 HTML模板,因此您可以通过Web浏览器(位于localhost:8000)访问此界面。 要求 安装了所有require.txt依赖关系的Python 3.8或更高版本,包括torch> = 1.7(根据 )。 要安装运行: pip install -r requirements.txt 推理
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:666624
    • 提供者:weixin_42102933
  1. 100-Days-of-React:我在重新学习React-源码

  2. ## 100天的React #React 100天的第1天 ReactJS是用于构建可重用的UI组件Javascr ipt库。 根据React官方文档,以下是定义- React是用于构建可组合用户界面的库。 它鼓励创建可重用的UI组件,这些组件提供随时间变化的数据。 许多人将React用作MVC中的V。 React从您那里抽象了DOM,提供了更简单的编程模型和更好的性能。 React还可以使用Node在服务器上进行渲染,并且可以使用React Native为本机应用程序提供动力。 React
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:204800
    • 提供者:weixin_42119358
  1. Graphology-App-源码

  2. 语法应用 最初设定 从GCP计算引擎控制台创建免费的VM实例 按照配置gcloud设置 通过使用VM实例页面中控制台中可用的gcloud命令,将SSH SSH到我们的pod中。 确保为HTTP,TCP协议打开了端口80。 安装flask,以及运行我们的推理脚本所需的其他依赖项 克隆文物库 启动服务器。 将目录更改到我们的存储库并运行sudo python3 app.py & 变更部署 将提交从本地系统推送到我们的主分支。 使用控制台中可用的gcloud命令将SSH SSH到我们的pod中。
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:9437184
    • 提供者:weixin_42135753
  1. sentimentDemo-源码

  2. 情感演示 安装 跑 docker-compose up --build 在顶层目录中 该Web服务在localhost:3000下可用 后端 后端在装有Flask的Gunicorn服务器上运行。 它通过一个端点/sentiment实现一个API。 该API接受POST请求,其中正文包含属性text例如: { " text " : " I'm happy to see you! " } 然后,通过Python库NLTK中的情感分析模型对文本进行评估。 它使用VADER(价格意识词典和情感推理器
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:38912
    • 提供者:weixin_42131541
  1. py-smartreply:Google的智能回复(基于AI的聊天建议)Tensorflow Lite模型的Python绑定-源码

  2. Py-Smartreply Google的Smart Reply Tensorflow Lite模型的Python绑定。 这是我之前构建的更干净,更易于部署的版本。 特征: 可以无任何依赖地端对端使用的Python软件包。 使用CMake构建系统构建C ++代码库(早期存储库使用bazel) 自定义Tensorflow Lite操作解析器,可在编译时将C ++运算符绑定到有向无环图。 用Flask编写的Web服务器,用于通过REST API进行推理。 Kubernetes部署配置。
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:5242880
    • 提供者:weixin_42116585
  1. cosmic::snake:实现功能核心和命令性外壳设计。 具有CQRS入口点的六角形体系结构。 领域设计参考DDD模式-源码

  2. 建筑图案 推理 设计这种体系结构设计的基本理由和标准是要回答:“ **我们如何最好地构造应用程序,使其具有独立的,分离的,易于测试的和可维护的抽象?” 功能核心命令式外壳 这项工作的主要灵感来自于,六角形体系结构的以及。 目标是实现: 一个纯净的,隔离的域层,用于实现业务规则; 易于编写,运行和维护的单元测试中全面介绍 将此隔离的域层映射到持久性存储 最大限度地减少集成和端到端测试 解耦并轻松抽象第三方的集成(遵守合理的SRP) 在事件驱动下解耦服务处理程序,这使我们能够迁移到无服务器基础架
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:105472
    • 提供者:weixin_42153801
  1. ECE209AS-AI-ML_CPS-IoT:2021年冬季ECE 209-AS项目-源码

  2. ECE209AS-AI-ML_CPS-IoT 高资源受限对象检测设备的自适应模型流技术分析 团队成员: Riyya Hari Iyer(UCLA 2021电气和计算机工程系) Matthew Nicholas(UCLA 2021电气和计算机工程系) 目录 [结论](#conclusion) [未来工作](#future-work) 介绍 项目提案 该项目将专注于改善计算受限的边缘设备上的实时视频推断。 诸如对象检测,语义分割和姿势估计之类的常见视频推理任务通常使用深度神经网络(DNN)。
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:2048
    • 提供者:weixin_42133452
  1. Iris-Inference-Web-Service:该项目包含用于通过fastAPI接口为在Iris数据集上训练的XGBoost多类分类器提供服务的代码-源码

  2. 虹膜推理网络服务 该项目包含用于为在Iris数据集上训练的XGBoost多类别分类器提供服务的代码,并通过启用了docker的fastAPI接口提供服务,此外还包括pytest单元测试以及通过蝗虫对已部署服务的负载测试。 通过在项目根文件夹中运行以下命令,可以使用pipreqs提取需求: pipreqs --encoding=utf8 ./ 运行网络服务器 cd src uvicorn main:app --port 8006 (--reload) 或使用docker-compose: d
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:49152
    • 提供者:weixin_42119281
  1. Bosque语言:Bosque编程语言是一种规范化设计的实验,用于机器辅助的快速可靠的软件开发生命周期-源码

  2. 波斯语编程语言 博斯克项目 Bosque编程语言项目是一项基础语言与工具协同设计工作,致力于研究以下方面的理论和实践意义: 明确设计一种代码中间​​表示语言(字节码),该语言可以进行深度的自动代码推理并部署下一代开发工具,编译器和运行时系统。 利用中间表示的功能提供一种编程语言,该语言既易于现代开发人员访问,又提供了丰富的有用语言功能集,可用于开发高可靠性和高性能应用程序。 当我们进入基于微服务,无服务器和RESTful架构的分布式云开发模型时,以云开发的第一视角来应对新挑战。 中级代表的
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:1048576
    • 提供者:weixin_42120405
  1. 推理服务器-源码

  2. 推理服务器 ITC练习学习如何将模型(或其他任何东西)部署到PaaS服务器-Heroku
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:675840
    • 提供者:weixin_42138780
  1. Deploying_CNN:用于训练和构建部署机制的样本模型-源码

  2. Deploying_CNN 包含用于训练简单的CNN模型以使用tensorflow在SVHN数据集上进行分类以及通过docker使用kubernetes进行部署的模块。 存储库包含以下模块: 训练一个简单的CNN对SVHN数据集进行分类 根据训练后的模型创建冻结图 使用冻结图创建推理例程。 通过Flask API服务器使用冻结图可以将图像发送到API并获取结果。 使用docker打包并创建可执行文件,该可执行文件将启动Flask推理服务器并创建docker run部署。 使用docke
  3. 所属分类:其它

    • 发布日期:2021-02-10
    • 文件大小:2097152
    • 提供者:weixin_42097557
  1. 服务器:通过可扩展的独立模型推理服务器为生产中的Rubix ML模型提供服务-源码

  2. Rubix服务器 Rubix Server是一个库,用于将您训练有素的模型投入生产。 推理服务器是独立的服务,可在您的专用或公用网络上运行,并将训练有素的估算器包装在一个API中,该API可使用标准协议在本地或通过网络实时查询。 另外,该库提供了异步兼容的客户端实现,用于从PHP应用程序向服务器查询。 针对低延迟预测进行了优化 通过添加更多实例可水平扩展 使用实时分析仪表板进行监控 对常见的攻击和故障模式具有鲁棒性 安装 使用安装Rubix Server: $ composer requir
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:2097152
    • 提供者:weixin_42180863
  1. 多模型服务器:多模型服务器是用于提供神经网络模型进行推理的工具-源码

  2. 多模型服务器 ubuntu / python-2.7 ubuntu / python-3.6 Multi Model Server(MMS)是一种灵活且易于使用的工具,用于服务使用任何ML / DL框架训练的深度学习模型。 使用MMS Server CLI或预配置的Docker映像来启动一项服务,该服务设置HTTP端点以处理模型推断请求。 下面提供了服务和包装的快速概述和示例。 中提供了详细的文档和示例。 加入我们 与开发团队联系,提出问题,了解烹饪内容等等! 本文件内容 其他相关文件
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:2097152
    • 提供者:weixin_42153801
  1. 服务器:Triton Inference Server提供了优化的云和边缘推理解决方案-源码

  2. Triton推理服务器 最新版本:您目前在master分支上,该分支跟踪开发进度到下一发行版。 Triton Inference Server的最新版本是2.5.0,可在分支上。 Triton Inference Server提供了针对CPU和GPU优化的云和边缘推理解决方案。 Triton支持HTTP / REST和GRPC协议,该协议允许远程客户端为服务器管理的任何模型请求推理。 对于边缘部署,Triton可以作为具有C API的共享库使用,该API允许Triton的全部功能直接包含在应用
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:4194304
    • 提供者:weixin_42131633
  1. tensorrt-laboratory:探索TensorRT平台的功能-源码

  2. TensorRT实验室 TensorRT实验室(trtlab)是构建客户推理应用程序和服务的通用工具集。 是专业级的生产推理服务器。 该项目分为4个主要组成部分: memory基于 , memory模块旨在为主机和gpu内存编写自定义分配器。 包括几个自定义分配器。 core包含主机/ ​​cpu端工具,用于基于boost光纤的常见组件(例如线程池,资源池和用户空间线程)。 cuda延伸memory具有用于CUDA设备存储器中的新memory_type。 在所有的自定义的分配memor
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:5242880
    • 提供者:weixin_42166918
« 12 3 »