您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. GPU计算之CUDA编程实例源码

  2. GPU计算之CUDA编程实例源码, VS环境....
  3. 所属分类:C

    • 发布日期:2011-09-26
    • 文件大小:4194304
    • 提供者:jy_wang06
  1. GPU高性能编程CUDA实战源码

  2. GPU高性能编程CUDA实战源码,完整的源码
  3. 所属分类:C

    • 发布日期:2015-12-03
    • 文件大小:344064
    • 提供者:xxffggab
  1. 《GPU高性能编程CUDA实战》源码

  2. 《GPU高性能编程CUDA实战》源码
  3. 所属分类:C

    • 发布日期:2016-09-20
    • 文件大小:306176
    • 提供者:w09103419
  1. 《CUDA By Example》中文译名《GPU高性能编程CUDA实战》 源码

  2. 《CUDA By Example》中文译名《GPU高性能编程CUDA实战》 源码 包括 book.h cpu_anim.h cpu_bitmap.h gl_helper.h gpu_anim.h glext.h glut.h
  3. 所属分类:深度学习

    • 发布日期:2017-09-21
    • 文件大小:345088
    • 提供者:tlm414
  1. C-and-C-plus-plus:CC语言,C ++语言的一些学习示例以及学习经历,值得学习与记录。OpenCVfor CPP,数字图像处理DIP,深度学习CUDA加速,GPU编程-源码

  2. C / CPP语言项目 CUDA_CPlusPlus 使用C / C ++开发CUDA加速Nvidia GPU编程 OpenCV-CPP 适用于C ++的OpenCV 2.x API OpenCV OpenCV学习示例和CMake 21days_CPlusPlus 21天学通C ++(第8版) PrimerC-plus-plus_exercises 经典书籍PrimerC ++练习答案 基本C ++ 经典书籍Essential C ++练习答案 学生管理系统 学生信息管理系统 版本1
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:16777216
    • 提供者:weixin_42100971
  1. CodeBERT:CodeBERT-源码

  2. CodeBERT 此存储库提供了用于重现的实验的代码。 CodeBERT是用于编程语言的预训练模型,它是在6种编程语言(Python,Java,Javascr ipt,PHP,Ruby,Go)上的NL-PL对上预训练的多编程语言模型。 相依性 点安装火炬 点安装变压器 奇克之旅 我们使用huggingface / transformers框架来训练模型。您可以像训练有素的Roberta基础一样使用我们的模型。现在,我们给出一个有关如何加载模型的示例。 import torch from tra
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:48234496
    • 提供者:weixin_42122881
  1. how-to-read-pytorch:通过五个colab笔记本快速,直观,原则性地介绍pytorch代码-源码

  2. 大卫关于如何阅读火炬的技巧 这五个python笔记本是对pytorch核心习语的插图说明。单击下面的命令在Colab上运行它们。 :用于在CPU或GPU上处理n维数字数组的表示法。 :如何获得关于任何张量输入的任何标量的导数。 :使用自动渐变梯度更新张量参数以减少任何计算目标的方法。 :pytorch如何表示神经网络以方便组合,训练和保存。 :用于大型数据流的高效多线程预取。 Pytorch是一个数值库,可以非常方便地在GPU硬件上训练深度网络。它引入了一个新的编程词汇表,它比常规
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:588800
    • 提供者:weixin_42102933
  1. pytorch-NMF:一个用于非负矩阵分解的pytorch软件包-源码

  2. PyTorch中的非负矩阵组合 PyTorch不仅是一个很好的深度学习框架,而且还是矩阵操作和大数据卷积方面的快速工具。 一个很好的例子是 。 在此程序包中,我基于torch.nn.Module在PyTorch中实现了NMF,PLC​​A及其反卷积变化,因此可以在CPU / GPU设备之间自由移动模型并利用cuda的并行计算。 模组 NMF 基本的NMF和NMFD模块使用乘法更新规则将beta差异最小化。 乘数是通过torch.autograd获得的,因此减少了代码量并且易于维护。 该界
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:1048576
    • 提供者:weixin_42120563
  1. CyberRadio:Based基于SDR的FMAM桌面无线电。 通过#cuSignal和Numba加速-源码

  2. :radio: Cyber​​Radio 适用于台式机的基于SDR的FM / AM收音机应用程序。 与SoapySDR支持的大多数SDR兼容。 基于模块。 通过函数在具有CUDA的GPU上加速。 特征 :radio: 收听带有立体声支持的宽带FM和AM电台。 :fast-forward_button: 热插拔SDR,而无需关闭应用程序。 :computer_mouse: 可编程的频率快捷键(Ctrl +左键单击)。 :package: 零安装预编译的二进制软件包。 :laptop: 高
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:657408
    • 提供者:weixin_42165018
  1. oneAPI-DirectProgramming-源码

  2. oneAPI直接编程 该存储库包含用于评估oneAPI直接编程的数据并行程序的集合。 每个程序均以CUDA,SYCL和OpenMP-4.5目标卸载编写。 英特尔:registered:DPC ++兼容性工具(DPCT)可以CUDA程序转换成在其中存储管理迁移所使用的显式和受限制的统一共享内存扩展(DPCT USM)或DPCT头文件(DPCT头)实现的SYCL程序。 实验 我们比较了Intel集成GPU上每个程序的SYCL,DPCT生成的和OpenMP实施的性能。 下面的性能结果是通过。 “入队总
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:186646528
    • 提供者:weixin_42135753
  1. cuda-programming-assignment-part-4-bonus-wang3638:GitHub Classroom创建的cuda-programming-assignment-part-4-bonus-wang3638-源

  2. ECE 695 CUDA编程第4部分(奖金) 蒂姆·罗杰斯教授TA:Abhishek Bhaumick 到期日为2021年5月8日 介绍 这部分的说明很简单:获取在​​前3个实验中创建的计算内核,并使用它们从中创建AlexNet。 提醒您,AlexNet [[1]]的体系结构如下。 尝试尽可能优化整个AlexNet流程-考虑到要花费多长时间,在CPU上对其进行验证将非常困难。 因此,只需测量不同批次大小的AlexNet的完整执行时间并生成报告即可。 完成此操作将给您带来可观的信誉,现在您可
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:285696
    • 提供者:weixin_42131890
  1. Performace-optimizing-in-Diagonal-Matrix-Multiplication:我们必须减少对角矩阵乘法的执行时间。 我们可以使用许多概念,例如循环展开,循环嵌套优化等-源码

  2. 在对角矩阵乘法中执行优化 我们必须减少对角矩阵乘法的执行时间。 我们可以使用许多概念,例如循环展开,循环嵌套优化等。 问题陈述 输入:两个N * N矩阵。 N = 2 ^ {K},其中K是自然数。 输出:长度为2N-1的数组。 样本输入/输出: 我必须执行的三个主要活动: 单线程DMM(CPU):将DMM视为单线程,可以减少DMM的执行时间。 在这部分中,我学到了很多概念,例如循环嵌套优化。 多线程DMM(CPU):使用C ++中的pthreads库在多线程中实现了以上部分。 检查了
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:1024
    • 提供者:weixin_42126668
  1. cuda-programming-assignment-part-4-bonus-vishruthys:cuda-programming-assignment-part-4-bonus-vishruthys由GitHub Classroom

  2. ECE 695 CUDA编程第4部分(奖金) 蒂姆·罗杰斯教授TA:Abhishek Bhaumick 到期日为2021年5月8日 介绍 这部分的说明很简单:获取在​​前3个实验中创建的计算内核,并使用它们从中创建AlexNet。 提醒您,AlexNet [[1]]的体系结构如下。 尝试尽可能优化整个AlexNet流程-考虑到要花费多长时间,在CPU上对其进行验证将非常困难。 因此,只需测量不同批次大小的AlexNet的完整执行时间并报告即可。 完成此操作将给您带来可观的信誉,现在您可以声
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:285696
    • 提供者:weixin_42119281
  1. CUDA编程-源码

  2. CUDA编程
  3. 所属分类:其它

    • 发布日期:2021-02-21
    • 文件大小:11534336
    • 提供者:weixin_42165583
  1. CUDA编程运动-源码

  2. CUDA编程运动
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:1024
    • 提供者:weixin_42165712
  1. fynv.github.io:Fei Yang的项目的主页-源码

  2. 谁是fynv 杨飞,NVIDIA前GPU软件工程师。 现在在我朋友的初创公司工作。 我的博客 跨语言边界编程GPU 本文试图说明一个事实,即NVRTC +动态实例可以成为构建GPU库的强大CUDA编程范例,该库可以从支持C / C ++互操作的任意语言中重用。 这就是我的“基于NVRTC的GPU库”系列项目的动机。 光线追踪-GPU解决和不解决的问题 正如我最近淘汰NVIDIA一样,现在我有更多的自由谈论不仅仅是GPU的积极方面。 我的专案 VkInline 用于访问Vulkan的计算/
  3. 所属分类:其它

    • 发布日期:2021-02-08
    • 文件大小:45088768
    • 提供者:weixin_42099936
  1. cuml:cuML-RAPIDS机器学习库-源码

  2. cuML-GPU机器学习算法 cuML是一套套件,用于实现机器学习算法和数学原语功能,这些功能与其他项目共享兼容的API。 cuML使数据科学家,研究人员和软件工程师能够在GPU上运行传统的表格ML任务,而无需深入了解CUDA编程的细节。 在大多数情况下,cuML的Python API与API匹配。 对于大型数据集,这些基于GPU的实现可以比其CPU等效完成速度快10-50倍。 有关性能的详细信息,请参阅《 。 例如,以下Python代码段使用cuDF在GPU上加载输入并计算DBSCA
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:38797312
    • 提供者:weixin_42151305
  1. CUDAnative.jl:Julia对本机CUDA编程的支持-源码

  2. CUDAnative.jl:Julia对本机CUDA编程的支持
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:211968
    • 提供者:weixin_42104778
  1. CUDA.jl:Julia中的CUDA编程-源码

  2. CUDA.jl:Julia中的CUDA编程
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:1048576
    • 提供者:weixin_42128676
  1. backend.ai:Backend.AI是简化的基于容器的计算集群协调器,它承载各种编程语言和流行的ComputingML框架,并具有可插拔的异构加速器支持,包括CUDA和ROCM-源码

  2. 后端 Backend.AI是简化的基于容器的计算集群协调器,它承载各种编程语言和流行的计算/ ML框架,并具有可插拔的异构加速器支持,包括CUDA和ROCM。 它按需或使用可自定义的作业调度程序批量分配和隔离基础计算资源,以供多租户计算会话使用。 它的所有功能都以REST / GraphQL / WebSocket API的形式公开。 服务器端组件 如果要自己运行Backend.AI群集,则需要安装和配置以下服务器端组件。 LGPLv3许可所有服务器端组件,以促进开源社区中的非专有开放式创新。
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:279552
    • 提供者:weixin_42142062
« 12 3 »