您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. NVIDIA_CUDA_Programming_Guide_2.0Final

  2. 多核 CPU 和众核( manycore ) GPU 尔性定的应律用,其软并件行,以性利还用会日不益断增扩加展的。处这理给器的我内出们核现带数意来量味了着,严这主峻种流的情处挑况理战正器—如芯片我已们进需入要并开行发时出代可。透此明外地扩,展根并 据行摩 3D 行以支持配备各种数量的内核众核图形应用程序其GPU 。 CUDA 是一种并行编程模型和软件环境,用于应对这种挑战。而对于熟悉 C 程序员来说,迅速掌
  3. 所属分类:C

    • 发布日期:2009-11-05
    • 文件大小:3145728
    • 提供者:fanfanstar19
  1. GPU\CUDA-主导GPU计算的革命

  2. GPU\CUDA-主导GPU计算的革命 回顾显卡的发展,用户对图形计算方面的需求不断的超出了CPU在计算能力方面的发展速度。随着CPU计算能力的进步,人们一度认为可以将图形、视频等需要大量运算的功能都交与CPU完成。但是在3D时代,人们发现庞大的3D图形数据计算量对CPU的负荷,已经远远超出了它所能承担的计算能力。为了满足海量数据的图形计算需求,显示芯片向更高速更复杂发展。终于有一天,当显示芯片实现的计算能力也无法满足快速增长的图形计算需求时,计算功能被脱离出来单独作为一个芯片设计,这就是专门
  3. 所属分类:嵌入式

    • 发布日期:2010-05-07
    • 文件大小:924672
    • 提供者:rennana
  1. CUDA基本介绍中文ppt

  2. 介绍了CUDA和GPU的基本架构、编程方法等
  3. 所属分类:其它

    • 发布日期:2010-05-25
    • 文件大小:3145728
    • 提供者:sobigworld
  1. 学习CUDA与GPU

  2. 初步介绍GPU和CUDA,以矩阵乘法的具体实现为例,分析基于CUDA架构的数据并行计算。
  3. 所属分类:其它

    • 发布日期:2010-10-20
    • 文件大小:7340032
    • 提供者:yingziting
  1. Lammps for GPU 编译手册

  2. Lammps for GPU 编译手册 基础环境RHEL5U3、Nvidia C2050
  3. 所属分类:Linux

    • 发布日期:2011-07-28
    • 文件大小:533504
    • 提供者:ll226100922
  1. CUDA学习笔记(GPU)

  2. 有关CUDA和GPU的学习笔记,包括Visual Studio中的配置、概述、CUDA编程模型等。
  3. 所属分类:硬件开发

    • 发布日期:2012-02-28
    • 文件大小:229376
    • 提供者:idealist5
  1. 风辰的CUDA入门教程

  2. 风辰的CUDA入门教程 ........................................................................................................................ 1 第一章、CUDA的基本内容 ....................................................................................................
  3. 所属分类:硬件开发

    • 发布日期:2012-08-07
    • 文件大小:953344
    • 提供者:nmdwgll
  1. OpenCL CUDA 测试

  2. 有限差分方法求解Poisson方程代码。包括四个主要函数:5、测试平台下的所有OpenCL设备,现实主要性能和参数;2、测试CPU计算效率;3、测试OpenCL C 在GPU上的运行效率;4、测试OpenCL C++在GPU上的运行效率;5、测试CUDA在GPU上的运行效率。 代码相当简单,可以用来简单测试计算平台的性能,也可作为CUDA和OpenCL的入门参考程序。
  3. 所属分类:其它

    • 发布日期:2013-08-21
    • 文件大小:28672
    • 提供者:u011746558
  1. CUDA高性能计算并行编程

  2. 1. CUDA简介 GPU是图形处理单元(Graphic Processing Unit)的简称,最初主要用于图形渲染。自九十年代开始,GPU的发展产生了较大的变化,NVIDIA、AMD(ATI)等GPU生产商敏锐的观察到GPU天生的并行性,经过他们对硬件和软件的改进,GPU的可编程能力不断提高,GPU通用计算应运而生。由于GPU具有比CPU强大的计算能力,为科学计算的应用提供了新的选择。 最早的GPU的开发直接使用了图形学的API,将任务映射成纹理的渲染过程,使用汇编或者高级着色器语言Cg,
  3. 所属分类:C

    • 发布日期:2014-04-11
    • 文件大小:433152
    • 提供者:u011481395
  1. OpenCL CUDA 例子

  2. 有限差分方法求解Poisson方程代码。包括四个主要函数:5、测试平台下的所有OpenCL设备,现实主要性能和参数;2、测试CPU计算效率;3、测试OpenCL C 在GPU上的运行效率;4、测试OpenCL C++在GPU上的运行效率;5、测试CUDA在GPU上的运行效率。 代码相当简单,可以用来简单测试计算平台的性能,也可作为CUDA和OpenCL的入门参考程序。
  3. 所属分类:C++

    • 发布日期:2014-04-18
    • 文件大小:28672
    • 提供者:flyingleo1981
  1. 《高性能编程CUDA实战》原书代码

  2. <>书中各个章节的所有代码,书中用到的所有头文件,以及lib库文件。
  3. 所属分类:C/C++

    • 发布日期:2015-12-10
    • 文件大小:358400
    • 提供者:u013947807
  1. cuda、GPU实现向量相加

  2. cuda、GPU实现向量相加
  3. 所属分类:其它

  1. CUDA、GPU实现图像的sobel、prewitt、均值、中值滤波

  2. CUDA、GPU实现图像的sobel、prewitt、均值、中值滤波
  3. 所属分类:其它

  1. win7+keras2.0+cuda+gtx1070+gpu资源下载

  2. win7+keras2.0+cuda+gtx1070+gpu资源下载及安装过程记录 环境具体配置: 1、windows7专业版 sp1 2、显卡 GTXFORCE 1070 8G显存 3、Anaconda3 ,python 3.5 4、keras 2.0
  3. 所属分类:深度学习

    • 发布日期:2017-10-24
    • 文件大小:474112
    • 提供者:ksco2005
  1. 第十五章_异构运算、GPU及框架选型.pdf

  2. 深度学习训练和推理的过程中,会涉及到大量的向量(vector),矩阵(matrix)和张量(tensor)操作,通常需要大量的浮点计算,包括高精度(在训练的时候)和低精度(在推理和部署的时候)。GPU, 作为一种通用可编程的加速器,最初设计是用来进行图形处理和渲染功能,但是从2007年开始,英伟达(NVIDIA)公司提出了第一个可编程通用计算平台(GPU),同时提出了CUDA框架,从此开启了GPU用于通用计算的新纪元。此后,不计其数的科研人员和开发者,对各种不同类型的算法用CUDA进行(部分)改
  3. 所属分类:深度学习

    • 发布日期:2020-07-27
    • 文件大小:753664
    • 提供者:hkd_ywg
  1. 基于CUDA的GPU并行计算技术实现网课课表编排

  2. https://blog.csdn.net/xinew4712/article/details/109994262 文中所提及的完整源码、真实数据、断点数据、运行日志。
  3. 所属分类:教育

    • 发布日期:2020-11-24
    • 文件大小:2097152
    • 提供者:xinew4712
  1. 浅谈pytorch、cuda、python的版本对齐问题

  2. 在使用深度学习模型训练的过程中,工具的准备也算是一个良好的开端吧。熟话说完事开头难,磨刀不误砍柴工,先把前期的问题搞通了,能为后期节省不少精力。 以pytorch工具为例: pytorch版本为1.0.1,自带python版本为3.6.2 服务器上GPU的CUDA_VERSION=9000 注意:由于GPU上的CUDA_VERSION为9000,所以至少要安装cuda版本>=9.0,虽然cuda=7.0~8.0也能跑,但是一开始可能会遇到各种各样的问题,本人cuda版本为10.0,安装cu
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:40960
    • 提供者:weixin_38735119
  1. CPU、GPU、CUDA,CuDNN 介绍-附件资源

  2. CPU、GPU、CUDA,CuDNN 介绍-附件资源
  3. 所属分类:互联网

  1. CPU、GPU、CUDA,CuDNN 介绍-附件资源

  2. CPU、GPU、CUDA,CuDNN 介绍-附件资源
  3. 所属分类:互联网

  1. pytorch中 gpu与gpu、gpu与cpu 在load时相互转化操作

  2. 问题描述 有时在加载已训练好的模型时,会出现 out of memory 的错误提示,但仔细检测使用的GPU卡并没有再用且内存也没有超出。 经查阅发现原来是训练模型时使用的GPU卡和加载时使用的GPU卡不一样导致的。个人感觉,因为pytorch的模型中是会记录有GPU信息的,所以有时使用不同的GPU加载时会报错。 解决方法 gpu之间的相互转换。即,将训练时的gpu卡转换为加载时的gpu卡。 torch.load(‘modelparameters.pth’, map_location={‘cud
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:44032
    • 提供者:weixin_38663973
« 12 3 4 5 6 7 8 9 10 »