您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 精通Direct3D图形与动画程序设计 08_第八章 深度测试与Alpha混合.rar

  2. 第8章 深度测试与Alpha混合 1、ZTest 演示深度测试的使用。程序运行时按下数字键“1”启用深度测试,按下数字键“0”,则禁用深度测试。 2、AlphaBlend 演示使用Alpha混合实现半透明效果。程序运行时按下数字键“1”,启用Alpha混合,按下数字键“0”,则禁用Alpha混合。 3、VertexAlpha 演示直接为顶点颜色设置Alpha值。程序运行时按下数字键“1”,启用Alpha混合,按下数字键“0”,则禁用Alpha混合。 4、TextureAlpha、 演示通过纹理
  3. 所属分类:C++

    • 发布日期:2009-10-02
    • 文件大小:404480
    • 提供者:yangbin762003
  1. 值类型和引用类型的区别

  2. 值类型和引用类型的区别: 似乎“值类型和引用类型的区别”是今年面试的流行趋势,我已然是连续三次(目前总共也就三次)面试第一个问题就遇到这个了,这是多大的概率啊,100%. 言归正传,咱还是先来探讨探讨这二者之间有什么区别吧。记得有一次电话面试中,我直接跟面试官说:“值类型是现金, 引用类型是存折”,后来想想当时说这话虽是有点儿冲动地脱口而出,但也没什么不妥。我这人不善于背理论的教条,喜欢把书本上那些生硬的话跟现实生活中常见 的事物联系起来理解和记忆。 直白点儿说:值类型就是现金,要用直接用;引
  3. 所属分类:C#

    • 发布日期:2009-12-24
    • 文件大小:37888
    • 提供者:hexiang221
  1. 深度图(word文档)

  2. 获取场景中各点相对于摄象机的距离是计算机视觉系统的重要任务之一.场景中各点相对于摄象机的距离可以用深度图(Depth Map)来表示,即深度图中的每一个像素值表示场景中某一点与摄像机之间的距离.机器视觉系统获取场景深度图技术可分为被动测距传感和主动深度传感两大类.被动测距传感是指视觉系统接收来自场景发射或反射的光能量,形成有关场景光能量分布函数,即灰度图像,然后在这些图像的基础上恢复场景的深度信息.最一般的方法是使用两个相隔一定距离的摄像机同时获取场景图像来生成深度图.与此方法相类似的另一种方
  3. 所属分类:其它

    • 发布日期:2011-08-09
    • 文件大小:675840
    • 提供者:ejec7879
  1. Kinect+OpenNI获取深度图和颜色图

  2. 网上有不少使用Qt做界面,OpenNI为库来开发kinect。或许大家的第一个问题就是询问该怎样使用Kinect来获取颜色信息图和深度信息图呢?这一节就是简单来回答这个问题的。 使用OpenNI读取颜色图和深度图的步骤如下(这个是程序的核心部分):   1. 定义一个Context对象,并 调用该对象的Init()方法来进行初始化。   2. 定义一个XnMapOutputMode格式对象,设置好分图像分辨率和帧率。   3. 定义颜色图和深度图的节点对象,并用其Create()方法来创建,参
  3. 所属分类:C++

    • 发布日期:2012-09-27
    • 文件大小:1048576
    • 提供者:wuweigreat
  1. 深度图(Depth Map)

  2. 获取场景中各点相对于摄象机的距离是计算机视觉系统的重要任务之一.场景中各点相对于摄象机的距离可以用深度图(Depth Map)来表示,即深度图中的每一个像素值表示场景中某一点与摄像机之间的距离.机器视觉系统获取场景深度图技术可分为被动测距传感和主动深度传感两大类.被动测距传感是指视觉系统接收来自场景发射或反射的光能量,形成有关场景光能量分布函数,即灰度图像,然后在这些图像的基础上恢复场景的深度信息.最一般的方法是使用两个相隔一定距离的摄像机同时获取场景图像来生成深度图.与此方法相类似的另一种方
  3. 所属分类:讲义

    • 发布日期:2016-08-12
    • 文件大小:675840
    • 提供者:u011771047
  1. 使用ros_bridge获取深度数据

  2. 监听ROS图像信息话题,将图像转换为cv::Mat并在其上画圆,用opencv显示图像。并输出深度值。
  3. 所属分类:深度学习

    • 发布日期:2017-11-09
    • 文件大小:20480
    • 提供者:yang__jing
  1. 鼠标获取OpenGL模型的坐标

  2. Name: ReadDepth Desc: 通过读取Z Buffer深度值将屏幕2D坐标转化为场景3D坐标 操作:点击鼠标左键,在标题栏上会显示深度值和转化后的场景3D坐标
  3. 所属分类:其它

    • 发布日期:2009-01-16
    • 文件大小:60416
    • 提供者:u011819029
  1. kinectV2.0深度图像与彩色图像的坐标映射

  2. 二代深度图:512*424,彩色图:1920*1080。项目就是实现对于深度图上的一个像素,找到彩色图上的一个像素与之对应,在一个窗口中显示,而且通过鼠标获得视频中像素点的坐标以及对应的深度值。
  3. 所属分类:C++

    • 发布日期:2018-06-26
    • 文件大小:23068672
    • 提供者:qq_37791134
  1. 数据爬虫(单一深度).py

  2. 测井领域自动读测井值软件,如果有大量测井数据需要读值,则只需将需要读值的井名和深度保存在一个excel文件下,然后指定测井数据所在的文件夹,运行本程序,即可实现自动获取测井值,大大方便人员操作
  3. 所属分类:Python

    • 发布日期:2019-09-20
    • 文件大小:5120
    • 提供者:aabbcccddd01
  1. 基于点火源模型反演测算煤矸石山着火点深度研究

  2. 针对传统煤矸石山自燃过程中深部着火位置不明,且缺乏简单有效安全的测定着火点深度方法等问题,以简单稳态线性模型理论为基础,基于单点火源模型的反演方法,建立了煤矸石山着火点深度反演的数学模型。通过计算表面特征温度点之间的温度比值,采用拟合逼近真实值的方法进行数值求解,得到煤矸石山着火点深度。应用该方法对王庄煤矿煤矸石山南坡着火点深度进行测算,结果表明,其与钻孔测温得出的着火点深度相比误差为13 cm,可以满足煤矸石山自燃防治的需求,为判定煤矸石山自燃时着火点深度的获取提供了新思路。
  3. 所属分类:其它

    • 发布日期:2020-04-21
    • 文件大小:924672
    • 提供者:weixin_38746701
  1. 详解angularjs获取元素以及angular.element()用法

  2. 本文介绍了详解angularjs获取元素以及angular.element()用法 ,分享给大家,具体如下: addClass()-为每个匹配的元素添加指定的样式类名 after()-在匹配元素集合中的每个元素后面插入参数所指定的内容,作为其兄弟节点 append()-在每个匹配元素里面的末尾处插入参数内容 attr() – 获取匹配的元素集合中的第一个元素的属性的值 bind() – 为一个元素绑定一个事件处理程序 children() – 获得匹配元素集合中每个元素
  3. 所属分类:其它

    • 发布日期:2020-12-09
    • 文件大小:51200
    • 提供者:weixin_38599430
  1. HTMD | 从PDB文件获取3D特征描述符

  2. KDEEP是使用深度学习(CNN)进行亲和力预测的预测器。 关于这篇文章,我发现了一个新的名为HTMD(高通分子动力学)的python库。 我真的不擅长从头算或MD计算等计算领域。 因此,我无法评估该库的实际价值,但我认为它对Comp Chemist很有用。 HTMD可以从Anaconda的acellera通道安装,但要有一些依赖性。 或者可以从github的源代码构建。 感兴趣的功能之一是“Voxel描述符”。 体素表示三维空间中规则网格上的值。 与2D空间中的像素相同。 这意味着HTMD可
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:111616
    • 提供者:weixin_38745361
  1. AWR 报告深度解读:Time Model Statistics 信息的计算和获取

  2. 导读:在 AWR 报告中,Time Model Statistics 记录了数据库用户维度(User Calls)的总时间消耗分布。这部分信息来自:SYS.DBA_HIST_SYS_TIME_MODEL ,是通过针对前后两个采样点的差值计算得来的。 在 AWR 报告中,Time Model Statistics 记录了数据库用户维度(User Calls)的总时间消耗分布。 这部分信息来自:SYS.DBA_HIST_SYS_TIME_MODEL ,是通过针对前后两个采样点的差值计算得来的。 计算
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:214016
    • 提供者:weixin_38656662
  1. Halcon 深度学习分类模型介绍

  2. Halcon提供了预训练网络。这些网络在使用前已经经过丰富的图像库训练过,在此基础上训练出的网络对于图像分类任务表现更好。接下来分别介绍Halcon提供的预训练网络。 pretrained_dl_classifier_compact.hdl模型 网络的优点是节省内存以及运行效率高。 模型支持‘real’图像类型。如果想知道网络模型各参数值,可以使用算子get_dl_classifier_param获取,下面列举的部分参数是预训练网络使用图像数据集训练时的值。 图像宽度:224 图像高度:224
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:54272
    • 提供者:weixin_38639615
  1. 基于统计分布的HEVC帧内编码预测单元深度选择

  2. 新的视频编码标准HEVC相对于H.264具有更好的压缩性能,但代价是大大增加了计算复杂性。 它采用编码树结构,并为每个编码单元(CU)和预测单元(PU)实现分区和模式确定。 对于帧内编码,应搜索从64x64到4x4的5个级别的PU,并且每个PU从35个候选模式中选择一种最佳模式,这会占用大量计算资源。 因此,减少用于PU的级别的数量,即,PU深度选择,是降低帧内编码复杂度的有效方式。 在本文中,我们充分研究了不同大小的像素块的方差与PU的最佳划分之间的关​​系。 结果表明,方差分布的第90个百分
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:362496
    • 提供者:weixin_38692122
  1. AC-Gym:适用于OpenAI Gym环境的PyTorch中流行的ActorCritic深度强化学习算法-源码

  2. 该存储库结合了来自三个来源qv的代码,以获取详细信息: Pack Publishing的第19章 斯科特·藤本的 马克斯·拉潘(Max Lapan)的 我使用此存储库的目标是将所有这些算法集中在一个地方,并具有简单,统一的命令行界面和最小的外部依存关系( , )。 快速开始 python3 td3-learn.py --target -500 这将在默认环境( )上运行算法,直到达到-500的平均奖励(在我的Asus Predator Helios笔记本电脑上大约需要23秒)。 程
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:41984
    • 提供者:weixin_42153793
  1. nDPId:基于Tiny nDPI的深度包检查守护程序工具包-源码

  2. 抽象的 nDPId是一组用于捕获,处理和分类网络流的守护程序和工具。 它只有libnDPI(> = 3.3.0)和libpcap依赖项(除了现代的C语言库和POSIX线程外)。 核心守护程序nDPId使用pthread,但出于性能原因,确实使用了互斥锁。 而是通过分组分配机制来实现同步。 为了平衡所有工作负载(或多或少)的所有线程,使用5元组计算哈希值。 此值用作处理线程的唯一标识符。 多线程数据包处理必须是流稳定的。 nDPId使用libnDPI的JSON序列化生成有意义的JSON输
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:507904
    • 提供者:weixin_42135462
  1. 基于双频相移的机器视觉自适应照明测量方法

  2. 为了解决机器视觉测量中, 由被测物体表面结构差异或反射率不同而引起的视觉质量问题, 提出一种新型的基于投影仪-相机系统的自适应照明方法。该方法采用双频光栅条纹, 可以结合高低频相移方法的特点进行相位解包, 因而比传统单一频率的条纹进行解包相位精度更高, 能够提升测量过程中所必须获取深度值的精度。同时, 该方法利用彩色图像多通道的特点, 不同通道处理不同频率的条纹光栅, 相较于黑白图像测量的方法速度提升一倍。所提出的双频相移自适应照明方法, 可以满足机器视觉测量中的高精度高速度需求, 提升机器视觉
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:9437184
    • 提供者:weixin_38548817
  1. 结合同场景彩色图像的深度图超分辨率重建

  2. 针对飞行时间相机获取深度图像分辨率低, 并受成像噪声干扰的问题, 提出一种插值深度图和高分辨率彩色图像联合约束的二阶广义全变分(TGV)深度图超分辨率重建方法。首先利用传统插值和多尺度形态学方法进行预处理, 获取插值深度图的梯度信息, 然后将插值深度图和同场景高分辨率彩色图像两者的梯度信息联合, 对二阶TGV模型中的正则化项加以优化: 计算各项异性扩散张量时结合插值深度图的梯度信息; 引入由插值深度图梯度信息决定的加权因子, 控制重建过程中扩散强度。最后通过原始对偶算法完成深度图的超分辨率重建。
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:4194304
    • 提供者:weixin_38576922
  1. 基于红外与雷达的夜间无人车场景深度估计

  2. 单目红外图像的深度估计是夜间无人车场景理解的关键, 针对夜间无人车场景的深度估计, 提出一种基于深度卷积-反卷积神经网络的深度估计方法。将红外图像和雷达距离数据作为深度卷积-反卷积神经网络的输入, 并将深度估计问题转化为像素级分类任务进行深度估计模型的训练。将雷达的距离数据根据深度值的范围量化为与红外图像像素一一对应的离散值并对其做标记, 然后训练过程采用分类的思想解决深度估计问题。实验结果表明, 利用训练得到的深度估计模型对夜间无人车获取的红外图像进行深度估计的时间为0.04 s/frame,
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:5242880
    • 提供者:weixin_38687904
« 12 3 4 5 6 7 8 9 10 »