您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 深度官方系统MD5值

  2. 曾经深度官方网站推出的一系列封装系统MD5值,方便核对...
  3. 所属分类:其它

    • 发布日期:2009-05-17
    • 文件大小:2048
    • 提供者:lopianove
  1. 深度优先和广度优先(有源程序)

  2. 程序能直接运行,绝对正品程序源代码。 #include #include #include #include int visited[10];/*访问标志数组*/ typedef struct ArcCell{ int adj;/*顶点关系类型,用1表示相邻,0表示不相邻*/ }ArcCell,**AdjMatrix;/*邻接矩阵*/ typedef struct type{ char da ta[3];/*顶点值*/ struct type *next;/*顶点的下一个指针*/ }Verte
  3. 所属分类:其它

    • 发布日期:2009-05-30
    • 文件大小:2048
    • 提供者:lvyinde
  1. 值类型和引用类型的区别

  2. 值类型和引用类型的区别: 似乎“值类型和引用类型的区别”是今年面试的流行趋势,我已然是连续三次(目前总共也就三次)面试第一个问题就遇到这个了,这是多大的概率啊,100%. 言归正传,咱还是先来探讨探讨这二者之间有什么区别吧。记得有一次电话面试中,我直接跟面试官说:“值类型是现金, 引用类型是存折”,后来想想当时说这话虽是有点儿冲动地脱口而出,但也没什么不妥。我这人不善于背理论的教条,喜欢把书本上那些生硬的话跟现实生活中常见 的事物联系起来理解和记忆。 直白点儿说:值类型就是现金,要用直接用;引
  3. 所属分类:C#

    • 发布日期:2009-12-24
    • 文件大小:37888
    • 提供者:hexiang221
  1. Kinect+OpenNI获取深度图和颜色图

  2. 网上有不少使用Qt做界面,OpenNI为库来开发kinect。或许大家的第一个问题就是询问该怎样使用Kinect来获取颜色信息图和深度信息图呢?这一节就是简单来回答这个问题的。 使用OpenNI读取颜色图和深度图的步骤如下(这个是程序的核心部分):   1. 定义一个Context对象,并 调用该对象的Init()方法来进行初始化。   2. 定义一个XnMapOutputMode格式对象,设置好分图像分辨率和帧率。   3. 定义颜色图和深度图的节点对象,并用其Create()方法来创建,参
  3. 所属分类:C++

    • 发布日期:2012-09-27
    • 文件大小:1048576
    • 提供者:wuweigreat
  1. OpenGL深度值+AABB包围盒

  2. 读OpenGL深度值并结合AABB包围盒做的拣选,但总没成功,请帮忙看看
  3. 所属分类:C++

    • 发布日期:2013-11-11
    • 文件大小:863232
    • 提供者:liuhailong520
  1. kinect深度图的平滑

  2. 有些像素的深度值为0的,我们希望除去这样的像素,但是又不会影响精度和数据的其他特性。此方法可用于实时平滑
  3. 所属分类:C++

    • 发布日期:2016-11-16
    • 文件大小:175104
    • 提供者:jiaojialulu
  1. 双边滤波处理后的深度图生成的txt文件

  2. 双边滤波处理后的深度图(图像大小640*480,深度值范围0~2.226)生成的txt文件
  3. 所属分类:C++

    • 发布日期:2017-07-20
    • 文件大小:1048576
    • 提供者:u012306391
  1. R200单击左键输出深度值

  2. R200单击深度视频流左键输出对应像素点的深度值
  3. 所属分类:C++

    • 发布日期:2017-08-11
    • 文件大小:2048
    • 提供者:jiangjiao4726
  1. matlab代码,可将三角网格网格转换成深度图,深度值是由三维点的z值计算而来

  2. matlab代码,可将三角网格网格转换成深度图,深度值是由三维点的z值计算而来
  3. 所属分类:机器学习

    • 发布日期:2018-05-14
    • 文件大小:6144
    • 提供者:rlczddl
  1. 光场深度估计源代码及自制数据集

  2. 本代码对应文献:Yingqian Wang, Jungang Yang, Yu Mo, Chao Xiao, and Wei An, "Disparity estimation for camera arrays using reliability guided disparity propagation," IEEE Access, vol. 6, no. 1, pp. 21840-21849, 2018. 本文采用了基于置信度传播优化的深度估计算法,在估计深度的同时评估置信度,并基于置信度
  3. 所属分类:VR

    • 发布日期:2018-05-26
    • 文件大小:30408704
    • 提供者:weixin_38490884
  1. kinectV2.0深度图像与彩色图像的坐标映射

  2. 二代深度图:512*424,彩色图:1920*1080。项目就是实现对于深度图上的一个像素,找到彩色图上的一个像素与之对应,在一个窗口中显示,而且通过鼠标获得视频中像素点的坐标以及对应的深度值。
  3. 所属分类:C++

    • 发布日期:2018-06-26
    • 文件大小:23068672
    • 提供者:qq_37791134
  1. Python中最大递归深度值的探讨

  2. 今天小编就为大家分享一篇关于Python中最大递归深度值的探讨,小编觉得内容挺不错的,现在分享给大家,具有很好的参考价值,需要的朋友一起跟随小编来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-19
    • 文件大小:78848
    • 提供者:weixin_38546789
  1. Python中最大递归深度值的探讨

  2. Python对递归函数设置是有默认值。 可以通过下面命令来查看设置的默认值 >>> import sys >>> sys.getrecursionlimit() 3000 查看该函数的帮助文件就更清晰了: >>> help(sys.getrecursionlimit) Help on built-in function getrecursionlimit in module sys: getrecursionlimit(...) get
  3. 所属分类:其它

    • 发布日期:2020-12-26
    • 文件大小:84992
    • 提供者:weixin_38576229
  1. 高级OpenGL-深度测试

  2. OpenGL-Depthtest 1. 深度测试 深度测试被启用时,将该片段的深度值与深度缓冲中的深度值比较,如果测试通过则更新缓冲中的深度值。深度测试在片段着色器运行后,模板测试之后进行。并且仅对屏幕空间中的片段进行深度测试。 片段着色器里gl_FragCoord中的x和y分量代表片段在屏幕中的坐标,z分量就是与深度缓冲值对比的深度值。 深度测试在OpengGL中默认是禁用的,因此需要手动启用它 glEnable(GL_DEPTH_TEST); 片段的深度值没有通过测试的话,这个片段会被丢弃
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:173056
    • 提供者:weixin_38528680
  1. 基于时空相关的贝叶斯密集深度估计框架

  2. 深度视频对于动态3D视频的表示至关重要,而动态3D视频是快速增长的3D视频应用程序的基础。准确性和时间一致性问题是深度视频研究的主要关注点。在以前的工作中,具有全局优化的立体声匹配方法可以生成准确且密集的深度视频。然而,全局优化是计算密集型的,并且在优化过程中难以获得时间一致性。在本文中,提出了一种贝叶斯框架来以有效的方式生成精确的和时间上一致的密集深度视频。首先,使用来自不同视点的3D视频中的空间和时间相关性来生成深度候选,然后通过提取的特征进一步测量这些相关性。这些特征被用来估计我们的贝叶斯
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:917504
    • 提供者:weixin_38508497
  1. Simple-PNG-Creater:从rgb像素数据文件创建8位rgb样本深度值的PNG文件-源码

  2. (目前,仅在Windows中有效) 从RGB像素数据文件创建简单的8位RGB采样深度值PNG文件。 用法示例; sampleImageDataFile: 0x10 0x15 0x25 0x10 0x15 0x25 0x10 0x15 0x25 0x15 0x45 0x50 0x15 0x45 0x50 0x15 0x45 0x50 0x20 0x30 0x40 0x20 0x30 0x40 0x20 0x30 0x40 在外壳中:pngCreater.exe sampleImageDa
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:65536
    • 提供者:weixin_42131890
  1. 基于二维彩色图像和深度图的复杂三维场景的计算全息图

  2. 提出了利用二维彩色图像和深度图生产计算菲涅耳全息图的方法。把二维彩色图像按深度图分为多层物面信息,并把每层物面深度值转换为菲涅耳衍射距离。根据层析法原理,采用单步菲涅耳衍射算法,即可得到三维场景的计算全息图。研究结果显示该方法可以正确地对复杂三维场景进行全息图的记录和再现。利用强度叠加法对再现像进行散斑去除,提高了再现三维图的质量。
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:4194304
    • 提供者:weixin_38628953
  1. 基于深度图像利用随机森林实现遮挡检测

  2. 提出了一种新颖的利用随机森林检测深度图像中遮挡现象的方法。该方法从一幅深度图像中提取每个像素点的遮挡相关特征,利用随机森林分类器检测每个像素点是否为遮挡边界点,得到图像中的遮挡边界。主要贡献在于:提出了一种新的遮挡相关特征深度值离散度特征,同时引入高斯曲率特征,并将它们与现有特征相结合来检测遮挡边界;以特征重要性和特征提取时间为衡量标准,对深度图像中的各遮挡相关特征进行了分析评估,在此基础上,选取平均深度差、最大深度差、平均曲率、高斯曲率和深度值离散度5种特征用于设计遮挡检测分类器;一种新的遮挡
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:4194304
    • 提供者:weixin_38716460
  1. 融合特征点密度与边缘信息的场景深度估计

  2. 通过分析特征点密度与物点聚焦程度的关系,建立基于特征点密度的聚焦测度。将融合特征点密度与边缘信息建立新的聚焦测度,利用聚焦堆栈数据实现场景深度的估计与全聚焦成像。对于由边缘信息建立的聚焦测度在图像纹理区域存在不准确性,该方法可以有效地弥补这一缺点。将刻画边缘信息的Sum-Modified-Laplacian(SML)方法与特征点密度函数相融合建立新的聚焦测度,用于三维场景重构,实现了场景深度估计和全聚焦成像算法。实验结果表明,新方法有效地剔除了SML在纹理区域估计错误的深度值,保留了SML在边缘
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:20971520
    • 提供者:weixin_38696090
  1. 基于红外与雷达的夜间无人车场景深度估计

  2. 单目红外图像的深度估计是夜间无人车场景理解的关键, 针对夜间无人车场景的深度估计, 提出一种基于深度卷积-反卷积神经网络的深度估计方法。将红外图像和雷达距离数据作为深度卷积-反卷积神经网络的输入, 并将深度估计问题转化为像素级分类任务进行深度估计模型的训练。将雷达的距离数据根据深度值的范围量化为与红外图像像素一一对应的离散值并对其做标记, 然后训练过程采用分类的思想解决深度估计问题。实验结果表明, 利用训练得到的深度估计模型对夜间无人车获取的红外图像进行深度估计的时间为0.04 s/frame,
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:5242880
    • 提供者:weixin_38687904
« 12 3 4 5 6 7 8 9 10 ... 50 »