您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. OpenNI自带的类实现手部跟踪

  2. 本文主要介绍使用OpenNI中的HandsGenerator来完成对人体手部的跟踪,在前面的文章Kinect+OpenNI学习笔记之5(使用OpenNI自带的类进行简单手势识别)中已经介绍过使用GestureGenerator这个类来完成对几个简单手势的识别,这次介绍的手部跟踪是在上面简单手势识别的结果上开始跟踪的,这是OpenNI的优点,微软的SDK据说是不能单独对手部进行跟踪,因为使用MS的SDK需要检测站立人体的骨骼,然后找出节点再进行跟踪,不懂最新版本的是否支持这个功能。而此节讲的Op
  3. 所属分类:C++

    • 发布日期:2012-10-11
    • 文件大小:1048576
    • 提供者:wuweigreat
  1. 手的姿势图像库

  2. 来自波士顿大学图像处理的手的图像库,请大家认真看下。有做这方面课题,的确有用啊。
  3. 所属分类:其它

    • 发布日期:2013-05-15
    • 文件大小:6291456
    • 提供者:cdma880769
  1. 论手游新手引导的正确姿势

  2. 论手游新手引导的正确姿势,可以下载参考,欢迎大家下载
  3. 所属分类:其它

    • 发布日期:2014-07-30
    • 文件大小:1032192
    • 提供者:u011945431
  1. 动作捕捉手姿势数据集

  2. 该数据集是用动作捕捉摄像机系统记录12用户连接到一个左手的手套标记执行五手指的姿势。
  3. 所属分类:深度学习

    • 发布日期:2018-10-11
    • 文件大小:13631488
    • 提供者:kdongyi
  1. 向人类学习如何抓取:数据驱动的架构 拟人软手自主抓握

  2. 软手是将顺应性元素嵌入其机械设计中的机器人系统。这样可以有效地适应物品和环境,并最终提高其抓握性能。如果与经典的刚性手相比,这些手在人性化操作方面具有明显的优势,即易于使用和坚固耐用。但是,由于缺乏合适的控制策略,它们在自主控制方面的潜力仍未得到开发。为了解决这个问题,在这项工作中,我们提出了一种方法,可以从观察人类策略开始,使软手能够自主地抓握物体。通过深度神经网络实现的分类器将要抓取的物体的视觉信息作为输入,并预测人类将执行哪些操作来实现目标。因此,此信息用于从一组人类启发的原语中选择一个,
  3. 所属分类:深度学习

    • 发布日期:2019-10-20
    • 文件大小:560128
    • 提供者:qq_16481211
  1. Python-ConvolutionalPoseMachines的Tensorflow实现这是用于2D身体和手部姿势估计的最先进模型之一

  2. Convolutional Pose Machines的Tensorflow实现,这是用于2D身体和手部姿势估计的最先进模型之一
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:24117248
    • 提供者:weixin_39840588
  1. 不止于运动!奇趣智能手环大盘点

  2. 怪咖智能手环大乱斗,我们有特殊的取悦用户技巧!国内市场上目前流行最多的是“运动类”智能手环,小编表示早已经看得厌了。小编这几天特地搜罗了一些来自国内外的,新奇有趣又受欢迎的“怪咖”智能手环,和大家一起张张姿势!
  3. 所属分类:其它

    • 发布日期:2020-08-28
    • 文件大小:320512
    • 提供者:weixin_38703794
  1. seqhand:这是SeqHAND(ECCV 2020)中介绍的合成手部动作生成的实现-源码

  2. 顺序手 这是介绍的合成手部动作生成的实现。 我已经标准化了BigHand批注(每个姿势数据的3D关节坐标),并以MANO顺序对其进行了重新排序。 您需要获取此才能生成手势。
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:5242880
    • 提供者:weixin_42149153
  1. 手定位和手姿势估计的新框架

  2. 手定位和手姿势估计的新框架
  3. 所属分类:其它

    • 发布日期:2021-03-24
    • 文件大小:1048576
    • 提供者:weixin_38614484
  1. PoseRunner:用你的姿势在太空中通过MLH奖学金“奔跑”!-源码

  2. PoseRunner PoseRunner是使用Three.js构建的基于浏览器的无尽赛跑者游戏。 哪里有意志,哪里就有办法! 用你的姿势在外太空的MLH奖学金中“奔跑”! (此外,如果可以的话,请尽量避免障碍:p) 这不仅是常规的亚军游戏,我们还为您添加了一个特别的功能-PoseNet! 使用您的网络摄像头来控制您的角色! 我们分析您的手臂手势。 这样做将触发“正确”。 用另一只手执行此操作^将触发“左”。 这样做将触发“跳转”。 主要特点 只要确保生命安全,玩家就可以无休止地奔跑。在整个
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:8388608
    • 提供者:weixin_42128676
  1. mmpose:OpenMMLab姿势估计工具箱和基准-源码

  2. 介绍 English | MMPose是一个基于PyTorch的开源姿势估计工具箱。它是的一部分。 master分支可与PyTorch 1.3+一起使用。 COCO 17点姿势估计 133点全身姿势估计() 主要特点 支持多种任务 我们支持当前研究领域中广泛的主流人体姿势分析任务,包括2d多人人体姿势估计,2d手姿势估计,2d人脸界标检测,133个关键点全身人姿势估计,时尚界标检测和3d人网格恢复。 更高的效率和更高的精度 MMPose实现了多种最新(SOTA)深度学习模型,包括自上而
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:6291456
    • 提供者:weixin_42162978
  1. 基于模型的深手姿势估计

  2. 基于模型的深手姿势估计
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:1048576
    • 提供者:weixin_38502762
  1. 一种复杂背景下的手跟踪和姿势识别的互变方法

  2. 提出了一种在复杂背景下进行手部跟踪和识别的改进方法。 为了获得更可靠的跟踪结果,在跟踪过程中使用了两种跟踪算法Lucau-Kanade跟踪器和CamShift跟踪器。 Lucas-Kanade跟踪器不仅用于跟踪手,而且其跟踪结果还用于修改CamShift跟踪器。 为了获得更可靠的识别结果,将两个跟踪结果传递到识别模块中,然后对跟踪和识别进行交互修改:结合跟踪结果进行识别,可以减少复杂背景下的干扰,提高识别过程的效率; 同时结合识别结果进行跟踪,可以消除跟踪过程的偏差。 实验表明,与传统跟踪方法相
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:3145728
    • 提供者:weixin_38688371
  1. 基于灵巧手的工业机械手基于Kinect传感器的防撞轨迹规划方法

  2. 本文提出了一种基于Kinect传感器的多手指灵巧手工业机器人防撞轨迹规划方法,该方法用于在动态变化的环境中通过使用数据手套来抓取物体。 数据手套同步收集右手的每个手指的关节角度,并将其转发到轨迹计划控制系统,该系统将右手导航到抓握姿势。 为了有效地计算出具有灵巧手的机械手所需配置的解决方案,LazyPRM算法还用于维护路线图以回答多个计划查询。 为了维持动态变化的环境,Kinect传感器用于检测和跟踪工作空间中出现的移动对象,并更新环境表示以避免碰撞。 障碍物和摄像头之间的距离是通过Kinect
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:1048576
    • 提供者:weixin_38660813
  1. HandTracking:使用TensorRT姿势检测跟踪手-源码

  2. 手部追踪 具有TensorRT姿势检测的跟踪手
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:33792
    • 提供者:weixin_42136791
  1. 最小手枪:最小手的PyTorch重新实现(CVPR2020)-源码

  2. 最小手摇火炬 非官方PyTorch重新实现(CVPR2020)。 该项目重新实现以下组件: 培训(DetNet)和评估代码 形状估计 姿势估计:使用代替原始论文中的IKNet。 官方项目链接: 用法 检索代码 git clone https://github.com/MengHao666/Minimal-Hand-pytorch cd Minimal-Hand-pytorch 使用python依赖项创建和激活虚拟环境 conda env create --file=environmen
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:300032
    • 提供者:weixin_42157567
  1. 浅谈APP设计中便捷的单手操作

  2. 探讨APP的手势操作前,我想先介绍两篇文章来了解用户是如何使用手机的,以及触控屏是如何来感应我们的操作的。StevenHoober在《HowDoUsersReallyHoldMobileDevices?》[1]一文中指出,通过两个月的时间对1333名手机用户在公众场所(街道、机场、汽车站、咖啡馆、火车上、汽车上等)使用习惯的观察得出以下结论:①780名用户是通过滑动、点击、打字等来操作屏幕,其他用户则仅仅是用手机来收听、观看、打电话。②49%的用户通过单手操作,36%一手拿着手机一手操作,另有1
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:869376
    • 提供者:weixin_38718307
  1. AlphaPose:实时,准确的全身多人姿势估计和跟踪系统-源码

  2. 消息! 2020年8月: 发布了! 更强大的追踪! 包括全身(脸,手,脚)要点! 现在可用。 2019年12月:AlphaPose 发布了! 较小的型号,更高的精度! 2019年4月:发布的AlphaPose! 在COCO验证集上,它以23 fps的速度运行。 2019年2月: 集成到现在AlphaPose! 2018年12月:了PoseFlow的! 3倍更快,支持姿态跟踪结果可视化! 2018年9月: 发布了! 它在COCO验证集上以20 fps的速度运行(平均每张图像4.6人),
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:41943040
    • 提供者:weixin_42160278
  1. 基于3D Mesh MoSIFT特征描述符的手部精细动作识别

  2. 大数据时代对精细运动分析(例如手活动识别)的要求越来越高。 但是,在现实情况下,手活动识别会因光照,姿势和遮挡的变化而面临巨大挑战。 深度采集是解决上述问题的有效途径。 本文提出了一个完整的手活动识别结合深度信息框架,用于精细运动分析。 首先,将改进的图形切割方法引入到手的定位和随时间的跟踪中。 然后,结合3D几何特征和手部行为先验信息,提出了3D Mesh MoSIFT特征描述符来表示手部活动的判别性质。 仿真正交匹配追踪(SOMP)用于编码视觉代码字。 实验基于公开的深度数据集(ChaLea
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:1048576
    • 提供者:weixin_38661100
  1. 基于Leap Motion的三维动态手指姿势识别

  2. 为实现基于运动轨迹信息的动态手指姿势的识别,促进人机交互和虚拟现实交叉领域的发展,介绍了一种基于Leap Motion的三维(3D)空间内的指势关键特征点轨迹识别的方法。将Leap motion controller获取的模型化的手部信息经过手部骨架算法提取出手部骨架目标,然后,利用细化算法得到手指直线示意图,并提取指势关键特征点及运动轨迹。利用支持向量机(SVM)对3D基本动态指势进行识别和评估。实验结果表明,该方法能够在较为复杂的3D空间内,即使手部出现自遮挡的情况下,实现动态指势的识别,准
  3. 所属分类:其它

    • 发布日期:2021-02-07
    • 文件大小:3145728
    • 提供者:weixin_38737980
« 12 3 4 »