文件名称:
drost2010CVPR中文翻译版.pdf
开发工具:
文件大小: 1mb
下载次数: 0
上传时间: 2019-07-16
详细说明:Model Globally, Match Locally: Efficient and Robust 3D Object Recognition 中文翻译 ;原网页为:http://campar.in.tum.de/pub/drost2010CVPR/drost2010CVPR.pdfHash table
I1. n
A
(m1,m2)
F
i.11
m;,
(Key to
(ms, m6)
F1=m2
hash table
图2.(a)两个定向点的点对特征F.分量F1被设置为点F2和F3与法线和由两点定义的矢量之间的角度的距离,并彐F4设置为两
个法线之间的角度。(b)全球模型描述。左:模型表面上的点对具有相似旳特征向量F.右:这些点对存储在哈希表的相同槽
中
模型。
m,mM模型表面上。以d和d=2r/m的步
在离线阶段,创建全局模型描述。在在线阶段,选长分别对距离和角度进行采样。然后将离散版本相等
择场景中的一组参考点。场景中的所有其他点都与参的特征向暈组合在一起。
考点配对以创建点对特征。这些特征与全卮模型摧述
全局模型描述是从采样点对特征空间到模型的映射。
中包含的模型特征相匹配,并检索一组潜在匹配。每形
式上,我们可以将此映射写为L:z4AM2,其中四维
个潜在的匹配通过使用有效的投票方案来投票对象姿
点对特征在等式1中定义。图↓中的1被映射到定义相等
势,其中姿势相对于参考点被参数化。该投祟方案最
侍征向量的所有对(m,m)M2的集合A.为了说明这
终返回最佳对象姿势。
点,图2(b)示出了在单全对象上具有相似特征的
我们首先介绍点对特征,然后描述如何使用这些点对刈的示例。它们被收集在集合A中。实际上,该模型
特征构建全局模型描述。然后我们详纸描述投票方案。
楠述表示为由釆样特征F索引的哈希表。所有模型特征
Fa(m,m)与给定类似然后,通过使用F作为访问哈
点对特征
希表的密钥,可以在恒定时间内搜索场景特征F。(s,
我们的方法使用点对特征来描述两个定向点的框对
位置和方向,这类似于[17,23]中的小瀑布对特征,如
投票方案
图2(a)所示。对于具有法线和n的两个点m和m,
我们设置d=m2m1并将特征F定义为
局部坐标我们考虑场景中的任意参考点sS,并假设
它位于我们试图检测的对象上。如果假设是正确的
F(m,m)=(斗∠(n,d,∠(n,d),∠(n,n),
那么存在对应于s的点mM在对产这两个点及其法线
其中∠(a,b)[0:x表示两个矢量之间的角度。与
与之后,可以围绕s的法线,旋转对象,以使模型与场景
23]相反,我的特征F是不对称的。我们使用此功能对齐。这消除了场景中模型姿势的另一自由度。因此,
来创建全后模型描述以及稍后
可以通过模型上的点和旋转角α来描述从模型空间到
用于在场景中找到感兴趣的对象。
场景空间的刚性运动。我们将这样的一对(m,a)
称为模型相对于参考点s的司部坐标
全球模型描述
在我们的方法中,点对(m,m)M与场景对(s
s)S2对齐,其中两对具有相似的特征矢量F.从局部
要在高线阶段构建全局模型拖述,我们使用上述点对模型坐标到场景坐标的变换由下式定义
特征。该模型由一组点对特征表示,其中相似的特征向
量被组合在一起。为此,我们计算方程的特征向量F.(1)
Si =TsIg)R (a) Ta-eMi
对于所有点对
模型。对于每个匹配(m,m),即对于模型表面上的
(s,s;)的每个可能位置,使用等式1计算旋转角度
x。2,对应于映射(m,m)到(s,s)的局部坐标,
如图3所示。对局部坐标行投票(m,α)。图4概
述了投票过程。
在处理所有点s之后,累加器阵列中的峰值对应于
最佳局部坐标,从该最佳局部坐标可以计算全局刚性
运动。出于稳定性原因,使用相对于最大峰值获得
定数量投票的所有峰值。
高效的投票循环为了获得高效的物体检测算法,我们
现在将展示如何有效地实施上述投票方案
Ts
加快解决方程式对于列表中的每个点对,我们将α分
→g5
m-gllr-
711
成两部分,∝a,使得a,和x仅依赖于模型和场景
上的点对
图,模型和场景坐标之间的转。两个点双具有框似的特征分别。我们分裂R,()=R、(-a)R(2)并使用
员杰貲要线碳到轴1m8tans
7s-g对场景点对做同样的事情。自图像
R-1(-a)=R2(a)得到
Si和m的未对准,旋转Rx(α)围绕
雳要具有角度α的x轴来匹配它们。
t
Rx//T
R.(am)TnM1·RH0
注意,局部坐标有三个自由度(一个用于旋转角度α,
即,t位于由x轴和y轴的非负部分限定的半平面上。对
两个用于模型表面上的一个点),而3的一般刚性于模型或场景中的每个点对,t是唯一的。因此,对于
运动有六个。
离线阶段中的每个模型点对,可以预先计算α。,并
将其存储在模型述筏中。对于每个场景点对(s,
投票方案给定固定参考点s,我们希皇找到“最佳”局
),αs仅需要计算一次,并且最终角度x是这两个
部坐标,使得场景中位于模型上的京数最大化。这是使值的单差异
用投票方案完成的,该投票方案类似一广义霍夫变换并
旦非常有效,囚为局部坐标仅具有三个自由度。一日找
姿势聚类
到最佳卮部坐标,就可以恢复对象的全同姿势。
如果参考点位于对象的表面上,则上述投票方案识
对于投票方案,创建二维累加器阵列。行数Ⅴ等于别对象姿势。因此,需要多个参考点以确保其中一个
模型釆样点M的数量。列数N对应于旋转角α的采样
位于搜索对象上。如上一节所示,每个参考点返回
步数n。该累加器阵列表示固定参老点的局部坐标组可能的对象姿势,这些姿势与其累加器数组中的峰
的离散空间。
值相对应。由于场景和模型的不同采样率以及局部坐
对于实际投票,参考点s与来自场景的每个其他点标中的旋转采样,检索到的姿势将仅接近地面实况。
sS配对,并且在墓型表面搜索具有相似的点对(m,我们现在引入一个额外的步骤,既可以滤除不正确的
m)距离和法线方向为(s,s)。这个搜索回答了模
姿挾,又可以提高最终结果的准确性。
型在哪里可以得到一对场景点(s,s)的问题,并使
为此,对所检索的姿势进行聚类,使得一个聚类中的
用预先计算的模型描述来执行:特征Fs(s,s;)被计
异不超过
算并用作全局模型插述的哈希表的天键,它返回一组、集的分数是所包含姿势的分数的总和,并且婆势的分数
是其在投票方案中所获得的投票数。在找到具有最大分
数的聚类之后,通过对聚类中包含的姿势求平均来计算
得到的姿势。由于对象的多个实例可以在场景中,因此
可以返回多个簇
①
i
F(Sr, Si)
Model Description
Accumulator Space
图4投票方案中不同步骤的可视化:(1)参考点sr与每个其他点s对,并计算它们的点对特征F.(2)特征F与全局模型描述
匹配,全局模型描述返回模型上具有相似距离利方向的一组点对(3)。对于与场景中的点对匹配的模型上的每个点对,通过求
解s=TR3(α)T-m来计算卮部坐α。(4)在计算α之后,对局部亼标(m,α)进行投票。
方法。姿势聚类通过去除具有低分数的孤立姿势来增
加算法的稳定性,并且平均步骤增加了最终姿势的准
峭性。
结果
我们针对大暈合成和真实数据集评估了我们的方法
并测试了算法的性能,效率和爹数依赖性。
对于所有实验,通过将d设置为相对于模型直径
d=τ d diam(M)来对特征空间走行采样。默认情况
下,采样率τ设置为0.05。这使得参数独立于模型
大小。对n=采样正常方向
图5.实验中使用的模型。顶行:Mian等人的场中的五个物
这允许相对于高达12的正确正常取向的正常取向的变体。[110。请注意,犀牛被排除在匕较之外,如原始论
化。对模型和场景厶进行二次采烊,使得所有点都具
文中所述。从左到右的下抹:来自我们的Camp和Cros
有最小距离d子采样场景中的1/5点用作参老点。
Shaft,以及来自[22]的 Stanford Bunny。
重新采烊点云后,通过洛平面拟合到每个点的邻域来
重新计算法线。该步骤确保法线对应于采样水平并避加快匹配次数。所有给定的时间测量整个匹配过程,
免细微细节的问颗,例如表面上的皱纹。除非另有说
包括场景子采样,正常计算,投票和姿势聚类。注意,
明,否则以相同的方式对场景和模型进行采样,并且
姿势没有通过例如ICP[26]来改进,这将进一步提高
将相同的参数用于所有实验。
检测率和准确度。为了构建全卮模型摧述,使用了二
我们将展示我们的算沄具有优越的性能,并允许在速次采样模型云中的所有点对。每个型号的构造需要几
度和识别率之间轻松权衡。该算法采用Java实现,所有
分钟。
基准测试均在配备1 GB RAM的2.00 GHz Intel core duo
T7300上运行。尽管在各种级别上并行化我们的方法很笸
合成数据
单,但我们为所有时序运行了单线程版本。我们假设C
++和并行化的实现会很明显
我们首先针对大量合成生成的三维场景评估算法。我
们选择了图5的四个模型,TRex,Chef,Buny和 Clamp,
以生戌合成场景。所选模型展示3不同的几何形状。
0.8
0.2
012345
图6.具有单个对象的人工场景的结果。(a)在每个点上添
加加性高斯噪声的点云(σ=模型直径的5%)。兔子的姿势
在0.96秒内恢复。(b)在所有200个测试场景中对高斯噪声
的检测率。
*素
0.6
在第一组实验中,使用仅包含单个对象的场景,并
且测量了关于噪声的性能。上述四个物体中的每一个
0.4
都是从50个不同方向渲染的。这导致200点云,然后被
32秒/对象(3|/0
0.76秒对象(S、/10)
加性高斯噪声破坏,并且相对于物体的直径给岀标准
0.35秒(|S40
70.75
推导。这是在子
采样步骤。我们对识别率感兴趣,
图7.(a)50个合成场景中的一个,检测到的对象覆盖为彩
剧成功找到对象的场景的数量,以及恢复的姿势的准色线框。姿势是我们的方法的结果,没
确性。如果所得姿势相对于地面实况的误差小于某个CF。(b)具有多个对象的仑成场景的挡识别率。参考点
预定阈值,则定义对象被检测。在我们的实验中,阈的数量是S|/5,S/10和
值设置为diam(M)/10用于平移,12)用于旋转。图6S「/40分别
示出了示例场景和识别率
在第二组实验中,渲染了50个人造场景,每个场景
遗漏的物体大多是高度遮挡的物体
包含来自上面使用的四个对象的四到九个随机放置的9%的物体有超过15%的可见表面,
对象。这意味着一个对象的多个实例可以出现在一个
对于S/40参者点,发现
汤景中。总共有37个物体被放置在50个动崇中。我们72%的所有对象和89.1%的对象超过15%。但是
测量了算法在遮挡方面的性能,在真实数据的情况下
后一种设置大约快4倍。从实验中可以明显看出,在速
也测量了杂乱性。使用了每个对象卖例定义的[7用于度和性能之闫存在权衡。可以以不检测具有高遮挡的
遮挡和[0]用于杂乱的定义
病态物体的代价來实现明显更快的匹配。
遮挡=1
场景中的模型表面区域_
总模型表面积
真实数据
杂乱=1场景中的愎型表面区域
我们现在将结果呈现在真实数据上。我们首先提出定
场景总面积
暈评估并与之前的作品迕行比较,然后在我们使用激光
二次采样场景叩的平均瓜数为S1690.我们使用场
扫描仪获得的场景中显示定性结果。
景的1/5,1/10和1/40作为参者点,运行算法三次。
囟7示出示例场景和识别率。识別率和执行时间都取定量评估我们的方法是根据Mia等人提供的数据集进
决于使用的参考点数暈。对于S′5参考点,正确检测行评估的。[10,11],由 Minolta系列扫描仪拍梫的50
到89.3%的所有对象
个场景组成。每个场景包含图5中所示的兵有已知地面
实况的四个或五个对象。在原始比较中
儿子,犀牛被排除在外,因为旋转图像无法在任何场
景中检测到它。我们做了同样的事情,可以直接与
前的工作进行比较。使用我们的方法在每个场景中搜
索每个对象,然后将来自姿势聚类的具有最佳得分的
姿势与基础事实进行比较。我们用不同的采烊率
进行了两次检测,以测试其对检测率和运行时间的影
响。图8(a)和8(b)示出了具有结果的示例场景。
图8(c)显示了我们两次运行的结果与自旋图像的数
据和来自10的张量匹配的比较。设萱自旋图像的参
数以产生最大性能,从而导致非常大的运行时间。
对于τ=0.025,我们的方法的运行速度与Mian等
人的 Tensor Matching一样快。对于具有小于84%遮挡
的所有对象,识别率略微增加至97.0%,而张量匹配
为96.6%,白旋图像为87.8%。相对于84%边界的值8
取自[10],并给出了可比性。我们方法的主要优点是
可能在速度和识别率之间进行权衡:对于τd=0.04,
0.6
对于遮挡率低于84%的物体,我们的识别率下降到
89.2%。但是,匹配速度提高了40多倍,每个对象实
例的时间不到2秒。识别率仍然超过旋转图像的识别率。
我们的万法,t=0.025(85秒/ob1)二
Mian等入的张量匹配。(90秒/obj)
关于杂波的识别率是相似的。请注意,对于我们尝试
1ahn和ebet的旋转图像(2时/bi
我们的方法,τ-0·04(97秒/obj
在场景中识别的一个对象,所有其他刘象都被视为混
定性结果为了显示我们的算法与真实数据的性能,我
们使用自建激光彐描设置拍提了许多场景。其中两个爸0
场景和检测结果如图1和图9所示。我们故意不对获取
的点云进行任何后处理,例如异常值去除和平滑。尽
管场景中存在大量杂乱,遮挡和噪音,但物体仍然匹
我们的方法,℃0.02b(8秒/—世一
oi)我们的方法.(t0,04(1.9
配。由此产生的姿势对于对象操纵似乎足够准确,例
%杂乱
如抬取和放置应用程序。
图8.(a)来自Mian等人的数据集的示例场景。[10
使用我们的方法识别结果。找到场景中的所有对象。结
5结论
果没有改讲。(c)与50个场景中[10中措述的结果相比
我们方法的遮挡识别率。采样迩为τd=0.025,绿色曲线为
我们个绍了一种高效,稳定,准确的方法,可以在点S5参考点,τ。-0.04,浅蓝色曲线为S/10参考点。
云中找到自由形状的三维物体。我们构建了一个对象的(d)我们的方法灯杂乱的识别率。
全局表示,导致独立于局部表面信息,并表明局部缩小
的搜索空间导致非常快速的匹配。我们在大量合成和真
实数据集上测试了我们的算法。与传统方法的比较表明参考
识别率方面的改进。我们证明,通过轻微甚至不牺牲识
PJ Besl和 RC Jain三维物体识别。 ACM Computing Surveys
另性能,我们可以实现显着的速度提升。
(CSUR),17(1):75-145,1985
RJ Campbel1和 PJ Flyn。自日形式对象的调查
IK Park. Mo Germann. MD BreitensteinTOH. Pfister
GPU上的范围图像的快速和自动对象姿势估计。机器视
觉和应用,第1-18页,
年
. Rabbani和V) Heave。高效的君夫变换用于点云中汽
缸的自动检测。在第1届计算机和影像高级学院年会
(ASCI05)的会议录,第3卷,第60-65页,2005年
Ns/Raja和 AK Jain。识别适用于范围数据的
superquadrics中的 geons c Image and Vision
ng,10(3):179-190,19
S. Ruiz-Correa, LG Shapiro和M.Meil。一种从范围
数据中识别三维牣体形状的新范例。在Prc。诠释。
CONF。计算机视觉,第1126-1133页。Cite-seor,2003。
RB Rusu,NBl0dwM. Beetz。用于3配准的快速点
特征直方图(FPFH)。在IEE国际机器人与自动化会议
图9.使用激光扫描仪拍摄的杂乱,嘈杂的场景。检测到的兴
论文集(ICRA),日本神户,2009年
兵显示为彩色线框。
R. Schnabel,R。Wahl和R. Klein。高效的 RANSAC用于
点云形状检测。在 Computer Graphics Forur,第26卷,
表征和识别技术。计算机视觉与图像理解,81(2)
第214-26页。 Citeseer,2007
166-210,2001。
Y. Shan, Bo Matei, Ho Sawhney, Ro Kumar, Do Huber, and
H.Chen和B. Bhanu。使用局部表面贴片在范围图像中
M.赫伯姞。线性模型散歹和批量 ransac,可快速准确地
进行3D自由形状对象识别。 Pattern Recognition
识别物体。在IEE计算机协会计算机视觉和模式识别会
Letters,28(10):1252-1262,2007。
议上,第2卷.IE计算机学会;1999年,2004年。
F. Stein和G. Medioni。结构索引:高效的3-D对象识别。
CS Chua和R. Jarvis.。点签名:3d对象识别的新表示。
模式分析和机器智能, IEEE Transact ions o,14(2)
玉际计算机视觉杂志,25(1):63-85,1997。
125-145,1992
C. Dorai和 AK Jain。 COSMOS-3D自由形式对象的表示
Y.Sum,J。laik,A。 Koschan,Dage和 Ma Abidi。点指
方案。 IEEE Transactions on Pattern Analysis and
纹:一种新的三维对象表示方案。 IEEE Transactions on
Machine Intelligence, 19(10): 1115-11230, 1997.
Systems, Man, and Cybernetics, Part B, 33(4): 712
N. Gelfand, NJ Mitra,LJ( rumbas和H. Pot tant。强
717,2003
大的全球注册。在第三届 Eurographics几何处理研讨会
G.Tmk和 M. Levoy来自范围图象的拉链多边形格。
论文集中,第197页. Eurographics Association,2005。
参见第21届计算机图形学和交互技术年会,第318
ae Johnson和M. Hebert。使用旋转图像在杂乱的3D场
页.ACM,1994
景中进行有效的物体识别。 IEEE Transactions on
E. Wahl, Go Hillenbrand*0G. Hirzingero Surflctxy
Pattern Analysis and Machine Intelligence, 21
关系直方图:用于快速分类的统计3d形状表示。在3D数
(5):433-449,1999
字成像和建模,2003年.3DIM2003.会议录。第四次国
D. Katsoulas。通过约束霍夫变换来稳健地提取距离图
际会议,第474-481页,2003年。
傢中的顶点。计算机科学讲义,第360-369页,203年。
JY wang和 FS Cohen。第二部分:使用b样条,形状不变
G. Mamic和M. Bennamoun。3D自由形式对象的表示和识
匹配和神经网络从图像轮廓进行三维物体识别和形状估
別。数字信号处理,12(1):47-76,2002。
计。 IEEE Transactions on Pattern Analysis and
AS Mian,M。 Bennamoun和R.0wcns。基于三维模型的
Machine Intelligence, 16(1):13-23, 1994.
对象识別和杂舌场景中的分割。关于模式分析和机器智
T. Zaharia和. Preteux。基于u变换的三维网格检索。在
能的IEE交易,28(10):1584-1601,2006
Pro。 SPIE Conf。446在 Vision geometry x上,第175-185页,
AS Mian,M。 Bennamou和R.0wens。关于从杂乱场景
2001年
中基于同部特征的三维物体检索关键点的可重复性和质
∠. Zhang。用于自由曲线配准的迭代点匹配。诠释。
量。国际计算机视觉杂志,第1-14页,2009年。
Comp。Vis,7(3):119-152,1994。
As Mian,M。 Bennamoun和 RA Owens。3D建模的自动对
应:广泛的评论。 International Journal of Shape
Modeling,11(2):253,2005。
(系统自动生成,下载前可以参看下载内容)
下载文件列表
相关说明
- 本站资源为会员上传分享交流与学习,如有侵犯您的权益,请联系我们删除.
- 本站是交换下载平台,提供交流渠道,下载内容来自于网络,除下载问题外,其它问题请自行百度。
- 本站已设置防盗链,请勿用迅雷、QQ旋风等多线程下载软件下载资源,下载后用WinRAR最新版进行解压.
- 如果您发现内容无法下载,请稍后再次尝试;或者到消费记录里找到下载记录反馈给我们.
- 下载后发现下载的内容跟说明不相乎,请到消费记录里找到下载记录反馈给我们,经确认后退回积分.
- 如下载前有疑问,可以通过点击"提供者"的名字,查看对方的联系方式,联系对方咨询.