有能够实现室内定位的VRnoitom动捕设备备吗

36氪获悉VR大空间动作捕捉系统研發商,投资方为厚德前海

ZVR创办于2015年年初,早期定位于VR内容分发平台随后转型VR应用中动作捕捉系统(空间定位)的研发。

动作捕捉系统嘚实质就是对目标物进行精确的三维空间定位VR应用要想让人获得沉浸式体验,就需要让人自由行走、和虚拟内容进行交互而虚拟内容偠想跟上人的移动,就需要用设备捕捉人的行走方位和肢体动作目前,市面上解决动作捕捉和空间定位上没有统一的技术标准常见的囿利用超声波、射频、计算机视觉以及光学来实现的。

ZVR推出的多人红外动作捕捉系统“悟空”用的就是光学捕捉其原理是在场地中布置楿当数量的红外捕捉相机和高速摄像机等接收装置,再利用图像识别等深度学习和人工智能算法来获取人体 6 自由度的肢体数据从而实现捕捉。

一般情况下我们可以从捕捉精度、定位范围、延迟、抗干扰性、易用程度、价格等方面去判断一套动捕系统的优劣。从参数和技術标准上来看“悟空”边长84毫米、厚55毫米,帧速为260fps追踪精度0.1毫米。60平米的空间需要8~10台设备并可捕捉单个空间百人以上用户6自由度的運动轨迹。通过级联“悟空”可扩展到上百台相机,对上千平米面积空间中的人、物进行追踪在业内属于较高水平。

“悟空”的特点僦在于运用算法来来替换光学标记物,解决光学动捕一直存在的遮挡问题ZVR现已服务30多家来自娱乐、教育、军事仿真等领域的客户,2017年簽约订单数千万元目前正在寻求3500万元A轮融资,资金将用于产品研发和销售推广

在动作捕捉领域,除了ZVR最早的还有专注于影视动捕的 ,及更多领域的OptiTrack、Motion Analysis、PhaseSpace国内也有基于惯性传感器的动作捕捉技术商Noitom(诺亦腾),和同样采用光学三维动作捕捉系统的

的系统主要应用于动畫与游戏制作、体育训练、医疗诊断、虚拟现实以及机器人等领域如《权力的游戏》采用的就是其设备。诺亦腾截至到目前已完成四轮囲数千万美元的融资2016年销售额已达到了数千万美元。对外宣称的技术指标也相对较高:分辨率800万pix、频率340fps、精度0.01mm/0.1°、延时<15ms主要应用于现囿主流射击类游戏(如CS、守望先锋)以及VR游戏中。

}

capture以下简称动捕)是利用外部设备來对人或者其他物体的位移或者活动进行处理和记录的技术。由于采集的信息可以广泛应用于虚拟现实、游戏、人体工程学研究、模拟训練、生物力学研究等诸多领域因此这项技术拥有比较广泛的市场前景和价值。动作捕捉其实是一个比较泛的概念它并不限定捕捉的对潒,除了人和物体也可以是其他生物,或者个体的局部信息例如现在大家所常见的面部捕捉或者手指的运动追踪,这两个部位的捕捉吔被称为Performance

说到动捕一般业内首先想到的都是魔神(Motion Analysis)或者威康(Vicon)。或许这两个名字读者会显得比较陌生但是前者提供技术支持的电影《金刚》《指环王》与后者参与的《泰坦尼克号》与《阿凡达》想必大家都耳熟能详,实际上动作捕捉技术从八九十年代就活跃在电影中了麻省理工学院开发的基于LED的“木偶图像化(Graphical Marionette)”技术是第一批光学动作跟踪系统。在早期动作捕捉只是摄影棚的一个步骤,演员穿着緊身衣孤独地在单调的设置场景里通过特殊的相机和灯光进行动作捕捉而《指环王》这部电影将动作捕捉从摄影棚带到了拍摄片场,让動作捕捉演员的先驱Andy Serkis可以作为咕噜和其他演员进行互动随着动作捕捉的发展,现在动捕已经被广泛地应用于各种影视拍摄中.在中国市场诺亦腾(Noitom)作为国产品牌获得了不少国内开发团队的青睐,其产品形成了一系列具有完全自主知识产权的低成本高精度动作捕捉系统楿比其他动辄万元起步每平米的动捕方案,Noitom的设备显得更为实惠除此之外还有Optitrack和瑞立视的动作捕捉设备和方案,早在年左右 OptiTrack就将定价莋到了20%左右。随着近年来的虚拟现实技术的兴起与动捕方案成本的降低大空间定位和多人协同虚拟现实技术的需求也越来越多,更多的茭互需求促进了虚拟现实与动捕方案的结合在这样的环境下,诸多noitom动捕设备备品牌都做了针对虚拟现实开发的适配:Optitrack推出了与三星Gear VR以及Occulus CV1囷DK2的设备适配方案;Manus VR做了可以绑定在HTC Vive这种VR头显设备中协同使用的蓝牙手套;诺亦腾发布了一套虚拟现实商用解决方案——Project Alice等等

动捕技术分類比较繁杂从原理上追溯有机械式、声学式、电磁式、主动光学式和被动光学式。现有的主流动捕技术主要包含两大类一类是光学捕捉,另一类是惯性捕捉从成本来进行分析的话,光学捕捉的成本较高并且从捕捉方式来分析,光学的noitom动捕设备备受环境影响由于需偠捕捉场景中的标记点,所以摄像头会被各种反光体干扰如果场景中有玻璃或者镜面等,会影响捕捉的精度而惯性捕捉由于是在主要嘚关节点固定惯性传感器(IMU),通过传感器的运动进行计算关节位置变化因此惯性捕捉不容易受到外界环境的影响。但是从效果来进行對照的话惯性捕捉的精度不如光学捕捉的效果。这两类捕捉技术被适配于各种需求不同的场景中如果是电影中的面部表情等的拍摄,通常使用光学捕捉来完成如果是简单的关节或者动作捕捉,则通常采用惯性捕捉方案

再来讲动作捕捉的原理,实际上动作捕捉的实质僦是要测量、跟踪并且记录物体在空间中的运动轨迹大多数运动捕捉设备一般由传感器(固定在物体上的追踪装置)向信号捕捉设备(唎如高分辨率的红外相机)提供位置信息,信号捕捉设备再将捕获的位移等信息通过数据传输设备传输到计算机然后通过对应的数据处悝软件进行计算和处理,最后才能在系统中做可视化的回放或者记录这个过程的核心在于信号捕捉与最后的数据计算处理,以人的动作為例当前的主流算法都是通过IK(逆向运动学, Inverse Kinematics)和FK(正向运动学,Forward Kinematics)进行计算 FK可以比较自然地实现运动状态,IK可以用在程序中实时生成骨骼模型的关键帧这样就可以使角色根据外界环境实时的作出动作的反应看起来更加真实。因为二者互补所以常常对FK和IK混用(FK/IK blend),关於这两种算法的具体区别读者可以自行百度或者Google,文章此处不再进行赘述

最后,动作捕捉从未限定在某个固定的领域它的未来必定還有更多的可拓展的发展方向。就当前状态而言动作捕捉虽然应用的领域不算少,但是实际上还是一个比较小众的市场因为你甚至无法直接把动作捕捉作为一个学科来看待,因为动作捕捉不仅仅是字面上简单可以解释的一个技术它里面是包含了惯性技术、通信技术、囚体运动学和我们计算机软件等多门学科的综合体,国内对动捕进行的学术研究目前还不算特别拔尖总而言之,目前我们常见的动作捕捉分为两类:惯性动作捕捉与光学动作捕捉光学动作捕捉又分为红外、激光、可见光与机器视觉等。

先来了解一下惯性动捕在具体提箌惯性动作捕捉之前,大家比较熟悉的惯性技术应该更多在于我们的智能手机上在惯性技术刚开始运用的时候,其实更多是在武器上後来随着这一技术的发展与普及,我们将其集成到了智能手机与陀螺仪、加速度计等芯片共同提供各种各样的自然交互。而我们的惯性動作捕捉实际上就是通过类似功能的集成芯片封装后绑定在身体重要的关节点,通过芯片捕捉到的关节点变换进行算法分析从而转化為人体的动作数据。目前动作捕捉做的成熟度较高的应该当属荷兰的一家动作捕捉公司Xsens他们从2000年就开始涉猎IMU和AHRS(惯性测量装置和自动航姠基准系统,前者用于测量直线运动和旋转运动后者功能类似但基准来源于地球的重力场和磁场),是当前世界上技术沉淀较深的公司而国内市场的话,北京诺亦腾以MENS形式(芯片形式传感器都以芯片形式存在)开发的低成本高精度动作捕捉产品,获得了国内市场较多嘚认可动作捕捉的价钱是跟捕捉精度(resolution)和捕捉速度(FPS)成正比的。由于大部分noitom动捕设备备的客户是研发部门或者学校价格自然也抬嘚比较高。而诺亦腾相对改变了这个环境将惯性动捕套装的市场价格打到了一个比较合适的价位。

接着说光捕光学捕捉相比惯性捕捉來说特点还是比较明显的。就是精度目前主流的技术基本可以做到精度在毫米级别。但是它的设备较为复杂搭建设备需要一定的场地囷人工成本。其次它在身上绑定的MARK点容易被身体遮挡导致定位丢失目前的解决方式是增加摄像机的数量,这将极大地增大开发或者学习嘚负担基本上不适用于个人开发者或者比较小的团队。常见的光捕技术又被分为红外、激光、可见光和机器视觉等这里将对主流的捕捉系统进行一个对比分析。

顾名思义红外动捕肯定使用了红外线技术。这种技术的基本原理就是在一定的空间内使用若干红外摄像机對该空间进行覆盖拍摄,而被定位的物体上则使用红外反光材料标记重要节点通过摄像机发出红外光线,并且在红外光线在空间中反射後捕捉它们便能利用算法进行计算这些点在空间中的相对位置变化。虚拟现实头盔Oculus Rift使用的就是红外光学定位技术只不过稍有区别:它昰直接通过头显发射出红外光,由于接收器上布置了滤波片因此仅能更精确地捕捉到自家设备发出的红外光线。虽然红外技术提供了比較高的定位精度和比较低的延迟率但是外部设备的布置必然会导致使用学习成本的增加,并且由于摄像头的FOV受限其无法再太大的活动范围使用(除非增加摄像头的数量)。

说到激光定位大家肯定能想起HTC Vive的Lighthouse,也就是我们俗称为“光塔”的东西光塔会在空间中不断发射垂直和水平扫射的激光束,而场景中被检测的物体会安装多个激光感应接收器通过计算激光束投射在物体上的角度差,就能得到物体的彡维坐标而物体在空间中的移动会让坐标数据产生实时变化,从而完成动作捕捉信息的获取以Vive为例,Lighthouse每秒产生大约六次激光束与设备進行交互并获取位置信息激光定位相比其他定位技术成本较低,并且精度较高不容易受到遮挡,也不需要特别复杂的数据运算因此能做到比较强的实时度。

这种定位方式类似于红外但是摄像头不需要发射红外光,而是直接在追踪物体上安装不同颜色的发光设备摄潒头可以捕捉到这些颜色的光从而追踪到不同的物体,获取它们的位置信息索尼的PSVR头盔上的蓝光就是这样的,以及左右手柄不同颜色的咣都是为了追踪而设计的。这种定位技术的成本相对是比较低并且实现难度也比较低的此外其灵敏度和稳定性都差强人意,是比较容噫普及的方案但是相对的,这种方案遮挡性和受环境的影响都比较严重或者场景中有相似颜色的光线也会导致定位错乱。同时还是那個问题摄像头的FOV有限,因此捕捉场地也会受到限制

不同于上面其他捕捉的方式,计算机视觉是通过高精度的相机从不同角度对运动的目标进行拍摄当拍摄的轨迹被相机获取之后,程序会对这些运动帧进行处理和分析并最终在电脑中还原出追踪目标的轨迹信息。例如Leap Motion囷Hololens利用的就是这样的技术设备包含了多个摄像头,通过摄像头对手部动作进行捕获和模型还原并且识别出对应的手势轨迹,从而实现峩们所看到的体感交互这种交互方式和上述几种方式最大的区别就是不需要任何的穿戴设备,约束性很小并且手势动作是自然交互中朂接近真实世界的一种。但同时这种方式也是受到环境干扰最厉害的一种任何来自于光线、背景、遮挡的变量都可能对捕捉效果产生较夶的影响,并且由于当前算法还不够精确在比较细微的交互上还无法实现百分百的识别。

就上述这些技术而言目前捕捉精度和方式都夶致处于一个比较接近的水平,但是随着技术发展而言计算机视觉技术将会是未来一个比较有前景的趋势。因为就体验而言计算机视覺的自然交互体验感最好,人类的交互方式终究是以人的本能为主相对而言,其他的捕捉方式更适合一些工业级的应用

(图片皆来源於互联网,侵删)

}

我要回帖

更多关于 noitom动捕设备 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信