析:身体以及各个关节点的位置定义了一个姿势。更具体的来说,是某些关节点相对于其他关节点的位置定义了一个姿势。 姿势的类型和复杂度决定了识别算法的复杂度。 通过关节点位置的交叉或者关节点之间的角度都可以进行姿势识别。
通过关节点交叉进行姿势识别就是对关节点进行命中测试。
我们可以确定某一个关节点的位置是否在 UI 界面上某一个可视化元素的有效范围内。我们可以对关节点做同样的测试。 但是需要的工作量要少的多,
因为所有的关节点都是在同一个坐标空间中, 这使得计算相对容易。 例如叉腰动作(hand-on-hip) ,
可以从骨骼追踪的数据获取左右髋关节和左右手的位置。然后计算左手和左髋关节的位置。如果这个距离小于某一个阈值,就认为这两个点相交。那么,这样就变得
简单多了。
但是,由于Kinect的精度问题,但即使通过一些平滑参数设置,从 Kinect
中获取的关节点数据要完全匹配也不太现实。另外,不可能期望用户做出一些连贯一致的动作, 或者保持一个姿势一段时间。 简而言之,
用户运动的精度以及数据的精度使得这种简单计算不适用。 因此, 计算两个点的长度, 并测试长度是否在一个阈值内是唯一的选择。角度原理也与之类似。
当两个关节点比较接近时, 会导致关节点位置精度进一步下降,
这使得使用骨骼追踪引擎判断一个关节点的开始是否是另一个关节点的结束点变得困难。比如,很难将手放在脸的前面,手放在头上,
和手捂住耳朵这几个姿势区分开来。 要摆出一个确切的姿势也很困难, 用户是否会按照程序显示的姿势来做也是一个问题。
一些姿势使用其他方法识别精度会更高。例如,用户伸开双臂和肩膀在一条线上这个姿势,称之为 T
姿势。可以使用节点相交技术,判断手、肘、以及肩膀是否在 Y
轴上处于近乎相同的位置。另一种方法是计算某些关节点连线之间的角度。骨骼追踪引擎能够识别多达20个关节点数据。任何三个关节点就可以组成一个三角形。使用三角几何就可以计算出他们之间的角度。
20的sdk里 最基本的 不就是Bones Vertex吗。。骨骼点都有了 在Unity里 指定一下骨骼点不就好了,算骨骼点坐标的脚本 一搜有都是,要不自己算也成 kinect的骨骼点位置倒还好算,旋转比较恶心一点而 是用四元素算的。
SDK 安装
kinect 是输入。类似鼠标 即时动态捕捉、影像辨识、麦克风输入、语音辨识
Kinect 是一组传感器的组合,包含一个彩色摄像头,一对深度摄像头(一个用以发射红
外,一个用以接收) ,一组麦克风阵列和底座马达。
彩色摄像头想必大家都已经很熟悉了。深度摄像头是由红外线提供的,返回画面上每个
点的深度值(离 Kinect 的距离,单位是 mm,标称精度约 5mm) 。麦克风阵列其实是数个水平放置的麦克风,因为彼此间有距离,所以可以识别说话人的方向,借此粗略估计是哪个玩家在说话,便于想象的话可以理解为类似声纳图(声音我们不涉及)。
读取彩色数据流,可以获得一张1080p的(19201080);
犹如拍照应用
看SDK自带示例
Color Depth D2D 彩色数据流
和许多输入设备不一样,Kinect 能够产生三维数据,它有红外发射器和摄像头。 Kinect SDK 从红外摄像头获取的红外数据后,对其进行计算处理,然后产生景深影像数据。
深度帧数据中,每个像素占 16 位,即每一个像素占 2 个字节。每一个像素的深度值只占用了 16 个位中的 13 个位。
获取每一个像素的距离很容易,但是要直接使用还需要做一些位 *** 作。如上图所示,深度值存储在第 3 至 15 位中,要获取能够直接使用的深度数据需要向右移位,将游戏者索引(Player Index)位移除
看SDK自带示例
Depth Basics-D2D 深度数据流
05-45米
25个关节点 每个关节点的 3D空间坐标和转向
看SDK自带示例
Body Basics D2D 骨骼数据流
示例:
Color Depth D2D 彩色数据流
Depth Basics-D2D 深度数据流
Coordinate Mapping Basics 扣出人物,置换背景
Body Basics D2D 骨骼数据流
Kinect 如果你的是XB那个~我只能告诉你~win10貌似才能用20~而且要准备转接线~还有三个驱动~mmd也要有带Kinect 插件的版本才行~顺带~只能捕捉到大体的骨骼部位~像是一些稍微细微的地方~没用
以上就是关于C#编程 人体关节坐标获取全部的内容,包括:C#编程 人体关节坐标获取、unity 结合kinect2.0如何做到动作识别。、Kinect结合Unity基础使用(一)等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)