Openpose实操(一)
一,OpenPose项目Github链接:https://github.com/CMU-Perceptual-Computing-Lab/openpose
二,windows源码下载地址:
源码下载
下载第一个推荐版。
三,下载训练好的caffe模型文件
百度云盘上供大家下载使用:
链接:https://pan.baidu.com/s/1qNB-AZFRL0JeTAmAL_xPSA 密码:t9uu
四,模型测试:
OpenPose 提供了基于Body,Hand,Facial 等关键点估计的模型,及相应的在 Videos,Wecam,Images 等测试数据的 Demo。
Image
bin\OpenPoseDemo.exe --net_resolution "64x64" --image_dir examples\media\ --face --hand
video
bin\OpenPoseDemo.exe --video examples/media/video.avi
# With face and hands
bin\OpenPoseDemo.exe --video examples/media/video.avi --face --hand
Webcam
bin\OpenPoseDemo.exe
# With face and hands
bin\OpenPoseDemo.exe --face --hand
五,最大精度配置
# Body
bin\OpenPoseDemo.exe --net_resolution "1312x736"
--scale_number 4
--scale_gap 0.25
# Body + Hand + Face
bin\OpenPoseDemo.exe --net_resolution "1312x736"
--scale_number 4
--scale_gap 0.25
--hand
--hand_scale_number 6
--hand_scale_range 0.4
--face
注[1] - 增加 --net_resolution 尺寸,虽然精度增加,但会导致帧速率(frame rate) 明显减少,延迟性增加. 然而,这种增加精度的方法不是对于所有场景都是一定可行的,需要特定场景特定分析. 如,对于图像中非常小的人体,其比较有效,但对于图像中人体所占比例比较大的场景,其效果一般较差. 因此,OpenPose 推荐采用以上命令行来获得在大部分场景获得最大精度,同时包括大的人体和小的人体的场景.
注[2] - 不要在 MPII 模型使用该命令行配置. 其精度会因多尺度(multi-scale) 设置而降低. 该配置仅适用于 COCO 和COCO-extended(如默认的 BODY_25) 模型.
六,人体追踪Tracking
[1] - 牺牲精度,最大实时运行速度:
# Using OpenPose 1 frame, tracking the following e.g., 5 frames
bin\OpenPoseDemo.exe --tracking 5 --number_people_max 1
[2] - 保持较高精度,实时运行速度:
# Using OpenPose 1 frame and tracking another frame
bin\OpenPoseDemo.exe --tracking 1 --number_people_max 1
[3] - 视觉平滑 Visual Smoothness:
# Running both OpenPose and tracking on each frame.
# Note: There is no speed up/slow down
bin\OpenPoseDemo.exe --tracking 0 --number_people_max 1
七,可视化某个 Body 部分
如果需要可视化某个 Body 部分,或 PAF(Part Affinity Field) Heatmap,可以采用 --part_to_show 参数
上一篇: Restful API实战以及接口测试
下一篇: 测试用例的设计方法