瑞芯微Rockchip开发者社区
登录
直播中
剑寒九州
9年用户
654经验值
私信
关注
[经验]
如何对基于RK3399的OPENPOSE进行开发设计呢
RK3399
USB摄像头
OpenCV
HDMI
1.快速上手
1 准备3399pro
开发板
一块,USB摄像头一个,usb键盘,usb鼠标,hdmi显示屏,网线
2 连接USB摄像头到3399pro开发板,连接鼠标键盘,连接显示器,连接网线,接通
电源
3 模型下载,建议在PC上做
若报cv2.dnn错误,这是opencv版本低的问题,需要升级opencv到3.4.1以上版本(不包含3.4.1), 若报" ValueError: not enough values to unpack (expected 3, got 2) "这是原脚本问题,需要将代码"_, contours, _ = cv2.findContours"改为"contours, _ = cv2.findContours"
python3 mul
ti
-person-openpose.py为可选操作,报错不影响后续运行
4 修改pose/coco/pose_deploy_linevec.prototxt文件,注销前5行代码,新增一个layer层,如下图所示
5 下载并解压附件,将附件中的所有文件(5个文件)拷贝到到OpenPose-Multi-Person目录下
6 python3 rknn_transfer.py进行模型转换,模型转化比较耗内存建议先设置swap大于2G
7 拷贝OpenPose-Multi-Person目录到开发板,以下操作在开发板运行
8 安装rknn-toolkit及其依赖库,按照wiki教程安装环境
9 安装gstreamer包
10 python3 test_rnetCam.py(单人)或者python3 multi-person-openpose_rknn-cam.py(多人)
2.概述
VGG-19用于生成特征值。每个stage对应一个身体部位,branch1用于生产Confidence Maps,branch2用于生产PAF(Part Affinity maps )
Input: [1x3x368x368](输入的数据format是nchw,bgr格式)
Output: [1x57x46x46](输出数据前面部分是身体部位的Confidence Maps ,后面部分是PAF)
3.代码解析
├── pose_deploy_linevec_pre_compile.rknn.rknn //转换之后的rknn模型
├── dataset.txt //量化的数据集
├── p1_368_368.jpg //用于量化的图片
├── multi-person-openpose_rknn-cam.py //使用rknn进行推理,以及后处理(多人)
├── test_rnetCam.py //使用rknn进行推理,以及后处理(单人)
└── rknn_transfer.py //用于将caffe模型转换为rknn模型
rknn_transfer.py
multi-person-openpose_rknn-cam.py
原作者:
我是流氓我怕谁
更多回帖
rotate(-90deg);
回复
相关帖子
RK3399
USB摄像头
OpenCV
HDMI
简单介绍
RK3399
开发
板、
RK3399
主板的相关参数
8262
浅谈
RK3399
开发
板
2432
什么是
RK3399
开发
板基础配置
2595
RK3399
硬件设计指南
3025
如何对
RK3399
GPIO
进行
配置
呢
1473
如何对
RK3399
WATCHDOG
进行
调试
呢
2150
rk
3568和
rk3399
的区别
5347
RK3399
是什么?
RK3399
芯片有哪些优势
呢
3655
rk
3566和
rk3399
的区别
21475
RK3399
是什么?
RK3399
的性能有哪些
呢
2902
发帖
登录/注册
20万+
工程师都在用,
免费
PCB检查工具
无需安装、支持浏览器和手机在线查看、实时共享
查看
点击登录
登录更多精彩功能!
首页
论坛版块
小组
免费开发板试用
ebook
直播
搜索
登录
×
20
完善资料,
赚取积分