瑞芯微Rockchip开发者社区
登录
直播中
邹俩珍
7年用户
1014经验值
私信
关注
[问答]
RKNN格式模型怎样才能在RK3399Pro板子上成功运行呢
开启该帖子的消息推送
模型
NPU
如何将Keras模型转化为RKNN格式模型呢?
RKNN格式模型怎样才能在RK3399Pro板子上成功运行呢?
回帖
(1)
h1654155275.5669
2022-2-14 14:26:39
深度学习实验大多是在服务器端进行的,在实际的应用中,想要把训练好的模型投入实际的应用中去的时候往往需要转化为适应于边缘端或者是移动端计算的格式,一是缩减模型大小降低原有的参数体量,二是借助于硬件环境的加速能力,提升模型的推理速度,总之就是为了能够在板子上跑的更快点。
在实际的开发实践中,我们选择使用的是RK3399Pro这个型号的板子,提供了NPU级别的硬件加速计算能力,官方的文档地址在
这里
,首页截图如下所示:
这里是官方给出来的云计算和边缘计算的简单对比说明:
云计算与边缘计算云计算端侧仅负责发送输入数据,并接收计算结果计算资源集中管理和分配,借助服务器的强大性能,可以实现很高的浮点算力和精度水平部署便捷,云服务器可直接部署训练的模型框架,无需转换和二次开发即可使用算力成本高,常规神经网络运算使用GPU浮点运算,GPU成本高,功耗大,云端部署服务器的运维成本也很大流量成本高、延迟大,输入和输出依赖网络传递。
深度学习实验大多是在服务器端进行的,在实际的应用中,想要把训练好的模型投入实际的应用中去的时候往往需要转化为适应于边缘端或者是移动端计算的格式,一是缩减模型大小降低原有的参数体量,二是借助于硬件环境的加速能力,提升模型的推理速度,总之就是为了能够在板子上跑的更快点。
在实际的开发实践中,我们选择使用的是RK3399Pro这个型号的板子,提供了NPU级别的硬件加速计算能力,官方的文档地址在
这里
,首页截图如下所示:
这里是官方给出来的云计算和边缘计算的简单对比说明:
云计算与边缘计算云计算端侧仅负责发送输入数据,并接收计算结果计算资源集中管理和分配,借助服务器的强大性能,可以实现很高的浮点算力和精度水平部署便捷,云服务器可直接部署训练的模型框架,无需转换和二次开发即可使用算力成本高,常规神经网络运算使用GPU浮点运算,GPU成本高,功耗大,云端部署服务器的运维成本也很大流量成本高、延迟大,输入和输出依赖网络传递。
举报
更多回帖
rotate(-90deg);
回复
相关问答
模型
NPU
请问intel架构上转化的
rknn
模型
可以在
rk3399Pro
上
运行
吗
2022-04-22
8687
为什么
RK3399Pro
平台YOLOv4 pytorch
模型
转
RKNN
模型
会失败
呢
2022-02-11
1788
在
rk3399pro
的一个u***接口接入
rk
1808出错是什么原因
呢
2022-05-05
6118
请问一下
怎样
在X86和
RK3399pro
去部署
RKNN
Toolkit
呢
2022-02-16
1861
求一种
RK3399Pro
AI平台解决方案
2022-02-15
1469
RK3399Pro
是
怎样
通过主机与ssh进行通讯的
呢
2022-02-11
2289
求一种
RK3399Pro
AI平台解决方案
2022-02-11
1226
怎样
去解决
RK3399pro
文件会进入不了Ubuntu系统的问题
呢
2022-02-11
2112
RK3399
与
RK3399Pro
处理器的性能有何不同
2022-02-10
1890
请教大神主机如何跟
RK3399Pro
板子
进行通讯
呢
2022-02-15
1577
发帖
登录/注册
20万+
工程师都在用,
免费
PCB检查工具
无需安装、支持浏览器和手机在线查看、实时共享
查看
点击登录
登录更多精彩功能!
首页
论坛版块
小组
免费开发板试用
ebook
直播
搜索
登录
×
20
完善资料,
赚取积分