完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
在发布的 RKLLM 工具链压缩文件中,包含了 RKLLM-Toolkit 的 whl 安装包、RKLLM Runtime 库的相关文件以及参考示例代码,github链接如下:https://github.com/airockchip/rknn-llm 环境准备RKLLM-Toolkit由于提供的rkllm_toolkit包为python3.8版本的,因此需要确保本地的python环境为3.8,否则需要新建python3.8的虚拟环境。 首先进入到
安装完成后,我们可以使用如下命令测试是否安装成功
RKLLM Runtime在rkllm-runtime的rumtime目录下,分别包含Linux和Android下RKLLM Runtime 的全部文件:
在通过 RKLLM 工具链构建OK3576板端的部署推理代码时,为保证编译的正确性,需要包含对以上头文件及函数库的链接。当代码在开发板上运行的过程中,同样需要确保库文件也成功推送至板端,并正确设置环境变量
RKNPU driver在板端使用 RKLLM Runtime 进行模型推理前,首先需要确认板端的 NPU 内核是否为 v0.9.6 版本,具体的查询命令如下:
若所查询的 NPU 内核版本低于 v0.9.6,则需要更新npu驱动并且重新编译进内核。 模型转换在 导入库首先导入rkllm库
读取模型读取我们的huggingface格式的模型,需要把其中的modelpath修改为自己的模型文件夹
模型量化构建
各参数说明如下:
导出模型在通过 rkllm.build()函数构建了 RKLLM 模型后,可以通过rkllm.export_rkllm()函数将RKNN 模型保存为一个.rkllm 文件,以便后续模型的部署。
|
|
相关推荐
|
|
只有小组成员才能发言,加入小组>>
【飞凌嵌入式OK3588J-C开发板体验】OK3588J-C开发板开箱评测
2919 浏览 1 评论
[技术] 【飞凌嵌入式OK3576-C开发板体验】llama2.c部署
7261 浏览 0 评论
7726 浏览 0 评论
【飞凌嵌入式OK3576-C开发板体验】ssh连接与文件传输
7654 浏览 0 评论
9093 浏览 0 评论
6811浏览 2评论
11219浏览 1评论
5309浏览 1评论
85497浏览 1评论
678浏览 1评论
小黑屋| 手机版| Archiver| 电子发烧友 ( 湘ICP备2023018690号 )
GMT+8, 2024-12-21 21:23 , Processed in 0.360664 second(s), Total 39, Slave 30 queries .
Powered by 电子发烧友网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
电子发烧友观察
版权所有 © 湖南华秋数字科技有限公司
电子发烧友 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191 工商网监 湘ICP备2023018690号