完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
|
|
相关推荐
2个回答
|
|
|
用 OpenVINO™版本 2024.5.0 及更高版本以运行量化模型。
|
|
|
|
|
|
您在GPU上使用OpenVINO™运行INT8/INT4量化的Whisper模型时无输出,可能由以下原因及解决方案导致: 关键原因分析
解决方案1. 在CPU上运行量化模型
2. 验证量化模型正确性
3. 启用详细日志添加环境变量查看错误细节: 运行后检查日志中的设备/精度错误。 4. GPU仅用于FP16模型
5. 系统环境确认
完整工作流程(推荐INT8+CPU)
通过以上步骤,您应在CPU上成功获得INT8/INT4模型的输出。GPU因硬件限制无法支持低精度推理,这是OpenVINO™的当前设计(2024.0)。如需GPU加速,请选择FP16精度模型。 |
|
|
|
|
只有小组成员才能发言,加入小组>>
5个成员聚集在这个小组
加入小组使用Windows中的Docker容器运行DL Streamer出现报错怎么解决?
405浏览 2评论
请问是否可以在模型服务器中使用REST请求OpenVINO™预测?
367浏览 2评论
无法在ONNX运行时加载OpenVINO™中间表示 (IR),为什么?
397浏览 2评论
为什么无法使用Dla_compiler在OpenVINO™中编译用于FPGA的IR模型?
291浏览 2评论
将英特尔®独立显卡与OpenVINO™工具套件结合使用时,无法运行推理怎么解决?
522浏览 2评论
/9
小黑屋| 手机版| Archiver| 电子发烧友 ( 湘ICP备2023018690号 )
GMT+8, 2025-12-1 18:15 , Processed in 0.814699 second(s), Total 80, Slave 62 queries .
Powered by 电子发烧友网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
电子发烧友观察
版权所有 © 湖南华秋数字科技有限公司
电子发烧友 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191

淘帖
337
