完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
|
ONNX* 模型一旦优化为 IR,就只能在运行时OpenVINO™加载。
|
|
|
|
|
|
在 ONNX 运行时中无法直接加载 OpenVINO™ 中间表示(IR),因为它们是不同的模型格式,设计用于不同的推理引擎。以下是详细原因和可能的解决方案: 1. 模型格式不兼容
2. 如何解决方法 1:将 OpenVINO IR 转换为 ONNX 格式
3. 注意事项
4. 总结OpenVINO IR 和 ONNX 是两种不同的模型格式,ONNX 运行时无法直接加载 OpenVINO IR。你可以通过转换模型格式或使用 OpenVINO™ 运行时来解决这个问题。根据你的需求选择合适的方法。 |
|
|
|
|
只有小组成员才能发言,加入小组>>
5个成员聚集在这个小组
加入小组使用Windows中的Docker容器运行DL Streamer出现报错怎么解决?
405浏览 2评论
请问是否可以在模型服务器中使用REST请求OpenVINO™预测?
367浏览 2评论
无法在ONNX运行时加载OpenVINO™中间表示 (IR),为什么?
397浏览 2评论
为什么无法使用Dla_compiler在OpenVINO™中编译用于FPGA的IR模型?
291浏览 2评论
将英特尔®独立显卡与OpenVINO™工具套件结合使用时,无法运行推理怎么解决?
522浏览 2评论
/9
小黑屋| 手机版| Archiver| 电子发烧友 ( 湘ICP备2023018690号 )
GMT+8, 2025-12-1 19:47 , Processed in 0.671475 second(s), Total 75, Slave 58 queries .
Powered by 电子发烧友网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
电子发烧友观察
版权所有 © 湖南华秋数字科技有限公司
电子发烧友 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191

淘帖
1019
