完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
|
CMake 错误文本:
$ cmake -DCMAKE_BUILD_TYPE=Release -DCMAKE_CXX_FLAGS="-march=armv7-a" /opt/intel/openvino/deployment_tools/inference_engine/samples CMake Error at CMakeLists.txt:203 (find_package): By not providing "FindInferenceEngine.cmake" in CMAKE_MODULE_PATH this project has asked CMake to find a package configuration file provided by "InferenceEngine", but CMake did not find one. Could not find a package configuration file provided by "InferenceEngine" (requested version 2.0) with any of the following names: InferenceEngineConfig.cmake inferenceengine-config.cmake Add the installation prefix of "InferenceEngine" to CMAKE_PREFIX_PATH or set "InferenceEngine_DIR" to a directory containing one of the above files. If "InferenceEngine" provides a separate development package or SDK, be sure it has been installed. -- Configuring incomplete, errors occurred! 环境 在 Raspberry Pi* 上构建推理引擎样品 您为什么会看到它? 此 CMake 错误是在未设置环境变量时引起的。您必须更新多个环境变量,才能编译并运行OpenVINO™工具包应用程序。 |
|
相关推荐
1个回答
|
|
|
解决方案 1 - 使用 英特尔® 发行版 OpenVINO™ 工具套件 来运行 Raspbian* 操作系统
预构建的软件包包含设置环境变量的设置脚本,以临时设置运行以下命令的环境变量: source /opt/intel/openvino/bin/setupvars.sh
echo "source /opt/intel/openvino/bin/setupvars.sh" >> ~/.bashrc 解决方案 2 - 使用 OpenVINO™ 工具套件的开源版本 要使用从源代码构建的推断引擎,导出以下变量: 导出ngraph_DIR=/home/pi/openvino/build/ngraph 导出 InferenceEngine_DIR=/home/pi/openvino/build
|
|
|
|
|
只有小组成员才能发言,加入小组>>
5个成员聚集在这个小组
加入小组使用Windows中的Docker容器运行DL Streamer出现报错怎么解决?
406浏览 2评论
请问是否可以在模型服务器中使用REST请求OpenVINO™预测?
367浏览 2评论
无法在ONNX运行时加载OpenVINO™中间表示 (IR),为什么?
398浏览 2评论
为什么无法使用Dla_compiler在OpenVINO™中编译用于FPGA的IR模型?
293浏览 2评论
将英特尔®独立显卡与OpenVINO™工具套件结合使用时,无法运行推理怎么解决?
523浏览 2评论
/9
小黑屋| 手机版| Archiver| 电子发烧友 ( 湘ICP备2023018690号 )
GMT+8, 2025-12-2 01:22 , Processed in 0.438843 second(s), Total 43, Slave 36 queries .
Powered by 电子发烧友网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
电子发烧友观察
版权所有 © 湖南华秋数字科技有限公司
电子发烧友 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191

淘帖
883
