完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
|
使用以下代码 请求在模型服务器中使用 REST 进行预测OpenVINO™:
from ovmsclient import make_http_client client = make_http_client("localhost:8000") with open("img.jpeg", "rb") as f: data = f.read() inputs = {"input_name": data} results = client.predict(inputs=inputs, model_name="my_model") |
|
|
|
|
|
是的,您可以在模型服务器中使用 REST 请求来执行 OpenVINO™ 推理。OpenVINO™ 是一个由英特尔开发的工具套件,用于优化和加速深度学习模型的推理。它支持多种硬件平台,包括 CPU、GPU、VPU 和 FPGA 等。 要在模型服务器中使用 REST 请求进行 OpenVINO™ 推理,您可以通过以下几种方式实现: 1. 使用 OpenVINO™ Model ServerOpenVINO™ 提供了一个专门的模型服务器,称为 OpenVINO™ Model Server(OVMS)。它支持通过 REST API 和 gRPC API 来访问和推理模型。
2. 自定义 REST API如果您需要更灵活的控制,您可以自己构建一个 REST API 服务,使用 OpenVINO™ 的 Python 或 C++ API 进行推理。
3. 使用 OpenVINO™ 的 HTTP 插件OpenVINO™ 还提供了一个 HTTP 插件,允许您通过 HTTP 请求直接与 OpenVINO™ 推理引擎进行交互。这种方式适合需要快速集成和测试的场景。 总结您可以通过 OpenVINO™ Model Server 或自定义 REST API 来实现通过 REST 请求进行 OpenVINO™ 推理。具体选择哪种方式取决于您的需求和应用场景。OpenVINO™ Model Server 提供了开箱即用的解决方案,而自定义 REST API 则提供了更高的灵活性和控制能力。 |
|
|
|
|
只有小组成员才能发言,加入小组>>
5个成员聚集在这个小组
加入小组使用Windows中的Docker容器运行DL Streamer出现报错怎么解决?
406浏览 2评论
请问是否可以在模型服务器中使用REST请求OpenVINO™预测?
367浏览 2评论
无法在ONNX运行时加载OpenVINO™中间表示 (IR),为什么?
398浏览 2评论
为什么无法使用Dla_compiler在OpenVINO™中编译用于FPGA的IR模型?
294浏览 2评论
将英特尔®独立显卡与OpenVINO™工具套件结合使用时,无法运行推理怎么解决?
523浏览 2评论
/9
小黑屋| 手机版| Archiver| 电子发烧友 ( 湘ICP备2023018690号 )
GMT+8, 2025-12-2 03:26 , Processed in 0.735531 second(s), Total 75, Slave 58 queries .
Powered by 电子发烧友网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
电子发烧友观察
版权所有 © 湖南华秋数字科技有限公司
电子发烧友 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191

淘帖
623
