我目前使用的转模型代码如下
from ultraly
tics import YOLOimport cv2import timeimport nncaseimport# 加载预训练的YOLO模型model = YOLO(modelname + ".pt")path = model.export(format="onnx")# 加载ONNX模型onnx_model = onnx.load(modelname + ".onnx")# 设置编译选项compile_options = nncase.CompileOptions()compile_options.target = 'k230'compile_options.preprocess = True # 启用预处理compile_options.swapRB = False # 不交换RB通道compile_options.input_shape = [1, 3, 640, 640] # 设置输入形状compile_options.input_type = 'uint8' # 输入图像数据类型compile_options.input_range = [0, 1] # 输入图像反量化范围compile_options.mean = [0, 0, 0] # 预处理均值compile_options.std = [1, 1, 1] # 标准差设为1,不进行归一化compile_options.input_layout = "NCHW" # 输入数据格式# 创建编译器实例compiler = nncase.Compiler(compile_options)import_options = nncase.ImportOptions()# 导入ONNX模型compiler.import_onnx(onnx_model.SerializeToString(),import_options)# 编译模型compiler.compile()# 生成KModel文件kmodel_data = compiler.gencode_tobytes()with open(modelname + ".kmodel", "wb") as f: f.write(kmodel_data)代码运行无异常,导出模型大小只有12MB,但在设备中运行模型时间非常长(具体超过5分钟一次),而后将预处理关闭,则设备中跑模型会报错

请问,以上问题是哪里的原因?应该怎么解决?
模型速度慢是因为输入分辨率640 * 640太大了,只能用320 * 320的输入分辨率