完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
扫一扫,分享给好友
|
|
相关推荐
1个回答
|
|
让 AI 在你的板子上尽情舞蹈~
1 模型 1.1 参考项目 参考项目:原因:目前了解的全网最轻量级的目标检测网络,没有之一 现在不是了,出现了一个 ppyolo,百度产 当然,Yolo Fastest 最小的模型也有 0.23 Bflops,想要在 ART-Pi 上顺利的跑起来,肉眼可见的丝滑程度,我是在做梦。 这时候有两个办法:
我改动的很简单,去掉特征金字塔输出,只保留一个输出,保证对大物体检测友好即可。同时删减网络结构。原来是109层,我是20+层网络结构。 纠正一个思想误区,由于一些很神奇的存在,网络并不是越深,FLOPS 就会越大,比如 DSCNN。 第二个参考项目的意义是在于:将模型转变为 tflite 可食用模型 1.2 模型文件 我改动的模型配置文件:./model/yolo-s_with_lrelu.cfg 原模型配置文件:./model/VOC 为了防止在后期模型转换的过程中遇到不支持的算子:leakyrelu,我这里提供了一份 relu 的模型训练配置文件 预先训练好的模型:./model/yolo-s.h5 507 k,量化的 tflite 模型文件:./model/yolo-s.tflite 144 k 1.3 自己训练模型 请参考:dog-qiuqiu/Yolo-Fastest 项目 我自己也写过一份 快速上手 yolo-fastest 教程: https://blog.csdn.net/weixin_37598106/article/details/112544854?spm=1001.2014.3001.5501 但是由于 up 主更新的比较快,可能有一些版本落后,仅供参考。 需要配置 darknet 训练环境,然后根据需求修改下 cfg 文件即可 准备数据集:VOC 2007 + VOC 2012 1wget https://pjreddie.com/media/files/VOCtrainval_11-May-2012.tar 2wget https://pjreddie.com/media/files/VOCtrainval_06-Nov-2007.tar 3wget https://pjreddie.com/media/files/VOCtest_06-Nov-2007.tar 4tar xf VOCtrainval_11-May-2012.tar 5tar xf VOCtrainval_06-Nov-2007.tar 6tar xf VOCtest_06-Nov-2007.tar 7 8wget https://pjreddie.com/media/files/voc_label.py 9# 修改文件,将里面的类别只保留 person 类别 10python voc_label.py 11 12cat 2007_train.txt 2007_val.txt 2012_*.txt > train.txt 修改 ./model/voc_person.data 中的 train 和 valid 路径,注意,如果你不是训练 person 单类别,请一并修改 voc_person.names 文件 3.训练 1$ ./darknet detector train 2 3# 举例, -dont_show 是不显示图片, -gpus 是指定 gpu 训练 4$ ./darknet detector train voc_person.data yolo-s.cfg -dont_show -gpus 0, 1 4.测试 perons.jpg 位于 ./imgs 1# test 1 image 2./darknet detector test voc_person.data yolo-s.cfg yolo-s_last.weights person.jpg -thresh 0.5 -dont_show 3 4# mAP 5./darknet detector map voc_person.data yolo-s.cfg yolo-s_last.weights -points 11 模型转换成 keras,最后转成 tflite 对应的代码仓库: Lebhoryi/keras-YOLOv3-model-set https://github.com/Lebhoryi/keras-YOLOv3-model-set 转自 david8862/keras-YOLOv3-model-set https://github.com/david8862/keras-YOLOv3-model-set,我做了一些修改,请按照我的来,否则出错请自负???????????? yolo-fastest to keras python tools/model_converter/convert.py cfg/yolo-s.cfg weights/yolo-s_last.weights weights/yolo-s.h5 -f -c keras to tflite python tools/model_converter/custom_tflite_convert.py --keras_model_file ./weights/yolo-s.h5 --output_file ./weights/yolo-s.tflite # keras to tflite; quantize python tools/model_converter/post_train_quant_convert.py --keras_model_file ./weights/yolo-s.h5 --annotation_file /home/lebhoryi/Data/VOC/2007_test.txt --model_input_shape 160x160 --sample_num 30 --output_file ./weights/yolo-s.tflite -c ``` 2 RT-AK 使用 具体使用请查阅 RT-Thread/RT-AK https://github.com/RT-Thread/RT-AK 相关文档 准备: ART-PI bsp 模型 RT-AK 使用: 1$ git clone https://github.com/RT-Thread/RT-AK 2 3$ cd RT-AK/RT-AK/rt_ai_tools 4 5# 只需要改动 --model、--project、--ext_tools 三个参数的路径即可 6$ python aitools.py --model=./yolo-s.h5 --model_name=person_yolo --project=D:RT-ThreadStudioworkspaceart-pi --platform stm32 --ext_tools="D:Program Files (x86)stm32ai-windows-5.2.0windows" --clear 3 应用代码 我的输入是 160x160x1,为了减小模型参数大小, 先在 pc 端实现应用层的代码 图片预处理:尺度缩放+灰度转化+归一化 yolo 解码 nms 处理 代码都在 inference_yolo-s.py 中。 手边没有 u*** 摄像头,也就没有写视频的推理代码,只有图片的推理代码。 功能实现: 1.图片预处理 python 里头就很简单,调用 opencv 库,几行代码搞定 1img_raw = cv2.imread(str(img_path)) 2img = cv2.cvtColor(img_raw, cv2.COLOR_BGR2GRAY) 3img = cv2.resize(img, (160, 160), interpolation=cv2.INTER_LINEAR) 4img = img / 255.0 5img = np.asarray(img).astype('float32') 2.yolo 解码 inference_yolo-s.py 中的 yolo_decode 函数 模型推理的是检测目标的 xywh 的偏移量,目的是将模型输出结果转换成真实世界的 xywh 这部分呢,我也写了一篇文章,感兴趣的可以看一下: 掌握 yolo - 解码核心思想 https://blog.csdn.net/weixin_37598106/article/details/113058426?spm=1001.2014.3001.5501 3.nms inference_yolo-s.py 中的 non_max_suppress 函数,这个函数针对的是单类别的 c 代码的实现比较痛苦(痛苦面具 x3) ✔灰度转换 ✔尺度缩放 ✔yolo 解码 ⚪nms (可能五一节后实现) 1、灰度转换 RGB转灰度,通常会使用下面的一个心理学公式:(Matlab和OpenCV中使用的也是该公式) 1Gray = 0.2989*R + 0.5870*G + 0.1140*B 2# 优化 3Gray = (2989*R + 5870*G + 1140*B)/ 10000 4# 移位 5Gray = (4898*R + 9618*G + 1868*B)>> 14 6# 8位精度 7Gray = (76*R + 150*G + 30*B)>> 8 1// c 代码实现 2void rgb2gray(unsigned char *src,unsigned char *dst, int width,int height) 3{ 4 int r, g, b; 5 for (int i=0; i 7 r = *src++; // load red 8 g = *src++; // load green 9 b = *src++; // load blue 10 // build weighted average: 11 *dst++ = (r * 76 + g * 150 + b * 30) >> 8; 12 } 13} 1# python 代码实现 2# val_c_gray_scaling.py 3def img2gray(img_path): 4 # 读取第一张图像 5 img = cv2.imread(img_path) 6 # 获取图像尺寸 7 h, w = img.shape[0:2] 8 # 自定义空白单通道图像,用于存放灰度图 9 gray = np.zeros((h, w), dtype=img.dtype) 10 # 对原图像进行遍历,然后分别对BGR按比例灰度化 11 for i in range(h): 12 for j in range(w): 13 gray[i, j] = 0.11 * img[i, j, 0] + 0.59 * img[i, j, 1] + 0.3 * img[i, j, 2] # Y=0.3R+0.59G+0.11B 14 show_img(gray) 15 return gray 2.尺度缩放 此处用的是双线性插值 1int is_in_array(short x, short y, short height, short width) 2{ 3 if (x >= 0 && x < width && y >= 0 && y < height) 4 return 1; 5 else 6 return 0; 7} 8 9void bilinera_interpolation(rt_uint8_t* in_array, short height, short width, 10 rt_uint8_t* out_array, short out_height, short out_width) 11{ 12 double h_times = (double)out_height / (double)height, 13 w_times = (double)out_width / (double)width; 14 short x1, y1, x2, y2, f11, f12, f21, f22; 15 double x, y; 16 17 for (int i = 0; i < out_height; i++){ 18 for (int j = 0; j < out_width; j++){ 19 x = j / w_times; 20 y = i / h_times; 21 22 x1 = (short)(x - 1); 23 x2 = (short)(x + 1); 24 y1 = (short)(y + 1); 25 y2 = (short)(y - 1); 26 f11 = is_in_array(x1, y1, height, width) ? in_array[y1*width+x1] : 0; 27 f12 = is_in_array(x1, y2, height, width) ? in_array[y2*width+x1] : 0; 28 f21 = is_in_array(x2, y1, height, width) ? in_array[y1*width+x2] : 0; 29 f22 = is_in_array(x2, y2, height, width) ? in_array[y2*width+x2] : 0; 30 out_array[i*out_width+j] = (rt_uint8_t)(((f11 * (x2 - x) * (y2 - y)) + 31 (f21 * (x - x1) * (y2 - y)) + 32 (f12 * (x2 - x) * (y - y1)) + 33 (f22 * (x - x1) * (y - y1))) / ((x2 - x1) * (y2 - y1))); 34 } 35 } 36} python 代码实现:val_c_gray_scaling.py 中的 bilinera_interpolation 函数 3.yolo 解码 1// c 代码实现 2// applications/yolo.c 3int yolo_decode(float *out_data) 4{ 5 int j=0,k=0,l=0; 6 for(int i=0; i<5*5*5; i++) 7{ 8 float x_tmp = 1 / (1 + exp(-out_data[i*6+0])); 9 float y_tmp = 1 / (1 + exp(-out_data[i*6+1])); 10 float box_x = (x_tmp + k) / 5; 11 float box_y = (y_tmp + l) / 5; 12 13 float box_w = (exp(out_data[i*6+2])*anchor[j][0])/ input_dims[0]; 14 float box_h = (exp(out_data[i*6+3])*anchor[j][1])/ input_dims[1]; 15 16 float objectness = 1 / (1 + exp(-out_data[i*6+4])); 17 18 float class_scores = 1 / (1 + exp(-out_data[i*6+5])); 19 20// printf("%d %d %d %f %f, %f %f, %f %fn", j,k,l, box_x, box_y, box_w, box_h, objectness, class_scores); 21 22 out_data[i*6+0] = box_x; 23 out_data[i*6+1] = box_y; 24 out_data[i*6+2] = box_w; 25 out_data[i*6+3] = box_h; 26 out_data[i*6+4] = objectness; 27 out_data[i*6+5] = class_scores; 28 29 if(j++>=4) 30 { 31 j = 0; 32 if(k++>=4) 33 { 34 k = 0; 35 if(l++>=4) 36 { 37 l = 0; 38 } 39 } 40 } 41} 42 return 0; 43} python 代码实现:inference_yolo-s.py 中的 yolo_decode 函数 4.nms 没有 nms 的目标检测工程就等于没有灵魂,等后期来实现 编译报错以及解决 第二种解决方式: 4. 参考链接
|
|
|
|
只有小组成员才能发言,加入小组>>
调试STM32H750的FMC总线读写PSRAM遇到的问题求解?
1559 浏览 1 评论
X-NUCLEO-IHM08M1板文档中输出电流为15Arms,15Arms是怎么得出来的呢?
1500 浏览 1 评论
930 浏览 2 评论
STM32F030F4 HSI时钟温度测试过不去是怎么回事?
662 浏览 2 评论
ST25R3916能否对ISO15693的标签芯片进行分区域写密码?
1551 浏览 2 评论
1846浏览 9评论
STM32仿真器是选择ST-LINK还是选择J-LINK?各有什么优势啊?
606浏览 4评论
STM32F0_TIM2输出pwm2后OLED变暗或者系统重启是怎么回事?
503浏览 3评论
507浏览 3评论
stm32cubemx生成mdk-arm v4项目文件无法打开是什么原因导致的?
487浏览 3评论
小黑屋| 手机版| Archiver| 电子发烧友 ( 湘ICP备2023018690号 )
GMT+8, 2024-11-9 04:27 , Processed in 0.554414 second(s), Total 49, Slave 42 queries .
Powered by 电子发烧友网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
电子发烧友观察
版权所有 © 湖南华秋数字科技有限公司
电子发烧友 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191 工商网监 湘ICP备2023018690号