完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
|
|
相关推荐
1个回答
|
|
对于2019a版本,只需要几行 代码就能构建深度学习模型,这是matlab的优势,并不是每个算法专家代码能力都那么好。并不一定要成为代码领域专家。只需要了解如何使用 MATLAB 帮助相关人员执行深度学习任务,仅此而已。
支持的模型GoogLeNet、VGG-16、VGG-19、AlexNet、ResNet-50、ResNet-101 和 Inception-v3等等,后续会继续添加。 加速NVIDIA® GPU、云和数据中心资源上的算法,而无需专门编程。 使用 MATLAB 应用程序和可视化工具,创建、修改和分析复杂的深度神经网络架构。 使用应用程序自动进行图像、视频和音频数据的真实值 (ground-truth) 标注。 处理来自 Caffe 和 TensorFlow-Keras 的模型。 MATLAB 支持 ONNX™,所以您可以使用 PyTorch 和 MxNet 之类的框架与同事协作。 上图的核心是软件本身和ONNX协议,说白了就是模型可以相互转化,由几个大厂维护。现阶段不同的框架产生的模型是不通用的,但是ONNX可以解决这个问题,个人认为,这个以后一定是趋势,关门造车是行不通的。现在支持较好的框架主要有TF-KERAS、Caffe等等。这样结合matlab自身的函数,可以超级方便的应用与修改模型,全身心投入到研究中。 关于网络训练,使用过的朋友都应该了解,matlab是十分方便的,上手很容易。使用特定领域应用程序快速预处理音频、视频和图像数据集。使用 Deep Network Designer 应用程序创建可视化复杂的网络架构,相较于传统框架设计网络,更加直观高效率。方便开发人员修改预训练网络以进行迁移学习,在训练之前可视化、检查并修复问题。 可随处部署深度学习模型:CUDA、C 代码、企业系统或云。若在意性能,可以利用Intel® (MKL-DNN)、NVIDIA(TensorRT、cuDNN)和 ARM® (ARM Compute Library) 优化库生成代码,创建具有高性能推理速度的可部署模型。 这方面还是值得说一说,我实际工作中大部分部署到TX2,STM32没有用过,目测难度较高。深度学习发展的嵌入式上,这是一个方向,但是现阶段模型压缩优化技术并不是很完善,各个大厂都在做。 总之,matlab做深度学习十分方便,但是并不是十分流行,可能和宣传有关。 |
|
|
|
只有小组成员才能发言,加入小组>>
调试STM32H750的FMC总线读写PSRAM遇到的问题求解?
1614 浏览 1 评论
X-NUCLEO-IHM08M1板文档中输出电流为15Arms,15Arms是怎么得出来的呢?
1541 浏览 1 评论
970 浏览 2 评论
STM32F030F4 HSI时钟温度测试过不去是怎么回事?
682 浏览 2 评论
ST25R3916能否对ISO15693的标签芯片进行分区域写密码?
1592 浏览 2 评论
1863浏览 9评论
STM32仿真器是选择ST-LINK还是选择J-LINK?各有什么优势啊?
644浏览 4评论
STM32F0_TIM2输出pwm2后OLED变暗或者系统重启是怎么回事?
515浏览 3评论
531浏览 3评论
stm32cubemx生成mdk-arm v4项目文件无法打开是什么原因导致的?
504浏览 3评论
小黑屋| 手机版| Archiver| 电子发烧友 ( 湘ICP备2023018690号 )
GMT+8, 2024-11-22 01:21 , Processed in 0.826500 second(s), Total 79, Slave 61 queries .
Powered by 电子发烧友网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
电子发烧友观察
版权所有 © 湖南华秋数字科技有限公司
电子发烧友 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191 工商网监 湘ICP备2023018690号