马上注册,结交更多易友,享用更多功能,让你轻松玩转觅风论坛。
您需要 登录 才可以下载或查看,没有账号?立即注册
x
本地训练,移动到云端部署识别。也可以直接pyinstaller,只需要会一点点python代码,做个屏幕或者视频之类的inference
不太优雅,但是效率居然还不错,开了GPU多线程 640尺寸平均10ms一张 (中转程序) (后台运行)
下文主要讲的是怎么中转到易语言。
回顾步骤
1.yolov5 python部署后,训练模型,导出模型保姆式yolov5教程,训练你自己的数据集 - 知乎 (zhihu.com)
教程安装的是cpu版本的,如果要安装gpu,需要提前装好cuda, cudnn
2.导出的默认pt模型,需要经过export.py转换成onnx模型
导出onnx可能会踩到坑,网上有很多解决方案
3.部署c++ opencv +dnn GPU加速 如果你不想编译,可以直接使用我编译好的exe,跳到第6步
如果是直接安装的官方编译版本exe,好像是没有GPU部署的,当然也能用(跳到第四步),至少慢十几倍吧
cmake过程,自己琢磨下,编译过程至少两个小时,大大大工程
Windows系统下配置OpenCV_DNN模块使用CUDA加速(Windows10、VS2017、CUDA10.1、cuDNN7.6.5、OpenCV4.2.0)_cuda10.2支持的opencvdnn-CSDN博客
4.编译我写好的代码即可
工程叫opencv,编译出来叫opencv.exe,打包到别的电脑,记得带上依赖文件
文件1.3G太大了,我就不上传了,自己在everything搜一下。
CPU版本的opencv可能跟我不一样,这个没关系。如果用的是官方编译版本exe安装的opencv,没有cmake的,也能编译,只不过不支持gpu加速
5.这时候中转程序就make出来了。通过内存共享的方式传递给易语言。
易语言例子我也写出来了,支持多线程。8个线程弥补了识别慢的缺点,平均10ms一张
|
|