K230D部署模型失败

Viewed 207

重现步骤
1.按照教程实现MicroPython 版本部署流程,连接上并将文件放到对应位置后,刚运行就断开和canmv ide的连接了(此时用的固件版本是图中推荐的K230D_Zero...)
k230d板子文件.png
k230d模型部署运行后自动断开.png
k230d模型部署流程.png
官方给的固件.png
2.按照教程实现C++版本部署流程,大小核这里就无法推进了,无法输入命令
cpp部署命令教程.png
k230d使用cpp部署.png

期待结果和实际结果
(1)期待结果:不管按照哪个流程部署完,可以运行给的测试用例,看到结果
(2)实际结果:采用MicroPython部署的无法正常运行,采用C++版本的无法实现部署

尝试解决过程
1.考虑到可能是固件不匹配的问题,重新烧录了流程(生成模型后给的readme)中要求的固件,依旧无法成功部署
python版本部署固件烧录.png
cpp部署镜像烧录结果.png
2.流程中看到MicroPython部署时要选择第三路串口,但并未成功
选择第三路串口教程.png
canmv串口无法自行选择.png

补充材料
参考的主要流程如下,这个文件内容是在社区官网的模型训练结束后生成的文件压缩包解压后的结果
流程来源.png

确认问题
1.K230D应该如何部署模型,具体流程应该是怎样的?因为不管是按照流程给的micropython部署还是cpp部署均未成功,但在操作流程中也并未看到这两个的具体区别。

更新
1.串口打印输出内容如下:
带波特率的截图.png
感谢回复!

2 Answers

使用micropython部署的时候查看一下,断开之前串口是否有报错,报错是什么?

你好 报错是内存有关的信息 更新的图片在最后一张 还有就是这个数据集训练时,只用了10张猫和10张狗 刚试了下视频推理的代码 可以运行(将hdmi改为了lcd) 但是检测不出来结果

图片太少了,增加一些

好的 那这个是会导致报错内存的这个问题吗

你好 K230D 载入的模型,您用官网K230那个方式训练,两者是一样的吗?

烧录K230D自己的固件后,官网K230训练完的模型可以按照mircropython的方式进行部署,是一样可用的