当前位置:网站首页>自定义训练,使用Generator dataset迭代数据报错
自定义训练,使用Generator dataset迭代数据报错
2022-08-10 03:28:00 【小乐快乐】
mindspore 1.3 Ascend 910环境
因为任务要求,我没有使用高层的model.train()接口,而是自定义训练过程,像pytorch那样训练,使用Generator Dataset迭代数据,第一个epoch数据正常迭代,下一个epoch就会报错。在每个epoch迭代之后,我都对dataset进行了reset,是不是我reset的位置不对或是少了什么东西?
报错的截图:
根据报错的信息,你自定义的dataset 的 __len__ 函数返回值是 36,但是真实的 __next__ 返回的数据量只有35 条,这个校验错误,所以报错了。
快速验证的话,你可以把 __len__的返回值改成 35 再试下。
边栏推荐
猜你喜欢
随机推荐
有关视频传输时粘包问题的一些解决方法
Mini Program Navigation and Navigation Parameters
程序国际化
【每日一题】大佬们进来看看吧
学习总结week4_2正则
(面试加分新技能) 总结11个ES2022中你可能遗漏的语法
cuda——nms
数据库学习真难,头大,有偿提问
暑假第三周总结博客 - 五种传值方式
Jackson的ObjectMapper在项目中的主要运用
js原型和原型链以及原型继承
微信小程序相互跳转如何携带参数
uva1392
TCP协议之《延迟ACCEPT》
ARP欺骗-教程详解
TCP协议之《Out-Of-Window报文限速》
leetcode 283:移动零
笔试题记录
Embedded Sharing Collection 32
uniapp 路由与页面跳转