关于交叉验证时的误差
pytorch吧
全部回复
仅看楼主
level 1
最近做一个神经网络反演矿物的课题,我自己做留一交叉验证怎么都误差很大,然后我就去参考一片相似的文章,然后发现里边的交叉验证有一个取最优的过程,具体的是:假如对除了第n个样本的其它样本(留一),做1000次迭代,每次迭代后计算对于第n个样本的loss,然后假如其中第20次的迭代的loss最小,就保留这个模型,然后对第n+1个样本进行留一,这次可能又是迭代500次loss最小,最后的结果就是留一交叉验证,留不同的一时,迭代次数其实是不一样的,这种方法合理吗?
而我使用的是对每个留一验证,都训练满1000次,这就会导致,对第n个样本的误差在迭代20次后又涨了,所以结果差
2025年01月13日 02点01分 1
level 1
这是第33个样本的留一验证的loss,横坐标是迭代次数,左边是参考的文章里的方法,取迭代过程中最小的loss
2025年01月13日 02点01分 2
level 1
这个是另一个留一验证,这次取最小loss的迭代次数又变了
2025年01月13日 02点01分 3
level 1

2025年01月13日 05点01分 4
level 1
兄弟们,看下啊
2025年01月14日 01点01分 5
level 2
迭代次数过多,导致过拟合。感觉是正常现象,训练集和测试集的数据结构存在偏差。。。不是很懂这方面的[疑问]
2025年01月17日 16点01分 6
1