1、将数据切分成单一的训练集和测试集,然后用测试集去验证模型的效果,是不那么可靠的,有可能刚好这部分测试集更容易被训练好的模型拟合。
2、k-折交叉验证,就是把数据集分成k份,其中k-1份作为训练集,剩下的1份作为测试集,于是模型可以训练k次,每次训练好的模型都在不同的测试集上得到一个指标比如是acc,把k次的指标取平均值,可以更好地,更准确地,更客观地知道模型的表现或者效果。
3、k-折交叉验证可以更客观准确地评估模型效果,我们在调参的时候,可以配合交叉验证去做。即每种参数选择之后,都是用k-折交叉验证,获取当前参数下,模型的综合水准,然后比较哪种参数情况下,模型的综合表现效果最好。