模型训练过程中的tips

1.BatchNormalization和Dropout虽然可以在大约50个epoch内实现loss的收敛,同时减少过拟合,但是会在后续的epoch中带来loss的突然震荡。若网络层数不多,不建议每一个卷积层后都加一个BatchNormalization层。

文章目录
|