引用 1160599678:
嗯,好像最深152层,但说实话,这效果提升不是很大(尤其56和10比较):
实线测试误差,虚线训练误差;[1]
这模型还是要改进,长时间的收益不大。
[1]:
#{r=2681……
。。。。
我po的图,左一googleNet,左二VGG,右边的是何凯明的ResNet,你截过来的图表是ResNet内部的横向比较,是怎么得出这些个结论的。
你稍微读一下这篇转过来的paper,就会看到“On the ImageNet dataset we evaluate residual nets with a depth of up to 152 layers---8x deeper than VGG nets but still having lower complexity”,重点是人家提出了一个新的架构来确保用这种丧心病狂的层数时不至于优化不出来。
(深度学习发展到现在这个阶段,这样一个新架构能够把error rate直接降低将近一半已经是相当了不起的壮举了,其中道路的艰难远非“这模型还是要改进,长时间的收益不大”所能描述的。)
最后即使是ResNet自身的比较,对于ImageNet这样一个challenge性质的竞争活动,error rate在小数点后一位上的改变,已经可以决定名次排位了,所以并不是“这效果提升不是很大”: