楼主的代码是raw tensorflow,实在是太难阅读了……
如果我没有理解错的话,楼主把主卷积神经网络的每一个点附近的卷积操作(从patch到pixel),替换成了一个更小的卷积神经网络。造成了计算量的爆炸,使得此架构不实用。
楼主没有证明(也没有说明),使用这个架构的necessity 或者 justification(一定要分解成单步卷积吗?因为大卷积套小卷积,等效于两个大卷积)
尤其是,即便加上了步进(每隔n个像素应用一次卷积操作),也只相当于dilated convolution,在tensorflow里已有实现。