博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
hyper-net、ion、skip connection、fpn
阅读量:6252 次
发布时间:2019-06-22

本文共 1300 字,大约阅读时间需要 4 分钟。

resnet的skip connection用的也是eltwise相加

fpn的浅层和高层融合用的eltwise相加

hyper-net和ion都是使用的concat的方式

 

 

 

hyper-net网络结构

https://blog.csdn.net/qq_35608277/article/details/80432907

LRN是必要的,因为不同层的feature resolution 不同,如果不做正则norm大的feature会压制住norm小的feature

但pavenet里面没有用lrn,而是concat之后用了一个1*1的卷积作缓冲处理,保证不同channel差异不是太大

 

ion-net:

总结:两个都是浅层细节信息和高层语义信息concat融合,但Hyper-net是把最后一层feature map进行concat,ion是在不同层pooling然后concat,两者其实差异性不大。两者都是在stage最后一层做的操作。

 

自己做的实验:1.ion-net我没加scale层是出现了梯度爆炸(到底自己用了conv1*1没,自己忘了),去确定一下自己在concat之后是否加了bn,个人感觉bn其实可以替代scale

       2.hyper-net这个上下层连接自己做过stage4和stage3的,性能提升:

            也做过stage2和stage3和stage4的,性能提升:

         3.马:多层concat,a层的数量级可能和b层的不一样,会压制住别的层的feature map。比如a层可能在10-100,b层的值可能在0.1到1,concat之后合成一个feature map,虽然在不同通道,但某些通道的值很大,会对最终的结果影响比较大

          理论上浅层是提取一些物体的一般特性,颜色、纹理、形状等

          他做了在不同层进行roi-pooling看不同层的效果,比如在stage3能检测的一些东西,stage4检测不到,这样其实就可以发现stage3的信息是有用的

          如果浅层和深层的信息都学的比较好,那再不同层做pooling然后concat的性能可能没有直接把浅层和深层feature map concat起来pooling效果好

          concat > 深层 > 浅层

          

concat效果好,会不会仅仅是由于增加了数据输入的原因?可以做个试验验证,把最后一层的channel提到和concat的一样,然后再对比

 

个人感觉如果是concat,由于两个部分的channel来自于不同的stage,数据分布会不一样(但会不会因为bn层在前面用了,所以整个网络的数据分布是一样的?),或者说可能本身一个部分的channel值大,一个部分的channel值小,导致值大的做主导?需要做一个实验,就是加bn和不加bn看性能上是否有提升,我之前做的好像就没有用bn

把ion concat之后加bn看是否还会发生梯度爆炸?

 eltiwise和concate效果差不多?

你可能感兴趣的文章
PHP函数
查看>>
[Leetcode]414. Third Maximum Number
查看>>
UTC引发时区配置和Linux系统时间和bios时间问题
查看>>
C语言32个关键字
查看>>
图像处理之canny---求梯度
查看>>
OpenGL编程轻松入门之一个简单的例子
查看>>
MVC控制器返回重定向操作
查看>>
LINUX总结
查看>>
编译php5.4的时候出现错误----configure: error: in `/usr/local/src/php540/php-5.4.0':
查看>>
机器学习编程01_线性回归
查看>>
Markdown语法
查看>>
《CSS世界》读书笔记(十六)
查看>>
初入前端
查看>>
(回文串 )Best Reward -- hdu -- 3613
查看>>
最少拦截系统------LCS--------动态规划
查看>>
关于EOF的种种。
查看>>
h5 拍照上传 代码
查看>>
javascript 通用定义
查看>>
语文文法
查看>>
SSM(Spring,SpringMVC,MyBatis)用户登录
查看>>