一般的神经网络大多用ReLu作为激活函数减少梯度消失或爆炸问题。但是很多文献中都说对于autoencoder,最好还是用tanh而不要用ReLu。这是为什么呢?
请大牛不吝赐教。谢谢
|
楼主: kantdisciple
|
2135
0
关于autoencoder的激活函数 |
|
已卖:1421份资源 学科带头人 54%
-
|
|
|
|
jg-xs1京ICP备16021002号-2 京B2-20170662号
京公网安备 11010802022788号
论坛法律顾问:王进律师
知识产权保护声明
免责及隐私声明


