一般的神经网络大多用ReLu作为激活函数减少梯度消失或爆炸问题。但是很多文献中都说对于autoencoder,最好还是用tanh而不要用ReLu。这是为什么呢?
请大牛不吝赐教。谢谢
楼主: kantdisciple
|
1882
0
关于autoencoder的激活函数 |
学科带头人 54%
-
|
|
京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明 免责及隐私声明