leakyReluLayer
漏整流线性单元(ReLU)层
描述
一个有泄漏的ReLU层执行一个阈值操作,其中任何小于零的输入值乘以一个固定的标量。
此操作相当于:
创建
语法
描述
返回一个有漏洞的ReLU层。层
= leakyReluLayer
返回一个泄漏的ReLU层,其负输入的标量乘法器等于层
= leakyReluLayer (规模
)规模
.
“名称”,层
= leakyReluLayer (<年代pan class="argument_placeholder">___名字
)返回一个泄漏的ReLU层并设置可选的<一个href="//www.tatmou.com/es/es/es/help/deeplearning/ref/nnet.cnn.layer.leakyrelulayer.html" class="intrnllnk">名字
财产。
属性
例子
算法
参考文献
bbb Maas, Andrew L., Awni Y. Hannun, Andrew Y. Ng。整流器非线性改进了神经网络声学模型。在Proc。ICML,第30卷,第3期。1.2013.
扩展功能
版本历史
在R2017b中引入
另请参阅
trainNetwork
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">reluLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">clippedReluLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">swishLayer