世界新资讯:深度学习基础入门篇[四]:激活函数介绍:tanh、sigmoid、ReLU、PReLU、ELU、softplus、softmax、swish等
深度学习基础入门篇四:激活函数介绍:tanh、sigmoid、ReLU、PReLU、ELU、softplus、softmax、swish等
1.激活函数
激活函数是人工神经网络的一个极其重要的特征;激活函数决定一个神经元是否应该被激活,激活代表神经元接收的信息与给定的信息有关;激活函数对输入信息进行非线性变换,然后将变换后的输出信息作为输入信息传给下一层神经元。激活函数的作用
(资料图片)
如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,最终的输出都是输入的线性组合。 激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数。
2.常见激活函数种类介绍
2.1 sigmoid
函数定义:
$f(x)=\sigma(x)=\dfrac{1}{1+e^{-x}}\quad\text{}$
导数:
$f^{"}(x)=f(x)(1-f(x))$
优点:* $sigmoid$函数的输出映射在 (0,1)之间,单调连续,输出范围有限,优化稳定,可以用作输出层;
* 求导容易;
缺点:* 由于其软饱和性,一旦落入饱和区梯度就会接近于0,根据反向传播的链式法则,容易产生梯度消失,导致训练出现问题;
* Sigmoid函数的输出恒大于0。非零中心化的输出会使得其后一层的神经元的输入发生偏置偏移(Bias Shift),并进一步使得梯度下降的收敛速度变慢;
* 计算时,由于具有幂运算,计算复杂度较高,运算速度较慢。
2.2 tanh
函数定义:
$f(x)=\tanh (x)=\frac{e^x-e^{-x}}{e^x+e^{-x}}$
导数:
$f^{"}(x)=1-f(x)^2$
优点:* tanh比 sigmoid函数收敛速度更快;
* 相比 sigmoid函数,tanh是以 0为中心的;
缺点:* 与 sigmoid函数相同,由于饱和性容易产生的梯度消失;
* 与 sigmoid函数相同,由于具有幂运算,计算复杂度较高,运算速度较慢。
2.3 ReLU
函数定义:
$f(x)=\left{\begin{array}{lr}0&x<0\ x&x\geq0\end{array}\right.$
导数:
$f(x)^{\prime}= \begin{cases}0 & x<0 \ 1 & x \geq 0\end{cases}$
优点:* 收敛速度快;
* 相较于 sigmoid和 tanh中涉及了幂运算,导致计算复杂度高, ReLU可以更加简单的实现;
* 当输入 x>=0时,ReLU 的导数为常数,这样可有效缓解梯度消失问题;
* 当 x<0时,ReLU 的梯度总是 0,提供了神经网络的稀疏表达能力;
缺点:* ReLU 的输出不是以 0为中心的;
* 神经元坏死现象,某些神经元可能永远不会被激活,导致相应参数永远不会被更新;
* 不能避免梯度爆炸问题;
2.4 LReLU
函数定义:
$f(x)=\left{\begin{array}{lr}\alpha x&x<0\ x&x\geq0\end{array}\right.\quad$
导数:
$f(x)^{"}=\begin{cases}\alpha&x<0\\ 1&x\geq0\end{cases}$
优点:* 避免梯度消失;
* 由于导数总是不为零,因此可减少死神经元的出现;
缺点:* LReLU 表现并不一定比 ReLU 好;
* 无法避免梯度爆炸问题;
2.5 PReLU
函数定义 :
$f(\alpha,x)=\left{\begin{array}{lr}\alpha x&x<0\ x&x\geq0\end{array}\right.\quad$
导数:
$f\left(\alpha,x\right)"=\left{\begin{array}{cc}\alpha&x<0\ 1&x\ge0\end{array}\right.\quad$
优点:* PReLU 是 LReLU 的改进,可以自适应地从数据中学习参数;
* 收敛速度快、错误率低;
* PReLU 可以用于反向传播的训练,可以与其他层同时优化;
2.6 RReLU
函数定义:
$f(\alpha,x)=\left{\begin{array}{lr}\alpha x&x<0\ x&x\geq0\end{array}\right.$
导数:
$f(\alpha,x)"=\left{\begin{array}{lr}\alpha&x<0\ 1&x\geq0\end{array}\right.$
优点:为负值输入添加了一个线性项,这个线性项的斜率在每一个节点上都是随机分配的(通常服从均匀分布)。
2.7 ELU
函数定义:
$f(\alpha,x)=\left{\begin{array}{lr}\alpha\left(e^x-1\right)&x<0\ x&x\ge0\end{array}\right.$
导数:
$f(\alpha,x)^{"}=\left{\begin{array}{lr}f(\alpha,x)+\alpha&x<0\ 1&x\geq0\end{array}\right.$
优点:* 导数收敛为零,从而提高学习效率;
* 能得到负值输出,这能帮助网络向正确的方向推动权重和偏置变化;
* 防止死神经元出现。
缺点:* 计算量大,其表现并不一定比 ReLU 好;
* 无法避免梯度爆炸问题;
2.8 SELU
函数定义:
$f(\alpha,x)=\lambda\left{\begin{array}{lr}\alpha\left(e^x-1\right)&x<0\ x&x\geq0\end{array}\right.$
导数:
$f(\alpha,x)"=\lambda\left{\begin{array}{lr}\alpha\left(e^x\right)&x<0\ 1&x\geq0\end{array}\right.$
优点:* SELU 是 ELU 的一个变种。其中 λ 和 α 是固定数值(分别为 1.0507和 1.6726);
* 经过该激活函数后使得样本分布自动归一化到 0均值和单位方差;
* 不会出现梯度消失或爆炸问题;
2.9 softsign
函数定义:
$f(x)=\dfrac{x}{|x|+1}\quad\text{}$
导数:
$f"(x)=\frac{1}{\left(1+\left|x\right|\right)^2}\quad\text{}$
优点:* softsign是 tanh激活函数的另一个替代选择;
* softsign是反对称、去中心、可微分,并返回 −1和 1之间的值;
* softsign更平坦的曲线与更慢的下降导数表明它可以更高效地学习;
缺点:* 导数的计算比tanh更麻烦;
2.10 softplus
函数定义:
$f(x)=\ln\left(1+e^x\right)\quad\quad$
导数:
$f"(x)=\dfrac{1}{1+e^{-x}}$
优点:* 作为 relu 的一个不错的替代选择,softplus能够返回任何大于 0的值。
* 与 relu不同,softplus的导数是连续的、非零的,无处不在,从而防止出现死神经元。
缺点:* 导数常常小于 1,也可能出现梯度消失的问题。
* softplus另一个不同于 relu的地方在于其不对称性,不以零为中心,可能会妨碍学习。
3.多分类激活函数
3.1 softmax
softmax 函数一般用于多分类问题中,它是对逻辑斯蒂(logistic)回归的一种推广,也被称为多项逻辑斯蒂回归模型(multi-nominal logistic mode)。假设要实现 k 个类别的分类任务,Softmax 函数将输入数据 xi映射到第 i个类别的概率 yi如下计算:
$yi=software\max\left(x_i\right)=\dfrac{e^{x_i}}{\sum{j=1}^{k}e^{x_j}}$
显然,$0 由于 softmax 输出结果的值累加起来为 1,因此可将输出概率最大的作为分类目标(图 1 中被分类为第一类)。 也可以从如下另外一个角度来理解图 1 中的内容:给定某个输入数据,可得到其分类为三个类别的初始结果,分别用 x1、x2和 x3来表示。这三个初始分类结果分别是 4、1和-4。通过 Softmax 函数,得到了三个类别分类任务中以概率表示的更好的分类结果,即分别以 95.25%、4.71%和0.04% 归属于类别1、类别2 和类别3。显然,基于这样的概率值,可判断输入数据属于第一类。可见,通过使用 Softmax 函数,可求取输入数据在所有类别上的概率分布。 函数定义: $f(x)=x\cdot\sigma(x)$ 其中,σ是 sigmoid函数。 $\begin{aligned}f"\left(x\right)=\sigma\left(x\right)+x\cdot\sigma\left(x\right)\left(1-\sigma\left(x\right)\right)\ =\sigma\left(x\right)+x\cdot\sigma\left(x\right)-x\cdot\sigma\left(x\right)^2\ =x\cdot\sigma\left(x\right)+\sigma\left(x\right)\left(1-x\cdot\sigma\left(x\right)\right)\ =f\left(x\right)+\sigma\left(x\right)\left(1-f\left(x\right)\right)\end{aligned}$ $f\left(x\right)=x\cdot\sigma\left(\beta x\right)$ 函数定义: $f\left(x\right)=x\frac{\mathrm{Re}L U6\left(x+3\right)}{6}\quad$ 从数学的角度看 relu在 0点不可导,因为它的左导数和右导数不相等;但在实现时通常会返回左导数或右导数的其中一个,而不是报告一个导数不存在的错误,从而避免了这个问题。 $\begin{array}{c}\tanh^{"}\left(x\right)=1-\tanh\left(x\right)^{2}\in\left(0,1\right)\ \ s^{"}\left(x\right)=s\left(x\right)\left(1-s\left(x\right)\right)\in\left(0,\dfrac{1}{4}\right]\end{array}$ 由上面两个公式可知 tanh引起的梯度消失问题没有 sigmoid严重,所以 tanh收敛速度比 sigmoid快。3.2 swish
* 当 x>0时,不存在梯度消失的情况;当 x<0时,神经元也不会像 ReLU 一样出现死亡的情况;
* swish处处可导,连续光滑;
* swish并非一个单调的函数;
缺点:* 提升了模型的性能;
* 计算量大;
3.3 hswish
4.激活函数的选择
浅层网络在分类器时,sigmoid函数及其组合通常效果更好。由于梯度消失问题,有时要避免使用 sigmoid和 tanh函数。relu函数是一个通用的激活函数,目前在大多数情况下使用。如果神经网络中出现死神经元,那么 prelu函数就是最好的选择。relu函数只能在隐藏层中使用。通常,可以从 relu函数开始,如果 relu函数没有提供最优结果,再尝试其他激活函数。5. 激活函数相关问题总结
5.1 为什么 relu不是全程可微/可导也能用于基于梯度的学习?
5.2 为什么 tanh的收敛速度比 sigmoid快?
5.3 sigmoid 和 softmax 有什么区别?
二分类问题时 sigmoid和 softmax是一样的,都是求 cross entropy loss,而 softmax可以用于多分类问题。softmax是 sigmoid的扩展,因为,当类别数 k=2时,softmax回归退化为 logistic回归。softmax建模使用的分布是多项式分布,而 logistic则基于伯努利分布。多个 logistic回归通过叠加也同样可以实现多分类的效果,但是 softmax回归进行的多分类,类与类之间是互斥的,即一个输入只能被归为一类;多 logistic回归进行多分类,输出的类别并不是互斥的,即”苹果”这个词语既属于”水果”类也属于”3C”类别。
标签:
相关文章
世界新资讯:深度学习基础入门篇[四]:激活函数介绍:tanh、sigmoid、ReLU、PReLU、ELU、softplus、softmax、swish等
深度学习基础入门篇四:激活函数介绍:tanh、sigmoid、ReLU、PReLU、ELU、softplus、softmax、swish等
遂宁“春雷行动2023”成绩斐然 查办案件1428件 挽回经济损失157.76万元
4月7日,市市场监督管理局组织召开“春雷行动2023”第二次新闻发布会,通报我市“春雷行动2023”总体开展情况及取得的成效和“春雷行动2023...
方萍萍:2023年04月13日黄金交易策略
通过对黄金小时图解析得知,昨日行情先涨后跌再上涨在高位形成剧烈震荡,盘在一度放量突破1号平台的压制,随之在上方2029一线冲高回落,晚间到
年涨幅超400%,游资刀口舔血!2023年“最牛股”收监管函
股价大涨4倍以后,2023年“最牛股”佰维存储(688525 SH)收到了上交所监管函。4月11日傍晚,佰维存储公告称,上交所向公司下发监管工作函,涉
天天新动态:许君聪和张浩演的电影叫什么_许君聪和张浩演的电影
1、血战铜锣湾陈家俊 张浩博2016许君聪 于利 卢惠光 李国麟 刘晓晔 四宝宝 徐少强 骆应钧 欧瑞伟 骆达华
天天动态:Ameriprise Financial:预计美联储今年不会降息
App4月12日消息,金融服务公司AmeripriseFinancial首席市场策略师AnthonySaglimbene表示,今天的通胀数据证实,通胀趋势正在向前发展。美联储
全球热点!美股三大指数集体上涨美国3月CPI重磅来袭
美股三大指数集体上涨美国3月CPI重磅来袭:纳指平开,标普500涨0 48%,道指涨0 42%。美国3月CPI同比增长5%,预期为5 1%;环比增长0 1%,预
金川项目部龙首矿深部工程斜坡道提前实现精准贯通 天天热头条
4月10日,随着一声炮响,由金川项目部承建的金川集团龙首矿西二采区深部工程1430m-1220m中段斜坡道较计划工期提前两个月精准贯通。 1430m至
只想一生跟你走歌词啥意思(只想一生跟你走歌词表达什么意思)
只想一生跟你走歌词啥意思,只想一生跟你走歌词表达什么意思这个很多人还不知道,现在让我们一起来看看吧!1、你去到那里就跟随你去那里。2、一
三亚计划年内建成交付安置房11924套
据介绍,今年上半年建成11474套,分别有食品厂北区安置区831套、西瓜芒果安置区(一期)2076套、东岸村安置区项目1291套、南新农场安居工程项
今日关注:高点回落跌破8000元/吨 前低点位或成为关键
苹果305合约今日减仓下行,多空持仓排名前20席中,多头第一名中信期货占全市场5%,空头第一名国泰君安占全市场6%。
世界热点!龙利得(300883):召开2022年年度股东大会的提示性公告,审议《关于(2022年度董事会工作报告)的议案》等多项议案
4月12日,龙利得公告显示,公司召开年度股东大会,本次会议采用以网络投票相结合的方式召开,股东可以通过深交所交易系统和互联网投票系统参加
【热闻】【收评】尿素日内下跌0.04% 机构称尿素成交转好 盘面回升
行情表现4月12日收盘价当日涨跌幅五日涨跌幅尿素2382 00元 吨-0 04%-0 92%日内消息 1、国内尿素现货价格小幅上调10-20元 吨 据农时达情
咸阳市秦都区渭滨街道锦程社区举办少儿编程欢乐多书香益智促和美活动
近期,锦程社区新时代文明实践站携手乐博乐博开展了趣味十足的益智课程。辖区10余组孩子与科技相遇,碰撞出奇妙的火花。
老鹰灭火、湖人擒狼,NBA附加赛晋级季后赛名额已定两席-世界观速讯
老鹰灭火、湖人擒狼,NBA附加赛晋级季后赛名额已定两席,湖人,老鹰,热火队,多伦多猛龙队,nba附加赛,明尼苏达森林狼队
安切洛蒂:希望在伊斯坦布尔与AC米兰会师决赛
安切洛蒂在周二出席了与切尔西欧冠1 4决赛前的新闻发布会。安切洛蒂谈到了和切尔西的首回合比赛,以及皇马今年不再像去年那样,在主场已经没有
环球消息!谱尼测试:4月11日融券卖出1500股,融资融券余额4277.88万元
4月11日,谱尼测试(300887)融资买入254 74万元,融资偿还379 3万元,融资净卖出124 56万元,融资余额4224 19万元。
本轮沙尘已跨过长江!沙尘暴蓝色预警!|当前播报
中央气象台4月12日06时继续发布沙尘暴蓝色预警:受冷空气大风影响,预计4月12日08时至13日08时,新疆南疆盆地和东部、内蒙古中西部、甘肃河西
透过这1200家企业,看清电子信息产业发展大势
展会是技术发展成果和趋势的具象展现。在第十一届中国电子信息博览会上,记者看到了围绕高端半导体、基础元器件、新型显示、智能
每日播报!用更优营商环境点亮企业的春天
把“浙江之声”设为星标,更容易找到我们哦来源:浙电e家版权归原作者所有,如有侵权请及时联系举目已觉千山绿,宜趁东风马蹄疾。春日的古...
“不必太在乎估值!”万亿赛道又迎巨头,格力、美的等也宣布入局!业内人士:高增速是王道
特斯拉宣布在上海新建一座特斯拉储能超级工厂的消息再次引爆了国内储能行业,据悉,这将是特斯拉在美国本土以外的首个储能超级工厂项目。
世界报道:3月房企非银融资917.9亿元 环比增加逾1倍
伴随“三支箭”等融资利好政策的持续释放,当前房地产融资环境持续回暖。 中指研究院4月11日发布的监测数据显示,3月房地产企业非银融资...
斗龙战士手机游戏_斗龙战士游戏为什么不能玩 天天最新
1、1 你家网速太慢。2、2 你是不是在注册时用户名打错了?方法:针对1 你可以升级你家电脑网速。3、针对2 再换几个试
天天短讯!2022年全国体操冠军赛在成都开赛
江苏队侍聪在吊环比赛中。安源摄山东队廖佳洁在跳马比赛中。安源摄湖南队杨家兴在鞍马比赛中。安源摄上海队章瑾在平衡木比赛中。安源摄山东队
要闻速递:中国气象局:沙尘前沿已到湖北、安徽、江苏
根据中国气象局气象探测中心综合气象观测产品系统(天衡天衍)监测显示4月11日16时,本次沙尘气团南移,沙尘前沿到湖北、
肇事宝马司机承认第一时间知道撞人 具体详细内容是什么-全球观天下
肇事宝马司机承认第一时间知道撞人今天的热度非常高,现在也是在热搜榜上了,那么具体的肇事宝马司机承认第一时间知道撞人是什么
4月12日开启公售,限量303台!新一代领克03+为性能而来
2022年11月22日20:03分,新一代领克03(参数|询价)+开启线上公售,首批公售的303台仅用时3秒就售罄。2023年12月5日20:03分,新一代领克
杭齿前进(601177):2022年营业收入21.96亿元,与上期同比增加2.62%
4月11日,杭齿前进2022年年报显示,本期营业收入21 96亿元,与上期同比增加2 62%,净利润2 09亿元。公司负责人杨水余、主管会计工作负责人