深度学习之softmax回归
2024-08-30 05:13:28
前言
以下内容是个人学习之后的感悟,转载请注明出处~
softmax回归
首先,我们看一下sigmod激活函数,如下图,它经常用于逻辑回归,将一个real value映射到(0,1)的区间(当然也可以是
(-1,1)),这样可以用来做二分类。
接下来,我们再看一下softmax函数,其函数类型如下:
那么,softmax又是怎么实现的呢?softmax把一个k维的real value向量(a1,a2,a3,a4….)映射成一个(b1,b2,b3,b4….)
其中bi是一个0-1的常数,然后可以根据bi的大小来进行多分类的任务,如取概率最大的一维。具体实现如下图:
无非是把神经网络最后一层的激活函数替换为softmax函数,算出概率值最大的那一类即正确类。
其代价函数为L(ý,y)= - ∑ yj * log( ýj ) 。
实例如下图所示,当代价函数最小时,那一个正确分类的概率输出值最大。
以上是全部内容,如果有什么地方不对,请在下面留言,谢谢~
最新文章
- 面试题:return和finally执行
- javascript 位运算
- PaintCode调研
- 关闭Outlook时最小化 dll
- matlab函数调用及数据传递
- ES6-函数扩展
- ubuntu14.04折腾迅雷xware
- 在什么情况下使用@ResponseBody 注解?
- 深入java虚拟机学习 -- 内存管理机制
- [LeetCode] Number of Distinct Islands II 不同岛屿的个数之二
- 17 一个ContentProvider的例子
- 如何设制 select 不可编辑 只读
- Hadoop日志文件
- ThinkPHP5.0源码学习之缓存Cache(二)
- Microsoft Windows CVE-2017-8464 LNK 远程代码执行漏洞(复现)
- Spark进阶之路-日志服务器的配置
- Puppet软件资源管理
- IAR中的 identifier ";FILE"; is undefined 问题
- Thinkphp5 Nginx Pathinfo配置
- 【转载】Impala和Hive的区别