当前位置: 首页 > news >正文

做网站要学什么东西长沙关键词排名软件

做网站要学什么东西,长沙关键词排名软件,网站系统定制,wordpress会员密码有效期文章目录 softmax loss1.softmax函数2.交叉熵损失函数3.softmax loss损失函数(重点)4.带有temperature参数的softmax loss参考 softmax loss 1.softmax函数 softmax函数是一种常用的激活函数,通常用于多分类任务中。给定一个向量&#xff0…

文章目录

  • softmax loss
    • 1.softmax函数
    • 2.交叉熵损失函数
    • 3.softmax loss损失函数(重点)
    • 4.带有temperature参数的softmax loss
    • 参考

softmax loss

1.softmax函数

softmax函数是一种常用的激活函数,通常用于多分类任务中。给定一个向量,softmax函数将每个元素转化为一个介于0~1之间的概率值,并且所有元素的概率之和为1。softmax函数的定义如下:
softmax ⁡ ( z ) i = e z i ∑ j = 1 K e z j \operatorname{softmax}(z)_i=\frac{e^{z_i}}{\sum_{j=1}^Ke^{z_j}} softmax(z)i=j=1Kezjezi
其中 z z z是输入向量, K K K是向量的维度。softmax函数的作用是将输入的原始分数(通常称之为logits1)转化为表示各个类别概率的分布。

2.交叉熵损失函数

交叉熵损失函数是用来衡量两个概率分布之间的差异性的一种度量方式。在深度学习中,常用交叉熵损失函数来衡量模型预测的概率分布与真实标签的分布之间的差异,从而作为优化目标来训练模型。

对于二分类问题,交叉熵损失函数的定义如下
Binary Cross Entropy Loss = − 1 N ∑ i = 1 N [ y i log ⁡ ( p i ) + ( 1 − y i ) log ⁡ ( 1 − p i ) ] \text{Binary Cross Entropy Loss}=-\frac1N\sum_{i=1}^N\left[y_i\log(p_i)+(1-y_i)\log(1-p_i)\right] Binary Cross Entropy Loss=N1i=1N[yilog(pi)+(1yi)log(1pi)]
其中 y i y_i yi是真实标签, p i p_i pi是模型预测的概率值, N N N是样本数。

对于多分类问题,交叉熵损失函数的定义如下
Cross Entropy Loss = − 1 N ∑ i = 1 N ∑ k = 1 K y i , k log ⁡ ( p i , k ) \text{Cross Entropy Loss}=-\frac1N\sum_{i=1}^N\sum_{k=1}^Ky_{i,k}\log(p_{i,k}) Cross Entropy Loss=N1i=1Nk=1Kyi,klog(pi,k)
其中 y i , k y_{i,k} yi,k是第 i i i 个样本属于第 k k k 个类别的真实标签, p i , k p_{i,k} pi,k 是模型预测的第 i i i 个样本属于第 k k k 个类别的概率值, N N N 是样本数, K K K 是类别数。

3.softmax loss损失函数(重点)

softmax loss是深度学习中最常见的损失函数,完整的叫法为 Cross-entropy loss with softmax。softmax loss 由Fully Connected Layer,Softmax Function和Cross-entropy Loss组成。

Alt

softmax loss就是将softmax函数和交叉熵损失函数结合在了一起
Softmax Loss = − 1 N ∑ i = 1 N ∑ k = 1 K y i , k log ⁡ ( exp ⁡ ( z i , k ) ∑ j = 1 K exp ⁡ ( z i , j ) ) \text{Softmax Loss}=-\frac1N\sum_{i=1}^N\sum_{k=1}^Ky_{i,k}\log\left(\frac{\exp(z_{i,k})}{\sum_{j=1}^K\exp(z_{i,j})}\right) Softmax Loss=N1i=1Nk=1Kyi,klog(j=1Kexp(zi,j)exp(zi,k))
其中 y i , k y_{i,k} yi,k 是第 i i i 个样本属于第 k k k 个类别的真实标签,当样本 i i i 属于类别 k k k 时, y i , k = 1 y_{i,k}=1 yi,k=1;否则, y i , k = 0 y_{i,k}=0 yi,k=0 z i , k z_{i,k} zi,k 是样本 i i i 关于类别 k k k 的得分logits, N N N 是样本数, K K K 是类别数。

4.带有temperature参数的softmax loss

带有温度参数 T T T 的 softmax loss的损失函数如下:
Loss = − 1 N ∑ i = 1 N ∑ k = 1 K y i , k log ⁡ ( exp ⁡ ( z i , k / T ) ∑ j = 1 K exp ⁡ ( z i , j / T ) ) \text{Loss}=-\frac1N\sum_{i=1}^N\sum_{k=1}^Ky_{i,k}\log\left(\frac{\exp(z_{i,k}/T)}{\sum_{j=1}^K\exp(z_{i,j}/T)}\right) Loss=N1i=1Nk=1Kyi,klog(j=1Kexp(zi,j/T)exp(zi,k/T))

参考

1.Large-Margin Softmax Loss for Convolutional Neural Networks

2.Softmax Loss推导过程以及改进

3.深度学习中的温度参数(Temperature Parameter)是什么?

😃😃😃


  1. logits就是一个向量,该向量下一步通常被输入到激活函数中,如softmax、sigmoid中。 ↩︎

http://www.hengruixuexiao.com/news/50495.html

相关文章:

  • 怎么制作网站客服crm系统网站
  • 和平网站建设企业网站建设方案策划
  • 如何创立网址广安seo外包
  • 网站二级栏目数量青岛新闻最新消息
  • 代做maya三维动画的网站怎么给公司做网站推广
  • 西安微网站开发seo搜索引擎优化期末及答案
  • 免费咨询法律律师在线劳动仲裁站长工具seo综合查询源码
  • 钓鱼网站网址大全搜索引擎优化的含义
  • 网站未备案怎么做淘宝客优化推广网站推荐
  • app开发公司概况东莞百度seo推广公司
  • java网站留言板怎么做seo网站优化优化排名
  • 汕头网站建设免费发布产品的平台
  • 企业服务网站建设需要多少钱如何在百度免费发布广告
  • 做赌场网站犯法么电话销售如何快速吸引客户
  • linux系统做网站上google必须翻墙吗
  • 民营医院建设网站最近重大新闻头条
  • dede 百度网站地图长沙竞价优化
  • wordpress整站开启https做竞价推广大概多少钱
  • 上海有多少家网站建设公司百度竞价排名
  • 企业品牌营销策划什么是淘宝seo
  • 网易企业邮箱登录网页版seo专业学校
  • 做网站域名重要吗百度下载安装2022最新版
  • 企业网站流量产品推广策划
  • 贵州省住房和城乡建设厅门户网站引流黑科技app
  • 南山做网站公司在哪里精准ip地址查询工具
  • vs做网站开发软文云
  • 网站建设及优化 赣icp网站关键词怎么设置
  • 局域网端口映射做网站电商营销推广方案
  • 做网站语言最好网站优化哪个公司好
  • 可靠的邢台做网站网站seo哪里做的好