当前位置: 首页 > news >正文

山东前网站建设市场调研报告800字

山东前网站建设,市场调研报告800字,营销网站开发,山西建设机械网站首页模型可解释性汇总简 介目前很多机器学习模型可以做出非常好的预测,但是它们并不能很好地解释他们是如何进行预测的,很多数据科学家都很难知晓为什么该算法会得到这样的预测结果。这是非常致命的,因为如果我们无法知道某个算法是如何进行预测&…

模型可解释性汇总

简 介

目前很多机器学习模型可以做出非常好的预测,但是它们并不能很好地解释他们是如何进行预测的,很多数据科学家都很难知晓为什么该算法会得到这样的预测结果。这是非常致命的,因为如果我们无法知道某个算法是如何进行预测,那么我们将很难将其前一道其它的问题中,很难进行算法的debug。

本文介绍目前常见的几种可以提高机器学习模型的可解释性的技术,包括它们的相对优点和缺点。我们将其分为下面几种:

  1. Partial Dependence Plot (PDP);

  1. Individual Conditional Expectation (ICE)

  1. Permuted Feature Importance

  1. Global Surrogate

  1. Local Surrogate (LIME)

  1. Shapley Value (SHAP)

六大可解释性技术

01

Partial Dependence Plot (PDP)

PDP是十几年之前发明的,它可以显示一个或两个特征对机器学习模型的预测结果的边际效应。它可以帮助研究人员确定当大量特征调整时,模型预测会发生什么样的变化。

上面图中,轴表示特征的值,轴表示预测值。阴影区域中的实线显示了平均预测如何随着值的变化而变化。PDP能很直观地显示平均边际效应,因此可能会隐藏异质效应。

  • 例如,一个特征可能与一半数据的预测正相关,与另一半数据负相关。那么PDP图将只是一条水平线。

02

Individual Conditional Expectation (ICE)

ICE和PDP非常相似,但和PDP不同之处在于,PDP绘制的是平均情况,但是ICE会显示每个实例的情况。ICE可以帮助我们解释一个特定的特征改变时,模型的预测会怎么变化。

如上图所示,与PDP不同,ICE曲线可以揭示异质关系。但其最大的问题在于:它不能像PDP那样容易看到平均效果,所以可以考虑将二者结合起来一起使用。

03

Permuted Feature Importance

Permuted Feature Importance的特征重要性是通过特征值打乱后模型预测误差的变化得到的。换句话说,Permuted Feature Importance有助于定义模型中的特征对最终预测做出贡献的大小。

如上图所示,特征f2在特征的最上面,对模型的误差影响是最大的,f1在shuffle之后对模型却几乎没什么影响,生息的特征则对于模型是负面的贡献。

04

Global Surrogate

Global Surrogate方法采用不同的方法。它通过训练一个可解释的模型来近似黑盒模型的预测。

  • 首先,我们使用经过训练的黑盒模型对数据集进行预测;

  • 然后我们在该数据集和预测上训练可解释的模型。

训练好的可解释模型可以近似原始模型,我们需要做的就是解释该模型。

  • 注:代理模型可以是任何可解释的模型:线性模型、决策树、人类定义的规则等。

使用可解释的模型来近似黑盒模型会引入额外的误差,但额外的误差可以通过R平方来衡量

  • 由于代理模型仅根据黑盒模型的预测而不是真实结果进行训练,因此全局代理模型只能解释黑盒模型,而不能解释数据。

05

Local Surrogate (LIME)

LIME(Local Interpretable Model-agnostic Explanations)和global surrogate是不同的,因为它不尝试解释整个模型。相反,它训练可解释的模型来近似单个预测。LIME试图了解当我们扰乱数据样本时预测是如何变化的。

上面左边的图像被分成可解释的部分。然后,LIME 通过“关闭”一些可解释的组件(在这种情况下,使它们变灰)来生成扰动实例的数据集。对于每个扰动实例,可以使用经过训练的模型来获取图像中存在树蛙的概率,然后在该数据集上学习局部加权线性模型。最后,使用具有最高正向权重的成分来作为解释。

06

Shapley Value (SHAP)

Shapley Value的概念来自博弈论。我们可以通过假设实例的每个特征值是游戏中的“玩家”来解释预测。每个玩家的贡献是通过在其余玩家的所有子集中添加和删除玩家来衡量的。一名球员的Shapley Value是其所有贡献的加权总和。Shapley 值是可加的,局部准确的。如果将所有特征的Shapley值加起来,再加上基值,即预测平均值,您将得到准确的预测值。这是许多其他方法所没有的功能。

该图显示了每个特征的Shapley值,表示将模型结果从基础值推到最终预测的贡献。红色表示正面贡献,蓝色表示负面贡献。

小结

机器学习模型的可解释性是机器学习中一个非常活跃而且重要的研究领域。本文中我们介绍了6种常用的用于理解机器学习模型的算法。大家可以依据自己的实践场景进行使用。

http://www.hengruixuexiao.com/news/48200.html

相关文章:

  • 商城网站建设哪家好个人引流推广怎么做
  • 中国seo网站备案域名查询
  • 什么是网络营销的新特点合肥网站优化方案
  • 黄色网站建设黄色视频大数据营销名词解释
  • 长沙做网站价格qq刷赞网站推广快速
  • 盐城做网站哪家好进入百度搜索首页
  • 购物网站服务器价格网站建设需要多少钱
  • 做游戏网站的分析网站买卖交易平台
  • 淮安网站建设电话app推广公司怎么对接业务
  • 自做业务网站德州seo优化
  • 济宁优化公司谷歌seo靠谱吗
  • 小程序网站做多大尺寸北京网站排名推广
  • 手机怎样设计网站建设免费推广途径与原因
  • 福州网站建设案例网络营销策划方案范文
  • 毕业设计餐饮网站建设百度权重工具
  • 旅游网站开发目的和意义南阳本地网络推广优化公司
  • iframe网站如何做统计网络营销的优势与不足
  • 网站 公司实力seo人员培训
  • 自己做图片的网站互联网行业最新资讯
  • 怎么网站建设多少钱网站优化seo是什么意思
  • 做动态网站用什么语言怎么设计网站
  • 校园网站推广方案怎么做semantics
  • 天津企业网站设计报价广州seo排名外包
  • 网站上线是前端还是后端来做百度新闻头条
  • 深圳网站设计x程序seo排名优化培训
  • 求职网站怎么做网络推广
  • 网站做零售杭州seo顾问
  • 北京做手机网站的公司名称电商沙盘seo裤子关键词
  • 彩票网站开发的网站收录工具
  • 苏州企业网站制作电话如何做网站推广私人