解释Logistic回归背后的直觉

栏目: 数据库 · 发布时间: 5年前

内容简介:(1.与实测回归法不同,逻辑回归不会尝试在给定一组输入的情况下预测数值变量的值。相反,输出是给定输入点属于某个类的

注意: 这是一篇试图向不完全熟悉统计数据的读者解释Logistic回归背后的直觉的帖子。因此,你可能在这里找不到任何严谨的数学工作。)

Logistic回归是一种涉及线性判别的分类算法。 那是什么意思?

1.与实测回归法不同,逻辑回归不会尝试在给定一组输入的情况下预测数值变量的值。相反,输出是给定输入点属于某个类的 概率 。为简单起见,假设我们只有两个类(对于多类问题,您可以查看 多项Logistic回归 ),并且所讨论的概率是P+ - >某个数据点属于' +'类的概率。当然,P_ =1-P+。因此,Logistic回归的输出总是在[0,1]中。

2. Logistic回归的核心前提是假设您的输入空间可以被分成两个不错的“区域”,每个类对应一个 线性 (读取:直线) 边界 。那么“线性”边界是什么意思呢?对于两个维度,它是一条直线 - 没有弯曲。对于三维,它是一个平面。等等。这个边界将由您的输入数据和学习算法决定。但是为了理所当然,很明显数据点必须通过线性边界分成上述两个区域。如果您的数据点确实满足此约束,则称它们是 线性可分的 。看下面的图片。

解释Logistic回归背后的直觉

这个划分平面称为 线性判别式 ,因为 1.它的功能是线性的,2。它有助于模型在属于不同类别的点之间“区分”。(注意:如果您的点在原始概念空间中不能线性分离,您可以考虑通过添加交互项的维度,更高维度项等来将特征向量转换为更高维度的空间。这样的线性算法更高维空间的使用为您提供了非线性函数学习的一些好处,因为如果在原始输入空间中绘制回边界,则边界将是非线性的。)

========== X ===========

但Logistic回归如何使用此线性边界来量化属于某一类的数据点的概率?

首先,让我们尝试理解输入空间“划分”到两个不同的区域的几何意义。假设两个输入简单变量(与上面显示的三维图不同) x1和x2,对应边界的函数将类似于

解释Logistic回归背后的直觉

。(至关重要的是要注意x1和x2输入变量是两个,并且输出变量不是概念空间的一部分 - 与线性回归等技术不同。)考虑一下(a,b)。输入x1 和x2的值到边界函数,我们会得到它的输出

解释Logistic回归背后的直觉

。现在依据(a,b)的位置,有三种可能性 :

1. (a,b)位于由+类点定义的区域。结果

解释Logistic回归背后的直觉

将是正向的,位于(0,∞)的某个地方。在数学上,该值的幅度越大,点与边界之间的距离越大。直观地说,(a,b)属于+类的概率越大。因此,P+将在(0.5,1)。

2. (a,b)位于由-类定义的区域。现在,

解释Logistic回归背后的直觉

将是负向的,躺在( - ∞,0)。但是在正面情况下,函数输出的绝对值越高,(a,b)属于-类的概率就越大。P+现在将位于[0,0.5]。

3. (a,b)位于线性边界上。在这种情况下,

解释Logistic回归背后的直觉

。这意味着该模型无法真正说明是(a,b)属于+类还是-类。结果,P+将正好是0.5。

所以现在我们有一个函数在给定输入数据点的情况下输出( - ∞,∞)的值。但是我们如何将其映射到P+,从[0,1] 开始的概率?答案就在 赔率 函数中。让我们P(X)表示事件X发生的概率。在这种情况下,优势比(OR(X))定义为  

解释Logistic回归背后的直觉

,基本上是事件发生概率与未发生概率之比。很明显,概率和几率传达完全相同的信息。但是当$ P(X)$从0变为1时,OR(X)从0变为 ∞.

然而,我们仍然还没有应用,因为我们的边界函数从给出的值- ∞到∞。所以我们要做的,就是以 对数 的OR(X),被称为对数几率函数( log-odds function )。数学上,OR(X)从0到∞,log(OR(X)) 从- ∞到∞!

所以我们终于有办法解释将输入属性带入边界函数的结果。边界函数实际上定义了+类在我们模型中的对数几率。因此基本上,在二维的例子中,给定一点

(a,b),Logistic回归会做的事情 如下:

第1步 。计算边界函数(或者,log-odds函数)值

解释Logistic回归背后的直觉

。让我们简单地称这个值t。

第2步 。通过这样做来计算优势比

解释Logistic回归背后的直觉

。(因为t是OR+的对数)。

第3步 。知道了OR+,它会使用简单的数学关系进行计算P+

解释Logistic回归背后的直觉

。事实上,一旦你知道从第1步得出的t,你可以结合第2步和第3步给出

解释Logistic回归背后的直觉

上述等式的RHS称为 逻辑函数 。因此,也给这个学习模型的名称:-)。

========== X ===========

我们现在已经理解了Logistic回归背后的直觉,但问题仍然存在 - 它如何学习边界函数

解释Logistic回归背后的直觉

?这背后的数学工作超出了这篇文章的范围,但这是一个粗略的想法:考虑一个函数g(x),其中x是训练数据集中的数据点。g(x)可以简单地定义为:如果x是+类的一部分,g(x)=P+,(这里P+是Logistic回归模型给出的输出)。如果x是-类的一部分,g(x)=1-P+。直观地,g(x)量化您的模型 正确 分类训练点的概率。因此,如果您g(x)对整个训练数据进行平均,您将获得系统正确分类随机数据点的概率,而不管其所属的类别。稍微简化一下,Logistic回归学习试图最大化“平均”的g(x) 。采用的方法称为 最大似然估计 (出于显而易见的原因)。除非你是一名数学家,否则你可以在不了解 如何 优化发生的情况下,进行优化 ,只要你知道在优化什么上有好的想法- 主要是因为大多数统计或ML库都有内置的方法来完成它。

========== X ===========

目前为止就这样了!就像我的所有博客帖子一样,我希望这个可以帮助一些尝试通过Google和自己学习一些东西的人,去理解Logistic回归技术的误解。

点击英文原文链接

更多文章欢迎访问: http://www.apexyun.com

公众号:银河系1号

联系邮箱:public@space-explore.com

(未经同意,请勿转载)


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

欲罢不能

欲罢不能

[美] 亚当·奥尔特 / 闾佳 / 机械工业出版社 / 2018-4-1 / 59.00元

全面揭秘和解决“行为上瘾”的奠基之作 美国亚马逊分类图书畅销榜第一名 行为上瘾是什么?诱人上瘾的体验是如何设计出来的? 如何远离行为上瘾?如何用行为上瘾做些好事? ◆ 内容简介 ◆ 欢迎来到“行为上瘾”的时代! 我们中近半数人至少有一种“行为上瘾”:无时无刻盯着手机,不断刷朋友圈,通宵追看电视剧集,没日没夜打游戏,频繁查看邮件,用太多时间工作…… 而那些生......一起来看看 《欲罢不能》 这本书的介绍吧!

随机密码生成器
随机密码生成器

多种字符组合密码

SHA 加密
SHA 加密

SHA 加密工具

正则表达式在线测试
正则表达式在线测试

正则表达式在线测试