机器学习笔记(十一)——学支持向量机怎能不懂“核”

栏目: IT技术 · 发布时间: 4年前

↑ 点击上方蓝字" 奶糖猫 ",加个关注如何

非线性支持向量机

对于线性分类问题,线性分类支持向量机是一种非常有效的方法。但是有的分类问题是非线性的,这时就可以使用非线性支持向量机对分类问题求解,其主要的特点是利用 核技巧(kernel trick) ,下面通过一个通俗的小栗子介绍核技巧。

机器学习笔记(十一)——学支持向量机怎能不懂“核”

核方法与核技巧

假设有一个二维平面上有4个点,两个红色点、两个绿色点,这4个点位于一条直线上,如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

对于这个问题,我们是无法利用一条直线准确将红色点和绿色点分隔开,但是可以利用 一条曲线 实现分类,如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

这时可以改变一下我们固有的思想,如果 将二维平面映射至三维立体空间中 ,并且将一类别的点在纵轴上 提高或者下降 ,这样不就可以利用一个超平面将其分隔开了嘛!如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

现在只需要考虑一个问题,就是将同一类别在纵轴上同时提高或下降的操作应该如何实现。先回到开始的二维平面,如果将这些点添至坐标轴中,会不会存在某个函数的图像可以将其分隔开呢?

机器学习笔记(十一)——学支持向量机怎能不懂“核”

这里利用 一个函数 分两类点,可以看出红色点的横纵坐标乘积为0,即 ,绿色点的横纵坐标乘积为2,即 ,那么利用曲线 不就可以将两类点准确分类嘛!如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

其中 也就是我们非常熟悉的 反比例函数

解决了二维平面的问题,那么再将其映射至三维空间就可以解决前文提出的问题了。可以将算出的新值作为点在三维空间的z轴的坐标,绿色的点就可以 沿z轴正方向提高 ,两类点就可以利用一个超平面实现分类,如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

上面这个栗子也称作 异或问题 ,求解这个问题利用的思想就是核方法。

这个栗子说明用线性分类方法求解分线性分类问题大致可分为两步:首先使用一个变换将原空间的数据映射至新空间;然后在新空间里用线性分类学习方法对数据进行分类,核技巧就属于这样的方法。

核技巧的基本思想就是通过一个 非线性变换 将输入空间映射至特征空间,使得输入空间的超曲面模型对应于特征空间的超平面模型,这样,就可以通过在特征空间利用线性支持向量机求解分类问题。

机器学习笔记(十一)——学支持向量机怎能不懂“核”

核函数

在知道核技巧的基本思想后,我们可以对之前求出的 对偶问题 做出相应的处理,即通过输入空间向特征空间的映射,将,如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

若按照这种方法对问题求解,必须在特征空间中求 和的内积 ,但是特征空间的维度往往是比较大的,这就使内积的运算极其复杂,有没有另一种方法可以简化这个求解方式呢?

假设有一个二维平面,我们需要将其映射至一个三维特征空间中,那么二维平面上的两类样本点分为用和;则在三维特征空间中两类点可以用和表示。

若要对三维特征空间做内积操作,可以将其做以下推导,可以看到三维特征空间中的内积是可以由二维平面的内积表示的,最后得到的这个函数就被称为 核函数

机器学习笔记(十一)——学支持向量机怎能不懂“核”

所以对于每一个映射至特征空间中的函数,都可以找到一个 相应的核函数 对其运算进行优化,表达式也可以做出相应的更改,如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

在此基础上可以了解一下核函数的定义,设是输入空间,又设为特征空间(希尔伯特空间),如果存在一个到的映射

使得对所有 ,函数 满足条件

则称为核函数,为映射函数,其中为和的内积。

综上,如果有一个 待求解的非线性分类问题 ,我们没有必要去计算其对应特征空间中的内积,只需要找到这个非线性分类问题对应的核函数,将输入空间的数据代入核函数中,便可求得该问题的解。

于是,“ 核函数的选择 ”就成了支持向量机的最大变数,若核函数的选择不合适,则意味着将样本映射到了一个不合适的特征空间,很可能导致分类效果不佳。而只是起到一个中间的 过渡作用 ,并没有什么实际意义。

下图给出了几个常用的核函数,其中 高斯核函数 是最为重要的,也称作径向基核函数。

机器学习笔记(十一)——学支持向量机怎能不懂“核”

机器学习笔记(十一)——学支持向量机怎能不懂“核”

正定核

在已知映射函数,可以通过和的内积求得核函数,但这个过程是比较复杂的,能否 直接判断 一个给定的函数是不是核函数呢?或者一个函数需要满足什么条件才能成为核函数?

我们通常所说的核函数是叫作 正定核函数 ,先了解一下正定核的 两个概念

其一,若输入空间映射至特征空间的关系为

则称为正定核函数。

R代表数学中的实数域

其二,对于输入空间内的样本点

如果满足 对称性和正定性 ,则称为正定核函数。

机器学习笔记(十一)——学支持向量机怎能不懂“核”

概念一很好理解,并且前文也应用到了,所以这里着重讲述一下概念二。概念二的对称性:

由于 内积运算具有对称性 ,而核函数包含内积运算,所以核函数具有对称性。

正定性表示对于任意,对应的Gram矩阵

半正定矩阵 。如果在对称性成立的情况下,那么正定性是一个核函数为正定核的 充要条件 ,即

这里只给出必要性的证明。若要证明一个矩阵是半正定的,只需证明矩阵中每个特征值都 大于等于0 即可。在已知条件下,对任意的 ,若存在以下等式:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

则表明 关于的Gram矩阵是半正定的。

机器学习笔记(十一)——学支持向量机怎能不懂“核”

总结

对于分类问题而言,可以利用核技巧,将线性分类的学习方法应用至非线性分类问题中。将线性支持向量机扩展至非线性支持向量机, 只需将线性支持向量机对偶问题中的内积利用转化成核函数 即可。

机器学习笔记(十一)——学支持向量机怎能不懂“核”

机器学习笔记(十一)——学支持向量机怎能不懂“核”

欢迎各位给奶糖猫留言      在线陪聊

看到这点个“在看”吧         谢谢大爷呀

End

往期推荐:

1. 机器学习笔记(十)——这样推导SMO算法才易理解

2. 机器学习笔记(九)——手撕支持向量机之间隔、对偶、KKT条件详细推导

3. 机器学习笔记(八)——随机梯度上升(下降)算法调优

4. 机器学习笔记(七)——初识逻辑回归、两种方法推导梯度公式

机器学习笔记(十一)——学支持向量机怎能不懂“核”


以上所述就是小编给大家介绍的《机器学习笔记(十一)——学支持向量机怎能不懂“核”》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

从颠覆到创新

从颠覆到创新

长江商学院 / 中国友谊出版公司 / 49.00

互联网+时代的汹涌来临,一切我们所熟知的事物都在发生改变,商业模式的剧烈变化正在席卷各行各业,所有坚硬的壁垒都将消散,所有的企业都面临着商业模式的再探索和转型,而商业模式的探索、失败、进化,甚而再回到起点,杀死自己推倒重来,不断颠覆不断创新,不断涅槃不断重生,这不仅仅是这个时代新创公司的特征,也是今天互联网领域所有存活下来的巨头们的轨迹。 本书通过11个典型的互联网企业商业模式转型案例,讲述......一起来看看 《从颠覆到创新》 这本书的介绍吧!

HTML 编码/解码
HTML 编码/解码

HTML 编码/解码

SHA 加密
SHA 加密

SHA 加密工具

HEX HSV 转换工具
HEX HSV 转换工具

HEX HSV 互换工具