Skip to content

SVM Classification

标签
AI
DL
ML
字数
707 字
阅读时间
4 分钟

SVM的General Idea

Margin:指的是决策边界到某个类别点的最短距离。

那么决策边界在哪比较好呢?对于两个类别,margin都最大,也就是说,对于两个类别的最近点都距离最大的时候,这个边界比较好。

support vector:那些距离正好等于margin的点就是支持向量。也就是距离决策边界最近的每个阵营的点。

SVM的输出直接就是标签-1,1,而不是像逻辑回归一样给你一个概率,然后取大概率。

那么SVM模拟了一个怎样的函数呢?(也就是说,假设集是啥)

那么优雅地写出这个式子,就变成了这样:

为什么|h(x)| = yh(x)? 因为y=1 h(x) > 0, y=-1 h(x) < 0,所以成立。

注意,下面两个约束是等价的。为什么?

上面的条件是 y h(x) > 0, 下面的条件写开了就是 y h(x) >=1,满足了下面一定满足上面。为什么?因为在这里我们忽略y,因为|y| = 1,这就说明,|h(x)| >= 1。这个是很好实现的,只要同时用因子k放缩w,b就能达到。

于是问题进一步化简成为了:

那么问题就变成了

当然,把x换成phi(x),运用非线性变化,就可以求解非线性分类问题了。

求解SVM问题

贡献者

文件历史