Skip to content

SVM面试题

1. SVM直观解释

SVM,Support Vector Machine,它是一种二分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;其还包括核技巧,这使它成为实质上的非线性分类器。其学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题。其学习算法就是求解凸二次规划的最优化算法。

这里涉及了几个概念,二分类模型线性分类器间隔最大化凸二次规划问题

  • 二分类模型:给定的各个样本数据分别属于两个类之一,而目标是确定新数据点将归属到哪个类中。
  • 线性分类器:分割样本点的分类器是一个超平面,这也就要求样本线性可分,这是hard-margin SVM的要求,对于后来的soft-margin SVM,放低为近似线性可分,再到后来的核技巧,要求映射到高维空间后要近似线性可分。
  • 线性可分:D0D1n维欧氏空间中的两个点集(点的集合)。如果存在n维向量w和实数b,使得所有属于D0的点 xi 都有 wxi+b>0,而对于所有属于D1的点 xj则有 wxj+b<0。则我们说D0D1线性可分。
  • 间隔最大化:首先要知道SVM中有函数间隔和几何间隔,函数间隔刻画样本点到超平面的相对距离,几何间隔刻画的是样本点到超平面的绝对距离,SVM的直观目的就是找到最小函数距离的样本点,然后最大化它的几何间隔。
  • 凸二次规划:目标函数是二次的,约束条件是线性的。

2. 核心公式

  • 线性可分训练集?T=\left{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \ldots,\left(x_{n}, y_{n}\right)\right}$
  • 学习得到的超平面?w^{* T} x+b^{*}=0$
  • 相应的分类决策函数:f(x)=sign(wTx+b)
  • SVM基本思想:间隔最大化,不仅要讲正负类样本分开,而且对最难分的点(离超平面最近的点)也要有足够大的确信度将他们分开?

在这里插入图片描述在这里插入图片描述

函数间隔

给定一个超平面$(w, b?,定义该超平面关于样本点 (xi,yi) 的函数间隔为?\widehat{\gamma}{i}=y\left(w^{T} x_{i}+b\right)?T的函数间隔为?\widehat{\gamma}=\min {i=1,2, \ldots, N} \widehat{\gamma}$

几何间隔

给定一个超平面$(w, b?,定义该超平面关于样本点 (xi,yi) 的几何间隔为?\gamma_{i}=y_{i}\left(\frac{w^{T}}{|w|} x_{i}+\frac{b}{|w|}\right)?T的几何间隔为?\gamma=\min {i=1,2, \ldots, N} \gamma$

函数间隔与几何间隔的关系

γi=γ^iw,i=1,2,,Nγ=γ^w

间隔最大化

求得一个几何间隔最大的分离超平面,可以表示为如下的最优化问题? maxw,bγs.t.yi(wTwxi+bw)γ,i=1,2,,N

考虑函数间隔与几何间隔的关系式,改写为:

maxw,bγ^ws.t. yi(wTxi+b)γ^,i=1,2,,N

等价与下?

maxw,b1ws.t. 1yi(wTxi+b)0,i=1,2,,N

注意到最大化1w 和最小化12w2是等价的,故最优化问题可转化为?

minw,b12w2s.t. 1yi(wTxi+b)0,i=1,2,,N

构造Lagrange函数? L(w,b,α)=12w2+i=1Nαi[1yi(wTxi+b)]αi0,i=1,2,,N

?\theta_{\alpha}(w, b)=\max {\alpha \geq 0} L(w, b, \alpha)$

则有θα(w,b)={12w2,+

故原问题等价? minw,bθα(w,b)=minw,bmaxαi0L(w,b,α)

对偶算法

根据拉格朗日对偶性,上式的对偶问题为? minw,bθα(w,b)=maxαi0minw,bL(w,b,α)

?)求minw,bL(w,b,α)

wL(w,b,α)=wi=1Nαiyixi=0

bL(w,b,α)=i=1Nαiyi=0

?

w=i=1Nαiyixi

i=1Nαiyi=0

将以上两式代入拉格朗日函数中消去,得 L(w,b,α)=12i=1Nj=1Nαiαjyiyjxi,xj+i=1Nαi

?)求minw,bL(w,b,α)求对α的极大,即是对偶问题

maxα12i=1Nj=1Nαiαjyiyjxi,xj+i=1Nαis.t.i=1Nαiyi=0αi0,i=1,2,,N

将极大改为极小,?

minα12i=1Nj=1Nαiαjyiyjxi,xji=1Nαi

i=1Nαiyi=0

αi0,i=1,2,,N

原问题的对偶问题? minα12i=1Nj=1Nαiαjyiyjxi,xji=1Nαis.t.i=1Nαiyi=0αi0,i=1,2,,N

求解方法? ?)由于该问题为凸优化问题,故可直接求解? ?)由于该问题与其原问题等价,其原问题满足Slater定理,故该问题的解与KKT条件为充分必要的关系,故只需找到一组解满足KKT条件,即找到了问题的解(充分性)?

关于对偶问题的解α=(α1,α2,,αN),是由SMO算法解出来的,这个结合加入松弛变量的情况再讲?

解出对偶问题的解α=(α1,α2,,αN)后,怎么求原问题的解w,b?

由KKT条件可知,原问题和对偶问题均取到最优值的?\left(w^{}, b^{}, \alpha^{*}\right)$需满足以下四个要求?

  1. 对原始变量梯度为0? wL(w,b,α)=wi=1Nαiyixi=0bL(w,b,α)=i=1Nαiyi=0
  2. 原问题可行: 1yi(wTxi+b)0,i=1,2,,N
  3. 不等式约束乘子非? αi0,i=1,2,,N
  4. 对偶互补松弛? αi[1yi(wTxi+b)]=0,i=1,2,,N

由于1? wL(w,b,α)=wi=1Nαiyixi=0

得到 w=i=1Nαiyixi 这样w就求出来?

用反证法我们可以得到至少有一?\alpha_{i}^{}>0\alpha_{i}^{}=0w^{}-\sum_{i=1}^{N} \alpha_{i}^{} y_{i} x_{i}=0?w=0,?w^{*}=0$显然不是原问题的解,我们要零解一点意义都没有?

接下来,?b^{}?αi 的一个分量满?\alpha_{i}^{}>0$ ,则有对应的?中的 αi[1yi(wTxi+b)]=0,i=1,2,,N,有1yj(wTxj+b)=0

代入w和样本点(xj,yj),求? b=yji=1Nαiyixi,xj

这样超平面的两个参数(w,b)就都求出来了 w=i=1Nαiyixib=yji=1Nαiyixi,xj

至于为什么SVM叫支持向量机,因为我们发现只?\alpha_{i}^{*}>0?(xi,yi)才会对最终超平面的结果产生影响,此时1yi(wTxi+b)=0?也就是函数间隔为1,我们称这类样本为支持向量,所以这个模型被叫做支持向量机。支持向量的个数一般很少,所以支持向量机只有很少的重要的训练样本决定?

*核技?

基本思想:找一个映射(一般为高维映射),将样本点特征x映射到新的特征空间?x),使其在新的特征空间中线性可分(或近似线性可分),然后利用之前的SVM算法在新的特征空间中对样本进行分类? 在这里插入图片描述 流程? 输入训练?T=\left{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \ldots,\left(x_{n}, y_{n}\right)\right}x_{i} \in R^{n}, y_{i} \in{-1,+1}????T=\left{\left(\Phi\left(x_{1}\right), y_{1}\right),\left(\Phi\left(x_{2}\right), y_{2}\right), \ldots,\left(\Phi\left(x_{n}\right), y_{n}\right)\right}?C\min_{\alpha} \frac{1}{2} \sum_{i=1}^{N} \sum_{j=1}^{N} \alpha_{i} \alpha_{j} y_{i} y_{j}\left\langle\Phi\left(x_{i}\right), \Phi\left(x_{j}\right)\right\rangle-\sum_{i=1}^{\mathrm{N}} \alpha_{i}\begin{aligned} \text { s.t. } & \sum_{i=1}^{N} \alpha_{i} y_{i}=0 \ & 0 \leq \alpha_{i} \leq C, i=1,2, \ldots, N \end{aligned}\alpha^{}=\left(\alpha_{1}^{}, \alpha_{2}^{}, \ldots, \alpha_{N}^{}\right)^{T}??W,b: w=i=1NαiyiΦ(xi) 选择a的一个分量满?0<\alpha_{i}^{}<C?b^{}=y_{j}-\sum_{i=1}^{N} \alpha_{i}^{} y_{i}\left\langle\Phi\left(x_{i}\right), \Phi\left(x_{j}\right)\right\rangle?w^{ T} \Phi(x)+b^{}=0f(x)=\operatorname{sign}\left(w^{ T} \Phi(x)+b^{}\right)=\operatorname{sign}\left(\sum_{i=1}^{N} \alpha_{i}^{} y_{i}\left\langle\Phi(x), \Phi\left(x_{i}\right)\right\rangle+ b^{*}\right)$

该算法的问题? ?)合适的映射函数??太难找,几乎找不? ?)假设找到了映射函数??,由于将数据映射到高维,在高维空间中做运算,计算量太大(维数灾难?

改进? 考虑到算法中如果不需写出分离超平面,即不需写出w?,而是直接?f(x)=\operatorname{sign}\left(w^{* T} \Phi(x)+b^{}\right)=\operatorname{sign}\left(\alpha_{i}^{} y_{i}\left\langle\Phi(x), \Phi\left(x_{j}\right)\right\rangle+ b^{*}\right)$来做预测,同样可以给出分类边界以及达到预测目的。这样的话,算法中需要用到样本的地方全部以内积形式出现,如果我们能够找到一种函数,能够在低维空间中直接算出高维内积,并且该函数对应着某个映射,即解决了以上两个问题?

核函数的本质:用相似度函数重新定义内积运算?

什么样的函数可以作为核函数? 核函数对应的Gram矩阵为半正定矩阵?

常用的核函数:

  1. 线性核函数(linear kernel?K(x, z)=x^{T} z$
  2. 多项式核函数(polynomial kernel function?K(x, z)=\left(\gamma x^{T} z+r\right)^{p}$
  3. 高斯核函数( Gaussian kernel function ?K(x,z)=exp(γxz2)

3. SVM 为什么采用间隔最大化

当训练数据线性可分时,存在无穷个分离超平面可以将两类数据正确分开。感知机利用误分类最小策略,求得分离超平面,不过此时的解有无穷多个。线性可分支持向量机利用间隔最大化求得最优分离超平面,这时,解是唯一的。另一方面,此时的分隔超平面所产生的分类结果是**最鲁棒?*,对未知实例的泛化能力最强。可以借此机会阐述一下几何间隔以及函数间隔的关系?

4. 为什么要将求?SVM 的原始问题转换为其对偶问?

  • 对偶问题往往更易求解,当我们寻找约束存在时的最优点的时候,约束的存在虽然减小了需要搜寻的范围,但是却使问题变得更加复杂。为了使问题变得易于处理,我们的方法是把目标函数和约束全部融入一个新的函数,即拉格朗日函数,再通过这个函数来寻找最优点?

  • 可以自然引入核函数,进而推广到非线性分类问题?

5. 为什?SVM 要引入核函数

当样本在原始空间线性不可分?*,可将样本从原始空间映射到一个更高维的特征空间,使得样本在这个特征空间内线性可?*。而引入这样的映射后,所要求解的对偶问题的求解中,无需求解真正的映射函数,而只需要知道其核函数。核函数的定义:K(x,y)=<(x),(y)>,即在特征空间的内积等于它们在原始样本空间中通过核函?$K $计算的结果。一方面数据变成了高维空间中线性可分的数据,另一方面不需要求解具体的映射函数,只需要给定具体的核函数即可,这样使得求解的难度大大降低?

6. 为什么SVM对缺失数据敏?

  • SVM 没有处理缺失值的策略
  • SVM的效果和支持向量点有关,缺失值可能影响支持向量点的分?

7. SVM 核函数之间的区别

SVM 核函数一般选择线性核?*高斯?RBF ?**?

线性核:主要用于线性可分的情形,参数少,速度快,对于一般数据,分类效果已经很理想了?

RBF 核:主要用于线性不可分的情形,参数多,分类结果非常依赖于参数?

如果 Feature 的数量很大,跟样本数量差不多,这时候选用线性核?SVM?

如果 Feature 的数量比较小,样本数量一般,不算大也不算小,选用高斯核的 SVM?

8. LR和SVM的联系与区别

  • 联系?

    • LR和SVM都可以处理分类问题,且一般都用于处理线性二分类问题
    • 两个方法都可以增加不同的正则化项,如l1、l2等等。所以在很多实验中,两种算法的结果是很接近的?
  • 区别?

    • LR是参数模型,SVM是非参数模型?
    • 从目标函数来看,区别在于逻辑回归采用的是交叉熵损失函数,SVM采用的是合页损失函数,这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重?
    • SVM的处理方法是只考虑支持向量点,也就是和分类最相关的少数点,去学习分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重?
    • 逻辑回归相对来说模型更简单,好理解,特别是大规模线性分类时比较方便。而SVM的理解和优化相对来说复杂一些,SVM转化为对偶问题后,分类只需要计算与少数几个支持向量的距?这个在进行复杂核函数计算时优势很明显,能够大大简化模型和计算?

9. SVM的原理是什么?

SVM是一种二类分类模型,其主要思想为找到空间中的一个更够将所有数据样本划开的超平面,并且使得数据集中所有数据到这个超平面的距离最短。它的基本模型是在特征空间中寻找间隔最大化的分离超平面的线性分类器。(间隔最大使它有别于感知机)。需要求解能够正确划分训练数据集并且几何间隔最大的分离超平面。对于线性可分的数据集来说,这样的超平面有无穷多个(即感知机),但是几何间隔最大的分离超平面却是唯一的?

10. SVM如何处理多分类问题?

一对多:就是对每个类都训练出一个分类器,设定为目标类为一类,其余类为另外一类。这样针对k个类可以训练出k个分类器,当有一个新的样本来的时候,用这k个分类器来测试,那个分类器的概率高,那么这个样本就属于哪一类? 一对一:任意两个类训练出一个分类器,如果有k类,一共训练出C(2,k) 个分类器,这样当有一个新的样本要来的时候,用这$C(2,k) $个分类器来测试,每当被判定属于某一类的时候,该类就加一,最后票数最多的类别被认定为该样本的类?

参考文?