西瓜书习题

您所在的位置:网站首页 线性规划对偶问题的种类 西瓜书习题

西瓜书习题

2024-07-05 18:09| 来源: 网络整理| 查看: 265

1.支持向量机基本型

1、对于线性可分的二分类任务样本集,将训练样本分开的超平面有很多,支持向量机试图寻找满足什么条件的超平面?

在正负类样本“正中间”的靠近正类样本的靠近负类样本的以上说法都不对

2、下面关于支持向量机的说法错误的是?

支持向量机基本型是一个凸二次规划问题将训练样本分开的超平面仅由支持向量决定支持向量机的核心思想是最大化间隔以上选项没有错的

本题正确答案应该为D选项,错选主要集中在B选项。由支持向量机解的稀疏性可知,在求解KKT条件时,仅在支持向量的点处成立 λ_i≠0,而支持向量机解的超平面也是由这些支持向量所决定的。

3、两个异类支持向量到超平面的距离之和称之为____(两个字)

间隔

2.对偶问题与解的特性

1、下面哪一项不是支持向量机基本型得到对偶问题的求解步骤

引入拉格朗日乘子得到拉格朗日函数对拉格朗日函数求偏导并令其为0回带变量关系梯度下降

2、下面关于支持向量机对偶问题的说法错误的是

对偶问题需要满足KKT条件通过对偶问题推导出的模型表达式能够体现解的稀疏性在推导对偶问题时,引入的拉格朗日乘子没有约束条件对偶问题的最优值是原始问题最优值的下界

3、通过____可以得到支持向量机的对偶问题。(7个字,优化算法)

拉格朗日乘子法

3.求解方法

1、下面关于SMO算法说法正确的是

是一个迭代更新的算法先选取KKT条件违背程度最大的变量当变量固定后,原始问题具有闭式解以上说法都是正确的

2、在求解支持向量机截距项的时候错误的说法是

通过任意支持向量都能够求解出截距项为了提高鲁棒性,通常使用所有支持向量求解的平均值通过任意样本都能够求解出截距项截距项的求解能够体现支持向量机学习到的超平面仅与少量支持向量有关

3、在使用SMO方法优化支持向量机的对偶问题时,每次需要选择几个变量并固定其他变量不变。 ____(只需填写数字)

2

4.特征空间映射

1、如果不存在一个能正确划分两类样本的超平面,应该怎么办?

将样本从原始空间映射到一个更高维的特征空间,使样本在这个特征空间内线性可分将样本从原始空间映射到一个更高维的特征空间,使样本在这个特征空间内线性不可分将样本从原始空间映射到一个更低维的特征空间,使样本在这个特征空间内线性可分将样本从原始空间映射到一个更低维的特征空间,使样本在这个特征空间内线性不可分

2、将样本映射到高维空间后,支持向量机问题的表达式为

m i n w , b 1 2 ∣ ∣ w ∣ ∣ 2 s . t . y i ( w T ϕ ( x i ) + b ) > = 1 , i = 1 , 2 , 3 , . . . , m \mathbf{\underset{w,b}{min} \frac{1}{2} ||w||^2 \\ s.t. y_i(w^T \phi(x_i) +b) >= 1, i=1,2,3,...,m} w,bmin​21​∣∣w∣∣2s.t.yi​(wTϕ(xi​)+b)>=1,i=1,2,3,...,m m i n w , b 1 2 ∣ ∣ w ∣ ∣ 2 s . t . y i ( w T ϕ ( x i ) − b ) > = 1 , i = 1 , 2 , 3 , . . . , m \underset{w,b}{min} \frac{1}{2} ||w||^2 \\ s.t. y_i(w^T \phi(x_i) -b) >= 1, i=1,2,3,...,m w,bmin​21​∣∣w∣∣2s.t.yi​(wTϕ(xi​)−b)>=1,i=1,2,3,...,m m i n w , b 1 2 ∣ ∣ w ∣ ∣ 2 s . t . y i ( w T ϕ ( x i ) + b ) > = − 1 , i = 1 , 2 , 3 , . . . , m \underset{w,b}{min} \frac{1}{2} ||w||^2 \\ s.t. y_i(w^T \phi(x_i) +b) >= -1, i=1,2,3,...,m w,bmin​21​∣∣w∣∣2s.t.yi​(wTϕ(xi​)+b)>=−1,i=1,2,3,...,m m i n w , b 1 2 ∣ ∣ w ∣ ∣ 2 s . t . y i ( w T ϕ ( x i ) − b ) > = − 1 , i = 1 , 2 , 3 , . . . , m \underset{w,b}{min} \frac{1}{2} ||w||^2 \\ s.t. y_i(w^T \phi(x_i) -b) >= -1, i=1,2,3,...,m w,bmin​21​∣∣w∣∣2s.t.yi​(wTϕ(xi​)−b)>=−1,i=1,2,3,...,m

3、如果原始空间是有限维(属性数有限),那么____(一定/不一定)存在一个高维特征空间使样本线性可分。

一定

5.核函数

1、关于核函数 k ( x i , x j ) = ϕ ( x i ) T ϕ ( x j ) k(x_i, x_j)=\phi(x_i)^T\phi(x_j) k(xi​,xj​)=ϕ(xi​)Tϕ(xj​)的说法,正确的是:

能绕过显式考虑特征映射能够缓解计算高维内积的困难能够直接在原始的特征空间计算以上说法都是正确的

2、若一个对称函数对于任意数据所对应的核矩阵_,则它就能作为核函数来使用

正定半正定负定半负定

3、任何一个核函数,都隐式地定义了一个____(九个字)

再生核希尔伯特空间

6.如何使用SVM?

1、对于 ϵ \epsilon ϵ-不敏感损失函数,说法正确的是

当自变量的绝对值小于 ϵ \epsilon ϵ 时,没有惩罚当自变量的绝对值小于 ϵ \epsilon ϵ 时,惩罚是线性的当自变量的绝对值大于 ϵ \epsilon ϵ 时,没有惩罚当自变量的绝对值大于 ϵ \epsilon ϵ 时,惩罚是二次的

2、下面关于支持向量回归,说法错误的是

间隔带两侧的松弛程度可有所不同支持向量回归一般要求损失为0当且仅当模型的输出和实际值一样支持向量回归也存在对偶问题支持向量回归模型的解仍然具有稀疏性

3、对于2-不敏感损失,当自变量取值为10时,损失为____(保留整数)

8

2-不敏感函数定义为 l_2 (z)=I(|z|>2)⋅(|z|-2). 因此,可以算出l_2 (10)=8.

7.章节测试

1、下列关于支持向量机的用法正确的是?

当数据是线性可分时,可以考虑支持向量机的基本型当数据是线性不可分时,可以考虑引入核函数的支持向量机若使用引入核函数的支持向量机,可以通过模型选择等技术挑选较为合适的核函数以上说法都是正确的

2、下列哪一项是支持向量机基本型对偶问题的KKT条件?

{ α i > = 0 1 − y i f ( x i ) < = 0 α i ( 1 − y i f ( x i ) ) = 0 \color{red}{\left\{ \begin{aligned} \alpha_i >=0 & \\ 1-y_if(x_i) =01−yi​f(xi​) = 0 1 − y i f ( x i ) < = 0 α i ( 1 − y i f ( x i ) ) > = 0 \left\{ \begin{aligned} \alpha_i >=0 & \\ 1-y_if(x_i) =0 \end{aligned} \right. ⎩ ⎨ ⎧​αi​>=01−yi​f(xi​)=0​​ { α i > = 0 1 − y i f ( x i ) < = 0 α i ( 1 − y i f ( x i ) ) < = 0 \left\{ \begin{aligned} \alpha_i >=0 & \\ 1-y_if(x_i) 1)), [注: I ( x ) I(x) I(x)为示性函数,当自变量为真时取值为1,否则取值为0】 ( x , y ) → ( x , y , I ( x + y < = 1 ) ) (x,y) \rightarrow (x,y,I(x+y


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3