【一起啃西瓜书】机器学习 |
您所在的位置:网站首页 › R语言期末考试 › 【一起啃西瓜书】机器学习 |
【一起啃西瓜书】机器学习-期末复习(不挂科)
前言试卷题型第一章:绪论一般过程任务数据训练集验证集监督学习无监督学习半监督学习
第二章:模型评估与选择欠拟合与过拟合评估方法性能度量错误率&精度查准率&查全率
交叉验证
第三章:线性模型线性回归&分类基本形式线性模型优点参数/模型估计对数线性回归对数几率回归多分类学习一对其余两种策略比较
类别不平衡优化提要线性回归波士顿房价预测线性回归的正规方程解性能评估MSEMAER-Squared
scikit-learn线性回归实践正规方程梯度下降
癌细胞预测梯度下降逻辑回归api介绍
手写数字识别
第四章:决策树基本流程划分选择信息增益增益率基尼指数
剪枝处理预剪枝后剪枝
ID3,C4.5和CART算法对比
第五章 神经网络试推导出BP算法中的更新公式Some note for comprehend
第六章:支持向量机什么是支持向量机试析SVM 对噪声敏感的原因核函数的作用正则化
第七章:贝叶斯分类器第八章:集成学习Boosting&Bagging
第九章:聚类聚类任务
第十章:降维与度量学习降维
总结
前言
马上西瓜书期末考试,为了不挂科,需要有针对复习,内容来自专业各个学霸及老师的重点划分。 推荐:【一起啃西瓜书】机器学习总览 试卷题型卷面共100分,含5种题型,考试时间120分钟。 判断题,8道,每题2分,共16分;填空题,7道,每题2分,共14分;简答题,5道,每题4分,共20分;演算题,2道,每题10分,共20分;编程题,2道,一道编程填空题(10分),一道编程题(20分),共30分。 第一章:绪论
分为三类:监督学习、无监督学习、强化学习。 一般过程 数据获取特征工程模型选择模型训练模型评估超参数条件预测更详细: 机器学习过程中,通过确定两方面的参数来找到泛化性能最好的函数: 函数参数,也就是我们通常所说的w和b,这类参数可以通过各种最优化算法自动求得;模型参数,比如多项式回归中的多项式次数,规则化参数入等(即超参数),一般在模型训练之前通过手工指定(当然也可以采用网格法等算法进行寻优)。确定模型超参数的过程称为模型选择(从Algorithm选择Models)。 机器学习的一般过程: 确定模型的一组超参数,用训练集训练该模型,找到使损失函数最小的最优函数,在验证集上对最优函数的性能进行度量,重复1、2、3步,直到搜索完指定的超参数组合,选择在验证集上误差最小的模型,并合并训练集和验证集作为整体训练模型,找到最优函数,在测试集上对最优函数的泛化性能进行度量。 任务 分类:离散值回归:连续值聚类:无标记信息有无标记信息 监督学习:分类、回归无监督学习:聚类半监督学习:两者结合 数据用于模型拟合的数据样本 验证集在模型训练过程中单独留出来的样本集,它可以用于调整模型的超参数和用于对模型的初步评估。通常用来在模型迭代训练时,用以验证当前模型的泛化能力,但不能作为调参,选择特征等算法相关的选择的依据。 监督学习定义: 输入数据是由输入特征值和目标值所组成。函数的输出可以是一个连续的值(称为回归), 或是输出是有限个离散值(称作分类)。用已知某种或某些特征的样本作为训练集,以建立一个数学模型,再用已建立的模型来预测未知的样本的方法.是从标签化训练集数据集中推断出模型的机器学习任务. 无监督学习定义: 输入数据是由输入特征值组成,没有目标值 输入数据没有被标记,也没有确定的结果。样本数据类别未知;需要根据样本间的相似性对样本集进行类别划分在算法构建过程中不考虑标签值,只通过特征信息去归纳一些新的规律出来. 半监督学习定义:训练集同时包含有标记样本数据和未标记样本数据。 用少量有标注的样本和大量未标注的样本进行训练分类 第二章:模型评估与选择 欠拟合与过拟合拟合:就是说这个曲线能不能很好的描述某些样本,并且有较强的泛化能力. 过拟合(训练集误差小,测试集误差大) 学习器把训练样本学习的“太好”,将训练样本本身的特点 当做所有样本的一般性质(不考虑数据噪声),导致泛化性能下降欠拟合(训练集误差大) 对训练样本的一般性质尚未学好如何判断区分二者? 过拟合:模型过于复杂,导致训练误差低,测试误差高欠拟合:模型简单,训练测试误差均高解决: 过拟合 增加训练样本数量正则化L1.L2降维集成学习方法减少模型复杂度丢弃法Dropout欠拟合: 添加新特性增加模型复杂度减小正则化系数决策树:拓展分支 神经网络:增加训练轮数 现实任务中往往会对学习器的泛化性能、时间开销、存储开销、可解释性等方面的因素进行评估并做出选择。 我们假设测试集是从样本真实分布中独立采样获得,将测试集上的“测试误差”作为泛化误差的近似,所以测试集要和训练集中的样本尽量互斥。 留出法: 直接将数据集划分为两个互斥集合训练/测试集划分要尽可能保持数据分布的一致性一般若干次随机划分、重复实验取平均值训练/测试样本比例通常为2:1~4:1交叉验证法: 将数据集分层采样划分为k个大小相似的互斥子集,每次用k-1个子集的并集作为训练集,余下的一个子集作为测试集,最终返回k个测试结果的均值,k最常用的取值是10.
以自助采样法为基础,对数据集D有放回采样m次得到训练集D’ , D\D’用做测试集。 实际模型与预期模型都使用m个训练样本 约有1/3的样本没在训练集中出现 从初始数据集中产生多个不同的训练集,对集成学习有很大的好处 自助法在数据集较小、难以有效划分训练/测试集时很有用;由于改变了数据集分布可能引入估计偏差,在数据量足够时,留出法和交叉验证法更常用。 性能度量性能度量是衡量模型泛化能力的评价标准,反映了任务需求;使用不同的性能度量往往会导致不同的评判结果 回归任务最常用的性能度量是“均方误差”: 对于分类任务,错误率和精度是最常用的两种性能度量: 错误率:分错样本占样本总数的比率精度(正确率):分对样本占样本总数的比率 查准率&查全率信息检索、Web搜索等场景中经常需要衡量正例被预测出来的比率或者预测出来的正例中正确的比率,此时查准率和查全率比错误率和精度更适合。 统计真实标记和预测结果的组合可以得到“混淆矩阵”:
查全率:在真实情况中,预测正例对了所占所有真实情况中的比例(横着来) 在预测癌症患者时,优先考虑查全率,因为如果有一个人漏判了便很严重,所以我们更看重:真实患有癌症的情况下,模型预测正确的概率。 基于混淆矩阵,解释什么是TPR(True Positive Rate)真正利率,FPR(False Positive Rate)假正例率,查准率(P),查全率(R)? TPR和R相等,都是真实正例被预测正确的比例,即:TPR=R=TP/TP+FNFPR:真实反例被预测为正例的比率,即:FPR=FP/FP+TNP:预测为正例的实例中,真正正例的比例,即:P=TP/TP+FP在测试集上对最优函数的泛化性能进行度量. 交叉验证为什么用交叉验证法? 交叉验证用于评估模型的预测性能,尤其是训练好的模型在新数据上的表现,可以在一定程度上减小过拟合还可以从有限的数据中获取尽可能多的有效信息 第三章:线性模型 线性回归&分类 线性回归:试图学得一个线性模型以尽可能准确的预测实值输出标记分类:即最常见的是二分类,在线性回归得出预测值之后,增加了一个“单位越界函数”回归和分类的区别: 本质都是一致的,就是模型的拟合(匹配),但是分类问题的y值(label)更离散化一些.而且同一个y值可能对应一大批的x,这些x是具有范围的。所以分类问题更多的是(一定区域的X)对应着一个y标签。而回归问题的模型更倾向于(很小区域内的X或者一般是一个X)对应着一个y. 基本形式线性模型一般形式: 向量形式: f ( x ) = w T x + b f(x) = w^Tx + b f(x)=wTx+b w = ( w 1 ; w 2 ; . . . ; w d ) w = (w_1;w_2;...;w_d) w=(w1;w2;...;wd):向量表示 线性模型优点 形式简单、易于建模可解释性非线性模型的基础 引入层级结构或高维映射线性回归(linear regression)目的 学得一个线性模型以尽可能准确地预测实值输出标记单一属性的线性回归目标: f ( x ) = w T x + b f(x) = w^Tx + b f(x)=wTx+b 参数/模型估计参数/模型估计:最小二乘法(least square method)
在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧式距离之和最小。 对数线性回归输出标记的对数为线性模型逼近的目标: 二分类任务 z = w T x + b z = w^Tx + b z=wTx+b 寻找函数将分类标记与线性回归模型输出联系起来: 最理想的函数——单位阶跃函数 预测值大于零就判为正例,小于零就判为反例,预测值为临界值零则可任意判别 单位阶跃函数缺点:不连续 替代函数——对数几率函数(logistic function) 单调可微、任意阶可导单位阶跃函数与对数几率函数的比较: 运用对数几率函数: 样本作为正例的相对可能性的对数 无需事先假设数据分布 可得到“类别”的近似概率预测 可直接应用现有数值优化算法求取最优解 多分类学习多分类学习方法 二分类学习方法推广到多类利用二分类学习器解决多分类问题(常用) 对问题进行拆分,为拆出的每个二分类任务训练一个分类器对于每个分类器的预测结果进行集成以获得最终的多分类结果拆分策略 一对一(One vs. One, OvO)一对其余(One vs. Rest, OvR)多对多(Many vs. Many, MvM)给定一个训练集有N个预测标签,将这N个类别两两配对,从而产生N(N-1)/2个分类结果,最终结果可通过投票产生:即把被预测得最多的类别作为最终分裂结果 拆分阶段 N个类别两两配对 N(N-1)/2 个二类任务 各个二类任务学习分类器 N(N-1)/2 个二类分类器测试阶段 新样本提交给所有分类器预测 N(N-1)/2 个分类结果 投票产生最终分类结果 被预测最多的类别为最终类别 一对其余任务拆分 某一类作为正例,其他反例 N 个二类任务 各个二类任务学习分类器 N 个二类分类器测试阶段 新样本提交给所有分类器预测 N 个分类结果 比较各分类器预测置信度 置信度最大类别作为最终类别 两种策略比较
一对其余 训练N个分类器,存储开销和测试时间小训练用到全部训练样例,训练时间长预测性能取决于具体数据分布,多数情况下两者差不多 多对多 多对多(Many vs Many, MvM) 若干类作为正类,若干类作为反类纠错输出码(Error Correcting Output Code, ECOC)
类别不平衡(class imbalance) 不同类别训练样例数相差很大情况(正类为小类)再缩放 欠采样(undersampling) 去除一些反例使正反例数目接近(EasyEnsemble [Liu et al.,2009]) 过采样(oversampling) 增加一些正例使正反例数目接近(SMOTE [Chawla et al.2002]) 直接基于原始训练集进行学习,但在用训练好的分类器进行预测时,将式 y ′ / 1 − y ′ = y / 1 − y ∗ m − / m + y'/1-y' = y/1-y * m^-/m^+ y′/1−y′=y/1−y∗m−/m+嵌入到其决策过程中,称为阈值移动(threshold-moving) 优化提要各任务下(回归、分类)各个模型优化的目标 最小二乘法:最小化均方误差对数几率回归:最大化样本分布似然参数的优化方法 最小二乘法:线性代数对数几率回归:凸优化梯度下降、牛顿法 线性回归线性回归是属于机器学习里面的监督学习,与分类问题不同的是,在回归问题中,其目标是通过对训练样本的学习,得到从样本特征到样本标签直接的映射,其中,在回归问题中,样本的标签是连续值(分类是离散值)。线性回归是一类重要的回归问题。在线性回归中,目标值与特征直接存在线性关系。 若线性回归方程得到多个解,下面哪些方法能够解决此问题? 获取更多的训练样本选取样本有效的特征,使样本数量大于特征数加入正则化项线性回归分析中的残差(Residuals) 残差均值总是为零线性回归分析中,目标是残差最小化。残差平方和是关于参数的函数,为了求残差极小值,令残差关于参数的偏导数为零,会得到残差和为零,即残差均值为零。 若下图展示了两个拟合回归线(A 和 B),原始数据是随机产生的。现在,我想要计算 A 和 B 各自的残差之和。注意:两种图中的坐标尺度一样。 关于 A 和 B 各自的残差之和,下列说法正确的是? A 与 B 相同A 和 B 中各自的残差之和应该是相同的。线性回归模型的损失函数为: L o s s = ∑ ( y ′ − ( w x i + b ) ) 2 Loss=\sum(y'-(wxi+b))^2 Loss=∑(y′−(wxi+b))2 对损失函数求导,并令 ∇Loss=0,即可得到 XW-Y=0,即残差之和始终为零。 波士顿房价预测sklearn中已经提供了波斯顿房价数据集的相关接口,想要使用该数据集可以使用如下代码: from sklearn import datasets #加载波斯顿房价数据集 boston = datasets.load_boston() #X表示特征,y表示目标房价 X = boston.data y = boston.target由数据集可以知道,每一个样本有13个特征与目标房价,而我们要做的事就是通过这13个特征来预测房价,我们可以构建一个多元线性回归模型,来对房价进行预测。 模型如下: y = b + w 1 x 1 + w 2 x 2 + . . . + w n x n y=b+w_1x_1+w_2x_2+...+w_nx_n y=b+w1x1+w2x2+...+wnxn x i x_i xi:第i个特征值, w i w_i wi:表示第i个特征对应的权重,b表示偏置,y是目标房价. 为了方便,我们稍微将模型进行变换: y = w 0 x 0 + w 1 x 1 + w 2 x 2 + . . . + w n x n y=w_0x_0+w_1x_1+w_2x_2+...+w_nx_n y=w0x0+w1x1+w2x2+...+wnxn 其中 x 0 x_0 x0等于1. Y = h e t a X Y = hetaX Y=hetaX h e t a = ( w 0 , w 1 , . . , w n ) heta=(w_0, w_1,..,w_n) heta=(w0,w1,..,wn) X = ( 1 , x 1 , . . . . , x n ) X=(1,x_1,....,x_n) X=(1,x1,....,xn) 而我们的目的就是找出能够正确预测的多元线性回归模型,即找出正确的参数heta。 那么如何寻找呢?通常在监督学习里面都会使用这么一个套路,构造一个损失函数,用来衡量真实值与预测值之间的差异,然后将问题转化为最优化损失函数。 既然损失函数是用来衡量真实值与预测值之间的差异那么很多人自然而然的想到了用所有真实值与预测值的差的绝对值来表示损失函数。不过带绝对值的函数不容易求导,所以采用MSE(均方误差)作为损失函数,公式如下: L o s s = ∑ ( y i − p i ) 2 / m Loss=\sum(y^i-p^i)^2/m Loss=∑(yi−pi)2/m 线性回归的正规方程解对线性回归模型,假设训练集中m个训练样本,每个训练样本中有n个特征,可以使用矩阵的表示方法,预测函数可以写为: Y = h e t a X Y = hetaX Y=hetaX 其损失函数可以表示为: ( Y − h e t a X ) T ( Y − h e t a X ) (Y-hetaX)^T(Y-hetaX) (Y−hetaX)T(Y−hetaX) 其中,标签Y为[m,1]的矩阵,训练特征X为[m,(n+1)](n列特征+1列偏置)的矩阵,回归系数heta为[(n+1), 1]的矩阵,对heta求导,并令其导数等于0,可以得到: X T ( Y − h e t a X ) = 0 X^T(Y-hetaX)=0 XT(Y−hetaX)=0。 所以,最优解为: h e t a = ( X T X ) − 1 X T Y heta=(X^TX)^{-1}X^TY heta=(XTX)−1XTY 这个就是正规方程解,我们可以通过最优方程解直接求得我们所需要的参数。 线性代数的知识 import numpy as np def mse_score(y_predict,y_test): ''' input:y_predict(ndarray):预测值 y_test(ndarray):真实值 ouput:mse(float):mse损失函数值 ''' #********* Begin *********# mse = np.mean((y_predict-y_test)**2) #********* End *********# return mse class LinearRegression : def __init__(self): '''初始化线性回归模型''' self.theta = None def fit_normal(self,train_data,train_label): ''' input:train_data(ndarray):训练样本 train_label(ndarray):训练标签 ''' #********* Begin *********# # 特征值x水平拼接一列全为零的数(初始化偏置) x = np.hstack([np.ones((len(train_data),1)),train_data]) # 计算权重的正规方程最优解 self.theta = np.linalg.inv(x.T.dot(x)).dot(x.T).dot(train_label) #********* End *********# return self.theta def predict(self,test_data): ''' input:test_data(ndarray):测试样本 ''' #********* Begin *********# # 特征值x水平拼接(左右拼接)一列全为零的数(初始化偏置) x = np.hstack([np.ones((len(test_data),1)),test_data]) return x.dot(self.theta) # WX=Y:预测值 #********* End *********# np.ones((5,1)) # 维度必须()或[] np.ones([5,1]) array([[1.], [1.], [1.], [1.], [1.]]) 性能评估 MSEMSE (Mean Squared Error)叫做均方误差,公式如下: RMSE(Root Mean Squard Error)均方根误差,公式如下: RMSE其实就是MSE开个根号。有什么意义呢?其实实质是一样的。只不过用于数据更好的描述。 例如:要做房价预测,每平方是万元,我们预测结果也是万元。那么差值的平方单位应该是千万级别的。那我们不太好描述自己做的模型效果。怎么说呢?我们的模型误差是多少千万?于是干脆就开个根号就好了。我们误差的结果就跟我们数据是一个级别的了,在描述模型的时候就说,我们模型的误差是多少万元。 MAEMAE(平均绝对误差),公式如下:
上面的几种衡量标准针对不同的模型会有不同的值。比如说预测房价 那么误差单位就是万元。数子可能是3,4,5之类的。那么预测身高就可能是0.1,0.6之类的。没有什么可读性,到底多少才算好呢?不知道,那要根据模型的应用场景来。 看看分类算法的衡量标准就是正确率,而正确率又在0~1之间,最高百分之百。最低0。如果是负数,则考虑非线性相关。很直观,而且不同模型一样的。那么线性回归有没有这样的衡量标准呢? R-Squared就是这么一个指标,公式如下: np.var(y_test):计算方差 LinearRegression的构造函数中有两个常用的参数可以设置: fit_intercept:是否有截据,如果没有则直线过原点,默认为Ture。normalize:是否将数据归一化,默认为False。LinearRegression类中的fit函数用于训练模型,fit函数有两个向量输入: X:大小为 [样本数量,特征数量] 的ndarray,存放训练样本Y:值为整型,大小为 [样本数量] 的ndarray,存放训练样本的标签值LinearRegression类中的predict函数用于预测,返回预测值,predict函数有一个向量输入: X:大小为 [样本数量,特征数量] 的ndarray,存放预测样本更详细,请参考:【线性回归】案例:波士顿房价预测 正规方程 from sklearn.datasets import load_boston from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.linear_model import LinearRegression,SGDRegressor from sklearn.metrics import mean_squared_error def linear_model1(): """ 线性回归:正规方程 :return:None """ # 1.获取数据 data = load_boston() # 2.数据集划分 x_train, x_test, y_train, y_test = train_test_split(data.data, data.target, random_state=22) # 3.特征工程-标准化 transfer = StandardScaler() x_train = transfer.fit_transform(x_train) x_test = transfer.fit_transform(x_test) # 4.机器学习-线性回归(正规方程) estimator = LinearRegression() estimator.fit(x_train, y_train) # 5.模型评估 # 5.1 获取系数等值 y_predict = estimator.predict(x_test) print("预测值为:\n", y_predict) print("模型中的系数为:\n", estimator.coef_) print("模型中的偏置为:\n", estimator.intercept_) # 5.2 评价 # 均方误差 error = mean_squared_error(y_test, y_predict) print("误差为:\n", error) return None 梯度下降 def linear_model2(): """ 线性回归:梯度下降法 :return:None """ # 1.获取数据 data = load_boston() # 2.数据集划分 x_train, x_test, y_train, y_test = train_test_split(data.data, data.target, random_state=22) # 3.特征工程-标准化 transfer = StandardScaler() x_train = transfer.fit_transform(x_train) x_test = transfer.fit_transform(x_test) # 4.机器学习-线性回归(特征方程) estimator = SGDRegressor(max_iter=1000) estimator.fit(x_train, y_train) # 5.模型评估 # 5.1 获取系数等值 y_predict = estimator.predict(x_test) print("预测值为:\n", y_predict) print("模型中的系数为:\n", estimator.coef_) print("模型中的偏置为:\n", estimator.intercept_) # 5.2 评价 # 均方误差 error = mean_squared_error(y_test, y_predict) print("误差为:\n", error) return None 癌细胞预测逻辑回归是在线性回归的输出结果加上激活函数进行非线性的映射,如:sigmoid函数。 σ ( t ) = 1 / ( 1 + e − t ) σ(t)=1/(1+e^{−t}) σ(t)=1/(1+e−t)
为什么需要损失函数? 训练逻辑回归模型的过程其实与之前学习的线性回归一样,就是去寻找合适的 W T W^T WT和 b b b 使得模型的预测结果与真实结果尽可能一致。所以就需要一个函数能够衡量模型拟合程度的好坏,也就是说当模型拟合误差越大的时候,函数值应该比较大,反之应该比较小,这就是损失函数。 逻辑回归的损失函数 我们已经知道了逻辑回归计算出的样本所属类别的概率
p
=
σ
(
W
T
x
+
b
)
p=σ(W^T x+b)
p=σ(WTx+b),样本所属列表的判定条件为: 当样本的真实类别为 0 时,式子就变成了
c
o
s
t
=
−
l
o
g
(
1
−
p
)
cost=−log(1− p)
cost=−log(1−p) 。此时函数图像如下:
sigmoid函数(对数几率函数)相对于单位阶跃函数有哪些好处? sigmoid函数可微分sigmoid函数处处连续逻辑回归的优点有哪些? 可以用现有的数值优化算法求解 梯度下降梯度:梯度的本意是一个向量,由函数对每个参数的偏导组成,表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向变化最快,变化率最大。
算法思想:梯度下降是一种非常通用的优化算法,能够为大范围的问题找到最优解。梯度下降的中心思想就是迭代地调整参数从而使损失函数最小化。假设你迷失在山上的迷雾中,你能感觉到的只有你脚下路面的坡度。快速到达山脚的一个策略就是沿着最陡的方向下坡。这就是梯度下降的做法:通过测量参数向量 θ 相关的损失函数的局部梯度,并不断沿着降低梯度的方向调整,直到梯度降为 0 ,达到最小值。 为了寻求损失函数的最小值,不断沿着函数变化最快的地方(梯度),降低梯度直到梯度为0即是函数最小值,即可获得最优参数向量。 梯度下降公式如下:
算法原理: 在传统机器学习中,损失函数通常为凸函数,假设此时只有一个参数,则损失函数对参数的梯度即损失函数对参数的导数。如果刚开始参数初始在最优解的左边,
梯度下降算法流程 随机初始参数;确定学习率;求出损失函数对参数梯度;按照公式更新参数;重复 3 、 4 直到满足终止条件(如:损失函数或参数更新变化值小于某个阈值,或者训练次数达到设定阈值)。 import numpy as np import warnings warnings.filterwarnings("ignore") def gradient_descent(initial_theta,eta=0.05,n_iters=1000,epslion=1e-8): ''' 梯度下降 :param initial_theta: 参数初始值,类型为float :param eta: 学习率,类型为float :param n_iters: 训练轮数,类型为int :param epslion: 容忍误差范围,类型为float :return: 训练后得到的参数 ''' theta = initial_theta for i in range(n_iters): gradient = 2*(theta-3) # 梯度计算 last_theta = theta # 记录上一次的参数向量 theta = theta - eta*gradient # 梯度下降 # 如果损失函数值或参数更新变化值小于阈值则提前结束(Loss值变化不明显) if (abs(theta-last_theta) y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。在哪里用到降维? 1)特征维度过大,可能会导致过拟合时 2)某些样本数据不足的情况(缺失值很多) 3)特征间的相关性比较大时 降维的好处? (1)节省存储空间; (2)加速计算速度,维度越少,计算量越少,并且能够使用那些不适合于高维度的算法; (3)去除一些冗余的特征(原数据中既有平方米和平方英里的特征–即相关性大的特征) (4)便于观察和挖掘信息(如将数据维度降到2维或者3维使之能可视化) (5)特征太多或者太复杂会使得模型过拟合。 总结 单从机器学习角度来说:想要学好ML还是需要下更多功夫去钻研的。单从考试角度来说:想考个及格/80+还是不难的,毕竟考试比较水,大家都懂。考试既然水,分数就无所谓高低,重要的是我们学了多少东西。如果看到这里,首先恭喜你与我同在,提前祝你考一个好的成绩。如果有用的话,小伙伴帮忙点赞/打赏,算是对俺无私分享的支持与鼓励。再次感谢大家的支持与陪伴,感谢其他学霸/大佬对此文的贡献,我仅仅是一个文字搬运工,分享快乐。加油! 感谢! 努力! |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |