# week8 **Repository Path**: yaotengdong/week8 ## Basic Information - **Project Name**: week8 - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2019-05-06 - **Last Updated**: 2020-12-19 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # week8 ## 1.为什么要引入核函数? 因为原始空间样本数据非线性可分,需要映射到高纬度特征空间才可以线性可分; 引入核函数是为了解决高纬度特征空间的点积计算方便 ## 2.给出合页损失的数学形式并画出图形。 ![数学公式](https://gitee.com/uploads/images/2019/0506/212019_52753f54_1803884.jpeg "1557148141464.jpg") ![图形](https://gitee.com/uploads/images/2019/0507/093216_d91a0085_1803884.png "20180319172250924") 实线为合页损失,当y>=1时,损失为0;当y<1时,呈线性下降 ## 3.什么是支持向量?为什么SVM中只有一小部分的训练样本是支持向量 满足如下条件即为支持向量 ![支持向量满足条件](https://gitee.com/uploads/images/2019/0506/213929_760eb7a7_1803884.png "屏幕快照 2019-05-06 下午9.39.14.png") 支持向量的点α不等于0,就是落在最大间隔边界上、最大间隔之间的点以及跑到决策面另外一边的点,也就是说支持向量是有决策面和最大间隔边界来决定的,决策面就是为了将样本数据尽可能多的完全分隔开,且间隔最大,支持向量只会是小部分,支持向量要是多了,说明决策面选择错误。 ## 4.决策树中特征分裂的准则有哪些? 流行的决策树算法有三种,巨头的特征分裂准则如下: ID3:选择信息增益最大的来进行分裂,倾向于选择取值多的特征 C4.5:选择信息增益率最大的特征进行分裂,不要把信息分的太细 CART:分裂后两个分支的样本越纯净越好,纯净就是指分裂后的分支内的样本的y值越接近越纯净 ## 5.SVM模型并没有概率解释。为了使SVM模型能输出概率,我们应该设置哪个参数? 设置probability来支持概率输出,是通过Logstic回归来转换的,支持概率估计会降低速度,需要在训练(fit)之前设置。 如果要将LinearSVC的输出转换成概率,可通过概率校准工具CalibratedClassifierCV实现概率转换 ## 6~8题的代码已将上传,是在老师的源码上修改的