机器学习实战第五章(Chapter5):Logistic回归-程序原理详解

简介: 这一个章节中作者主要运用了Logistic回归分类器进行分类,分类器的函数形式是Sigmoid函数,过程可以概括为:每个输入特征乘以一个回归系数,然后将所有的结果值相加,将总和带入Sigmoid函数中进行分类,整个过程也可以被看成概率估计。

这一个章节中作者主要运用了Logistic回归分类器进行分类,分类器的函数形式是Sigmoid函数,过程可以概括为:每个输入特征乘以一个回归系数,然后将所有的结果值相加,将总和带入Sigmoid函数中进行分类,整个过程也可以被看成概率估计。

首先先来看书中的一段程序(程序5-1 Logistic回归梯度上升优化算法)

#此函数的作用是读取数据集文件,将数据分别存于两个列表中,在函数最后返回
def LoadDataSet(): #加载数据信息函数
    dataMat = []   #创建空列表
    labelMat = []  #同上
    fr = open('machinelearninginaction/Ch05/testSet.txt')
    for line in fr.readlines():
        lineArr = line.strip().split()
        dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])])
        labelMat.append(int(lineArr[2]))
    return dataMat, labelMat


def Sigmoid(inX):
    return 1.0/(1+exp(-inX))

#梯度上升优化算法
def GradAscent(dataMatIn, classLabels):
    dataMatrix = mat(dataMatIn)        #numpy中的array转(mat)矩阵函数
    labelMat = mat(classLabels).transpose() #同上,另外转置
    m,n = shape(dataMatrix)
    alpha = 0.001          #梯度移动步长
    maxCycles = 500        #移动循环次数
    weights = ones((n, 1))
    for k in range(maxCycles):              
        h = Sigmoid(dataMatrix * weights)     #回归系数与数据向量相乘带入Sigmoid函数中,得到h,注意h是向量
        error = (labelMat - h)         #误差为标记值(labelMat)-预测值(h)       
        weights = weights + alpha * dataMatrix.transpose()* error #这个为梯度更新公式,后文介绍
    return weights

执行代码如下,这里省略了import。

if __name__ == "__main__":
    dataArr, labelMat = logRegres.LoadDataSet()
    weights = logRegres.GradAscent(dataArr, labelMat)
    logRegres.PlotBestFit(weights.getA())

上述方程实现的步骤:
1、初始化回归系数;
2、计算整个数据集的梯度;
3、使用alpha*gradient更新回归系数的向量
4、返回回归系数
5、重复2-4步骤R次


设置断点,将程序的debug一下,可以发现:
在LoadDataSet函数中dataArr和labelMat分别为二维列表和一维列表
这里写图片描述

这里写图片描述
而在GradAscent函数中,dataArr和labelMat变化为100*3和1*100的矩阵,过程中的乘法是矩阵运算不是单独的变量运算。
这里写图片描述
现在来介绍程序中涉及到的知识点:

Sigmoid函数

Sigmoid的函数形式为这里写图片描述
相比于阶跃函数,Sigmoid函数具有在突变处较平滑、数学上好处理的特点。

下面两个图片为Sigmoid函数在不同尺度下的函数图:

这里写图片描述
这里写图片描述

可以看到只要尺度足够大,在x=0点处Sigmoid函数看起来就像阶跃函数一样。
程序中是将回归系数(weights)与数据集相乘(dataMatrix),带入sigmoid函数中得到一个0-1的数(h),h将会与标记值进行比较(label),标记值即准确值,h即预测值,它们两个之间的差距越小代表预测越准确,所以程序的目的主要是使error(误差)变得最小,这就是梯度进行移动的目的。

递推公式

上面程序中有一段程序:

 weights = weights + alpha * dataMatrix.transpose()* error

文中并没有进行推导,这里借用吴恩达老师的机器学习课来说明一下
首先来说明一下损失函数,损失函数说白了就是预测值与标记值的均平方和,当预测值与标记值愈加相同时,损失函数的返回值越小
这里写图片描述


而我们程序中的需要改变weights(回归系数)来达到最佳的分类效果,在这个程序中我们的weights中有很多参数(大于等于2),这里就用到了这个公式:
这里写图片描述
这个公式在书中也进行了讲解,只不过书中讲解较为简单,上式中为两个参数的梯度移动公式,吴恩达老师的意思是这两个参数应该同时变化:
这里写图片描述
进而推导出以下的式子,这是一个递推式子。
这里写图片描述
进行推导:
这里写图片描述
最终化为如下的式子:
这里写图片描述
上式就是程序中那个递推公式。这里只是简单的公式推导,具体的请大家看吴恩达老师的机器学习课程,讲解的比较详细。
https://www.coursera.org/learn/machine-learning/lecture/zcAuT/welcome-to-machine-learning


程序运行后,得到如下的图像:
这里写图片描述

目录
相关文章
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
【Python机器学习】文本特征提取及文本向量化讲解和实战(图文解释 附源码)
【Python机器学习】文本特征提取及文本向量化讲解和实战(图文解释 附源码)
96 0
|
3月前
|
机器学习/深度学习 数据采集 算法
机器学习实战:基于sklearn的工业蒸汽量预测
机器学习实战:基于sklearn的工业蒸汽量预测
65 0
|
4月前
|
机器学习/深度学习 算法 数据挖掘
【Python机器学习】K-Means对文本聚类和半环形数据聚类实战(附源码和数据集)
【Python机器学习】K-Means对文本聚类和半环形数据聚类实战(附源码和数据集)
65 0
|
17天前
|
机器学习/深度学习 自然语言处理 算法
|
3月前
|
机器学习/深度学习 算法 TensorFlow
实战技术:如何使用Python进行机器学习建模
实战技术:如何使用Python进行机器学习建模
44 1
|
1天前
|
机器学习/深度学习 数据可视化 计算机视觉
【视频】机器学习交叉验证CV原理及R语言主成分PCA回归分析犯罪率|数据共享
【视频】机器学习交叉验证CV原理及R语言主成分PCA回归分析犯罪率|数据共享
|
20天前
|
机器学习/深度学习 数据采集 算法
机器学习实战第3天:手写数字识别
机器学习实战第3天:手写数字识别
23 0
|
1月前
|
机器学习/深度学习 数据采集 算法
机器学习的原理与应用
机器学习的原理与应用
|
4月前
|
机器学习/深度学习 算法 Python
【Python机器学习】KNN进行水果分类和分类器实战(附源码和数据集)
【Python机器学习】KNN进行水果分类和分类器实战(附源码和数据集)
300 1
|
4月前
|
机器学习/深度学习 算法 数据挖掘
【Python机器学习】K-Means算法对人脸图像进行聚类实战(附源码和数据集)
【Python机器学习】K-Means算法对人脸图像进行聚类实战(附源码和数据集)
140 1