机器学习 为什么使用逻辑回归进行分类

机器学习 为什么使用逻辑回归进行分类

介绍

逻辑回归是一种常用的二分类机器学习分类算法。尽管其名称中包含”回归”一词,但实际上它是一种分类算法。它使用对数几率和对数损失或交叉熵损失作为损失函数。

本文将介绍为什么逻辑回归是一种分类算法。

逻辑回归作为分类算法

线性回归算法可以用线性方程表示,一个包含\mathrm{\alpha_{0}}截距和\mathrm{\alpha_{1}}的单变量回归模型可以写成:

\mathrm{y=\alpha_{0}+\alpha_{1}x}

最佳拟合线如下图所示:

机器学习 为什么使用逻辑回归进行分类

然而,在逻辑回归中,值只能在0和1之间,而在线性回归中,值是连续的,超出了0和1的范围。

这清楚地显示出线性回归方程必须转换,以适应范围为[0,1]的值。逻辑回归使用了一个sigmoid函数来实现这个目标,特别是在逻辑回归中,它将值压缩在0和1之间。

\mathrm{p(x)=\frac{1}{1+e^-({\alpha_{0}+\alpha_{1}}x)}}

机器学习 为什么使用逻辑回归进行分类

因此,我们可以用逻辑回归模型两个类别。

逻辑函数或sigmoid函数为\mathrm{\frac{1}{1+e^{−t}}}。

对数几率是逻辑函数的反函数。从线性回归的方程中,我们看到它可以输出负无穷到正无穷的实数值,并在0和1的边界内。但当我们用sigmoid函数转换线性回归方程后,转换函数的概率值开始落在0和1之间。这证明了逻辑回归是一种分类算法,不能用于回归。换句话说,逻辑回归根据边界或类别对线性回归的值进行分类。

多类别分类逻辑回归

使用逻辑回归,我们可以实现多类别分类。无论是二分类还是多分类,其核心思想是相同的,不过在多类别分类中,我们使用一对多(one-vs-all)分类的概念。根据以下方程,会有多个独立变量:

\mathrm{\log\frac{p}{1−p}=\alpha_{0}+\alpha_{1}x_{1}+\alpha_{2}x_{2}+\alpha_{3}x_{3}+……..+\alpha_{n}x_{n}}

在上述方程中,我们可以看到对数几率的值取决于n个独立变量。

结论

逻辑回归是一种分类算法,它输出0到1之间的概率值,而不是连续值。这是由于对线性回归方程应用的sigmoid函数转换。逻辑回归可用于二分类和多分类。

Camera课程

Python教程

Java教程

Web教程

数据库教程

图形图像教程

办公软件教程

Linux教程

计算机教程

大数据教程

开发工具教程