机器学习之Logistic回归 | StriveZs的博客

机器学习之Logistic回归

logistic回归 这里我们会使用到最优化算法,最优化问题常用来解决最短路径,最少工作时间最大效益等问题。 回归:假设有一些数据点,我们用一条直线对这些点进行拟合(该条直线被称为最佳拟合直线),这个拟合过程称为回归。 利用logistic回归进行分类的主要思想是:根据现有数据对分类边界线建立回归公式,依次进行分类。 logistic回归的一般过程:

  • 收集数据:采用任意方法收集数据。
  • 准备数据:由于需要进行距离计算,因此要求数据类型为数值型。另外,结构化数据格式则最佳。
  • 分析数据:采用任意方法对数据进行分析。
  • 训练算法:大部分时间将用于训练,训练的目的是为了找到最佳的分类回归系数。
  • 测试算法:一旦训练步骤完成,分类将会很快的
  • 使用算法:首先,我们需要输入一些数据,并将其转换成对应的结构化数据值;

接着,基于训练好的回归系数就可以对这些数值进行简单的回归计算,判断他们属于哪个类别,在这之后,我们就可以在输出的类别上做一些其他的分析工作。   Logistic回归: 优点:计算代价不高,易于理解和实现。 缺点:容易欠拟合,分类精度可能不高 使用数据类型:数值型和标称型数据   基于Logistic回归和Sigmoid函数的分类: 我们理想中的函数应该是,能接收所有的输入然后预测出类别。 例如:在两个类的情况下,上述函数输出0或者1.这种函数称为海维塞德阶跃函数或者直接称为单位阶跃函数。然而,海维塞德阶跃函数的问题在于:该函数在跳跃点上从0瞬间跳跃到1,这个瞬间跳跃过程有时很难处理。但是有一个函数有类似的性质,而且能够很好的处理这个问题那就是Sigmoid函数。 sigmoid函数的具体公式为:   sigmoid****简单的介绍一下: Sigmoid函数是一个有着优美S形曲线的数学函数,在逻辑回归、人工神经网络中有着广泛的应用。Sigmoid函数的数学形式是: 其函数图像如下: 可以看出,sigmoid函数连续,光滑,严格单调,以(0,0.5)中心对称,是一个非常良好的阈值函数。 当x趋近负无穷时,y趋近于0;趋近于正无穷时,y趋近于1;x=0时,y=0.5。当然,在x超出[-6,6]的范围后,函数值基本上没有变化,值非常接近,在应用中一般不考虑。 Sigmoid函数的值域范围限制在(0,1)之间,我们知道[0,1]与概率值的范围是相对应的,这样sigmoid函数就能与一个概率分布联系起来了。 Sigmoid函数的导数是其本身的函数   由图可以看出随着x的增大,对应的sigmoid值将逼近于1,而随着x的减小,sigmoid值越逼近于0,而且如果横坐标越大,那么sigmoid函数图像会越像一个跃阶函数。

StriveZs wechat
Hobby lead  creation, technology change world.
  • Post author: StriveZs
  • Post link: 712.html
  • Copyright Notice: All articles in this blog are licensed under CC BY-NC-SA 3.0 unless stating additionally.