机器学习中的数学-sigmoid函数和导数

sigmoid函数:$f(x)=\frac{1}{1+e^{-x}}$,定义域$(-\infty, +\infty)$,值域$(0, 1)$

$f’(x)$
$= (\frac{1}{1+e^{-x}})’$
$=\frac{e^{-x}}{(1+e^{-x})^2}$
$=\frac{1}{1+e^{-x}}\frac{e^{-x}}{1+e^{-x}}$
$=\frac{1}{1+e^{-x}}(1-\frac{1}{1+e^{-x}})$
$=f(x).(1-f(x))$

$1-f(x)=f(-x)$

对于二分类问题,如果分类标签是0,1,$\widehat{y}$为预测值,有,
$\widehat{y}=P(y=1|x)$
$1-\widehat{y}=P(y=0|x)$
综合两种情况,可以有,$P(y|x)=\widehat{y}^{y}.(1-\widehat{y})^{1-y}$
利用最大似然估计(MLE)的方法,可以得到损失函数为(取反,取对数):
$L=-\Sigma_{i=1}^{N}y_{i}log(\widehat{y^{i}})+(1-y_{i})log(1-\widehat{y^{i}})$
进一步,y=sigmoid函数$=f(w^{T}x+b)$,利用梯度下降来迭代求参数

对于二分类问题,如果分类标签是+1,-1,$\widehat{y}$为预测值,有,
$\widehat{y}=P(y=+1|x)=f(x)$
$1-\widehat{y}=P(y=-1|x)=f(-x)$
综合两种情况,可以有,$P(y|x)=f(y.x)$
利用最大似然估计(MLE)的方法,可以得到损失函数为(取反,取对数):
$L=-\Sigma_{i=1}^{N}log(f(y.x))$
$=\Sigma_{i=1}^{N}log(1+e^{-y_{i}x})$,其中$x=w^{T}.x_{i}$

坚持原创技术分享,您的支持将鼓励我继续创作!