余道技术


  • 首页

  • 关于

  • 分类

  • 归档

理论和代码-逻辑回归-代码

发表于 2019-11-01 | 分类于 深度学习机器学习 , 理论和代码

本篇为”理论和代码-逻辑回归-理论”的实现,和理论不完全一致,代码会有考虑L2正则化等,其中data位于lr_train.txt
tensorflow 版本, lr_tf.py

阅读全文 »

理论和代码-逻辑回归-理论

发表于 2019-10-31 | 分类于 深度学习机器学习 , 理论和代码

统一后续书写表示,下标表示样本特征向量的维度,上标表示样本的序号,例如$x_{i}$表示x的第i维,$x^{j}$表示第j个样本,$x_{i}^{j}$表示第j个样本的第i维

阅读全文 »

理论和代码-概率分类模型

发表于 2019-10-25 | 分类于 深度学习机器学习 , 理论和代码

步骤1:模型假设,如何选择模型;这里选概率模型,以二分类为例,$p(c_{1}|x)=\frac{p(x|c_{1}).p(c_{1})}{p(x|c_{1}).p(c_{1}) + p(x|c_{2}).p(c_{2})},$
$如果p(c_{1}|x) > 0.5, x\in c_{1} 否则x \in c_{2}$

阅读全文 »

机器学习中的数学-协方差矩阵

发表于 2019-10-17 | 分类于 深度学习机器学习 , 数学 , 线性代数

在之前的期望方差一文中提到过协方差,因为协方差矩阵在机器学习领域内出镜率很高,所以再展开阐述下。
协方差用于衡量两个变量的总体误差。以离散随机变量为例,
方差:$\sigma^{2}=\frac{\Sigma_{i=1}^{n}(x_{i}-\bar{x})^2}{n-1}$
协方差:$Cov(x, y)=\frac{\Sigma_{i=1}^{n}(x_{i}-\bar{x})(y_{i}-\bar{y})}{n-1}$

阅读全文 »

理论和代码-梯度下降的三种类型

发表于 2019-09-26 | 分类于 深度学习机器学习 , 理论和代码

可以有,训练数据n组,$(x^1, y^1), (x^2, y^2), …(x^n, y^n)$,其中,$x^n=[x_{1}^n, x_{2}^n, …, x_{k}^n]$,对应待求解参数$\theta=[\theta_{1}, \theta_{2},…, \theta_{k}]$,损失函数可以有$L=L(x,y;\theta)$,最优化问题转化为$\theta^{\star}=\arg {min(L(x,y;\theta))_\theta}$
为表示方便,另$g=\frac{\partial L(x,y;\theta)}{\partial{\theta}},\theta^t$表示第t轮迭代(一般讲,每轮迭代都是训练所有数据),其他情况类似

阅读全文 »

理论和代码-线性回归

发表于 2019-09-19 | 分类于 深度学习机器学习 , 理论和代码

步骤1:模型假设,如何选择模型;这里选一维线性模型
$y=w.x+b$

阅读全文 »

机器学习中的数学-softmax函数

发表于 2019-08-27 | 分类于 深度学习机器学习 , 数学 , 高等数学

假设一个数组Y,$y_{i}$是Y的第i个元素的值,该元素的softmax值为:$softmax(y_{i})=\frac{e^{y_{i}}}{\Sigma_{j=1}^{n}e^{y_{j}}}$

阅读全文 »

机器学习中的数学-交叉熵

发表于 2019-08-23 | 分类于 深度学习机器学习 , 数学 , 信息论

交叉熵是一个信息论的概念,用于度量两个概率分布的差异性信息,用来估算平均编码长度。给定两个概率分布p,q,通过q来表示p的的平均编码长度,记为交叉熵,表示为:

阅读全文 »

机器学习中的数学-Ax表达式求导

发表于 2019-08-16 | 分类于 深度学习机器学习 , 数学 , 线性代数

A为$m \times n$的矩阵,x为$n \times 1$的矩阵,则Ax为$m \times 1$的列向量,记$\vec{y}=A.\vec{x}$

阅读全文 »

机器学习中的数学-正交阵

发表于 2019-08-16 | 分类于 深度学习机器学习 , 数学 , 线性代数

单位向量

模为1的向量

单位矩阵

主对角线上全为1,其他全为0的方阵,用I表示一般

阅读全文 »
123…6

caszhang

信仰技术,信仰科学

55 日志
16 分类
GitHub
© 2020 caszhang
访问人数 访问量