余道技术


  • 首页

  • 关于

  • 分类

  • 归档

理论和代码-RNN-代码

发表于 2020-06-23 | 分类于 深度学习机器学习 , 理论和代码

学习根据sin预测cos的函数曲线,序列长度20,具体见代码

阅读全文 »

理论和代码-RNN-理论

发表于 2020-06-12 | 分类于 深度学习机器学习 , 理论和代码

RNN和DNN相比,RNN是有记忆的DNN,RNN将神经元的输出作为记忆保存起来,和后续的input一起参与后续的计算,而DNN每个神经元的输出只依赖于当前的input。此种情况下的DNN不太好训练,RNN的total loss变化非常陡峭,在训练的时候不是很好操作,原因是神经元的记忆保存,对于长序列情况,同样的权重会被反复积累使用,微小的差别经过积累/相乘之后,差异较大,比如$1.01^{1000}=20000,0.99^{1000}=0$,而1.01和0.99的本身差异是比较小的。

阅读全文 »

理论和代码-线性SVM-理论

发表于 2020-06-02 | 分类于 深度学习机器学习 , 理论和代码

约定,$x_{i}^{n}$为第n个样本的第i维

阅读全文 »

机器学习中的数学-PCA相关

发表于 2020-05-08 | 分类于 深度学习机器学习 , 数学 , 线性代数

PCA(principal component analysis)主成分分析,是一种常见的降维方法,其目的是在尽量保留信息的情况下,将高纬数据降低为低维度。

阅读全文 »

理论和代码-CNN

发表于 2020-04-24 | 分类于 深度学习机器学习 , 理论和代码

CNN和DNN相比,CNN是若干卷积层以及最后的全连接层和输出层组成,卷积层从某种程度是取代DNN中的隐藏层中的全连接层,减少训练的参数。

阅读全文 »

理论和代码-深度学习技巧

发表于 2020-04-22 | 分类于 深度学习机器学习 , 理论和代码

实际操作过程中,常见的深度学习场景,基本上会在数据筛选、数据处理、模型结构调整、训练参数调整等,常见的可操作的点有:
1,数据预处理相关,数据集合选取,数据集预处理,训练集与测试集比例和划分
2,模型和调参数相关,模型设计和调整,learning rate, epoch, batch_size,激活函数,dropout,归一化,损失函数选择,优化算法选择/梯度下降类型选择

阅读全文 »

每天一点-关于IP

发表于 2020-03-30 | 分类于 每天一点

IP地址就是给网上的每一个主机/路由器/设备(确切说是每一块网卡)分配一个唯一的标识符,ipv4是一个32位的整数,ipv6是128位。

阅读全文 »

理论和代码-基础-星号和dot和multiply对比

发表于 2019-11-27 | 分类于 深度学习机器学习 , 理论和代码
1
2
3
4
5
6
7
8
9
矩阵乘([m,n] * [n, p] --> [m, p])
np.dot() # 只矩阵相乘;具体,对于秩为1的数组,执行对应位置相乘,然后再相加;对于秩不为1的二维数组,执行矩阵乘法运算;
np.mat() * np.mat() # 星号, 对矩阵执行矩阵乘法运算
tf.matmul(tf.Variable(), tf.Variable())

非矩阵乘(对应位置相乘)
np.multiply() # 只对应位置相乘;具体,数组/矩阵对应位置相乘,输出与相乘数组/矩阵的大小一致;
np.array() * np.array() # 星号,对数组执行对应位置相乘
tf.Variable() * tf.Variable()
阅读全文 »

理论和代码-逻辑回归-多分类-代码

发表于 2019-11-26 | 分类于 深度学习机器学习 , 理论和代码

其中data位于lr_softmax.csv
tensorflow 版本 softmax_tf.py

阅读全文 »

理论和代码-逻辑回归-多分类-理论

发表于 2019-11-04 | 分类于 深度学习机器学习 , 理论和代码

步骤1:模型假设,如何选择模型;

$f(x)=p(C_{i}|x)=y_{i}=\frac{e^{z_{i}}}{\Sigma_{j}^{c}e^{z_{j}}}$,c为类别的个数
$z_{i}=b_{i}+\Sigma_{j}^{m} w^{j}x^{j}=b_{i}+W_{i}X$,m为样本特征向量维度

阅读全文 »
12…6

caszhang

信仰技术,信仰科学

55 日志
16 分类
GitHub
© 2020 caszhang
访问人数 访问量