• Python Python实现链表数据结构

    Python实现链表数据结构

    链表是一种物理存储单元上非连续性、非顺序性的存储结构,数据元素的逻辑顺序是通过链表中的指针链接次序实现的。链表由一系列节点(链表中每一个元素称为节点)组成,节点可以在运行时动态生成。每个节点包括两个部分:一个是存储数据元素的数据域,另一个是存储下一个节点地址的指针域。相比于线性表顺序结构,操作复杂。由于不必须按顺序存储,链表在插入的时候可以达到O(1)的复杂度,比另一种线性表顺序表快得多,但是查找

    2018-12-12 浏览(312 阅读原文>>
  • Python 简析python-docx库使用方法

    简析python-docx库使用方法

    python-docx库简析,使用docx库自动化操作word文档.首先看一下python-docx文档给出的例子实现出来是这样的的那么下面简析一下各个api的用法以及一些细节问题1,添加word文档的标题Document()可接受一个模板文件参数,不添加的话将使用默认模板,所以打包时需要注意这个问题.add_heading()添加一个标题,docx将标题等级分为0-9,样式各有不同,我使用时有个

    2018-11-14 浏览(400 阅读原文>>
  • 深度学习 【转】深度学习笔记9:权值更新的实现

    【转】深度学习笔记9:权值更新的实现

    权值更新在前面的反向传播中我们计算出每一层的权值W和偏置b的偏导数之后,最后一步就是对权值和偏置进行更新了。在之前的BP算法的介绍中我们给出了如下公式:                                               其中的α为学习速率,一般学习率并不是一个常数,而是一个以训练次数为自变量的单调递减的函数。使用变化的学习率有以下几点理由:1、开始时学习率较大,可以快速的

    2018-08-27 浏览(644 阅读原文>>
  • 深度学习 【转】深度学习笔记8:softmax层的实现

    【转】深度学习笔记8:softmax层的实现

    softmax简介Softmax回归模型是logistic回归模型在多分类问题上的推广,在多分类问题中,待分类的类别数量大于2,且类别之间互斥。比如我们的网络要完成的功能是识别0-9这10个手写数字,若最后一层的输出为[0,1,0, 0, 0, 0, 0, 0, 0, 0],则表明我们网络的识别结果为数字1。Softmax的公式为,可以直观看出如果某一个zj大过其他z,那这个映射的分量就逼近于1,

    2018-08-27 浏览(484 阅读原文>>
  • 深度学习 【转】深度学习笔记7:激活函数层的实现

    【转】深度学习笔记7:激活函数层的实现

    激活函数是用来引入非线性因素的。网络中仅有线性模型的话,表达能力不够。比如一个多层的线性网络,其表达能力和单层的线性网络是相同的(可以化简一个3层的线性网络试试)。我们前边提到的卷积层、池化层和全连接层都是线性的,所以,我们要在网络中加入非线性的激活函数层。一般一个网络中只设置一个激活层。激活函数一般具有以下性质:非线性: 线性模型的不足我们前边已经提到。处处可导:反向传播时需要计算激活函数的偏导

    2018-08-27 浏览(506 阅读原文>>
  • 深度学习 【转】深度学习笔记6:全连接层的实现

    【转】深度学习笔记6:全连接层的实现

    全连接层的推导全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。全连接层的前向计算下图中连线最密集的2个地方就是全连接层,这很明显的可以看出全连接层的参数的确很多。在前向计算过程,也就是一个线性的加权求和的过程,全连接层的每一个输出都可以看成前一层的每一个结点乘以一个权重系数W,最后加上一个偏置值b得到,即 。如下图中第

    2018-08-27 浏览(277 阅读原文>>
  • 深度学习 【转】深度学习笔记5:池化层的实现

    【转】深度学习笔记5:池化层的实现

    池化层的推导池化层的输入一般来源于上一个卷积层,主要作用是提供了很强的鲁棒性(例如max-pooling是取一小块区域中的最大值,此时若此区域中的其他值略有变化,或者图像稍有平移,pooling后的结果仍不变),并且减少了参数的数量,防止过拟合现象的发生。池化层一般没有参数,所以反向传播的时候,只需对输入参数求导,不需要进行权值更新。池化层的前向计算前向计算过程中,我们对卷积层输出map的每个不重

    2018-08-27 浏览(296 阅读原文>>
  • 深度学习 【转】深度学习笔记4:卷积层的实现

    【转】深度学习笔记4:卷积层的实现

    卷积层的推导卷积层的前向计算如下图,卷积层的输入来源于输入层或者pooling层。每一层的多个卷积核大小相同,在这个网络中,我使用的卷积核均为5*5。如图输入为28*28的图像,经过5*5的卷积之后,得到一个(28-5+1)*(28-5+1) = 24*24、的map。卷积层2的每个map是不同卷积核在前一层每个map上进行卷积,并将每个对应位置上的值相加然后再加上一个偏置项。每次用卷积核与map

    2018-08-27 浏览(341 阅读原文>>
  • 深度学习 【转】深度学习笔记3:实现一个卷积神经网络

    【转】深度学习笔记3:实现一个卷积神经网络

    一、卷积神经网络(CNN)卷积神经网络(ConvolutionalNeural Network,CNN)是人工神经网络的一种。当前已经成为图像和语音识别领域有十分广泛的应用,特别是在识别位移、缩放及其他形式扭曲不变性的二维图形方面有十分优异的表现,已经成为一个十分重要的研究方向。关于CNN的详细解释可以看这里:http://blog.csdn.net/zouxy09/article/details

    2018-08-27 浏览(257 阅读原文>>
  • 深度学习 【转】深度学习笔记2:反向传播算法

    【转】深度学习笔记2:反向传播算法

    1、损失函数        损失函数在统计学中是一种衡量损失和误差程度的函数,它一般包括损失项(loss term)和正则项(regularization term)。    损失项        损失项比较常见的有平方损失,常用在回归问题;以及对数损失函数,常用在分类问题。    正则项        加入正则项目的是减小权重的幅度,防止过度拟合。常用的有L1-regularization和L2

    2018-08-27 浏览(257 阅读原文>>