首页期刊简介编委会征稿启事出版道德声明审稿流程读者订阅论文查重联系我们English
引用本文
  • 周佳俊,欧智坚.深层神经网络预训练的改进初始化方法[J].电讯技术,2013,53(7):0 - .    [点击复制]
  • ZHOU Jia-jun,OU Zhi-jian.Improved initialization of pre-training in deep neural network[J].,2013,53(7):0 - .   [点击复制]
【打印本页】 【下载PDF全文】 查看/发表评论下载PDF阅读器关闭

←前一篇|后一篇→

过刊浏览    高级检索

本文已被:浏览 2419次   下载 2166 本文二维码信息
码上扫一扫!
深层神经网络预训练的改进初始化方法
周佳俊,欧智坚
0
(清华大学 电子工程系,北京 100084)
摘要:
在基于神经网络的语音识别任务中,提出根据激励函数二阶导数优化网络预训练阶段 中权值初始化的方法。利用激励函数的非线性区域和自变量呈高斯分布的特性,寻找权值分 布的较优方差以提升训练速度。通过比较同一学习速率下不同初始化数值对收敛速度的影响 ,发现此种方法可以加快预训练阶段的速度,提升神经网络训练的效率。
关键词:  语音识别  深层神经网络  预训练  初始化  激励函数
DOI:10.3969/j.issn.1001-893x.2013.07.014
基金项目:国家自然科学基金资助项目(61075020)
Improved initialization of pre-training in deep neural network
ZHOU Jia-jun,OU Zhi-jian
()
Abstract:
Second derivative of activation function is used to optimize weight i nitialization in deep neural network pre-training phase within speech recognit ion tasks.By using the non-linear region of activation function and independent variables′ Gaussian distribution,a method of finding the best varia nce is proposed in order to speed the training up. Comparison of convergence rat es in different weight initialization at the same learning rate shows that this method can accelerate the speed of the pre-training phase and enhance the effi ciency of neural network training.
Key words:  speech recognition  deep neural network  pre-training  initialization  activation function
安全联盟站长平台