首页 | 本学科首页   官方微博 | 高级检索  
     

随机梯度下降法的收敛速度(英文)
引用本文:汪宝彬,戴济能. 随机梯度下降法的收敛速度(英文)[J]. 数学杂志, 2012, 32(1): 74-78
作者姓名:汪宝彬  戴济能
作者单位:1. 中南民族大学数学与统计学学院,湖北武汉,430074
2. 武汉工程大学理学院,湖北武汉,430073
基金项目:Supported by the Scientific Research Fund of Central South University for Nationalities (YZZ09005)
摘    要:本文研究了正则化格式下随机梯度下降法的收敛速度.利用线性迭代的方法,并通过参数选择,得到了随机梯度下降法的收敛速度.

关 键 词:收敛速度  Mercer核  再生核  希尔伯特空间  随机梯度下降法

CONVERGENCE RATES OF STOCHASTIC GRADIENT DESCENT METHODS
WANG Bao-bin , DAI Ji-neng. CONVERGENCE RATES OF STOCHASTIC GRADIENT DESCENT METHODS[J]. Journal of Mathematics, 2012, 32(1): 74-78
Authors:WANG Bao-bin    DAI Ji-neng
Affiliation:1.School of Mathematics and Statistics,Central South University for Nationalities,Wuhan 430074,China)(2.School of Science,Wuhan Institute of Technology,Wuhan 430073,China)
Abstract:This paper investigates the learning rates of the stochastic gradient descent methods in regularization schemes.By the iteration method,we obtain the convergence rate of the algorithm with suitable choice of the parameter.
Keywords:learning rates  Mercer kernel  reproducing kernel  Hilbert space  stochastic gradient descent methods
本文献已被 CNKI 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号