首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   2篇
数学   1篇
综合类   4篇
  2023年   2篇
  2019年   1篇
  2010年   2篇
排序方式: 共有5条查询结果,搜索用时 15 毫秒
1
1.
王快妮  丁小帅 《科技信息》2010,(20):I0115-I0116
分段函数在分段点处的可导性是高等数学学习的一个难点.利用导数的定义是最常见的一种判断分段函数在分段点处可导性的方法.本文总结了分段函教在分段点处求导的3种方法,并通过例题予以说明.  相似文献   
2.
为了进一步提高极限学习机(extreme learning machine,ELM)的稳定性和稀疏性,在鲁棒ELM的基础上,引入l0范数作为模型的正则项来提高稀疏性,建立了基于l0范数正则项的稀疏鲁棒ELM。首先,通过一个凸差(difference of convex,DC)函数逼近l0范数,得到一个DC规划的优化问题;然后,采用DC算法进行求解;最后,在人工数据集和基准数据集上进行实验。实验结果表明:基于l0范数的鲁棒ELM能够同时实现稀疏性和鲁棒性的提升,尤其在稀疏性上表现出较大的优势。  相似文献   
3.
王快妮  倪科社  丁小帅 《科技信息》2010,(18):I0115-I0115,I0117
最小二乘支持向量机作为支持向量机的扩展,将支持向量机求解二次规划问题转化线性方程组,具有结构简单、易于求解、待定参数少的特点,可大大加快建模速度。本文将最小二乘支持向量机模型应用于上证180指数和香港恒生指数收盘价的预测。实验结果表明,该模型具有学习速度快,预测精度较高的优点,适用于股指预测。  相似文献   
4.
基于指数Laplace损失函数的回归估计鲁棒超限学习机   总被引:1,自引:0,他引:1       下载免费PDF全文
实际问题的数据集通常受到各种噪声的影响,超限学习机(extreme learning machine, ELM)对这类数据集进行学习时,表现出预测精度低、预测结果波动大.为了克服该缺陷,采用了能够削弱噪声影响的指数Laplace损失函数.该损失函数是建立在Gauss核函数基础上,具有可微、非凸、有界且能够趋近于Laplace函数的特点.将其引入到超限学习机中,提出了鲁棒超限学习机回归估计(exponential Laplace loss function based robust ELM for regression, ELRELM)模型.利用迭代重赋权算法求解模型的优化问题.在每次迭代中,噪声样本点被赋予较小的权值,能够有效地提高预测精度.真实数据集实验验证了所提出的模型相比较于对比算法具有更优的学习性能和鲁棒性.  相似文献   
5.
【目的】研究多目标半无限规划问题的最优性充分条件。【方法】利用弧式连通(AC)函数和次线性函数,定义了一类高阶(B,F)-AC-V-typeⅠ不变凸函数,在新广义凸性假设下研究了一类含有不等式约束的多目标半无限规划问题。【结果】得到了若干最优性充分条件。【结论】所得结果丰富了多目标半无限规划理论。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号