首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   0篇
  国内免费   4篇
化学   1篇
数学   6篇
  2021年   1篇
  2014年   2篇
  2010年   1篇
  2008年   2篇
  2007年   1篇
排序方式: 共有7条查询结果,搜索用时 0 毫秒
1
1.
以纳米金溶胶(NGS)和多重壁碳纳米管(MWCNTs)的共混物(NGS/MWCNTs)作为固定漆酶的载体,研究了3种固定漆酶方法在酶固定量、比活力上的差异。研究了不同的固定方法对固定酶热稳定性和重复使用性及纳米金溶胶颗粒粒径对酶固定量和固定酶动力学参数的影响。实验结果表明,NGS/MWCNTs具有良好的固定漆酶能力和高固酶比活力,NGS/MWCNTs(NGS粒径37nm)通过简单物理吸附法固定漆酶的量和固酶的比活力最高,分别可达33.80mg/g和9.433U/mg。在NGS/MWCNTs上采用化学键合方法固定的漆酶在70℃放置2h后仍然保持初始活力的75%,重复使用20次后仍保持初始活力的70%。纳米金溶胶粒子越小(24nm),底物和固定漆酶间亲和力越好(KM=0.027mmol/L),表观速率常数越大。  相似文献   
2.
研究多维Cardaliguet-Eurrard型神经网络算子的逼近问题.分别给出该神经网络算子逼近连续函数与可导函数的速度估计,建立了Jackson型不等式.  相似文献   
3.
距离空间中的神经网络插值与逼近   总被引:4,自引:1,他引:3  
已有的关于插值神经网络的研究大多是在欧氏空间中进行的,但实际应用中的许多问题往往需要用非欧氏尺度进行度量.本文研究一般距离空间中的神经网络插值与逼近问题,即先在距离空间中构造新的插值网络,然后在此基础上构造近似插值网络,最后研究近似插值网络对连续泛函的逼近.  相似文献   
4.
研究了压缩最小平方回归学习算法的泛化性问题.利用随机投影、覆盖数等理论以及概率不等式得到了该学习算法的泛化误差上界.所获结果表明:压缩学习虽以增大逼近误差的方式降低样本误差,但其增量是可控的.此外,通过压缩学习,在一定程度上克服了学习过程中所出现的过拟合现象.  相似文献   
5.
单隐层神经网络与最佳多项式逼近   总被引:7,自引:1,他引:6  
研究单隐层神经网络逼近问题.以最佳多项式逼近为度量,用构造性方法估计单隐层神经网络逼近连续函数的速度.所获结果表明:对定义在紧集上的任何连续函数,均可以构造一个单隐层神经网络逼近该函数,并且其逼近速度不超过该函数的最佳多项式逼近的二倍.  相似文献   
6.
本文研究了|x|α在改进的正切结点组的有理逼近的问题.利用改变结点的方法,获得其逼近阶为O(1/n)的结果.推广了一些学者在正切结点组下的研究的逼近阶,而且优于等距结点组、第一和第二类Chebyshev结点组的结果.  相似文献   
7.
对广义凸损失函数和变高斯核情形下正则化学习算法的泛化性能展开研究.其目标是给出学习算法泛化误差的一个较为满意上界.泛化误差可以利用正则误差和样本误差来测定.基于高斯核的特性,通过构构建一个径向基函数(简记为RBF)神经网络,给出了正则误差的上界估计,通过投影算子和再生高斯核希尔伯特空间的覆盖数给出样本误差的上界估计.所获结果表明,通过适当选取参数σ和λ,可以提高学习算法的泛化性能.  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号