排序方式: 共有7条查询结果,搜索用时 0 毫秒
1
1.
以纳米金溶胶(NGS)和多重壁碳纳米管(MWCNTs)的共混物(NGS/MWCNTs)作为固定漆酶的载体,研究了3种固定漆酶方法在酶固定量、比活力上的差异。研究了不同的固定方法对固定酶热稳定性和重复使用性及纳米金溶胶颗粒粒径对酶固定量和固定酶动力学参数的影响。实验结果表明,NGS/MWCNTs具有良好的固定漆酶能力和高固酶比活力,NGS/MWCNTs(NGS粒径37nm)通过简单物理吸附法固定漆酶的量和固酶的比活力最高,分别可达33.80mg/g和9.433U/mg。在NGS/MWCNTs上采用化学键合方法固定的漆酶在70℃放置2h后仍然保持初始活力的75%,重复使用20次后仍保持初始活力的70%。纳米金溶胶粒子越小(24nm),底物和固定漆酶间亲和力越好(KM=0.027mmol/L),表观速率常数越大。 相似文献
2.
研究多维Cardaliguet-Eurrard型神经网络算子的逼近问题.分别给出该神经网络算子逼近连续函数与可导函数的速度估计,建立了Jackson型不等式. 相似文献
3.
距离空间中的神经网络插值与逼近 总被引:4,自引:1,他引:3
已有的关于插值神经网络的研究大多是在欧氏空间中进行的,但实际应用中的许多问题往往需要用非欧氏尺度进行度量.本文研究一般距离空间中的神经网络插值与逼近问题,即先在距离空间中构造新的插值网络,然后在此基础上构造近似插值网络,最后研究近似插值网络对连续泛函的逼近. 相似文献
4.
研究了压缩最小平方回归学习算法的泛化性问题.利用随机投影、覆盖数等理论以及概率不等式得到了该学习算法的泛化误差上界.所获结果表明:压缩学习虽以增大逼近误差的方式降低样本误差,但其增量是可控的.此外,通过压缩学习,在一定程度上克服了学习过程中所出现的过拟合现象. 相似文献
5.
6.
7.
对广义凸损失函数和变高斯核情形下正则化学习算法的泛化性能展开研究.其目标是给出学习算法泛化误差的一个较为满意上界.泛化误差可以利用正则误差和样本误差来测定.基于高斯核的特性,通过构构建一个径向基函数(简记为RBF)神经网络,给出了正则误差的上界估计,通过投影算子和再生高斯核希尔伯特空间的覆盖数给出样本误差的上界估计.所获结果表明,通过适当选取参数σ和λ,可以提高学习算法的泛化性能. 相似文献
1