全文获取类型
收费全文 | 13159篇 |
免费 | 1470篇 |
国内免费 | 228篇 |
专业分类
化学 | 942篇 |
晶体学 | 20篇 |
力学 | 141篇 |
综合类 | 108篇 |
数学 | 3160篇 |
物理学 | 2098篇 |
无线电 | 8388篇 |
出版年
2024年 | 403篇 |
2023年 | 1211篇 |
2022年 | 1269篇 |
2021年 | 1109篇 |
2020年 | 716篇 |
2019年 | 585篇 |
2018年 | 276篇 |
2017年 | 413篇 |
2016年 | 388篇 |
2015年 | 403篇 |
2014年 | 642篇 |
2013年 | 531篇 |
2012年 | 877篇 |
2011年 | 676篇 |
2010年 | 570篇 |
2009年 | 563篇 |
2008年 | 556篇 |
2007年 | 445篇 |
2006年 | 450篇 |
2005年 | 549篇 |
2004年 | 458篇 |
2003年 | 351篇 |
2002年 | 285篇 |
2001年 | 222篇 |
2000年 | 178篇 |
1999年 | 140篇 |
1998年 | 84篇 |
1997年 | 70篇 |
1996年 | 87篇 |
1995年 | 71篇 |
1994年 | 69篇 |
1993年 | 40篇 |
1992年 | 55篇 |
1991年 | 22篇 |
1990年 | 17篇 |
1989年 | 32篇 |
1988年 | 6篇 |
1987年 | 7篇 |
1986年 | 8篇 |
1985年 | 1篇 |
1984年 | 3篇 |
1983年 | 2篇 |
1982年 | 3篇 |
1981年 | 6篇 |
1980年 | 2篇 |
1975年 | 2篇 |
1959年 | 4篇 |
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
801.
笛卡儿说,遇到任何一个"真理"都不能轻易接受,除非它可以分解为许多个小的、令我深信无疑的事实;波利亚说,如果我们想不起别的,可以试验这个不熟悉的论断的某个特例.这其中都蕴涵着一个重要的思维策略:以退求进.华罗庚教授更是明确指出,善于"退",足够地"退",退到最原始而不失去重要性的地方,是学好数学的一个诀窍. 相似文献
802.
《广播电视网络技术》2009,(5):90-93
大家好!我是康智达公司的讲师赵小虎,首先祝愿大家能在工作中取得进步!今天我们来学习AvidPinnacleStudio12中的两个内容,一个是PinnacleStudio12中“蒙太奇”特效的使用,另一个是利用PinnacleStudio12导入DVD光盘视频,希望对大家的工作有所帮助。 相似文献
803.
804.
805.
10月23日。重庆市通信管理局电信用户申诉受理中心召开了电信法规规童学习讨论会。管局市场监管处、申诉中心、各电信运营企业服务部门相关人员参加了会议。 相似文献
806.
加速管中的高次模(HOM)能导至累积束流崩溃,因此这些模式必须被抑制.在S波段直线对撞机中(SBLC),采用了在束流孔膜片上复盖适当的损耗材料的方式.HOM的Q值被减小了5倍,而基模的Q值几乎保持不变.3种材料被考虑,即:stainlesssteel,kanthal和galvedc为了对具有这种涂层的加速腔进行高功率测试,一个两腔的谐振器结构被设计.本文描述了高功率测试的原理,过程以及初步的结果. 相似文献
807.
从LD端面抽运固体激光器的激光阈值公式出发,建立了双波长激光同时振荡的阈值条件,理论计算了腔镜对于两个波长的透过率关系,实现了LD端面抽运Nd:YAG 1319nm/1338nm双波长激光连续和准连续输出.双波长激光连续输出功率可达6W,斜效率为30%;准连续输出功率在重复频率50kHz时可达4.75W,斜效率为24.73%,脉冲宽度为55.05ns;腔内插入布儒斯特片,在重复频率为50kHz时,双波长激光准连续线偏振输出功率可达2.22W,不稳定性小于0.52%,M2 相似文献
808.
809.
RBF神经网络的梯度下降训练方法中的学习步长优化 总被引:9,自引:0,他引:9
梯度下降法是训练RBF神经网络的一种有效方法。和其他基于下降法的算法一样,RBF神经网络的梯度下降训练方法中也存在学习步长的取值问题。本文基于误差能量函数对学习步长的二阶Taylor展开,构造了一种优化学习步长的方法,进行了较详细的推导:实验表明,本方法可有效地加速梯度下降法的收敛速度、提高其性能。该方法的思想可以用于其他基于下降法的学习步长的优化中。 相似文献
810.
前向神经网络的神经元分层逐个线性优化快速学习算法 总被引:1,自引:0,他引:1
本文提出了一种新的前向神经网络快速分层学习算法.在此学习算法中,其优化策略为对输出层和隐层神经元的连接权值交替优化.对输出层权值优化算法采用基于广义逆的最小二乘递推算法,对隐层神经元的连接权值采取则对每个神经元逐个进行优化,而且采用正交变换加快每一步学习的计算速度和提高算法的数值稳定性.当学习过程停滞时采用随机扰动的方法摆脱过早收敛.数值实验表明,与BP动量因子法、牛顿型方法和现有的分层优化算法相比,新算法不仅学习速度快学习时间短,而且当网络规模增大时仍然比较有效. 相似文献