首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   21020篇
  免费   2365篇
  国内免费   499篇
化学   1397篇
晶体学   14篇
力学   492篇
综合类   268篇
数学   4530篇
物理学   2626篇
无线电   14557篇
  2024年   82篇
  2023年   257篇
  2022年   521篇
  2021年   726篇
  2020年   645篇
  2019年   514篇
  2018年   503篇
  2017年   802篇
  2016年   930篇
  2015年   924篇
  2014年   1604篇
  2013年   1644篇
  2012年   1454篇
  2011年   1515篇
  2010年   1032篇
  2009年   1068篇
  2008年   1282篇
  2007年   1348篇
  2006年   1078篇
  2005年   997篇
  2004年   847篇
  2003年   696篇
  2002年   527篇
  2001年   470篇
  2000年   376篇
  1999年   309篇
  1998年   275篇
  1997年   204篇
  1996年   205篇
  1995年   192篇
  1994年   129篇
  1993年   117篇
  1992年   95篇
  1991年   69篇
  1990年   61篇
  1989年   39篇
  1988年   34篇
  1987年   41篇
  1986年   27篇
  1985年   54篇
  1984年   39篇
  1983年   22篇
  1982年   27篇
  1981年   25篇
  1980年   17篇
  1979年   22篇
  1978年   8篇
  1977年   7篇
  1976年   6篇
  1973年   7篇
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
81.
本文探讨了随机删失场合半参数回归模型的参数估计问题.考虑半参数回归模型Y =X}}3 + g(T)十。,其中(X,T)’为取值于Kp X [0,1〕上的随机向量,月为1'维未知参数向量,8为定义于【0.1]上的未知函数,。为随机误差,Ee = 0 . Eez = az }。未知,且(X ,T)与。独立,).被一个与之独立的随机变量V所截.此时仅能观察到:Z=min(Y,V),o=1(Y簇V),参数I3,az的估计量禽及公 z可综合非参数的权函数估计法与参数的最小二乘估计方法得到.本文对核函数的情形得到了念及ar z的精确收敛速度即重对数律.  相似文献   
82.
戴松新  陆荣鑑 《电子工程师》2006,32(3):63-64,77
介绍了以PIC16F873单片机为控制核心的汽车组合仪表板控制系统的设计,简述了汽车组合仪表板的基本构成,介绍了汽车组合仪表板控制系统的组成和各部分功能,给出了数据采集处理电路、电源电路等部分硬件电路设计方案,并阐述了一些软件设计算法,如分段插补法和用于平滑指针的软件设计算法等。  相似文献   
83.
为进一步提高大学物理实验的教学质量,本文就实验课的预习、操作、实验报告的撰写及考核方法进行了探讨。  相似文献   
84.
A system-on-chip (SOC) usually consists of many memory cores with different sizes and functionality, and they typically represent a significant portion of the SOC and therefore dominate its yield. Diagnostics for yield enhancement of the memory cores thus is a very important issue. In this paper we present two data compression techniques that can be used to speed up the transmission of diagnostic data from the embedded RAM built-in self-test (BIST) circuit that has diagnostic support to the external tester. The proposed syndrome-accumulation approach compresses the faulty-cell address and March syndrome to about 28% of the original size on average under the March-17N diagnostic test algorithm. The key component of the compressor is a novel syndrome-accumulation circuit, which can be realized by a content-addressable memory. Experimental results show that the area overhead is about 0.9% for a 1Mb SRAM with 164 faults. A tree-based compression technique for word-oriented memories is also presented. By using a simplified Huffman coding scheme and partitioning each 256-bit Hamming syndrome into fixed-size symbols, the average compression ratio (size of original data to that of compressed data) is about 10, assuming 16-bit symbols. Also, the additional hardware to implement the tree-based compressor is very small. The proposed compression techniques effectively reduce the memory diagnosis time as well as the tester storage requirement.  相似文献   
85.
Statisticians are accustomed to processing numerical, ordinal or nominal data. In many circumstances, such as socio-economic, epidemiologic sample surveys and documentary data bases, this data is juxtaposed with textual data (for example, responses to open questions in surveys). This article presents a series of language-independent procedures based upon applying multivariate techniques (such as correspondence analysis and clustering) to sets of generalized lexical profiles. The generalized lexical profile of a text is a vector whose components are the frequencies of each word (graphical form) or ‘repeated segment’ (sequence of words appearing with a significant frequency in the text). The processing of such large (and often sparse) vectors and matrices requires special algorithms. The main outputs are the following: (1) printouts of the characteristic words and characteristic responses for each category of respondent (these categories are generally derived from available nominal variables); (2) graphical displays of the proximities between words or segments and categories of respondents; (3) when analysing a combination of several texts: graphical displays of proximities between words or segments and each text, or between words or segments and groupings of texts. The systematic use of ‘repeated segments’ provides a valuable help in interpreting the results from a semantic point of view.  相似文献   
86.
成像光谱技术中机上实时数据压缩方法研究   总被引:2,自引:0,他引:2  
钱神恩 《光学学报》1990,10(3):60-266
根据成像光谱仪的特点用一系列串行的一维压缩实现二维图像压缩.提出了在机上对原始数据从光谱方向进行实时压缩的“二真值线性预测方法”.该法可做到压缩/复原后光谱特征信息不丢失.实验表明,对大多数光谱数据在1%的重建精度下,至少可获得2:1的压缩比.从总体而言,压缩后原始数据率可降低3~4倍.文中还对压缩数据的编码和误差进行了讨论.  相似文献   
87.
Let l be the critical exponent associated with the probability thatl independentN-step ordinary random walks, starting at nearby points, are mutually avoiding. Using Monte Carlo methods combined with a maximum-likelihood data analysis, we find that in two dimensions 2=0.6240±0.0005±0.0011 and 3=1.4575±0.0030±0.0052, where the first error bar represents systematic error due to corrections to scaling (subjective 95% confidence limits) and the second error bar represents statistical error (classical 95% confidence limits). These results are in good agreement with the conformal-invariance predictions 2=5/8 and 3=35/24.  相似文献   
88.
曝光数据流优化问题的蒙特卡罗算法   总被引:1,自引:0,他引:1  
袁为民  余学鸣 《微电子学》1992,22(1):23-26,13
集成工艺中控制图形发生器产生掩模图形的数据流文件的数据排列顺序优化,是一个其结点数可达数千个之多的大规模旅行商问题(从镜头架的位置,即每个矩形的矩心为结点),常规算法早已不适用。本文采用多阶段蒙特卡罗算法并加以改进,补充了“分层优化模式”,邻接结点的预合并和在各个阶段末提取共同子路径并删去相关结点等一系列逐步缩小问题规模的措施,形成了一个实用的优化算法。相应的软件已成功地应用于薄膜磁头的数据流文件的优化。  相似文献   
89.
基于速度一致位移差保持不变的一致性概念,研究了二阶多智能体系统在时变拓扑下的采样一致性问题。首先,引入虚拟领导者,将具有时变拓扑结构的多智能体系统的采样一致性问题转换为误差系统的采样控制稳定性问题。其次,通过预估采样误差,研究采样误差对系统达到一致性的影响。最后,应用Lyapunov稳定性理论,分析所构造的误差系统的稳定性,并给出该误差系统最终稳定的充分条件。数值仿真结果验证了理论分析的有效性和正确性。  相似文献   
90.
本文研究了无界域上的带有随机初值的复值Ginzburg-Landau方程.首先, 基于解过程的全局适定性, 建立了带有随机初值的Ginzburg-Landau方程的平均随机动力系统.然后, 证明了弱拉回平均随机吸引子的存在唯一性以及随机吸引子的周期性,并将其进一步推广到加权空间L2(?, L2σ(R)).  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号