首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   55篇
  免费   6篇
化学   44篇
力学   2篇
数学   12篇
物理学   3篇
  2023年   1篇
  2021年   4篇
  2020年   2篇
  2019年   2篇
  2018年   3篇
  2017年   2篇
  2016年   3篇
  2015年   5篇
  2014年   2篇
  2013年   1篇
  2012年   9篇
  2011年   9篇
  2010年   1篇
  2009年   3篇
  2008年   1篇
  2007年   3篇
  2006年   3篇
  2005年   2篇
  2004年   1篇
  1999年   1篇
  1997年   2篇
  1989年   1篇
排序方式: 共有61条查询结果,搜索用时 0 毫秒
61.
We derive an asymptotic expansion for the log-likelihood of Gaussian mixture models (GMMs) with equal covariance matrices in the low signal-to-noise regime. The expansion reveals an intimate connection between two types of algorithms for parameter estimation: the method of moments and likelihood optimizing algorithms such as Expectation-Maximization (EM). We show that likelihood optimization in the low SNR regime reduces to a sequence of least squares optimization problems that match the moments of the estimate to the ground truth moments one by one. This connection is a stepping stone towards the analysis of EM and maximum likelihood estimation in a wide range of models. A motivating application for the study of low SNR mixture models is cryo-electron microscopy data, which can be modeled as a GMM with algebraic constraints imposed on the mixture centers. We discuss the application of our expansion to algebraically constrained GMMs, among other example models of interest. © 2022 The Authors. Communications on Pure and Applied Mathematics published by Wiley Periodicals LLC.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号