首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 375 毫秒
1.
基于FICP算法提高对低频噪声时延的估计精度   总被引:1,自引:1,他引:0       下载免费PDF全文
针对非平稳随机噪声(直升机飞行声音,导弹喷流噪声)信号,研究了提高时延估计计算精度的方法,通过计算信号的细化频谱,并避免了标准FFT计算带来的栅栏效应,从而使得对于超短取样信号的频谱计算精度与信号长度无关,采用快速计算方法FICP由N点互谱计算2N点相关波形,提高了相关波形的分辨率,使得时延估计精度得以提高。对实测直升机飞行噪声和导弹噪声计算了不同取样长度和不同采样率下的时延估计,得出了谱分辨率越高,时延估计精度越高的结论。  相似文献   

2.
针对无源雷达中时延估计辐射源信号未知的情况,构建了一种新的时延最大似然估计模型.根据模型特点利用快速傅里叶变换(FFT)的计算方法实现时延估计.为了提高估计的精度,采用马尔科夫链蒙特卡罗(MCMC)抽样的方法估计时延值.该方法不需峰值检测,可直接给出时延估计结果.并推导了该模型下的时延估计的克拉美罗界(CRLB).仿真实验表明,MCMC算法可适用于窄带和宽带信号的时延估计;在样本相同的条件下,MCMC算法估计精度高于重要性采样(IS)算法和基于峰值检测的ML算法,计算复杂度低于IS算法,且MCMC算法可直接估计采样间隔非整数倍的时延.  相似文献   

3.
两步法提高时延差估计精度的分析和实验验证   总被引:3,自引:1,他引:2  
为提高短基线水声定位系统的定位精度,对利用两次估计提高时延差计算精度的方法进行了理论分析、仿真和实验验证,并给出了具体的实现步骤。该方法将时延差估计值分解成了时延差初测值和时延差修正值,前者直接利用相关函数包络求解,后者与相关函数相位差之间存在映射关系,通过频域的相位差估计获得。仿真和实验的结果显示,采用这一方法能够获得很高的时延差估计精度。两步法具有很强的实用性,可以有效的提高短基线水声定位系统定位精度。   相似文献   

4.
基于声程差的多通道广义相关时延估计及其DSP实现   总被引:3,自引:0,他引:3  
本文将基于声程差的广义相关法时延估计应用于六基元阵,同时成功地将中值滤波及可变门限算法用于相关峰的自动跟踪,为了提高精度,导出了新的内插公式。最后给出了时延估计的结果。  相似文献   

5.
基于两级压缩感知的脉冲星时延估计方法   总被引:1,自引:0,他引:1       下载免费PDF全文
康志伟  吴春艳  刘劲  马辛  桂明臻 《物理学报》2018,67(9):99701-099701
为了快速获得高精度的脉冲星累积脉冲轮廓时延估计,提出了一种基于两级压缩感知的时延估计方法.压缩感知主要包括三个部分:字典、测量矩阵、恢复算法,其中字典尺寸是影响压缩感知估计精度的重要因素.针对压缩感知中字典的原子数增加虽能提高估计精度但又带来计算量大的问题,该方法采用粗估计与精估计两级字典相结合,先利用粗估计字典原子间隔大的特点进行累积脉冲轮廓全相位估计,得到预估时延值,再利用精估计字典的原子间隔小且个数少适合局部估计的特点对累积脉冲轮廓进行精确时延估计.理论分析与实验结果表明:两级字典数据量比传统字典小两个数量级,在相同的时延估计精度下,该方法比传统压缩感知方法计算量大幅度减少,是一种能保持高估计精度并有效降低计算量的脉冲星时延估计方法.  相似文献   

6.
方海燕  刘兵  李小平  孙海峰  薛梦凡  沈利荣  朱金鹏 《物理学报》2016,65(11):119701-119701
为提高X射线脉冲星导航中累积脉冲轮廓的时间延迟估计精度, 分析了X射线脉冲星累积脉冲轮廓的频谱特性和现有Taylor快速傅立叶变换时延估计算法的缺陷, 提出了一种基于最优频段的累积轮廓时延估计算法, 并通过建立不同信噪比下时延估计误差与所采用频段之间的关系以确定最优频段. 数值及实测数据实验结果表明: 在短时观测或光子流量较小时, 该算法优于常用的近似最大似然 (FAML)、相关 (CC)、最小二乘 (NLS) 及加权最小二乘 (WNLS) 方法; 在观测时间较长或光子流量较大时, 该算法的估计精度与CC及NLS方法相当, 但其运算量低于NLS, FAML 及WNLS方法. 本文所提算法适用于短时观测脉冲轮廓或低流量脉冲星的高精度时延估计.  相似文献   

7.
十字阵短时宽带声源实时定向算法   总被引:5,自引:1,他引:4       下载免费PDF全文
程萍  陈建峰  马驰  张竹 《应用声学》2012,31(2):123-129
面向短时宽带声源实时定向问题,提出了一种基于互功率谱时延估计的十字阵定向优化算法。针对该方法估计结果离散且呈不均匀分布的特点,将观测平面划分为四个测量区域,并利用不同阵元组合分别处理,解决实时性与估计成功率的矛盾;依据互相关函数的特点,设计了若干判断准则,排除由于数据取样短造成的异常时延估计,改善算法的可靠性;采用频域插值方法,一定程度上提高时延估计精度,从而提高定向精度。MATLAB仿真和DSP系统实验表明,这种方法在实际应用中有效提高了对短时宽带声源定向的性能。  相似文献   

8.
杨晴  王良  李倩茹  宋志杰 《应用声学》2015,34(4):291-296
针对窄带信号,通过构造互谱时间序列,在互谱域建立了平稳时间序列时延估计的最小方差无畸变响应(MVDR)滤波器模型;利用分段近似处理,类比空间MVDR自适应算法,给出了其具体算法(Algorithm of MVDR in cross spectral domain,CSMVDR);进行了数值仿真实验研究和海上实验数据处理。数值仿真与实验数据处理结果初步验证了CSMVDR时延估计对于舰船辐射噪声的适用性,CSMVDR时延估计有比相关检测更好的时延估计性能,能够提高信噪比增益和时延估计精度。  相似文献   

9.
浅海多径时延估计的功率谱加权自相关方法   总被引:1,自引:0,他引:1       下载免费PDF全文
陈韶华  李世智  陈川 《声学学报》2017,42(5):543-550
针对浅海近距离时倒谱多径时延峰变弱难以提取的问题,提出了一种功率谱加权自相关多径时延估计方法。该方法采用FFT估计信号功率谱,对功率谱取1-α次幂(0<α<1),再进行IFFT变换,对其实部进行峰值检测获得多径时延估计。根据目标能量通过特性在正横前递增正横后递减的特点,在已检测时延前后一定区间内搜索下一个时延值,实现多径时延的自动提取.理论分析表明,多径时延估计的倒谱法与自相关法都可以看作功率谱加权自相关法的特例.海试数据处理与基于Bellhop射线模型的仿真计算表明,该方法在近距离时多径时延峰比倒谱法更清晰,输出信噪比提高了3~4 dB.采用该方法自动提取的海底反射多径时延用于单个水听器对目标距离的估计,与GPS测量距离基本相符,验证了方法的有效性.   相似文献   

10.
基于小波变换的广义相关时延估计算法   总被引:17,自引:0,他引:17  
为了估计两个在空间上分离的传感器所接收信号之间的时间延迟,本文结合小波变换的特点,提出了一个基于小波变换的广义相关时延估计算法并给出了它的时域和频域公式,此算法与直接互相关法相比,能对信号与噪声的假设条件放宽且在低信噪比下能有效估计时延。为了提高时延估计精度,在广义相关时延估计的基础上本文又提出了基于基小波的二次加权法。经仿真证明了这两种算法的有效性。  相似文献   

11.
一种利用高阶谱相位数据进行时延估计的新方法   总被引:3,自引:0,他引:3  
本文提出了一种利用高阶谱相位数据进行时延估计的新方法。对于无噪声干扰或是不相关高斯噪声干扰的信号来说,互谱相位数据时延估计能给出较好的估计结果。但是若存在相关高斯噪声干扰时,利用高阶谱相位数据进行时延估计就有较突出的优点,其精度高于互谱相位数据时延估计法。在频域内经过适当加权,能更有效地提高估计精度。  相似文献   

12.
王玥  孟晓辰  祝连庆 《应用光学》2018,39(2):207-211
荧光检测和分析技术中,荧光寿命的精确测量具有重要意义。针对纳秒级荧光寿命在流式细胞分析系统中无法直接测量的问题,提出一种基于互相关算法的脉冲时延估计荧光寿命表征方法。该方法将改进的线性调频Z变换算法与相关峰内插算法相结合,并与标准FFT算法仿真做对比,通过对哺乳动物细胞的荧光寿命进行测量,将所得数据进行处理,验证线性调频Z变换(MCZT)和相关峰内插(FICP)算法性能。实验结果表明,使用该算法降低了FFT计算带来的栅栏效应,可以提高互相关函数的分辨能力,测量荧光寿命的相对误差提高了4.344 3%。  相似文献   

13.
基于遗传算法的超声信号LMS自适应时延估计   总被引:10,自引:0,他引:10       下载免费PDF全文
为了克服LMS自适应时延估计(LMSTDE)算法计算量大的问题,引进遗传算法进行LMSTDE的寻优规划,并采取了克服过早收敛的措施。对超声信号进行时延估计的实验表明,该方法大大减少了计算量,并有较高的时延估计精度。  相似文献   

14.
用于时延估计的一种相关峰内插算法   总被引:3,自引:0,他引:3       下载免费PDF全文
黄建人 《应用声学》1996,15(6):33-36
本文介绍一种基于余弦函数的相关峰内插算法,在时延估计系统中,为了减少运算量和增加观察时间,采用内插算法是必要的,因为在频率估算时应用了迭代算法,所以无论对于cosx,six/x或实际的相关峰,都有相当高的内插精度。  相似文献   

15.
为解决水下定位过程中的多途信道高分辨估计问题,文章给出了一种梯度投影最小二乘多途信道实数域高分辨估计方法,不同于频域最小二乘,方法利用时域迭代求解去除了矩阵求逆,降低了计算量,并且能够直接获得高分辨的实数域信道冲激响应。与MUSIC、Richardson-Lucy (RL)以及稀疏贝叶斯(SBL)等几种典型时域高分辨信道估计算法进行对比分析,仿真和实验结果皆表明,文中给出的梯度投影LS算法和SBL算法时延分辨力明显优于MUSIC和RL算法,水池实验结果时延分辨力可达1/(5B)(B为信号带宽)。所提方法幅度衰减估计精度略差于SBL算法。但最小二乘(LS)算法使用过程中不需要预知多途数目,更适用于大时延多途扩展情况,且计算量显著优于SBL算法。  相似文献   

16.
通过分析复杂环境中不同频带声信号时延估计的差异,提出多频带期望值最大时延估计方法。为了使各频带之间无重叠,该方法采用独立分带划分声信号不同频带,然后计算各频带广义互相关函数,并对子带广义互相关函数建立最大似然模型,最后利用期望值最大算法将多维优化转为一维优化的迭代式,获得最优子带广义互相关函数,在此基础上估计声信号的时延信息。数据仿真和实际实验结果表明,多频带期望值最大化时延估计相较常规时延估计有效估计值的百分比提升了10%,并将最优频带互相关函数应用到该定位算法中,在网格间距为0.3 m时,得到的峰值区域汇聚更明显,定位效果更好。  相似文献   

17.
高伟  王宁  陈川 《声学学报》2013,38(5):523-532
对2007南海试验中多个航路船舶噪声的自相关和倒谱特征进行了分析研究,结果发现:近距离处倒谱图中的时延峰曲线消失、自相关相对倒谱有更高的时延峰检测信干比。类似现象此前未见报道,说明在一定条件下采用单一自相关法或倒谱法均难于连续检测时延峰。为解决这一问题,首先应用射线声学理论结合数值仿真,解释了该试验现象的产生与“随距离减小,倒谱和自相关的时延峰绝对幅度分别减小和增大”的性质有关,进而提出了一种利用船舶噪声的自相关和倒谱联合估计多径时延的方法。海试数据处理结果表明:本文方法能够稳健地跟踪多径时延峰,有效地弥补传统单一自相关法和倒谱法的不足,对解决多径时延的连续估计问题有明显效果。   相似文献   

18.
深海声影区稀疏时延估计与声源测距   总被引:1,自引:0,他引:1       下载免费PDF全文
研究了深海声影区中经一次海底反射的多途声线到达垂直双水听器的时延差与声源位置的关系,提出了一种稀疏时延估计与声源测距方法。首先利用近海面布放的短间距垂直双水听器接收一定频带的声信号,然后计算接收信号的广义互相关函数,并利用频谱搬移和稀疏解卷积技术提取时延差,最后通过时延差匹配,估计水下声源的距离。仿真实验表明,在4300 m深海中,所提方法能够正确提取多途到达时延差,估计声影区内的声源距离。海试结果表明,当垂直接收孔径分别为21 m和30 m时,声源测距误差分别小于13.6%和8.1%。上述结果表明,所提出的时延估计方法可适应带宽较窄的接收信号,多途到达时延估计参数可用于实现声影区中的水下声源测距。   相似文献   

19.
基于二次相关的语音信号时延估计改进算法   总被引:1,自引:1,他引:0  
刘敏  曾毓敏  张铭  李晨 《应用声学》2016,35(3):255-264
目前语音信号的时延估计研究,大部分采用的是广义互相关算法。然而,广义互相关时延估计算法易受噪声和混响环境影响。为此,本文提出了一种基于二次相关的语音信号时延估计改进算法,该算法对语音信号进行二次互相关运算,并结合Hilbert变换,对二次互相关峰值进行进一步的锐化处理,使得反映时延的峰值点检测更为准确。实验结果表明,改进的时延估计方法在非平稳的语音信号中能够有效地抑制噪声干扰,且在不同混响条件下时延估计具有更好的性能。  相似文献   

20.
基于回溯筛选的稀疏重构时延估计算法   总被引:1,自引:0,他引:1       下载免费PDF全文
冷雪冬  巴斌  逯志宇  王大鸣 《物理学报》2016,65(21):210701-210701
针对无线定位中时延估计在小样本(单快拍)、低信噪比条件下需要大量独立分布测量数据问题,提出了一种基于回溯筛选的稀疏重构时延估计算法,实现了单快拍、低信噪比条件下接收信号的精确时延估计.该算法首先建立接收信号的稀疏表示模型,然后基于该模型建立正交观测矩阵,最后在重构算法中引入回溯筛选思想,利用时延与观测矩阵之间的一一对应关系得到时延的无偏估计.对该模型下时延估计的克拉美罗界进行了推导.仿真分析表明,所提方法在单快拍、低信噪比条件下精度远高于求根多重信号分类算法,相比于正交匹配追踪算法,在较小的复杂度代价下性能得到了较大提升.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号