首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 203 毫秒
1.
针对最小冗余线阵难以用于阵列设计的问题, 设计了一种性能相近的最优冗余线阵, 为实现相应阵列的欠定信号到达角(direction of arrival, DOA)估计, 又提出了一种基于两次重构的快速协方差向量稀疏表示方法。该方法利用凸优化中最优解条件, 实现了Toeplitz协方差矩阵的快速高精度重构, 进而基于构造的协方差向量稀疏表示模型, 实现了欠定信号DOA估计。仿真结果证明, 最优冗余线阵相较于其他稀疏线阵, 耦合影响更低, 测向精度更高, 所提算法较同类算法DOA估计精度更高。  相似文献   

2.
近年来,量化压缩感知理论在雷达目标参数估计问题中得到了广泛应用,其主要思想是对采样回波数据进行量化,并将雷达观测模型建模为欠定方程,再利用压缩感知理论对稀疏目标信号进行恢复,降低回波数据的位宽,达到简化系统、提升效率的目的 .本文建立了捷变相参雷达信号的块稀疏压缩感知模型,并提出一种基于深度学习的1 Bit块稀疏重建网...  相似文献   

3.
在1-Bit压缩感知(compressive sensing, CS)框架下,将信号的稀疏结构先验引入广义稀疏Bayesian学习(generalized sparse Bayesian learning, Gr-SBL),研究基于Gr-SBL的1-Bit CS重构。将广义线性模型与模式耦合稀疏Bayesian学习相结合,提出了一种基于广义模式耦合稀疏Bayesian学习1-Bit CS重构算法,简称为1-Bit Gr-PC-SBL算法。该算法将1-Bit CS重构问题迭代地分解成一系列标准CS重构问题,在信号稀疏模式未知的情况下,基于模式耦合稀疏Bayesian学习实现信号重构。进而,引入阈值自适应的二进制量化,设计了自适应阈值的1-Bit Gr-PC-SBL算法,进一步提升了算法的信号重构性能。  相似文献   

4.
在1-Bit压缩感知(compressive sensing, CS)框架下,将信号的稀疏结构先验引入广义稀疏Bayesian学习(generalized sparse Bayesian learning, Gr-SBL),研究基于Gr-SBL的1-Bit CS重构。将广义线性模型与模式耦合稀疏Bayesian学习相结合,提出了一种基于广义模式耦合稀疏Bayesian学习1-Bit CS重构算法,简称为1-Bit Gr-PC-SBL算法。该算法将1-Bit CS重构问题迭代地分解成一系列标准CS重构问题,在信号稀疏模式未知的情况下,基于模式耦合稀疏Bayesian学习实现信号重构。进而,引入阈值自适应的二进制量化,设计了自适应阈值的1-Bit Gr-PC-SBL算法,进一步提升了算法的信号重构性能。  相似文献   

5.
欠定盲矩阵估计是欠定盲源分离的关键技术,其估计结果直接影响源信号的分离精度。针对目前欠定盲矩阵估计算法稳定性差、估计精度不高的缺点,提出了一种基于混合聚类和网格密度的新算法。该算法利用基于人工蜂群算法和K-均值的混合聚类方法对信号数据进行聚类,提高聚类结果的稳定性;利用网格密度法修正每一类的聚类中心,提高混合矩阵的估计精度。实验结果表明,所提算法在稳定性和估计精度方面都比传统欠定盲矩阵估计算法有了明显改善。  相似文献   

6.
针对时域和频域不充分稀疏条件下的雷达信号欠定盲分离问题,提出了基于信号不同时延的累积量与三阶张量分解估计混合矩阵的方法,并通过修正子空间投影算法完成对雷达源信号的恢复。首先将混合信号的四阶累积量表示成三阶张量,利用三阶张量分解获得混合矩阵估计值;通过求解雷达源信号任意时频点处对应的估计矩阵的列矢量,得到该时频点处最优超定矩阵的伪逆并恢复源信号。该算法可以解决复杂电磁环境下时频域同时混叠的雷达信号盲分离问题,仿真结果表明与现有算法相比提高了盲分离中混合矩阵估计性能和源信号恢复性能。  相似文献   

7.
针对准平稳信号的波达方向估计,提出一种基于Khatri-Rao(KR)积的联合稀疏分解算法。该算法借助KR积将阵列接收数据表示成多个虚拟联合稀疏测量矢量模型,通过求解联合稀疏反问题实现波达方向估计,给出了联合稀疏反问题的唯一性条件,解决了当前稀疏分解方位估计不能处理欠定情况的问题。仿真实验验证了算法的有效性,在低信噪比下获得了更高的分辨率。  相似文献   

8.
针对组网跳频信号在欠定条件下网台分选效果不佳的问题,提出了一种基于稀疏成分分析(sparse component analysis, SCA)的欠定跳频网台分选方法。在估计混合矩阵时,首先利用观测信号的实部与虚部方向一致性检测时频单源点,在采用S变换构造时频比矩阵的基础上,利用方差法实现了混合矩阵估计;在源信号恢复时,利用改进的子空间投影法得到源信号的时频域分离,最后可通过S逆变换得到时域分离信号,从而实现了欠定条件下的跳频网台分选。仿真结果表明,该方法有效实现了混合跳频信号在欠定条件下的网台分选且适用于跳频同步或异步组网方式,提高了分选性能和抗噪性能。  相似文献   

9.
提出了一种单基地多输入多输出(multiple-input multiple-output, MIMO)阵列中的协方差矩阵重构的无网格波达方向(direction-of-arrival, DOA)估计方法。该方法通过降维处理将MIMO阵列等效为信噪比(signal-to-noise ratio, SNR)提升的均匀线列阵,将目标方位估计问题转化为混合范数最小化(mixed norm minimization, MixNM)稀疏信号重构问题。进一步给出了与该稀疏重构问题等价的基于网格的凸优化问题,并模型化为半定规划来求解。为了解决网格大小影响估计性能的问题,利用了等价均匀线列阵的托普利兹结构,模型化为半定规划问题来重构无噪声协方差矩阵,最后通过范德蒙分解来估计目标方位。与传统的基于MixNM方位估计方法相比,该方法减少了优化变量个数。与其他离网格方法相比,该方法估计精度不受网格大小的影响,且能够估计相干源目标。实验仿真验证了该方法的有效性。  相似文献   

10.
针对目前欠定盲分离问题中源数未知,采取"两步法"进行分离源信号.在第一步聚类算法中,一般都假设源信号个数已知,即事先给定聚类数目,这类算法成功与否依赖于源信号个数的先验知识.为了有效解决这个问题,提出了一种新的基于模糊聚类分析的无监督学习算法,它利用观测信号之间的相似关系来确定模糊相似矩阵进行迭代算法,不但可以精确估计源信号个数,同时也能获得对混叠矩阵的精确估计.该方法进一步完善了"两步法",仿真结果表明了算法的有效性及优异性能.  相似文献   

11.
在源信号个数未知条件下,提出一种基于改进K-均值聚类的欠定混合矩阵盲估计方法。该方法首先计算观测信号在单位半超球面上投影点的密度参数,然后去掉低密度投影点,并从高密度投影点中选取初始聚类中心,最后对剩余投影点进行聚类,根据Davies-Bouldin指标估计源信号个数,并估计出混合矩阵。仿真结果表明,该方法的复杂度低,其运行时间仅为拉普拉斯势函数法的1%~3%;该方法的源信号个数估计正确率远高于鲁棒竞争聚类算法,当信噪比高于13 dB时,该方法源信号个数估计正确率大于96.6%,且混合矩阵估计误差较小。该方法在信噪比较高时,可降低对源信号稀疏度的要求。  相似文献   

12.
针对传统盲分离算法对宽带信号不适用的问题,提出了一种基于阵列接收模型的宽带盲源分离算法。该算法以子带分解的方法实现了瞬时复值盲分离方法在宽带情形下的扩展。针对扩展过程中可能出现的子带间次序模糊及子带内幅度模糊的问题,利用阵列接收情况下分离矩阵与混合矩阵的特点,提出了一种基于波达方向(direction of arrival, DOA)估计的次序调整及幅度去模糊方法。仿真结果表明,该算法不仅能有效地分离宽带信号,而且可准确地恢复出信号幅度。  相似文献   

13.
为提升欠定盲源分离问题中混合矩阵的估计精度,在噪声环境下基于密度的空间聚类(density-based spatial clustering of applications with noise, DBSCAN)算法的基础上,提出一种自适应确定输入参数的DBSCAN算法(adaptive DBSCAN, A-DBSCAN)用于混合矩阵估计。针对DBSCAN算法邻域半径(Eps)及邻域点数(MinPts)依赖人为设定的问题,首先利用曲线拟合方法得出Eps,然后通过分析聚类输出类别数与噪声点数关系确定MinPts,并将其与混合矩阵估计模型相结合,最后通过最短路径算法实现源信号恢复。实验结果表明,提出的算法在估计混合矩阵和恢复源信号时,相关性能与对比算法相较均有明显提升。  相似文献   

14.
为提升欠定盲源分离问题中混合矩阵的估计精度,在噪声环境下基于密度的空间聚类(density-based spatial clustering of applications with noise, DBSCAN)算法的基础上,提出一种自适应确定输入参数的DBSCAN算法(adaptive DBSCAN, A-DBSCAN)用于混合矩阵估计。针对DBSCAN算法邻域半径(Eps)及邻域点数(MinPts)依赖人为设定的问题,首先利用曲线拟合方法得出Eps,然后通过分析聚类输出类别数与噪声点数关系确定MinPts,并将其与混合矩阵估计模型相结合,最后通过最短路径算法实现源信号恢复。实验结果表明,提出的算法在估计混合矩阵和恢复源信号时,相关性能与对比算法相较均有明显提升。  相似文献   

15.
欠定盲源分离混合矩阵的估计可以转化为三阶张量的标准分解问题。为解决现有标准分解算法运算复杂度高、所需时间长的缺点,引入塔克分解先把张量压缩为较低维的核张量,塔克分解因子可通过原张量mode 3矩阵的左奇异向量求得。然后运用交替最小二乘对该核张量进行标准分解,即可得到混合矩阵的估计。仿真结果表明,所提方法不仅可以达到与现有算法同样好的估计精度,而且具有更低的运算复杂度,运算时间较现有算法降低46.44%~76.28%。  相似文献   

16.
基于广义特征值和核函数的非线性盲分离算法   总被引:1,自引:0,他引:1  
在给出了一种基于广义特征值分解的线性混合信号盲分离方法的基础上,结合核特征空间而给出了一种非线性混合信号盲分离算法。该算法首先将混合信号映射到高维核特征空间,同时构造该核特征空间的一组正交基。其次,通过这组正交基将高维核特征空间的信号映射到参数空间,从而把非线性混合信号盲分离问题转化为参数空间的线性混合信号盲分离问题。在参数空间中,应用基于广义特征值分解的线性混合信号盲分离方法对信号进行分离。该算法具有闭解形式,计算简单,收敛精度较高,稳定性好。仿真结果表明该算法是有效的,具有良好的分离性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号