首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 46 毫秒
1.
2.
基于卷积稀疏编码和K-SVD联合字典的稀疏表示   总被引:1,自引:0,他引:1  
针对现有稀疏表示算法存在字典单一、编码冗余的缺点,从人类视觉感知系统层次处理特性出发,依据神经元侧抑制与竞争机理,构建了基于卷积稀疏编码和K 奇异值分解(K-singular value decomposition, K-SVD)的联合字典。在此基础上提出结合卷积匹配追踪和正交匹配追踪算法对图像进行分层稀疏表示。实验结果表明联合字典能够自适应匹配图像中的边缘、斑块、纹理等特征,与单独的卷积字典和K-SVD冗余字典相比,稀疏表示能力更强。  相似文献   

3.
为了提高从宽角合成孔径雷达(synthetic aperture radar, SAR)图像中提取目标后向散射各向异性特性的性能,在宽角SAR字典稀疏表示模型的基础上,提出一种基于高斯字典原子的高精度宽角SAR成像方法。在字典构造上,采用不同中心位置、相同方差的高斯函数。在求解稀疏表示系数上,采用广义最小最大凹惩罚稀疏重构算法求解。最后,根据稀疏表示系数的重构结果以及构造的字典得到目标的后向散射各向异性特性。通过仿真实验和Backhoe数据对算法进行验证,结果表明,该方法能够高精度地提取目标的后向散射各向异性特性。  相似文献   

4.
针对合成孔径雷达(synthetic aperture radar, SAR)图像相干斑抑制问题,提出一种基于聚类字典学习和稀疏表示的SAR图像抑斑方法。本方法以相干斑噪声的非对数加性模型为基础,通过改进相似度测度的K-means聚类和主成分分析方法进行字典学习,克服了相干斑噪声非高斯性带来的影响,形成具有结构性聚类的字典原子;在稀疏分解方面,通过引入方差稳定因子,建立了适用于抑制SAR相干斑噪声的稀疏表示模型,并通过交替迭代算法进行代价方程求解;同时算法还增加了点目标保护措施,避免了对图像点目标“过滤波”。通过卫星、无人机SAR图像的抑斑实验证明,相比经典的SAR图像抑斑方法,所提的方法在抑斑的视觉效果上和客观评价指标上都有较大的提升。  相似文献   

5.
针对多数传统分类算法应用于高光谱分类存在的分类精度较低、光谱信息利用不充分的问题,在基于核函数的联合稀疏表示分类方法的基础上提出了一种基于二级字典的联合稀疏表示的高光谱分类算法。在字典原子前加入待测像元与该原子的引力,以达到更快捷地找到与待测像元相匹配的原子的目的。加入的引力值由万有引力公式改进的适应于高光谱图像的公式计算而来。为了使得稀疏重构后的残差波段中包含的具有一定意义的分类鉴别信息被充分挖掘,本文采用指数平滑公式对残差信息进行再利用。通过在Indian Pine数据集和Salina-A数据集上进行实验,验证了所提算法可以提升分类精度。  相似文献   

6.
在基于稀疏表示的幻觉脸重建过程中,由于冗余的过完备字典会降低稀疏编码的效率和精度,提出用紧的聚类子字典来表示人脸图像的不同结构对象。由高分辨率(high resolution, HR)/低分辨率(low resolution, LR)的人脸图像样本集进行K-均值聚类,为使紧的聚类子字典能够表达图像块的整体特征,对各聚类子集采用主成分分析(principal component analysis, PCA)方法构造字典。得到同构的HR/LR的聚类字典后,对于输入的LR人脸图像块,经自适应选择合适的子字典后,对稀疏编码添加正则化项,采用集中式稀疏编码,以使稀疏表示系数更逼近要重建的HR人脸图像块。由此稀疏表示系数与HR字典的线性组合得到HR人脸图像块,将此图像块与近似结果进行合成,从而得到最终的人脸图像。经仿真实验,并与其他的方法进行比较,实验结果验证了所提方法的有效性。  相似文献   

7.
在双基地机载雷达中,由于地面杂波存在距离依赖性,使得基于距离单元回波数据平均的杂波协方差矩阵估计存在误差,导致空时自适应处理的杂波抑制性能严重下降。基于配准的方法沿杂波空时分布曲线采样,补偿杂波距离依赖性,然而该方法由于采样点过多导致运算量巨大。针对该问题,利用双基地机载雷达杂波散射点的复幅度受收发天线调制,具有稀疏分布的特点,提出了一种基于稀疏采样的杂波谱补偿方法,该方法通过设置采样门限来降低采样点数,减小重构杂波数据的运算量。计算机仿真结果表明,该方法能够有效地降低重构杂波的运算量,减小双基地机载雷达杂波的距离依赖性,提高空时自适应信号处理的杂波抑制性能。  相似文献   

8.
为了提高合成孔径雷达(synthetic aperture radar,SAR)图像中目标变体的识别性能,在鉴别字典学习及联合动态稀疏表示模型的基础上,提出一种基于多信息字典学习及稀疏表示的SAR目标识别方法。在训练阶段,采用鉴别字典学习LC-KSVD方法分别对目标图像域幅度信息及目标频域幅度信息进行字典学习。在测试阶段,结合训练阶段学到的2种信息的字典及测试目标的2种信息,采用联合动态稀疏表示模型求解2种信息下的稀疏表示系数。最后,根据2种信息下的重构误差实现对测试目标的识别。使用MSTAR数据集对算法进行验证,结果表明,新方法相对于现有的方法能够达到更好的识别性能。  相似文献   

9.
针对目前基于稀疏表示模型的图像超分辨率重建方法对于边缘、纹理等细节信息保持能力有限、易产生视觉伪影的问题,提出了基于稀疏表示和多成分字典学习的超分辨率重建算法。在字典训练阶段,所提算法在利用图像形态分量分析方法构造纹理和结构字典的基础上,为了有效地提取低分辨率图像特征细节信息,对图像结构分量采用一阶二阶导数进行特征提取,对纹理分量采用Gabor变换进行特征提取,并使用L1/2范数构造训练字典模型;而在重建阶段,为了消除重建图像块效应及模糊伪影,进一步提高重建图像的质量,采用全局约束和非局部相似性约束相结合的方法对重建高分辨率图像进行优化。实验结果表明,该算法在重建图像主观和客观评价指标方面均有较好的表现。  相似文献   

10.
冗余系统中备件可靠性预测   总被引:1,自引:0,他引:1  
就冗余系统中备件可靠性设计问题给出了两种预测模型,应用以往的评估数据,对模型进行了检验,结果表明这两种模型基本可用.  相似文献   

11.
针对以往提出的稀疏分解算法仅从原子库构造方面或分解方式角度对算法进行各种改进且计算复杂度高的问题,提出了一种诱导性塔式分解算法.该算法首先将原子库逐层划分,得到一个树状层次结构的原子库,然后在迭代过程中利用划分所得树状结构有目的、有导向性地指引信号分解方向,从而一劳永逸地加快了信号分解速度,极大地降低了算法的计算复杂度.实验结果表明,与经典的匹配追踪(matching pursuit,MP)算法相比,本文算法在同等稀疏度且逼近误差接近的情况下,计算量大约降低为MP算法的1/40,计算时间降低为MP算法的1/100左右.仿真实验证明了该算法的有效性.  相似文献   

12.
针对强海杂波背景下微弱动目标信号提取困难、雷达检测性能差的问题,在稀疏表示理论的基础上,提出利用字典学习算法抑制海杂波、重构目标信号。该算法通过K类奇异值分解(K-singular value decomposition,K-SVD)算法学习海杂波和目标的稀疏域主成分特征,得到相应的学习字典,抑制海杂波并对目标信号稀疏重建,解决了以往固定字典与高海况下雷达回波匹配度低、目标信号提取效果差的问题;并通过算法参数的分析和优化,进一步提高了算法性能和工程实用性。基于实测数据的实验结果表明,相比传统检测方法,所提算法能够有效检测高海况下微弱动目标,显著提升检测性能。  相似文献   

13.
为了改善遥感图像超分辨重建(super-resolution reconstruction,SRR)效果,针对以往仅适用于单特征空间的稀疏字典超分辨算法,提出同时适用于两个特征空间的双参数Beta过程联合字典(Beta process joint dictionary,BPJD)遥感图像SRR方法。首先,根据遥感图像退化模型生成训练样本图像,并分别对高、低分辨率图像进行分块和Gibbs采样,生成字典训练样本。然后,依据BPJD,建立连接高、低分辨率遥感图像空间的双参数联合稀疏字典,将字典稀疏系数分解为系数权值和字典原子的乘积,依据字典原子指标训练和更新字典,得到高低分辨率联合字典映射矩阵。最后,进行遥感图像超分辨稀疏重构。实验结果表明:所提方法可自适应地缩小字典尺寸,能以更小尺寸的稀疏字典重建更高质量的超分辨遥感图像,重建结果图像的纹理细节信息更丰富,峰值信噪比和结构相似性度均有提高。  相似文献   

14.
传统的采用全对称多胞体作为参数可行集的系统建模方法,容易因全对称多胞体形状矩阵维数不断增加导致算法的计算复杂度过大。提出一种基于多胞体-椭球双滤波的时变参数系统建模方法,考虑参数时变情况,在与约束带相交迭代的过程中选择体积最小全对称多胞体,变换全对称多胞体形状矩阵后对其降维分解而不是仅仅直接求扩展形状矩阵的行总和,进而降低多胞体空间变换带来的算法保守性。利用奇异值分解重新推导降维后的多胞体形状矩阵,使得多胞体形状矩阵始终保持与参数相同的维数,从而降低系统建模方法的运算复杂度。  相似文献   

15.
本文针对基于核的增量超限学习机(kernel based incremental extreme learning machine,KB-IELM)对非平稳动态系统的时变状态跟踪能力不足的问题,提出一种新型的状态预测方法。通过融合遗忘因子和自适应时变正则化因子构建新的目标函数。通过最小化字典的快速留一交叉验证(fast leave-one-out cross-validation, FLOO-CV)误差,选择具有预定规模的关键节点以构成字典。通过融合遗忘因子,为字典中各关键节点按时间顺序分配不同权重。基于FLOO-CV原则,使用天牛须搜索(beetle antennae search,BAS)算法为不同的非线性区域赋予不同的正则化参数。通过矩阵初等变换和分块求逆,实现核权重向量的在线递推更新。将模型应用于非平稳Mackey-Glass混沌时间序列预测和某型飞机发动机的状态预测。所提算法相比于最新的非平稳在线序列核超限学习机(non-stationary online sequential kernel extreme learning machine,NOS-KELM)和融合自适应正则化因子的在线稀疏核超限学习机(online sparse kernel extreme learning machine with adaptive regulation factor, OSKELM-ARF)两种方法,其训练精度分别提升了66.67%、50.72%、预测精度提升了67.02%、56.34%,最大预测误差减少了67.27%、51.09%,平均相对误差率分别减少了67.18%、59.62%。实验证明所提算法有效提升了在线预测的精度。  相似文献   

16.
本文针对基于核的增量超限学习机(kernel based incremental extreme learning machine,KB-IELM)对非平稳动态系统的时变状态跟踪能力不足的问题,提出一种新型的状态预测方法。通过融合遗忘因子和自适应时变正则化因子构建新的目标函数。通过最小化字典的快速留一交叉验证(fast leave-one-out cross-validation, FLOO-CV)误差,选择具有预定规模的关键节点以构成字典。通过融合遗忘因子,为字典中各关键节点按时间顺序分配不同权重。基于FLOO-CV原则,使用天牛须搜索(beetle antennae search,BAS)算法为不同的非线性区域赋予不同的正则化参数。通过矩阵初等变换和分块求逆,实现核权重向量的在线递推更新。将模型应用于非平稳Mackey-Glass混沌时间序列预测和某型飞机发动机的状态预测。所提算法相比于最新的非平稳在线序列核超限学习机(non-stationary online sequential kernel extreme learning machine,NOS-KELM)和融合自适应正则化因子的在线稀疏核超限学习机(online sparse kernel extreme learning machine with adaptive regulation factor, OSKELM-ARF)两种方法,其训练精度分别提升了66.67%、50.72%、预测精度提升了67.02%、56.34%,最大预测误差减少了67.27%、51.09%,平均相对误差率分别减少了67.18%、59.62%。实验证明所提算法有效提升了在线预测的精度。  相似文献   

17.
在脉冲信道下,针对置信传播(belief propagation, BP)算法对短码长的低密度奇偶校验(low-density parity-check, LDPC)码译码性能差的问题,提出了一种基于深度学习的BP译码方法。首先,根据Tanner图构建两种深度神经网络模型,通过对Tanner图中边的权重重新赋值来提升译码性能。然后,简化信道对数似然比(log-likelihood ratio, LLR)的计算方法,通过模型训练优化近似计算参数,得到对参数γ鲁棒的译码模型。最后,构造鲁棒训练集,训练得到对参数αγ鲁棒的译码模型。仿真结果表明,在高码率时,该方法相对于传统BP译码算法性能显著提升,且在近似计算信道LLR值时,译码性能在不同参数的脉冲信道下均具有鲁棒性。  相似文献   

18.
在脉冲信道下,针对置信传播(belief propagation, BP)算法对短码长的低密度奇偶校验(low-density parity-check, LDPC)码译码性能差的问题,提出了一种基于深度学习的BP译码方法。首先,根据Tanner图构建两种深度神经网络模型,通过对Tanner图中边的权重重新赋值来提升译码性能。然后,简化信道对数似然比(log-likelihood ratio, LLR)的计算方法,通过模型训练优化近似计算参数,得到对参数γ鲁棒的译码模型。最后,构造鲁棒训练集,训练得到对参数αγ鲁棒的译码模型。仿真结果表明,在高码率时,该方法相对于传统BP译码算法性能显著提升,且在近似计算信道LLR值时,译码性能在不同参数的脉冲信道下均具有鲁棒性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号