首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对传统小波变换缺乏必要的方向性和Contourlet变换给图像造成空间冗余性的缺点,提出一种基于标准差的图像分块自适应压缩方法.该方法首先将图像分成大小为N?N且互相分离的若干子块;然后计算各子块的标准差,通过各子块标准差确定阈值,根据子块标准差与阈值大小自适应选取小波变换或Contourlet变换;最后在编解码段,通过引入快速排序算法对SPIHT编码LIP列表中的像素值进行递归排序,进一步提升了编码效率.实验结果表明,本文方法融合了小波变换和Contourlet变换的各自优点,在保证重构图像拥有较多纹理信息的同时降低了Contourlet变换产生的空间冗余性,并且使重构图像的峰值信噪比在一定程度上有所提高.  相似文献   

2.
针对传统压缩传感一次性随机测量整幅图像所导致的存储量大、重建时间长等问题,提出了一种新的分块压缩传感重建算法.首先,将图像分割成一系列子块,分别将每个子块的所有列向量首尾连接起来构成原始信号;其次,将该信号经过稀疏变换后投影到观测矩阵上得到对应的观测值,再利用优化方法从这些观测中重建出信号;然后,分类每个重构子块的活动...  相似文献   

3.
为了解决图像重建计算复杂度大的问题,有人提出了分块压缩感知( Block Compressed Sensing),但基于正交匹配追踪(OMP)的图像分块重建会产生明显的块效应.针对这一问题,本文提出了基于欠定系统局灶解法(FocalUnderdetermined System Solution,简称FOCUSS)的图像分块重建,算法首先对图像进行分块,然后用傅里叶变换把图像稀疏化,再用FOCUSS重建分块图像.仿真实验结果表明,基于FOCUSS的图像分块重建不仅降低了图像块效应,而且提高了重建图像质量.  相似文献   

4.
为了克服JPEG2000中低码率压缩图像在边缘处表现出的明显振铃效应严重降低了图像的人眼视觉质量的问题,在迭代凸集投影理论基础上,分析了迭代去噪方法恢复图像变换域稀疏数据的机理,提出了JPEG2000压缩图像重建算法.该算法保持压缩图像在小波域中的非零系数不变,通过迭代去噪恢复其他位置的小波系数.结果表明:提出方法有效地增强了JPEG2000压缩图像沿边缘的正则性,提高了图像的主客观质量,图像峰值信噪比平均提高0.52dB.  相似文献   

5.
针对目前磁感应成像技术(MIT)的图像重建质量存在精度较低的问题,提出了一种基于压缩感知原MIT图像重建方法.将MIT系统电压数据的采集过程视为压缩感知的线性测量过程,通过对灵敏度矩阵进行补零拓展和行向量随机重组操作重新设计了测量矩阵;采集到的电压向量也用相同的方式处理,作为压缩感知的测量信号.然后利用压缩感知信号重构算法恢复原始信号.最后进行了仿真实验,实验结果表明,利用本方法获得的重建图像误差和相关系数比传统图像重建算法要好.由此可见,这是一种精度较高的MIT图像重建方法.  相似文献   

6.
基于多层分块自适应压缩感知的图像编解码方法   总被引:1,自引:0,他引:1  
压缩感知中,测量矩阵对图像进行单一采样率的压缩采样。传统的测量矩阵虽然能够获得比较好的重构效果,但因采样数目较多,故而资源耗费也较多。为了解决上述问题,提出了多层分块自适应编码算法(multi-layered block adaptive coding algorithm,MLBA)以及多层分块自适应压缩感知编解码方法(multi-layered block adaptive compressed sensing codec method,MLBACS)。MLBACS编解码方法基于MLBA编码算法,能够根据图像局部结构进行不同层数和大小的分块,并自适应分配采样率。仿真结果表明,在同等重构性能的前提下,相对于单一采样率下的压缩感知,MLBACS编解码方法能够不同程度地降低重构图像所需的采样数目。  相似文献   

7.
由于一些器官的边界信息在大多数核磁共振图像中都是稀疏的,所以利用压缩感知从数量非常有限的观测数据集合中重构同样的核磁共振图像并且大大减少核磁共振图像的扫描磨损成为可能。然而,为了能够做到这一点,我们必须要解决定义在大量数据集合上的非光滑函数的最小化这一困难问题。为了解决这一问题,我们给出了一个有效算法,它克服以往求解l1问题的计算复杂性,提出β范数近似逼近l1范数的思想,由于β范数具有光滑性,可采用Bregman迭代正则化方法进行求解。数值实验证明,核磁共振图像可以从全部数据的40%抽样中几乎精确重构。  相似文献   

8.
针对SAR图像的压缩感知重建问题,在分块压缩感知框架的基础上,提出了基于视觉显著性的分块自适应压缩感知算法.在采样阶段,每个子块的采样率依据显著信息自适应的变化;在重建阶段,根据不同图像显著信息的差异,自适应地滤波.实验结果表明:该方法不仅重建结果的整体质量更优,视觉效果更好,而且在重建后的图像中能更好地保持边缘和目标等重要特征.  相似文献   

9.
本文将自适应中值滤波和分块思想融入到压缩感知的人脸识别算法中,提出基于自适应中值滤波的分块压缩感知人脸识别算法。实验分别采用原识别方法和改进的识别方法对噪声密度为0.1、0.2、0.3、0.4、0.5的椒盐噪声人脸图像进行识别,结果证明本文提出的人脸识别方法在噪声密度较大时体现出其优越性,识别率比基于压缩感知的人脸识别算法高出2%10%。  相似文献   

10.
运用压缩感知理论对大尺寸图像进行重构耗时较长,观测矩阵要求的存储空间较大,且重构后的图像存在明显的块状效应.根据图像小波变换系数的特点,将图像分块思想与DWT变换相结合,提出了一种改进的基于DWT的图像分块压缩感知算法.将图像子块经DWT变换后,保留图像低频系数,只对高频系数进行观测.重构时采用正交匹配追踪算法(OMP)对高频系数进行恢复.Matlab仿真结果表明,新算法跟基于DCT分块压缩感知算法相比,重构图像的PSNR值提高了2~4 dB,重构时间明显减少,与基于二维离散余弦变换(DCT)的分块压缩感知算法相比,块效应有明显的改善,重构图像质量明显提高.  相似文献   

11.
随着科技的发展,呈爆炸式增长的现代数据给数据的采集、传输和储存产生了巨大的压力和浪费.压缩感知理论(Compressed Sensing,CS)的提出有效缓解了以上压力.本文在介绍CS理论框架的基础上阐述其重构算法的分类和发展,着重介绍了稀疏重建模型和低秩重建模型对应的重建算法及各算法的特点.  相似文献   

12.
基于分块压缩感知的遥感图像多尺度融合   总被引:1,自引:0,他引:1  
由于分块压缩采样缺乏全局特性,导致基于分块压缩感知的常规融合图像质量差、且存在分块效应。首先提出图像在小波变换域的非均匀分块压缩感知(WNBCS),然后对压缩采样结果用局部特征规则融合,再用迭代阈值投影算法重构融合图像和消除分块效应。最终提出基于分块压缩感知的遥感图像多尺度融合方法,并给出算法详细实现流程。仿真结果表明WNBCS改善了图像重构质量和速度。实际资料测试结果表明,局部特征压缩融合比最大值和加权融合结果具有更好的视觉效果和定量分析结果。所提融合方法考虑图像全局特性、简化融合决策过程,便于大数据量遥感图像的压缩融合。  相似文献   

13.
针对传统字典学习算法预处理阶段未考虑图像内外部特征的问题,提出一种基于灰度梯度矩阵的图像熵字典学习算法.该算法通过灰度梯度矩阵计算图像块熵值,并对各图像块进行分类,每类数据组合成训练数据集,再利用基于系数矩阵的奇异值分解算法更新各类子字典.对测试图像的稀疏表示系数进行重建实验,仿真结果表明,该算法可高效训练出自适应稀疏字典,显著提高图像重建精度.   相似文献   

14.
CT图像分块重建算法   总被引:2,自引:0,他引:2  
为加快重建速度,节省资源,提出了CT图像分块重建算法,与一般的整幅重建算法不同,该算法通过恰当地分割投影空间、滤波投影空间、图像空间来实现重建的分块运算,最后拼装成整幅图像,它所占用的资源要比对整幅图像重建所需要的少,分块重建算法适用于多机运算、计算机网络分布运算及投影数据量巨大的高分辨率CT图像重建,并发展成一种局部重建技术,能减少对X射线剂量的要求,从而减少X射线对人体的辐射损害,仿真实验表明,CT图像分块重建算法是可行的和令人满意的。  相似文献   

15.
从含异常振幅噪声的缺失地震道重建问题出发,引入信息论中的最大相关熵准则,构建以最大化相关熵为目标函数的鲁棒地震道重建模型,降低异常振幅噪声在残差度量中的影响;利用最大相关熵的导数构建伪观测数据,并利用迭代阈值算法进行直接求解,进而实现异常振幅噪声干扰下的地震道鲁棒重建。结果表明,欠采样数据中的异常振幅噪声会严重影响传统压缩感知地震信号重建方法的重建精度,而最大相关熵准则可有效抑制噪声对重建过程的影响,可有效提高重建方法的精度及稳定性。  相似文献   

16.
通过将海量的样本集合合理地分为数目比较小的几个子集,并在每个子集上分别作回归或逼近,使得训练SVM所需二次规划问题的维数大大降低。这样大大降低了训练SVM的运算量,同时提高了局部逼近和预测的能力,为SVM在回归或预测中的实时应用创造了条件。  相似文献   

17.
将分块理论与2DPCA方法相结合,研究分块二维主成分分析法(M-2DPCA)在人脸识别中的应用.对人脸图像矩阵进行分块,用形成的子图像矩阵直接构造总体散布矩阵并求解对应的特征向量,利用提取的特征向量对图像进行特征的提取与分析,进行人脸识别.基于Yale人脸数据库的实验显示,在相同训练样本和特征向量条件下,M-2DPCA...  相似文献   

18.
基于分块FLD的图像特征提取方法   总被引:1,自引:0,他引:1  
提出了基于分块Fisher线性鉴别(Fisher's Linear Discriminant,FED)的特征提取方法,先对图像矩阵进行分块,将分块得到的子图像矩阵直接用来构造类内和类间离散度矩阵,然后利用Fisher鉴别函数取极大值时得到的最优投影方向进行图像的特征提取。分块FLD方法是二维FLD方法的推广,该方法可以提取每一单元块的局部特征,在ORL人脸库上的实验结果表明该方法在人脸识别性能方面优于二维FLD方法。  相似文献   

19.
文章将分块理论与2DPCA方法相结合,研究分块二维主成分分析法(M-2DPCA)在人脸识别中的应用。对人脸图像矩阵进行分块,用形成的子图像矩阵直接构造总体散布矩阵并求解对应的特征向量,利用提取的特征向量对图像进行特征的提取与分析,进行人脸识别。基于Yale人脸数据库的实验显示,在相同训练样本和特征向量条件下,M-2DPCA比2DPCA算法具有更高的识别率。结论 M-2DPCA充分利用了图像的协方差信息,在人脸识别方面具有较高的识别率和鲁棒性方面,对进一步研究人脸识别具有重要的意义。  相似文献   

20.
为增加信号重构的可信度和减少重构过程的人为干预,采用贝叶斯压缩感知的方法,将待重构信号赋予先验分布,不仅重构出信号参数,并能同时获得信号参数的置信区间,以此实时调整重构模型使信号恢复达到最佳。基于拉普拉斯分级先验模型的贝叶斯压缩感知算法,对图像进行合理分块,用不同比率对分块图像压缩,并在重构过程进行分级处理,进一步减少运算时间,最终使用相关向量机(RVM)实现了稀疏信号的最大后验概率估计。实验结果表明,通过和传统算法相比较,上述算法使得重构图像质量得到明显提高,并且相比于全局贝叶斯压缩感知算法具有更好的实时性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号